Está en la página 1de 115

Matemática para Economistas

Juan Francisco Torres Tejerizo


2021

Abstract
El presente documento sera un intento de resumir los contenidos
de la materia ”Matemática para Economistas” de la cátedra Fronti.
En el mismo, se intentará resumir todo lo que se pueda llegar a tomar
en un parcial. A su vez, se asume que ya se conocen los contenidos
dados en las materias Álgebra Lineal y Análisis Matemático II.

Contents
1 Transformación Lineal 4
1.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Diagonalización 14
2.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3 Estática Comparativa 22
3.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

4 Matrices no Negativas 26
4.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

1
5 Formas Cuadráticas Libres 34
5.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

6 Optimización Libre 38
6.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

7 Formas Cuadráticas Restringidas 44


7.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

8 Optimización restringida 45
8.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
8.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

9 Programación no Lineal 50
9.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
9.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

10 Ecuaciones Diferenciales 59
10.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
10.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

11 Sistema de Ecuaciones Diferenciales 67


11.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
11.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

12 Control Óptimo 79
12.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
12.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

13 Ecuaciones en Diferencias 93
13.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
13.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

14 Sistema de Ecuaciones en Diferencias 100


14.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
14.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

2
15 Programación Dinámica 105
15.1 Teorı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
15.2 Practica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

3
1 Transformación Lineal
1.1 Teorı́a
Las transformaciones lineales son las funciones con las que trabajaremos en
Álgebra Lineal. Se trata de funciones entre K-espacios vectoriales que son
compatibles con la estructura (es decir, con la operación y la acción) de estos
espacios.
Una función1 f : V → W se dice que es Transformación Lineal si cumple las
dos siguientes condiciones:

1. f (X + Y ) = f (X) + f (Y ) ∀X, Y ∈ V

2. f (λX) = λf (X) ∀λ ∈ K, ∀X ∈ V

Estas dos condiciones, se pueden resumir en la siguiente:

f (λX + λY ) = λf (X) + λf (Y )

Teorema:
Sea f : V → W una TL2 , xi vectores pertenecientes al Espacio Vectorial V
y αi escalares del cuerpo K, entonces:
n n
!
i
αi f (X i )
X X
f αi X =
i=1 i=1

Lo que quiere decir este teorema, es que todas las TL preservan las combi-
naciones lineales. Se demuestra por inducción completa3
Si n=1:

f (α1 X 1 ) = α1 f (X 1 )
Por propiedad de TL.
Si n=k y n=k+1:
k+1
!
i
X
f αi X =
i=1

1
Esto puede ser tanto matrices, vectores, polinomios, sucesiones, funciones, etc.
2
Léase ”Transformación Lineal”.
3
Este procedimiento demuestra primero que se cumple para n=1 y, posteriormente, se
supone que se cumple para n=k para después demostrar que se cumple para n=k+1.

4
k
!
αi X i + αk+1 X k+1 =
X
f
i=1
k
!
 
αi X i + f αk+1 X k+1 =
X
f
i=1
k
αi f (X i ) + αk+1 f (X k+1 ) ==
X

i=1
k+1
αi f (X i )
X

i=1

Como se puede descomponer y volver a componer los términos, y quedan


iguales, se demuestra entonces el teorema. Esto es una condición suficiente.
Teorema:
Si V y W son espacios vectoriales de dimensión4 finita, entonces toda TL de
V a W tiene una Matriz Asociada. Se demuestra de la siguiente forma:
Sea {V 1 , V 2 , · · · , V n } un conjunto de n vectores que son la base de V y
{W 1 , W 2 , · · · , W m } un conjunto de m vectores que son la base de W. Si Y
-un vector- pertenece a W:
m
βj W j
X
Y =
j=1

En otras palabras, se expresa a Y como una combinación lineal de los ele-


mentos de la base de W, cuya representación es única. Y también:

Y = f (X)

Donde X pertenece a V (Y es la base de X). Entonces:


n
αi V i )
X
Y = f(
i=1

Y como la función es una TL:


n
αi f (V i )
X
Y =
i=1

4
La dimensión es la cantidad de vectores.

5
A su vez, como la función de V pertenece a W:
   
n m n m
∂ij W j  = αi ∂ij W j 
X X X X
Y = αi  
i=1 j=1 i=1 j=1

Como n y m son finitos, las sumatorias se pueden intercambiar:


m n
!
αi ∂ij W j
X X
Y =
j=1 i=1

Comparando con la primera ecuación, nos encontramos que la sumatoria del


paréntesis es igual a βj :
m
X
βj = αi ∂ij
j=1

Entonces, se define a la matriz A como:


· · · ∂n,1
 
∂1,1 ∂2,1
t

 ∂1,2 ∂2,2 · · · ∂n,2 

A = [∂ij ] =  .. .. .. .. 

 . . . .


∂1,m ∂2,m · · · ∂n,m
Por consiguiente:
[Bj ]mx1 = Amxn x[αj ]nx1
donde el vector de los alpha sub j es un vector de coordenadas cuyos elemen-
tos son las coordenadas del vector del dominio respecto a la base V.
Teorema:
Toda matriz de Amxn representa una TL de Rn → Rm . La demostración es
inmediata a partir de las definiciones de la suma y producto de las matrices.
Estos dos teoremas nos dicen que hay una identificación entre una matriz
real y una TL entre espacios euclı́deos. Toda TL entre euclı́deos se puede
representar como una matriz real y viceversa (ya que preservan las combina-
ciones lineales).
Definición:
Si hay dos matrices, A y B, de dimensión mxn, decimos que B es equivalente
a A si y solo si B puede obtenerse efectuando un número finito de operaciones
elementales5 sobre A.
5
Esto seria, permutando dos filas o columnas entre si, sumando una fila o columna a
otra o multiplicando una fila o columna por un escalar no nulo.

6
Teorema:
Las matrices A y B, de mxn, son equivalentes si y solo si existen matrices no
singulares P y Q tales que B=PAQ. La matriz P representa las operaciones
elementales sobre las filas de A, y la Q representa las operaciones elementales
sobre las columnas.
Esto quiere decir, que si en una TL nos cambian alguna base, las matriz
asociada va a cambiar. Pero se mantienen relacionadas entre si:
Sean [V] y [V’] dos bases del mismo dominio y [W] [W’] dos bases del codo-
minio, cada vector X perteneciente a V e Y perteneciente a W, tendrán coor-
denadas Xv , Xv0 , Yw , Yw0 respectivamente asociadas a cada una de las bases.
Para demostrar que las matrices asociadas a una misma TL son equivalentes:
Sean A y B matrices asociadas la TL de una misma función, para dos pares
de bases del domino y codominio, y a su vez P y Q son matrices de paso en
V y W respectivamente. Entonces se definen las siguientes 4 ecuaciones:

X[v] = P X[v0 ]

Y[w] = QY[w0 ]
Y[w] = AX[v]
Y[w0 ] = BX[v0 ]
De las ecuaciones dos y tres concluimos que:

QY[w0 ] = AX[v]

Por la uno que:


QY[w0 ] = AP X[v0 ]
Por la cuatro que:
QBX[v0 ] = AP X[v0 ]
Finalmente:
B = Q−1 AP
Entonces se concluye que B es equivalente a A.
Núcleo e Imagen:
Sea f : V → W una TL:
Se define núcleo de la TL al subconjunto del dominio cuyo elementos tienen
por imagen al vector nulo del codominio.

N (f ) = {X ∈ V : f (X) = 0W }

7
Se define a la imagen de la TL como el subconjunto del codominio cuyos
elementos son alcanzados por la TL.

I(f ) = {Y ∈ W : ∃X ∈ V : f (X) = Y }

Teoremas:
El núcleo de toda TL es un subespacio vectorial del dominio.
La imagen es un subespacio vectorial del codominio.
Si V tiene una dimensión finita:

dim(V ) = dim(N (f )) + dim(I(f ))

Transformaciones Lineales Ortogonales:


Una TL de V → W es ortogonal si para todo v ∈ V , la norma de la función
es igual a la norma del vector:

kf (v)k = kvk

Las propiedades de las TL ortogonales son las siguientes:


1. Se preservan las distancias entre los vectores:

kV 1 − V 2 k = kf (v 1 ) − f (v 2 )k

2. Si los vectores son ortogonales, también lo son las funciones.6

< (v 1 , V 2 ) >=< f (v 1 ), f (v 2 ) >

3. Se presenvan los angulos.

cos < (v 1 , v 2 ) = cos < f (v 1 ), f (v 2 )

4. Existe una TL inversa, cuya matriz asociada es no singular.


5. La función tiene una matriz ortogonal asociada (sus productos interi-
ores7 dan 0 y la norma da 1).
Si la TL es ortogonal, también su matriz asociada. Esto quiere decir que su
inversa es igual a su transpuesta, o que el producto interno de sus vectores
(columnas) da 0 y que su norma es 1.
6
Esto hace referencia al producto interior.
7
Las columnas son los vectores.

8
1.2 Practica
En este apartado, se hará un ejercicio central del tema explicado en la sección
de teorı́a. Los mismos, son ejercicios de la guı́a y se pueden completar con
los apuntes de cada carpeta.
Ejercicio 1:
¿Es la siguiente función una TL?
 
x1 " #
x+y
F  y1  =
 
2x + z
z1

Para resolver el ejercicio, es necesario comprobar las dos propiedades de la


TL. La primera propiedad se demuestra de la siguiente forma:
   
x1 x2
F  y1  + F  y2 
  

z1 z2
Se busca ver si aplicando la función primero y después sumando ambos vec-
tores da el mismo resultado que sumando los dos vectores y después aplicando
la función. Primero veamos la primera forma:
" # " # " #
x1 + y1 x2 + y 2 x1 + y1 + x2 + y2
+ =
2x1 + z1 2x2 + z2 2x1 + z1 + 2x2 + z2

Ahora se verifica primero sumando los vectores y después aplicando la función


(de la otra forma):
     
x1 x2 x1 + x2
F  y1  + F  y2  =  y1 + y2 
    

z1 z2 z1 + z2

Aplicando la función,quedarı́a:
" #
x1 + y1 + x2 + y2
2x1 + z1 + 2x2 + z2

Esto quiere decir, que se cumple la primera condición. Para verificar la


segunda, se hace un procedimiento parecido. Se verifica si es lo mismo mul-
tiplicar el vector por el escalar que aplicar la función y después multiplicar

9
por el escalar:    
x αx
αF  y  = F  αy  =
   

z αz
" # " #
αx + αy x+y

α2x + αz 2x + z
Por lo tanto, se concluye que cumple la segunda condición. En otras palabras,
si es una TL.
Ejercicio 2:
Para la matriz asociada A, de una TL T : R3 → R3 , encontrar una base
para la imagen de T, una base para el núcleo de T y determinar el rango y
la nulidad de T.  
2 0 −1
A =  4 0 −2 
 

0 0 0
Para encontrar la base para la imagen, se expande la matriz A, agregando
una columna de variables y se trata de despejar alguna.
 
2 0 −1 y1
 4 0 −2 y2 
 

0 0 0 y3

En este ejemplo, y3 es 0 y aplicando operaciones elementales (2F1 − F2 en


este caso)se llega a la siguiente matriz:
 
2 0 −1 y1
0 0 0 2y 1 − y2 
 

0 0 0 y3

Se despeja entonces y se concluye (de la segunda fila) que y2 = 2y1 . Por lo


tanto se expresan las variables en función de alguna despejada8 :
     
y1 α 1
 y2  =  2α  = α  2 
     

y3 0 0
8
En este caso, se escribe en función de alpha, que representa la relación entre las
variables. Posteriormente, se saca el escalar afuera.

10
Este último vector numérico, es la base de la imagen.
Para averiguar una base del núcleo, se multiplica la matriz por variables y
se iguala a 0, por definición de núcleo. Se despejan las variables, se escriben
en función de la relación entre estas y nos quemados con el vector numérico.
    
2 0 −1 x1 0
 4 0 −2   x2  =  0 
    

0 0 0 x3 0
De acá, se saca que - según la primera fila -x3 = 2x1 . Sin embargo, x2 va a
quedar expresada en función de otro escalar.
       
x1 α 1 0
 x2  =  β  = α  0  + β  1 
       

x3 2α 2 0
Para encontrar el rango, vemos la dimensión de la imagen (en este caso 1).
Y para ver la nulidad, vemos la dimensión del núcleo (en este caso 2).
Ejercicio 3:
Hallar la Matriz asociada con respecto a las bases canónicas del dominio y
del codominio de la siguiente TL en R2 → R3 . Posteriormente, hallar la
matriz asociada de la misma TL pero con cambio de bases.
 
" # x1 + x2
x1
T =  −x1 

x2

0
Primero, definimos las bases9 . Las de salida (R2 ) van a ser (1; 0) y (0; 1).
Las de llegada (R3 ) van a ser (1, 0, 0), (0, 1, 0) y (0, 0, 1).
Introducimos las bases de salida en la función T y nos da un vector:
T (1; 0) = (1; −1; 0)
T (0; 1) = (1; 0; 0)
Ahora, con estos nuevos vectores, los buscamos expresar como combinación
lineal de las bases de llegada. Esas combinaciones lineales van a estar mul-
tiplicadas (cada termino) por escalares. Nuestro objetivo es encontrar estos
escalares por un sistema de ecuaciones:
(1; −1; 0) = α1 (1; 0; 0) + β1 (0; 1; 0) + ω1 (0; 0; 1)
9
Como te dicen que las del dominio y codomino (salida y llegada) son canónicas, van
a ser un 1 y el resto 0.

11
(1; 0; 0) = α2 (1; 0; 0) + β2 (0; 1; 0) + ω2 (0; 0; 1)
En este caso, es bastante simple. Cada escalar va a ser el número que de la
posición correspondiente (ya que el resto,para todas las posiciones, va a ser
0). La respuesta serı́a:

(1; −1; 0) = 1(1; 0; 0) + (−1)(0; 1; 0) + 0(0; 0; 1)

(1; 0; 0) = 1(1; 0; 0) + 0(0; 1; 0) + 0(0; 0; 1)


Ahora, armamos la matriz con los escalares que obtuvimos y la trasponemos:
 
" #t 1 1
1 −1 0
A= =  −1 0 

1 0 0

0 0

Esta va a ser la Matriz Asociada con bases canónicas de la TL previamente


expresada. Ahora, supongamos que se cambian las bases:
Las bases del dominio van a ser:
(" # " #)
1 −2
;
3 4

Y las bases del codominio van a ser:


     

 1 2 3 

 ; 2 ; 0 
1     
 

1 0 0 

El procedimiento, es el mismo que antes. Metemos las bases del dominio en la


función, nos da un vector de salida y explicamos este como una combinación
lineal de las bases de llegada:

T (1; 3) = (4; −1; 0) = α1 (1; 1; 1) + β1 (2; 2; 0) + ω1 (3; 0; 0)

T (−2; 4) = (2; 2; 0) = α2 (1; 1; 1) + β2 (2; 2; 0) + ω2 (3; 0; 0)


Esto se resuelve planteando un sistema de ecuaciones lineales10 , dando como
resultado:
1 5
   
T (1; 3) = (4; −1; 0) = 0(1; 1; 1) + − (2; 2; 0) + (3; 0; 0)
2 3
10
La resolución esta a cargo del alumno :)

12
¡
T (−2; 4) = (2; 2; 0) = 0(1; 1; 1) + 1(2; 2; 0) + 0(3; 0; 0)
Ahora, armamos la matriz con los escalares que obtuvimos y la trasponemos:
 
0 0
 
 
− 12 1
 
B= 



 
 
5
3
0

Otra forma de hacerlo, seria definiendo las matrices P y Q, ya que A y B


son equivalentes. Posteriormente, se calcuları́a de la siguiente forma: B =
Q−1 AP donde:11 " #
1 −2
Q=
3 4
 
1 2 3
 1 2 0 
P = 

1 0 0
En este caso, las nuevas bases van a ser las matrices de paso P y Q. Sin
embargo, esto solo se da porque las bases viejas son canónicas. En caso de
que las bases viejas no sean canónicas, las bases nuevas se van a encontrar
multiplicando la base vieja por la matriz de paso. En otras palabras,la matriz
de paso (P o Q), va a ser igual a la base vieja por la base nueva.
Ejercicio 4:
¿Es la siguiente matriz asociada de una TL ortogonal?
1
" #
1 √2
A= 3
0 2

Esto se puede hacer viendo si A−1 = At o viendo si la norma de las columnas


es 1 y si su producto interior es 0:
" # " 1 #
1 √2
C1 = ∧ C2 = 3
0 2

kC1 k = 12 + 02 = 1
11
Notese, que P y Q son las nuevas bases de salida y llegada.

13
v
√ !2
u 2
u 1 3
kC2 k = +
t
=1
2 2

1 3
< C1 C2 >= 1 + 0 6= 0
2 2
Se concluye que la matriz asociada, y por lo tanto la TL, no son ortogonal
(su producto interior no es 0).

2 Diagonalización
2.1 Teorı́a
Valores y vectores propios:
Sea (V, +, ∗) un espacio vectorial y una función V → V una TL con matriz
asociada A:
El escalar λ es un valor propio de A ∈ K nxm si y solo si existe un vector no
nulo X ∈ K nx1 tal que:
AX = λX
Al vector X lo llamamos ”vector propio asociado a λ”12 .
Despejando, nos queda un sistema lineal homogéneo tal que:

(A − λI)X = 0

Y como X no puede ser 0 por definición:

det(A − λI) = 0

El desarrollo de este determinante es un polinomio de grado n en (−λ), que


se llama polinomio caracterı́stico de A. Cuando esta igualado a 0, se le llama
ecuación caracterı́stica. Las raı́ces de este, son los valores propios de A y las
soluciones no triviales del sistema, cuando lambda es un valor propio de A,
son los vectores propios asociados a ese valor propio13 .
Teorema:
Los vectores propios asociados a valores propios distintos, son LI. Esto se
12
También se lo llama autovector, vector caracterı́stico o eigevector y al valor propio se
lo llama autovalor, valor caracterı́stico o eigevalor.
13
Chino mandarı́n básico.

14
demuestra por inducción matemática completa:
Sea X i el vector propio asociad al valor propio λi de la matriz A, se cumple
que es LI ya que hay solo un vector (se cumple para n=1). Suponiendo que
se cumple para (n=k-1), demostramos que se cumple para n=k:
k
C 1 xi = 0
X

i=1

Pre-multiplicamos por A.
k
Ci X i = 0
X
A
i=1
k
Ci (AX i ) = 0
X

i=1
k
Ci (λi X i ) = 0
X

i=1

Si a la primera ecuación la pre-multiplicamos por lambda sub k (el ultimo


autovalor):
k
C1 (λk xi ) = 0
X

i=1

Y ahora restamos miembro a miembro las ultimas dos ecuaciones:


k−1
C1 (λi − λk )xi = 0
X

i=1

Como los X i para todo i son LI por hipótesis de inducción:

Ci (λi − λk ) = 0

Y como por definición, los lambdas no pueden ser iguales:

Ci = 0

Otra forma de calcular el Polinomio Caracterı́stico: Sea P (−λ) =


det(Aλ I) el polinomio caracterı́stico de A:

P (−λ) = (−λ)n + α1 (−λ)n−1 + .... + αn−1 (−λ) + αn

Los coeficientes αi son iguales a:

15
• La suma de todos los menores de orden i de A que contienen en su
diagonal principal elementos de la diagonal principal de A.

• La suma de todos los productos posibles de los valores propios λi de A


tomados en i en i.

En otras palabras, α1 es igual a la traza de la matriz o a la suma de los


lambda. El ultimo alpha, es igual al determinante de A o a la multiplicación
de sus lambdas.
También se dice que el determinante de la matriz Λ es igual al determinante
de la matriz A ya que tienen los mismos valores propios.
Teorema: n X
Sea λi de A = [aij ]nxm , F = max(Fi ) con Fi = |aij | y C = max(Cj ) con
j=1
Cj = λni=1 |aij | entonces:
|λi | ≤ min{C; F }
Para demostrarlo, sea lambda un valor propio cualquiera de A, entonces
existe un vector propio X tal que XA = λX. Escribiéndolo como ecuaciones:

λX1 = a11 X1 + a12 X2 + ... + a1n Xn

λX2 = a21 X1 + a22 X2 + ... + a2n Xn


...
λXn = an1 X1 + an2 X2 + ... + ann Xn
Aplicando módulo miembro a miembro y usando la propiedad de desigualdad
triangular:
|λ||X1 | ≤ |a11|| X1 | + |a12|| X2 | + ... + |a1n ||Xn |
|λ||X2 | ≤ |a21 ||X1 | + |a22 ||X2 | + ... + |a2n ||Xn |
...
|λ||Xn | ≤ |an1 ||X1 | + |an2 ||X2 | + ... + |ann ||Xn |
Sumando miembro a miembro las n ecuaciones:
n
X n
X n
X
|λ|(|X1 | + |X2 | + ... + |X3 |) ≤ |ai1 ||X1 | + |ai2 ||X2 | + ... + |ain ||Xn |
i=1 i=1 i=1

16
Reemplazando las sumatorias por C y sacando factor común:

|λ|(|X1 | + |X2 | + ... + |X3 |) ≤ C(|X1 | + |X2 | + ... + |X3 |)

|λ| ≤ C
Para comprobar lo mismo con F, se traspone las ecuaciones y se procede
exactamente igual. Como lambda tiene que ser menos a C y a F se comprueba
el teorema.
Matrices Semejantes:
Dos matrices cuadradas, A y B son semejantes (AB) si y solo si existe una
matriz no singular P tal que:

B = P −1 AP

Todas las matrices semejantes son equivalentes, pero no todas las matrices
equivalentes son semejantes. Algunas propiedades:

• Son transitivas A B y B C, entonces A C

• Sus potencias también son semejantes.

• Las matrices semejantes representan la misma TL. Osea:

– Tienen el mismo polinomio caracterı́stico.


– Tienen los mis autovalores y autovectores.
– Tienen la misma traza, rango y determinante.

Diagonalización de Matrices:
Una matriz Anxn es diagonalizable si y solo si es semejante a una matriz
diagonal A que tiene en la diagonal principal los valores propios de A. Es
decir, si y solo si existe una matriz singular P14 tal que:

Λ = P −1 AP

Teorema:
Una matriz es diagonalizable si y solo si admite n vectores propios LI. La
modal se conforma con los n vectores propios LI, ordenados como vectores
columnas de acuerdo a los valores propios en Λ.
14
Se llama a P ”matriz de paso” o ”modal”.

17
Si los autovalores son repetidos, no son LI. Ahı́, hay que extraer una can-
tidad de vectores LI de esos autovalores repetidos. Y solo ahi, tal ve sea
diagonalizable. Cada autovalor con orden de multiplicidad m debe tener un
autovector LI asociado.
Teorema:
Anxn es diagonalizable si y solo si cada valor propio Xi con orden de multi-
plicidad m le corresponde un sistema A − λI cuyo rango sea n-m.
Se demuestra mediante el producto (A − λi I)X, que es una TL de Rn → Rn .
Los vectores asociados a λi son parte del núcleo de esta TL. Y por el teorema
de rango-nulidad:

n = dim(N (A − λi I)) + dim(Im(A − λi I))

Donde el primer termino es m, entonces el rango de la matriz debe ser n-m.


Diagonalización de una matriz simétrica:
Nos interesa esto en especial ya que tienen algunas propiedades como:
• Sus valores propios son reales

• Sus vectores propios asociados a diferentes valores propios de una ma-


triz simétrica son ortogonales
Este ultimo se demuestra ası́:
A es una matriz simétrica real, con autovalores diferentes y con autovectores
propios asociados tal que:
AX 1 = λ1 X 1
AX 2 = λ2 X 2
Por definición de producto interior:

< AX 1 X 2 >= (AX 1 )t X 2 = (X 1 )t At X 2 = (X 1 )t AX 2 =< X 1 AX 2 >

< AX 1 X 2 >=< X 1 AX 2 >


< λ1 X 1 X 2 >=< X 1 λ2 X 2 >
λ1 < X 1 X 2 >= λ2 < X 1 X 2 >
(λ1 − λ2 ) < X 1 X 2 >= 0
Y como los lambdas son distintos:

< X 1 X 2 >= 0

18
Toda matriz simétrica real, es diagonalizable sobre el campo de los reales con
una matriz de paso ortogonal15 . Y si una matriz real tiene una matriz de
paso ortogonal que la diagonalice, entonces es simétrica.
Demostración:
A = P −1 ΛP
At = (P −1 ΛP )t = P t Λt (P −1 )t =
At = P −1 ΛP
Los autovectores, son ortogonales, pero hay que normalizarlos. Esto serı́a
dividirlos por su norma.

2.2 Apéndice
Se puede calcular los vectores propios de los adjunto: Sean las M Xmxp e
Ypxn tales que XY = 0mxn , entonces:

r(y) ≤ p − r(x)

Cuando λi es raı́z simple de la ecuación caracterı́stica de A, entonces la


adjunta de la matriz (A − λi I) tiene rango 1. Se demuestra por definición de
matriz adjunta:

(A − λi I)(adj(A − λi I)) = det(A − λi I)Inxn

det(A − λi I)Inxn = 0
Si λi tiene orden de multiplicidad 1:

r(A − λi I) = n − 1

Por la propiedad del rango del producto de la matriz:

r(adj(A − λi I)) ≤ n − (n − 1) = 1

Como la adjunta no puede ser 0, el rango si o si tiene que ser 1. En-


tonces,cualquier columna (si se traspuso la matriz previamente) de la adjunta
es un autovector.
15
Sus vectores columna son orto-normales.

19
2.3 Practica
Ejercicio 1:
Hallar los autovectores y autovalores de la siguiente matriz:
" #
4 2
C=
3 3

4−λ 2
|C − λI| =
3 3−λ
(4 − λ)(3 − λ) − 4 = 0
λ2 − 7λ − 6 = 0
λ1 = 6 λ2 = 1
" # " #" # " #
4 − λ1 2 −2 2 X1 0
= =
3 3 − λ1 3 −3 X2 0
De esta ecuación, se saca que X1 = X2 , entonces:
" #
1 1
X =
1

Del mismo modo hacemos para λ2 :


" # " #" # " #
4 − λ2 2 3 2 X1 0
= =
3 3 − λ2 3 2 X2 0

Y de esta ecuación deducimos que 3X1 = −2X2 , por lo que el segundo


autovector será: " #
2 2
X =
−3
Entonces, se concluye que la matriz C es diagonalizable y su respectiva matriz
de paso es: " #
6 0
Λ=
0 1
" #
1 2
P =
1 −3

20
Ejercicio 2:
Hallar los autovectores y autovalores de la siguiente matriz:
 
5 4 2
C= 4 5 2 
 

2 2 2
5−λ 4 2
|C − λI| = 4 5−λ 2
2 2 2−λ
Buscando el determinante de la matriz nos queda que el polinomio carac-
terı́stico es:
−λ2 + 12λ2 − 2λ + 10 = 0
λ1 = 10 λ2 = 1 λ3 = 1
Usando el λ1 , obtenemos el siguiente sistema:
    
−5 4 2 X1 0

 4 −5 2  2  =  0 

X   

2 2 −8 X3 0
Para esto, usamos el método de la matriz adjunta transpuesta16 . Este método
consiste en transponer la matriz |C − λ1 I| y calcular la adjunta. Recordemos
que la adjunta es poner en cada lugar, el determinante de la matriz que queda
si eliminas la fila y columna del mismo lugar:
 
36 36 18
t
Adj((C − λI) ) =  36 36 18 
 

18 18 9
Cualquier columna de esta matriz es valida como autovector.
 
36
X1 = 
 36 

18
Para los siguientes λi repetidos, hacemos el mismo procedimiento.
    
5−λ 4 2 4 4 2 X1 0
|C − λI| = 4 5−λ 2 =  4 4 2   X2  =  0 
    

2 2 2−λ 2 2 1 X3 0
16
Para variar un poco. Si, ası́ de gede soy.

21
Si bien podemos ver 3 ecuaciones, en realidad todas son las mismas propor-
cionalmente. Es por esto que se concluye que 4X1 = −4X2 − 2X3 .
De acá, elegimos valores arbitrarios para X2 y X3 , como por ejemplo 1 y 0 y
averiguamos X1 . Entonces, el autovector restante es:
 
−1
2
X = 1 


0

Para sacar el otro autovector, y asegurarnos que sea LI, asignamos los mismos
valores que antes pero invertidos (en este caso 0 y 1).

− 12
 
3
X = 1 
 

Para siempre poder hacer esto, es recomendable asignar un 1 y el resto 0


para después ”rotarlos” (siempre se va a poder si el rango de la matriz es
igual a n-m).

3 Estática Comparativa
3.1 Teorı́a
En un equilibrio inicial, nos preguntamos como cambia ese equilibrio ante un
cambio en algún parámetro o variable exógena. Se llama estática porque no
estudiamos el podrecimiento de ajuste hacia el nuevo equilibrio, ni cuanto se
tarda en llegar ahı́ o si siquiera es estable. Se trata de encontrar una tasa de
cambia de alguna variable endógena frente a alguna variable exógena (usando
las derivadas parciales).
Hay veces que tenemos un sistema de ecuaciones escritas de forma implı́cita.
Es por esto que se usa el Teorema de la Función Implı́cita:
Dado un sistema de ecuaciones en forma implı́cita (1):

F 1 (Y1 ; Y2 ; ...; Yn ; X1 ; X2 ; ...; Xm ) = 0

F 2 (Y1 ; Y2 ; ...; Yn ; X1 ; X2 ; ...; Xm ) = 0


...

22
F n (Y1 ; Y2 ; ...; Yn ; X1 ; X2 ; ...; Xm ) = 0
Si todas las funciones F 1 , F 2 , ..., F n tienen derivadas parciales continuas
respecto a las n+m variables (Y1 ; Y2 ; ...; Yn ; X1 ; X2 ; ...; Xm ) en un entorno
0
(Y10 , Y20 ; ...Yn0 ; X10 ; X20 ; ...; Xm ) en el cual se satisface (1) y el jacobiano de las
i
F respecto a Yi es no nulo en el punto:
∂F 1 ∂F 1 ∂F 1
∂Y1 ∂Y2
... ∂Yn
∂F 2 ∂F 2 ∂F 2
...
|J| = ∂Y1 ∂Y2 ∂Yn 6= 0
... ... ... ...
∂F n ∂F n ∂F n
∂Y1 ∂Y2
... ∂Yn

Entonces existirá un conjunto de funciones Yi = Yi (X1 ; X2 ; ...; Xm ) que en


el entorno del punto tiene valor únicos, son continuas, tienen sus derivadas
parciales continuas y son los únicos valores que satisfacen (1).
Es condición suficiente para escribir a las variables endógenas como función
de las variables exógenas en el entorno. Entonces:
F 1 (Y1 (X1 ; X2 ; ...; Xm ), Y2 (X1 ; X2 ; ...; Xm ); ...; Yn (X1 ; X2 ; ...; Xm )) = 0
F 2 (Y1 (X1 ; X2 ; ...; Xm ), Y2 (X1 ; X2 ; ...; Xm ); ...; Yn (X1 ; X2 ; ...; Xm )) = 0
...
n
F (Y1 (X1 ; X2 ; ...; Xm ), Y2 (X1 ; X2 ; ...; Xm ); ...; Yn (X1 ; X2 ; ...; Xm )) = 0
Diferenciando totalmente (usando la regla de la cadena) este sistema respecto
a alguna variable exógena cuyo impacto queremos estudiar (como X1 ):
∂F 1 ∂Y1 ∂F 1 ∂Y2 ∂F 1 ∂Yn ∂F 1
( )+ ( ) + ... + ( ) + =0
∂Y 1 ∂X1 ∂Y 2 ∂X1 ∂Y n ∂X1 ∂X1
∂F 2 ∂Y1 ∂F 2 ∂Y2 ∂F 2 ∂Yn ∂F 2
( )+ ( ) + ... + ( ) + =0
∂Y 1 ∂X1 ∂Y 2 ∂X1 ∂Y n ∂X1 ∂X1
...
∂F n ∂Y1 ∂F n ∂Y2 ∂F n ∂Yn ∂F n
( ) + ( ) + ... + ( ) + =0
∂Y 1 ∂X1 ∂Y 2 ∂X1 ∂Y n ∂X1 ∂X1
Escribiéndolo como forma matricial:
 ∂F 1 ∂F 1 1   ∂Y
... ∂F ∂F1
  
∂Y1 ∂Y2 ∂Yn ∂X1
1
− ∂X1
 ∂F 2 ∂F 2 2   ∂Y2 
... ∂F  − ∂F2 
 
  
 ∂Y1 ∂Y2 ∂Yn   ∂X1  =  ∂X1 
  ... 
 ... 
 ... ... ... ... 
  
 
∂F n ∂F n ∂F n ∂Y ∂Fn
∂Y ∂Y
... ∂Y n
∂X1
− ∂X1
1 2 n

Este es un sistema lineal de n ecuaciones con n incógnitas (la matriz columna).


La solución mas fácil es mediante Cramer.

23
3.2 Practica
Ejercicio 8:

M0 − p1 X1∗ − p2 x∗2 = 0


 (1)
αx∗α−1
1 x ∗1−α
2 − λ∗
− p 1 = 0 (2)
∗−α
(1 − α)x∗α −


1 x 2 λp 2 = 0 (3)
Este ejercicio consiste en dos partes. Primero, nos pide plantear el sistema
matricial para ver como reaccionan las variables exógenas ante un cambio
en alguna variable endógena. Posteriormente, nos pide plantear un cambio
especifico, como varia X1∗ ante un cambio en P1 .
Para plantear el sistema matricial, primero tenemos que averiguar que vari-
ables son endógenas y cuales exógenas. Las endógenas son las variables que
el modelo trata de explicar. Cuando tienen un asterisco arriba, simbolizan
que están en equilibrio. En este caso, las endógenas son {X1 ; X2 ; α}. Por lo
tanto, las variables exógenas son {M0 ; P1 ; P2 }17 .
El sistema matricial se va a componer de 3 partes. La primera, una matriz
grande que vamos a llamar Jacobiano. La segunda es un vector de incógnitas.
Y finalmente, el vector de términos independientes. Voy a dar una manera
general de como armar las matrices, siempre respetando el orden. La expli-
cación de porque es ası́, esta dada en la teorı́a pero acá buscamos una forma
practica.
Jacobiano: Esta es la matriz mas grande. En la fila 1 (linea horizontal18 ) va-
mos a poner las derivadas de la función 1, respecto a las variables endógenas.
En la fila 2, las derivadas de la función 2 respecto a las variables endógenas.
En la fila 3, las de la función 3 respecto a las variables endógenas. Y ası́.
Hay que tener mucho cuidado con donde ponemos las variables endógenas.
Si, por ejemplo, ponemos a la variable endógena 1 como primer elemento de
la matriz, va a ser el primer elemento de cada fila. Es decir, cada variable
endógena (la cual, en realidad va a ser una derivada de una función respecto
esta variable) va a estar ocupando la misma columna siempre.
Vector de incógnitas: En este vector columna, vamos a poner las derivadas
de las variables endógenas respecto a las exógenas o parámetros. Lo que es-
tamos buscando básicamente. Si te pide ver como cambia (por ejemplo)
lambda cuando cambia la cantidad de dinero, vamos a poner todas las vari-
ables endógenas respecto a la cantidad de dinero. Acá entra en juego el orden
17
Y alpha es un parámetro.
18
Aclaro por las dudas porque nunca viene mal recordarlo.

24
de como lo pusimos en el Jacobiano. Si en la primera columna derivamos
respecto a la variable ”K”, el primer elemento del vector de incógnitas va a
ser la derivada de ”K” respecto a la variable que queremos estudiar. Notese,
que esto es lo que estamos buscando. Lógicamente solo vamos a encontrar
estas derivadas cuando resolvamos el ejercicio, no antes.
Vector de términos independientes: En esta ultima parte de la matriz,
hay que tener en consideración que todos los signos van a estar cambiados.
Va a haber un menos que cambie el signo de las derivadas. Acá, vamos a
derivar las funciones (en el orden expresado antes, osea la 1 en la primera
posición, la 2 en la segunda posición y ası́) con respecto a la variable que
queremos estudiar.
Todo esto expresado en un sistema matricial quedarı́a como:
∂F 1 ∂F 1 ∂F 1 1
   
∂λ ∂F
− ∂M

 ∂λ ∂X1 ∂X2  ∂M0  0 
    
    
 ∂F 2 ∂F 2 ∂F 2   ∂X1  ∂F 2
= − ∂M
  
 ∂λ ∂X1 ∂X2
  ∂M0  
    0 
    
    
∂F 3 ∂F 3 ∂F 3 ∂X2 ∂F 3
∂λ ∂X1 ∂X2 ∂M0 − ∂M 0

Se puede observar como podemos resolver fácilmente el Jacobiano y el vector


de términos independientes. Resolviendo el sistema por Cramer, obtenemos
el resultado deseado. Si, como en el punto B, nos pide estudiar en base a
otra variable/parámetro, no hace falta nada mas que cambias M0 por esta
nueva variable/parámetro19 .
Ejercicio 3:
Me interesa explicar puntualmente este ejercicio, ya que tiene una resolución
diferente al anterior. En este, encontramos 3 ecuaciones que se pueden es-
cribir como una. Para esto, involucramos el teorema de la función implı́cita.
Pero vamos por lo primero:


 Qa = Qb (1)
Qa = A(I; G0 ) (2)


Qb = B(I) (3)
∂A ∂A ∂B
∂I
<0 ∂G0
>0 ∂I
>0
19
El ejercicio resulto esta a cargo del alumno. Es tan solo encontrar las derivadas de la
matriz y realizar Cramer.

25
Por lo tanto, si lo expresamos en una sola ecuación:

A(I; G0 ) − B(I) = 0

Para verificar que se cumple el teorema de la función implı́cita, suponemos


que todas las derivadas son clase C 1 (derivables y continuas). Asu vez, veri-
ficamos que se defina una función;
∂F
6= 0
∂I
∂F
<0
∂I
En este caso estamos buscando con respecto a la inversión para después
buscar, como pide el ejercicio, la derivada de la inversión con respecto al
G0 . Si se recuerdan algunos tópicos de análisis 2, recordamos que cuando
queremos buscar una derivada implı́cita de Z con respecto a X (donde z define
implı́citamente una función), nos quedarı́a:
Fx0
Zx0 = −
Fz0
Por lo tanto:
∂F
∂I
= − ∂G 0
∂F > 0
∂G0 ∂I

4 Matrices no Negativas
4.1 Teorı́a
Una matriz A es no negativa si y solo si todos sus elementos son no nega-
tivos. Esto es A ≥ 0.
Una matriz A es positiva si y solo si todos sus elementos son mayores que
0. Esto es A > 0.
Una matriz A es reducible o descomponible si y solo si es posible, medi-
ante el intercambio simultaneo de filas y columnas,reducirla a la forma20 :
" #
0 A11 A12
A =
0 A22
20
De caso que no se pueda, será irreducible o no descomponible.

26
Donde A11 y A22 son sub-matrices cuadradas y 0 es una sub-matriz nula.
El pasaje de A a A0 se realiza pre-multiplicando A por una matriz de per-
mutación (de 1 y 0, entonces ortogonal por definición) y pos-multiplicando
por su transpuesta.
Se llaman reducibles porque si consideramos un sistema AX = C donde A
es reducible: " #" # " #
A11 A12 X1 C1
=
0 A22 X2 C2
El subsistema A22 X2 = C2 se puede resolver de forma independiente del
resto. Adicionalmente, A y A’ son matrices semejantes.
Una matriz cuadrada A es reducible o descomponible si y solo si el conjunto
formado por los números enteros de1a n, o sea N={1,2,···,n} puede separarse
en dos subconjuntos no vacı́os I y J tales que:

• N = I ∪ J; I ∩ J = ∅

• aij = 0 para i ∈ I; j ∈ J

Una matriz cuadrada A es primitiva o regular si y solo si todos los elementos


de una potencia de A son positivos. Es decir, Ah > 0 para algún h. Se vuelven
positivas después de elevarlas a algún h. Las matrices que son reducibles, no
pueden ser primitivas por la sub-matriz de 0. Toda matriz positiva, es una
primitiva y también irreducible. Toda matriz primitiva, es irreducible. Pero
no viceversa.
Teorema de Perrón:
Si A es primitiva entonces tiene un valor propio positivo r tal que es raı́z
simple de la ecuación caracterı́stica y excede en módulo a los demás valores
propios. A este valor propio r le corresponde un vector propio positivo
1° Teorema de Frobenius:
Si A es no negativa e irreducible entonces tiene un valor propio positivo r tal
que es raı́z simple de la ecuación caracterı́stica y no es superada en módulo
por los demás valores propios. A este valor propio r le corresponde un vector
propio positivo.
2° Teorema de Frobenius:
Si A es no negativa entonces tiene un valor propio no negativo r que no es
superado en módulo por los demás valores propios. A este valor propio r le
corresponde un vector propio no negativo.
Resumiendo:

27
Teorema Aplica a r∗ |r∗ | X∗
Perrón Primitivas Simple, real y positiva |r∗ | > |r| x∗ > 0
1 F. Irreducibles y no negativas Simple, real y positiva |r∗ | ≥ |r| x∗ > 0
2 F. No Negativas Real y no negativa |r∗ | ≥ |r| X∗ ≥ 0

Matrices Estocásticas:
Un vector estocástico es un vector fila 21 p = (p1 ; p2 ; ...; pn ) tal que pi ≥ 0
para todo i y la suma de sus componentes es igual a uno.
Una matriz estocástica es una matriz cuadrada P, cuando todas sus fi-
las son vectores estocásticos. Esta matriz P, es a su vez no negativa.Una
propiedad es que si A y B son dos matrices estocásticas, entonces su pro-
ducto es también una matriz estocástica.
Teorema:
Si P es una matriz estocástica, entonces su raı́z maximal es igual a 1. Se
demuestra mediante el segundo teorema de Frobenius. Si llamamos r a la
raı́z maximal y w al vector propio asociado, por definición de vector propio:

rw = wP

Escrito de forma matricial:

rw1 = p11 w1 + p21 w2 + ... + pn1 wn

rw2 = p12 w1 + p22 w2 + ... + pn2 wn


...
rwn = p1n w1 + p2n w2 + ... + pnn wn
Si sumamos miembro a miembro:

r(w1 +w2 +...+wn ) = (p11 + p12 + ... + p1n ) w1 +(p21 + p22 + ... + p2n ) w2 +...
| {z } | {z }
=1 =1

+ (pn1 + pn2 + ... + pnn ) wn


| {z }
=1

21
Cuidado! Esto cambia. Hasta ahora trabajamos con vectores columnas pero en este
apartado no.

28
Como w es no negativo, la suma de sus componentes es estrictamente mayor
a 0, entonces r es igual a 1.
Como conclusión, se puede sacar que si la raı́z maximal es 1, el resto de las
raı́ces tienen un modulo menor a 1.
Un Vector Estocástico Fijo de una matriz estocástica P es un vector
estocástico w que cumple:
wP = w
Este vector estocástico fijo es el vector propio estocástico asociado a la raı́z
maximal (que por el teorema anterior es 1). Toda matriz estocástica tiene al
menos un vector estocástico fijo22 (no es único porque el segundo teorema de
Frobenius no nos asegura que la raı́z sea única). Cuidado! Acá, a diferencia
de como lo calculábamos antes, el vector propio esta pre-multiplicando a la
matriz y es una fila.
Cadenas de Markov:
Las matrices estocásticas se usan para representar cadenas de Markov fini-
tas.Una cadena de Markov es un proceso estocástico en el cual la probabili-
dad de una prueba solo depende del resultado de la prueba precedente. Para
armar la matriz de Markov, usamos la siguiente notación:
• Filas: son los estados actuales.

• Columnas: son los estados siguientes.


Esta matriz, es la matriz de transición de un estado a otro (ya que muestra
probabilidades). Si queremos pasar de un estado a otro:

u0 P = u1

u2 = u1 P = u0 P 2
Generalizando:
un = u0 P n
Se dice que este es un proceso homogéneo si las probabilidades permanecen
constantes en el tiempo (no se cambia la matriz P).
Teorema:
Sea P una matriz estocástica primitiva o regular:

lim uP n = W
n→∞

22
Como observación, este vector fijo representa el equilibrio.

29
Donde la matriz W es una matriz que tiene en cada una de sus filas, el vector
estocástico fijo w (y este es positivo).
De acá se desprende que si u es un vector estocástico cualquiera:

lim uP n = w
n→∞

Y se demuestra ası́:
lim uP n = uW = w
n→∞

Se dice que un estado de una Cadena de Markov es absorbente si y solo si a


probabilidad de permanecer en él es 1. Si tiene mas de un estado absorbente,
nos interesa ver cual es mas probable. Para esto, la reducimos23 a la siguiente
forma: " #
Q R
P =
o I
Donde Q es la sub-matriz que representa la probabilidad de transición de
estados no absorbentes a otros estados no absorbentes y R es la sub-matriz
que representa la probabilidad de transición de estados no absorbentes a
estados absorbentes. A su vez, I es la identidad y 0 es una matriz nula. Para
saber cual es mas probable, usamos el teorema:

B = (I − Q)−1 R

Donde la matriz B contiene las probabilidades que el estado sea absorbido


en sj si se encuentra en si .
Demostración: Primero comprobamos que existe la inversa:

X(I − Q) = 0

XQ = X
Si iteramos n veces:
XQn = X
Como los elementos de Q son menores a 1, si aplicamos el limite tiende a 0,
osea:
lim XQn = 0
n→∞

x=0
23
Toda matriz estocástica tiene una reducible asociada.

30
Por lo tanto:
(I − Q)−1 ∃
Las probabilidades de pasar de un estado no absorbente a uno absorbente
están dadas por R.Las probabilidades de pasar de un estado no absorbente a
uno no absorbente, y luego a uno absorbente están dadas por QR.Las prob-
abilidades de permanecer en estados no absorbentes durante dos perı́odos
y luego pasar a uno absorbente está dada por Q2 R.Las probabilidades de
permanecer tres perı́odos en estados no absorbentes y luego terminar en
uno absorbente están dadas por Q3 R. Y ası́ sucesivamente... Entonces la
matriz de probabilidades de transicionar de un estado no absorbente a uno
absorbente en el largo plazo es:
n
Qi R = (I − Q)−1
X
lim
n→∞
i=0

4.2 Practica
Ejercicio 11:
Dada la siguiente matriz estocástica de transición, que representa la movili-
dad social, clasificarla, averiguar cual es la probabilidad de que un individuo
termine en la clase media al cabo de dos periodos si ahora se encuentra en la
clase baja y suponiendo una distribución actual de clase baja de 0,35, media
de 0,45 y alta de 0,2, averiguar la distribución en t=2.
 
0, 6 0, 35 0, 05
P =  0, 36 0, 5 0, 14 
 

0, 05 0, 4 0, 55

Para empezar, podemos ver que todos sus elementos tienen signo positivo.
Es por esto que se clasifica como regular/primitiva. A su vez, vemos que
todos sus estados están conectados, por lo que es irreducible.
Para averiguar cual es la probabilidad que alguien de clase baja termine en la
clase media después de dos periodos, construimos el vector de estado actual
y lo multiplicamos por la matriz elevada al cuadrado (cantidad de periodos
que queremos actualizar). Esto quedarı́a como:
 2
h 0, 6 0, 35 0, 05
i
1 0 0 
 0, 36 0, 5 0, 14 

0, 05 0, 4 0, 55

31
El vector de estado actual es definido de esta forma, ya que el hay una certeza
que el individuo se encuentra en la clase baja y no en las demás. Resolviendo:
  
h i 0, 6 0, 35 0, 05 0, 6 0, 35 0, 05
1 0 0  0, 36 0, 5 0, 14   0, 36 0, 5 0, 14 
 
=
0, 05 0, 4 0, 55 0, 05 0, 4 0, 55
 
h 0, 6 0, 35 0, 05
i h i
0, 6 0, 35 0, 05  0, 36 0, 5 0, 14 

 = 0, 4885 0, 405 0, 1605
0, 05 0, 4 0, 55
Entonces se concluye que la probabilidad que el individuo se encuentre, de-
spués de dos periodos, en la clase media es de 0,405.
Para la parte final de ejercicio, el enunciado nos da implı́citamente un vector
de situación actual. Este es la distribución de la población:
h i
0, 35 0, 45 0, 2

Para resolver, lo hacemos como el inciso anterior.


  
h 0, 6 0, 35 0, 05
i 0, 6 0, 35 0, 05
 0, 36 0, 5 0, 14   0, 36 0, 5 0, 14  =
0, 35 0, 45 0, 2   

0, 05 0, 4 0, 55 0, 05 0, 4 0, 55
h i
0, 392 0, 424 0, 184
Ejemplo borracho yendo al bar:
”Un borracho camina desde su casa al bar que queda a 4 cuadras. Si está en
las esquinas de las cuadras 1, 2o 3 camina hacia la izquierda o derecha con
igual probabilidad. Mientras que si está en su casa o en el bar se queda ahı́.”
Como sabemos que si esta en su casa o en el bar, se queda ahı́, se definen
estos dos estados como absorbentes. Esto significará que su probabilidad va a
ser 1. Si queremos armar la matriz de probabilidad, vamos a posicionarnos en
una fila y si vamos a la izquierda o derecha, las celdas de los lados van a tener
igual de probabilidad (0,5). Notese, que la diagonal principal, a excepción de
los extremos, van a ser 0 ya que no existe la probabilidad que se mantenga
en esa cuadra. Finalmente, también va a ser 0 la probabilidad de pasar de
la cuadra 2 a la 4 sin pasar por la 3 (por ejemplo). Entonces si armamos la

32
matriz P quedarı́a:
 
1 0 0 0 0
0, 5 0 0, 5 0 0
 
 
 
P = 
 0 0, 5 0 0, 5 0 


 0 0 0, 5 0 0, 5 

0 0 0 0 1

Si queremos calcular los vectores fijos con raı́z maximal (λi = 1), nos vamos
a encontrar dos autovectores asociados a esta raı́z:
h i
1 0 0 0 0

Y h i
0 0 0 0 1
Esto tiene sentido, ya que el equilibrio a largo plazo se va a encontrar en los
estados absorbentes. Sin embargo, nos interesa saber cual de los dos va a ser
mas probable. Para esto, usamos el ultimo teorema de la teorı́a:

B = (I − Q)−1 R

Si queremos reducir la matriz, obtenemos que:


 
0 0, 5 0 0, 5 0
0, 5 0 0, 5 0 0
 
 
P0 =
 

 0 0, 5 0 0 0, 5 


 0 0 0 1 0 

0 0 0 0 1

Aplicando la formula;  
0, 75 0, 25
B =  0, 5 0, 5 


0, 25 0, 75
Para interpretar esto, es útil razonarlo como cuando armamos la matriz P.
Las filas son los estados actuales y las columnas son los estados finales (los
absorbentes en este caso). Entonces si estamos en la fila 1 y la columna 2, es
lo mismo que preguntarnos, ¿cuál es la probabilidad de estando en la calle 1
de terminar en el bar? Del mismo modo, si queremos verla probabilidad de
estando en la calle 2 de terminar en la casa, podemos ver el elemento a21 .

33
5 Formas Cuadráticas Libres
5.1 Teorı́a
Una forma cuadrática es una expresión polinómica homogénea de grado dos.
Es decir,una expresión del tipo:
n X
n
aij Xi Xj = X t AX
X
F (X) =
i=1 j=1

Donde A es una matriz asociada a la forma cuadrática. La última expresión


se verı́a de la siguiente forma:
X1
 
h i  X2 
X1 X2 ... Xn A
 
...

 
Xn
Esta matriz A, siempre puede hacerse simétrica (aunque no tiene porque
serlo).
Dependiendo de los valores que tome la forma homogénea cuadrática, se
define su signo:
• Es definida positiva si y solo si F (X) > 0 para todo X 6= 0.
• Es definida negativa si y solo si F (X) < 0 para todo X 6= 0.
• Es semi-definida positiva si y solo si F (X) ≥ 0 para todo X 6= 0.
• Es semi-definida negativa si y solo si F (X) ≤ 0 para todo X 6= 0.
• Es indefinida si y solo si F (X) < 0 para algún X 6= 0 pero F (X > 0)
para algún X 6= 0.
Se puede ver como la matriz simétrica A asociada a la forma cuadrática F(X)
tiene el mismo signo que F.
Sea F (X) = X t AX una forma cuadrática y sea Q una matriz ortogonal con-
formada por los vectores propios de A dispuestos en columnas24 . Efectuando
un cambio de variables tal que X = QY :

F = (QY )t A(QY ) = Qt Y t AQY = Y t Q−1 AQY =


24
Es ortogonal porque A es simétrica.

34
n
Y t ΛY = Xi Yi2
X

i=1

Donde los λi son los valores propios de A. Escrita la forma cuadrática de


esta manera, se observa que si todos los valores de A son positivos entonces
el único Y para el cual F se anula es Y=0. Por lo tanto, se concluye:

• Si todos los λi > 0 es definida positiva.

• Si todos los λi < 0 es definida negativa.

• Si todos los λi > 0 excepto algunos λi = 0 es semi-definida positiva.

• Si todos los λi < 0 excepto algunos λi = 0 es semi-definida negativa.

• Si algunos λi > 0 y otros λi < 0, es indefinida.

Otra forma de evaluar el signo, es evaluando los menores principales dom-


inantes de A (teorema de Sylvester ).
Una forma cuadrática F = X T AX es definida positiva si y solo si todos los
menores principales dominantes25 de A son positivos, es decir:

|Ai | > 0

Para demostrarlo, primero demostramos la necesariedad (esto es, que si es


definida positiva entonces todos sus menores principales dominantes son may-
ores que 0):
Si F (X) > 0 entonces λi >0 y como:
n
Y
|A| = λi
i=1

Entonces el determinante de A, es necesariamente mayor a 0.


Además, si elegimos el vector X en el sub-espacio vectorial Si = {(X1 ; X2 ; ...; Xn ; 0; 0; ...; 0)}
tenemos que F (X > 0) para por todo X perteneciente al sub-espacio. Pero
F(X) con X en el sub-espacio es la forma cuadrática asociada a Ai , entonces
el menor principal |Ai | > 0 y esto es valido para todo i.
Para demostrar la suficiencia (que si todos los menores principales domi-
nantes son positivos, entonces F (X) > 0), lo hacemos por inducción matemática
25
Esto es, el determinante del primer componente (a11 ), después el determinante que se
forma de la matriz 2x2 incluyendo el primer componente, y ası́ sucesivamente.

35
completa:
Para n = 1 es trivial:

|A1 | = a11 > 0 → F1 = a11 X12

Suponiendo que se cumple para n = K − 1, si |Ak | > 0, entonces Ak no


tendrı́a autovalores nulos, y si tuviese negativo tendrı́an que ser por lo menos
dos (los llamaremos λi y λj ). Si V i es tal Ak V i = λi V i entonces:

(V i )t Ak V i = λi < V{zo V i >}


|
<0

Con lo cual, en el subespacio de dimensión dos generados por los vectores V i


y V j , se da que Fk < 0.
Por otra parte, en el sub-espacio Vk−1 = {X ∈ Vk |Xk = 0} cuya dimensión es
K-1, la forma cuadrática F(X) es definida positiva por hipótesis de inducción
pero la intersección entre Vk−1 y el subespacio generado por V i y V j es no
vacı́a, se llega a una contradicción26 . Este absurdo sale de suponer que existen
autovalores negativos.
Teorema:27
Sea F (X) = X t AX una forma cuadrática homogénea, es definida negativa
si y solo si la matriz A verifica que para todo i:

(−1)i |Ai | > 0

La demostración es inmediata a partir de que F (X) = X t AX es definida neg-


ativa si y solo si F (X) = X t (−A)X es definida positiva y que por propiedad
de determinantes se verifica que para todo i:

| − Ai | = (−1)i |Ai |

Teorema:28
Si la forma cuadrática homogénea es semi-definida, la matriz A tiene deter-
minante 0. Notese que no todas las matrices que tengan determinante 0 van
a ser semi-definidas.
Teorema:29
26
No puede ser definida positiva y negativa al mismo tiempo.
27
Condición necesaria y suficiente.
28
Condición necesaria pero no suficiente.
29
Condición suficiente pero no necesaria.

36
Si la matriz simétrica A, verifica que |Ai | > 0 para todo i, y |A| = 0 entonces
F(X) es semi-definida positiva.
Teorema:30
Si la matriz simétrica A, verifica que |A1 | < 0 alternando, y |A| = 0 entonces
F(X) es semi-definida negativa.
Teorema:31
Sea |Âk | el determinante de orden K que pueda obtenerse permutando filas
y sus correspondientes columnas de cada uno de los menores principales de
orden K de A. La forma cuadrática homogénea es:
• Semi-definida positiva si y solo si |Âk | ≥ 0 para todo K y |A| = 0
• Semi-definida negativa si y solo si (−1)k |Âk | ≥ 0 para todo K y
|A| = 0

5.2 Practica
Si bien no hay mucha practica de este tema (ya que se usa para optimización
libre mas que nada), esta bueno ver algunas cuestiones. La primera, como
armar la matriz A. Veamoslo con un ejemplo: Ejercicio 1:32
Sea F (·) = x2 + 2xy − yw − 7w2 se define F (X) = X t AX como:
  
h i 1 1 0 X
X Y W  1

0 −(1/2) 
 Y 
 

0 −(1/2) −7 W
Todo muy lindo, pero ¿por qué es ası́ la matriz A? Esta es la forma simétrica.
Si se quiere razonar, la diagonal principal son los coeficientes que acompañan
a las variables elevadas al cuadrado. Los restantes componentes, son los
coeficientes que acompañan a los otros productos de variables. Si lo queremos
generalizar, vemos que cada producto tiene dos posiciones en la matriz. Es
por esto, que la suma de ambos iguales, tiene que dar como resultado el
coeficiente. Es por esto, que otro modo de escribir la matriz A (de forma no
simétrica) podrı́a ser:
  
h i 1 0 0 X
X Y W  2 0

0  Y 


0 −1 −7 W
30
Condición suficiente pero no necesaria.
31
Condición necesaria y suficiente.
32
No de la guı́a.

37
Generalizando:
X12 X1 ∗ X2 ... X1 ∗ Xn
 

 X 2 ∗ X 1 X22 ... X2 ∗ Xn 

 .. 
... ... ... .
 
 
Xn ∗ X1 Xn ∗ X2 ... Xn2
Ejercicio 2:
Dada la siguiente matriz asociada a una forma cuadrática, clasificar la forma
2
de la misma sabiendo que 0 < a < bc :
" #
a b
b c

Para realizar este ejercicio, nos detenemos en los menores principales domi-
nantes. El primero:
|A1 | = a
Y sabiendo que -por consigna- a es mayor a 0, lo definimos como positivo.
El segundo, igual al determinante de la matriz:

|A2 | = |A| = ac − b2

Como el primero fue positivo, buscamos que este también lo sea (de lo con-
trario seria indefinido) para definirla como positiva. Entonces desarrollamos:

ac − b2 > 0
b2
a>
c
Sin embargo, esto se contradice con el enunciado. Es por esto que se concluye
como indefinida.

6 Optimización Libre
6.1 Teorı́a
Sea f (x) = f (x1 , x2 , , xn ) una función al menos dos veces continuamente
diferenciable de n variables. Si en el punto x∗ = (x∗1 , x∗2 , , x∗n ) la función

38
presenta un extremo local entonces su diferencial primero se anula en x∗ , es
decir: n
∂f
df (X ∗ ) =
X
dxi = 0
i=1 ∂Xi

Como el diferencial primero se anula cualesquiera sean los valores de los dxi ,
no todos nulos. La única forma de garantizarlo es que todas las derivadas
∂f
parciales ∂X i
sean nulas en ese punto.A esta condición necesaria también se
la suele llamar condición de primer orden.
Es una condición necesaria porque todo extremo local la cumple, pero hay
puntos que cumplen la condición pero no son extremos locales. Por ejemplo
los llamados puntos de silla.
Para confirmar que ese extremo local efectivamente sea un extremo local, es
decir, sea un máximo o un mı́nimo, y descartar que sea un punto de silla se
debe evaluar el diferencial segundo de la función en ese punto.
• Si d2 f (X ∗ ) > 0 es un mı́nimo local.

• Si d2 f (X ∗ ) < 0 es un máximo local.

• Si d2 f (X ∗ ) no tiene el signo claro, es indefinido.


A estas condiciones suficientes también se las suele llamar condiciones sufi-
cientes de segundo orden.
El diferencial segundo de f evaluado en x∗ es una forma cuadrática en las
variables dxi para i=1,2,···,n:
n X
n
∂ 2f
d2 f (x∗ ) = (X ∗ )dxi dxj
X

i=1 j=1 ∂X i ∂X j

Donde las variables son dxi y dxj y la matriz es el cociente. Esta matriz, se
la llama Hessiano:
∂2f ∂2f ∂2f
 
∂x21 ∂x1 ∂x2
... ∂x1 ∂xn
 
 
 
 ∂2f ∂2f ∂2f
...

∂x22
 ∂x ∂x ∂x2 ∂xn

 2 1 
H(x∗ ) =
 
 

... .. 
... ... .
 
 
 
 
 
∂2f ∂2f ∂2f
∂xn ∂x1 ∂xn ∂x2
... ∂x2n

39
Que es simétrica si se cumplen los supuestos del Teorema de Schwarz (o
Clairaut o Young) que permiten intercambiar el orden en que se toman las
derivadas sin alterar el resultado. Para verificar las condiciones de segundo
orden se debe estudiar el signo de la matriz Hessiana (evaluada en los puntos
crı́ticos).
La condición suficiente de segundo orden exige que la matriz Hessiana sea
definida positiva o negativa para mı́nimo o máximo, respectivamente.Si la
matriz Hessiana es semi-definida positiva o negativa entonces no podemos
asegurar que el punto estacionario sea mı́nimo o máximo, respectivamente.
Lo visto hasta acá se refiere a la determinación de extremos locales libres.
Para determinar los extremos globales libres se debe asegurar que la función f
cumpla cierta propiedad de “curvatura” sobre todo su dominio.Esta propiedad
es la concavidad o convexidad.
Concavidad y Convexidad:
Sea f : DßR una función real y D un sub-conjunto convexo no vacı́o de Rn .
Decimos que f es cóncava en D si y solo si para todo λ ∈ [0; 1] y para todo
x, y ∈ D:
f (λx + (1 − λ)y) ≥ λf (x) + (1 − λ)f (y)
Sea f : DßR una función real y D un sub-conjunto convexo no vacı́o de Rn .
Decimos que f es convexa en D si y solo si para todo λ ∈ [0; 1] y para todo
x, y ∈ D:
f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y)
Si queremos definir concavidad estricta o convexidad estricta, usamos el signo
de mayor o menor estricto y no el de mayor/menor o igual.
Algunas propiedades:

• La opuesta de una función cóncava (convexa) es una función convexa


(cóncava).

• La suma de dos funciones cóncavas (convexas) es una función cóncava


(convexa).

• La función lineal es la única función cóncava y convexa.

Existe otra relación entre los conjuntos convexos y las funciones convexas o
cóncavas (estas son condiciones necesarias):

40
• Si f es convexa, entonces S ≤ = {x|f (x) ≤ K} es un conjunto convexo
para todo K ∈ R

• Si f es cóncava, entonces S ≥ = {x|f (x) ≥ K} es un conjunto convexo


para todo K ∈ R

Lo visto hasta ahora es válido para funciones no diferenciables. Cuando f


es al menos dos veces continuamente diferenciable se puede usar el siguiente
resultado:
Una función f ∈ C 2 es cóncava (convexa) si y solo si d2 f es semi-definido
negativo (positivo) en todo su dominio. Esto es una condición necesaria y
suficiente. Una función f ∈ C 2 es estrictamente cóncava (convexa) si y solo si
d2 f es definido negativo (positivo) en todo su dominio. Esto es una condición
suficiente.
En otras palabras, cuando la función es convexa, el mı́nimo local es un mı́nimo
global. Y cuando la función es cóncava, el máximo local es un máximo global.
De misma manera, se define que si es estrictamente cóncava/convexa, el
extremo es global y único.
Teorema de la Envolvente:
Consideramos el siguiente problema:

maxxy f (x; y; α)

Donde α es un parámetro. Entonces, definiendo las condiciones de primer


orden:
fx0 = 0 fy0 = 0
Y si se cumplen las condiciones de segundo orden, entonces estas dos ecua-
ciones definen implı́citamente los valores óptimos:

X ∗ = X ∗ (α) Y ∗ = Y ∗ (α)

Que reemplazando en la función objetivo, nos dan la función objetivo indi-


recta o de valor máximo:

f ∗ (α) = f (X ∗ (α); Y ∗ (α))

Esta función depende exclusivamente de α. El teorema nos dice que un


cambio en este parámetro, solo impacta de forma directa en la función y no

41
a través de X ∗ o Y ∗ . Esto, bastante anti-intuitivo, es porque las derivadas
parciales son 0:
d ∂
f (X ∗ (α); Y ∗ (α)) = f (X; Y ; α)
dα ∂α
La demostración sale a partir de desarrollar el diferencial total y unirlo con
las condiciones de primer orden:
df ∗ ∂X ∂Y
= fx0 + fy0 + fα0
dα ∂α ∂α

6.2 Practica
Ejercicio 1:
Dada la siguiente función:
f (X1 ; X2 ) = X1α X2β
con sus variables y parámetros mayores que 0,determinar los valores de los
parámetros para que la función sea cóncava.
Para analizar esto, tenemos que ver la matriz asociada al diferencial segundo,
y evaluar el signo de sus menores complementarios dominantes. Las derivadas
segundas son:
FX00 1 X1 = α(α − 1)X1α−2 X2β
FX00 2 X2 = β 2 X1α X2β−2
FX00 1 X2 = αβX1α−1 X2β−1
Armando la matriz del diferencial segundo:
α(α − 1)X1α−2 X2β αβX1α−1 X2β−1
" #

αβX1α−1 X2β−1 β 2 X1α X2β−2


Analizando el primer menor complementario dominante, y sabiendo que para
que la función sea cóncava tiene que ser menor a 0:
α(α − 1)X1α−2 X2β < 0
Sabemos que las variables, al ser números positivos por consigna, van a ser
siempre positivas. Entonces eso no nos va a cambiar el signo, por lo que se
puede obviar de la expresión.
α(α − 1) < 0

42
Despejando:
α<1
Esta es la primera condición. Sin embargo, nos queda analizar la segunda.
Para que la función sea cóncava, el determinante de la matriz tiene que ser
igual a 0. Lo planteamos:

α(α − 1)X1α−2 X2β β 2 X1α X2β−2 − (αβX1α−1 X2β−1 )2 = 0

Aplicando el cuadrado a sus componentes, y agrupando términos:

α(α − 1)β(β − 1)X12α−2 X22β−2 − (αβ)2 X12α−2 X22β−2 = 0

Sacando factor común:


h i
X12α−2 X22β−2 α(α − 1)β(β − 1) − (αβ)2 = 0

Como sabemos que las variables son siempre positivas, las podemos sacar de
la ecuación y no nos cambia la expresión.

α(α − 1)β(β − 1) − (αβ)2 = 0

Aplicando distributiva:

(αβ)2 − α2 β + β 2 α + βα − α2 β = 0

Simplificando aun mas y sacando factor común alpha y beta:

(αβ)[−α − β + 1] = 0

Como sabemos por consigna que los parámetros son mayores que 0, los
sacamos de la expresión:
−α − β + 1 = 0
α+β =1
Entonces, concluimos que las dos condiciones para que la función sea cóncava
son:

• α<1

• α+β =1

43
Un esquema a modo de resumen sobre la condición de los signos de los
menores principales dominantes, es el siguiente:
Para el Hessiano evaluado en un punto:

Def Pos Semi-def Pos Def Neg Semi-def Neg


H1 >0 >0 <0 <0
H2 >0 >0 >0 >0
H3 >0 >0 <0 <0
..
. ··· ··· ··· ···
Hn >0 =0 Alternado =0
Concluye: Mı́nimo Local - Máximo Local -

Para el Hessiano evaluado en todo el dominio (y suponiendo que la


función pertenece a C 2 ):

Def Pos Semi-def Pos Def Neg Semi-def Neg


H1 >0 >0 <0 <0
H2 >0 >0 >0 >0
H3 >0 >0 <0 <0
..
. ··· ··· ··· ···
Hn >0 =0 Alternado =0
Concluye: Mı́n Global Único Min Global Máx Global Único Máx Global
Estr Convexa Convexa Estr Cóncava Cóncava

7 Formas Cuadráticas Restringidas


7.1 Teorı́a
Una forma cuadrática restringida es una forma cuadrática limitada a un
sub-espacio vectorial del Dominio:
n X
n n
aij Xi Xj = X t AXs.a.
X X
F (X) = bi X i = 0
i=1 j=1 i=1

44
La restricción lineal igualada a 0 define el sub-espacio del dominio.
Se puede formar una matriz, llamada Ā, para identificar el signo de la
forma. Definiendo un caso general:

F (X) = X t AXs.a.BX = 0

Donde B tiene dimensión mxn con m < n (n es la cantidad de variables y m


la cantidad de restricciones):
" #
omxm Bmxn
Ā =
Bmxn Anxn

La regla se signos va a ser la siguiente33

• Definida Positiva: si y solo si (−1)m |Āi | para todo i = m+1; ...; m+n

• Semi-Definida Positiva: si y solo si (−1)m |ïi | para todo i = m +


1; ...; m + n

• Definida Negativa: si y solo si (−1)i |ïi | para todo i = m+1; ...; m+n

• Semi-Definida Negativa: si y solo si (−1)i |ïi | para todo i = m +


1; ...; m + n

Notese, que lo que importa es si la cantidad de restricciones es par o impar.


Se van a calcular los últimos (n − m) menores principales dominantes. Y en
base a esto, se va a decidir el signo.

8 Optimización restringida
8.1 Teorı́a
Sea f (x) = f (x1 ; x2 ; ...; xn ) una función al menos dos veces continuamente
diferenciable de n variables sujeto a m restricciones de igualdad g j (x1 ; xn ; ...; xn ) =
Cj para j = 1; 2; ...; m < n.
33
Esta regla, se puede usar como regla general para siempre, ya sea m igual a 0 o a
cualquier número.

45
Se puede despejar las restricciones y reemplazarlas en la función, para poste-
riormente resolverlas como un problema de optimización libre. Otro método
posible es el de Lagrange:
m h 
λj C j − g j X1 ; ...; Xn )]
X
L(X1 ; ...; Xn ; λ1 ; ...; λm ) = f (X1 ; ...; Xn ) +
j=1

Donde planteamos las derivadas primeras (igualadas a 0) para encontrar los


puntos crı́ticos. A su vez, podemos plantear un Hessiano Orlado (H̄) para
las condiciones de segundo orden:
gx11 (.) ... gx1n (.)
 
0 ... 0
 .. .. 

 ... . ... ... . ... 

0 ... 0 gx1 (.) ... gxmn (.)
m
 
 
H̄ =  

 gx11 (.) ... gxm1 (.) L00x1 x1 ... L00x1 xn 

 .. .. 

 ... ... . ... . ... 

gx1n (.) ... gxmn (.) L00xn x1 ... L00xn xn

1. Si H̄ es definido negativo, el punto es un máximo.


2. Si H̄ es definido positivo, el punto es un mı́nimo.
3. Si el punto critico es un máximo, entonces H̄ es semi-definida negativa.
4. Si el punto critico es un mı́nimo, entonces H̄ es semi-definida positiva.
De (1) y (2) tenemos condiciones suficientes y de (3) y (4) condiciones nece-
sarias.
Las constantes λi son los multiplicadores de Lagrange. Estos representan
cuanto cambia f ∗ (.) ante un cambio infinitesimal en la restricción a través
del parámetro C. Lo demostramos para 2 variables y 1 restricción:
Sea un Lagragiano con sus óptimos reemplazados en la función:
L̄ = f (x∗ ; y ∗ ) + λ∗ [c − g(x∗ ; y ∗ )]
dL̄ dx∗ dy ∗ dλ∗ dx∗ dy ∗
= fx + fy + [c − g(x∗ ; y ∗ )] + λ∗ (1 − gx − gy )
dc dc dc dc dc dc
Por condiciones de primer orden (y expresado diferente):
dx∗ dy ∗ dλ∗
(fx − λ∗ gx ) + (fy − λ∗ gy ) + [c − g(x∗ ; y ∗ )] + λ∗ = λ∗
| {z } dc | {z } dc | {z } dc
=0 =0 =0

46
Lo anterior, nos permite identificar extremos locales. Pero si queremos Ex-
tremos Globales, se deben cumplir algunas condiciones sobre las restric-
ciones y sobre la función objetivo. Esto se trata de la cuasi-concavidad o
cuasi-convexidad de la función objetivo, y de que las restricciones definan un
conjunto convexo en el dominio.
Una función F : D → R, donde D es un subconjunto convexo de Rn , es
cuasi-cóncava si y solo si para 2 puntos cuales quiere X e Y pertenecen a D
y λ pertenece a (0;1) se verifica que:

f (X) ≥ f (Y ) → f (λX + (1 − λ)Y ) ≥ f (Y )

Una función F : D → R, donde D es un subconjunto convexo de Rn , es


cuasi-convexa si y solo si para 2 puntos cuales quiere X e Y pertenecen a D
y λ pertenece a (0;1) se verifica que:

f (X) ≥ f (Y ) → f (λX + (1 − λ)Y ) ≤ f (X)

Una función F : D → R, donde D es un subconjunto convexo de Rn , es


estrictamente cuasi-cóncava si y solo si para 2 puntos cuales quiere X e Y
pertenecen a D y λ pertenece a (0;1) se verifica que:

f (X) ≥ f (Y ) → f (λX + (1 − λ)Y ) > f (Y )

Una función F : D → R, donde D es un subconjunto convexo de Rn , es


estrictamente cuasi-convexa si y solo si para 2 puntos cuales quiere X e Y
pertenecen a D y λ pertenece a (0;1) se verifica que:

f (X) ≥ f (Y ) → f (λX + (1 − λ)Y ) < f (Y )

Propiedades:

• Toda función cóncava es cuasi-cóncava, y toda función convexa es cuasi-


convexa. Sin embargo, la recı́proca no es cierta
• La cuasi-concavidad (cuasi-convexidad) es una propiedad más débil que
la de concavidad(convexidad).
• La opuesta de una función cuasi-cóncava es cuasi-convexa, y viceversa.
• oda función monótonamente creciente o decreciente es cuasi-cóncava y
cuasi-convexa a la vez.

47
Una Definición alternativa:
f es cuasi-cóncava si y solo si S ≥ = {x|f (x) ≥ K} es un subconjunto convexo.
f es cuasi-convexa si y solo si S ≤ = {x|f (x) ≤ K} es un subconjunto convexo.
A partir de esta definición alternativa es claro que toda función cóncava
(convexa) es cuasi-cóncava (cuasi-convexa), pero la recı́proca no es cierta.
Notese que esta definición no permite distinguir la cuasi-concavidad (cuasi-
convexidad) estricta.
Sea f : D → R con D ∈ Rn , un conjunto convexo y f sea clase C 2 . Además,
sea |Bi | el menor principal dominante de orden i + 1 de la siguiente matriz34
 
0 f1 ... fn
 f1 f11 ... f1n
 

B= .. 

 ... ... . ... 

fn fn1 ... fnn

Si f es cuasi-cóncava en D → (−1)i |Bi | ≥ 0.


Si f es cuasi-convexa en D → |Bi | ≤ 0.
Para que sea estrictamente, se usa el signo de menor o mayor sin el igual.
Una función f es explı́citamente cuasi-cóncava si y solo si para 2 puntos cuales
quiere X e Y pertenecen a D y λ pertenece a (0;1) se verifica que:

f (X) > f (Y ) → f (λX + (1 − λ)Y ) > f (Y )

Una función f es explı́citamente cuasi-convexa si y solo si para 2 puntos cuales


quiere X e Y pertenecen a D y λ pertenece a (0;1) se verifica que:

f (X) > f (Y ) → f (λX + (1 − λ)Y ) < f (X)

Teorema de la Envolvente:
Considerando el siguiente problema de optimización, y obteniendo las solu-
ciones óptimas dependiendo del parámetro:

maxxy f (x; y; α)sag(x; y; α) = 0

X ∗ = X(α) Y ∗ = Y (α) α∗ = α(α)


34
Notese que acá no están las derivadas de las restricciones sino se la función objetivo.
Es por esto, que la matriz B es diferente al Hessiano Orlado. Solo son iguales cuando hay
una optimización con 1 restricción.

48
Se forma:
f ∗ (α) = F (X(α); Y (α); α(α))
Buscando el diferencial y reemplazando los términos de las condiciones de
primer orden por 0:
df ∗ ∂L
= Fα0 − λ∗ gα0 =
dα ∂α

8.2 Practica
Primero, vamos a resumir todas las reglas se signos que tenemos hasta el
momento. Generalizando ambas reglas, libres y restringidas, obtenemos el
siguiente cuadro (donde m son las cantidades de restricciones):

Para la Matriz Ā
Punto MPC35 Concluye Para todo:
Def Pos Min Global U. (−1)m |Ā1 | > 0 E. Convexa i = m + 1; ...; m + n
Def Neg Max Global U. (−1)i |Āi | > 0 E. Cóncava i = m + 1; ...; m + n
Semi-Def Pos Min Global (−1)m |ïi | ≥ 0 Convexa i = m + 1; ...; m + n
Semi-Def Neg Max Global (−1)i |ïi | ≥ 0 Cóncava i = m + 1; ...; m + n

Una salvación, es que cuando definimos el punto, para las definidas esto es
una condición suficiente, mientras que para las semi-definidas es solo una
condición necesaria. Esto significa, que cuando es semi-definida, solo vamos
a concluir si es máximo o mı́nimo si toda la matriz es definida ası́. Si esta
evaluada en un punto, no podemos definir nada. De esta matriz, solo calcu-
lamos los (n-m) MPC.
Otra salvación muy importante, si hay una restricción, las Semi-Definidas
no concluyen puntos. Solo en libres.
Para la Matriz B
Cuasi-Cóncava (−1)i |Bi | > 0 D ∩ R+
n
n
Cuasi-Convexa |Bi | < 0 D ∩ R+

De esta última matriz, solo calculamos los (n-2) MPC debido a que el 1
siempre es 0 y el 2 siempre es negativo.
Para las Semi-Definidas, hay que usar el teorema necesario y suficiente. Este

49
serı́a: dada una matriz Ā asociada a una forma cuadrática (que puede o no
estar restringida), tenemos que calcular los siguientes MPC:
 
a11 a12 a13
¯
à =  a21 a22 a23 
 

a31 a32 a33

|Ã1 | = {|a11 |; |a22 |; |a33 |}


( )
a11 a12 a a a a
|Ã2 | = ; 11 13 ; 22 23
a21 a22 a31 a33 a32 a33
|Ã3 | = |A| = 0
Esta es una forma general de calcular los MPC para una matriz 3x3. Notese,
que en realidad para el |Ã2 | tendrı́amos que haber calculado el doble de
determinantes. Sin embargo, como son iguales por propiedad de los mismos,
nos los ahorramos.

9 Programación no Lineal
9.1 Teorı́a
Para empezar a analizar este tema, vamos a empezar viendo restricciones de
no negatividad. Esto serı́a:
max π = f (X1 ; ...; Xn ) s.a Xj ≥ 0 j = (1; 2; ...n)
En este caso, nos podemos encontrar con tres casos posibles:
• Que las derivadas parciales sean 0 y los Xi sean mayores que 0.
• Que las derivadas parciales sean 0 y los Xi sean también 0.
• Que las derivadas parciales sean menores a 0 y los Xi sean iguales a 0.
Esto se debe a que podemos obtener un punto máximo que no cumpla con
las condiciones de apartados anteriores por las restricciones36 . Generalizando
estas condiciones:
Fj (.) ≤ 0 Xj ≥ 0 Xj Fj (.) = 0 j = (1; 2; ...n)
36
Una buena intuición es imaginarse una parábola con su máximo en un ortante negativo,
pero como la restricción es de no negatividad el máximo va a estar en el ortante positivo.

50
Estas van a ser las condiciones de primer orden para un problema de maxi-
mización con restricciones de no negatividad. Si se tiene el mismo problema,
pero en vez de maximizar hay que minimizar, las condiciones van a ser:
Fj (.) ≥ 0 Xj ≥ 0 Xj Fj (.) = 0 j = (1; 2; ...n)
Ahora, si tenemos un problema de optimización pero con restricciones de
desigualdad mas generales con m restricciones, como el siguiente:
g 1 (.) ≤ r1




 ..
.

max π = f (X1 ; ...; Xn ) s.a




g m (.) ≤ rm
X1 ; X2 ; ...; Xn ≥ 0

Podemos convertir este problema en uno de igualdad incorporando variables


de holgura complementarias (Sm ).
g 1 (.) + S1 = r1




 ..
.

max π = f (X1 ; ...; Xn ) s.a




g m (.) + Sm = rm
X1 ; X2 ; ...; Xn ; S1 ; ...; Sm ≥ 0

Acá, podemos plantear el Lagrangiano como lo hacemos siempre:


m h i
λj rj − g j (.) − Sj
X
L̄ = F (.) +
j=1

Y planteando las condiciones de primer orden (las que vimos en este apartado):
∂ L̄ ∂ L̄
∂Xi
≤ 0 X1 ≥ 0 Xi ∂X i
=0

∂ L̄ ∂ L̄
∂Si
≤0 Sj ≥ 0 Sj ∂S i
=0
∂ L̄
∂λj
=0
Notemos como Lambda no tiene restricción de no negatividad. Es por esto,
que en esta variable si tenemos que usar las condiciones de primer orden
originales.
Vamos a hacer reemplazos para eliminar las variables que añadimos. Como:
∂ L̄
= −λj ≤ 0
∂Sj

51
Entonces:
λ≥0
Sj = rj − g j (.) ≥ 0
Entonces definimos las condiciones necesarias de Karush-Kuhn-Tucker
(KKT):
∂L ∂L
∂Xi
≤ 0 X1 ≥ 0 Xi ∂X i
=0

∂L ∂L
∂λj
≥0 λj ≥ 0 λj ∂λ j
=0
Estas condiciones de acá arriba son para un problema de maximización. En
cambio, para un problema de minimización:
∂L ∂L
∂Xi
≥ 0 X1 ≥ 0 Xi ∂X i
=0

∂L ∂L
∂λj
≤0 λj ≥ 0 λj ∂λ j
=0

Algunas consideraciones del problema de optimización con restricciones de


desigualdad:

• La cantidad de restricciones m puede ser igual o mayor al número de


variables n.

• Para un ejercicio de maximización, las restricciones de desigualdad


deben estar escritas como restricciones de menor o igual (≤). En caso
contrario se las multiplica por (-1).

• Para un ejercicio de minimización, las restricciones de desigualdad


deben estar escritas como restricciones de mayor o igual (≥). En caso
contrario se las multiplica por (-1).

• Si hay una restricción de igualdad g j (.) = rj se la puede re-expresar


como dos restricciones de desigualdad: g j ≤ rj y −g j ≥ −rj

Analizando con estas condiciones, valuando los puntos crı́ticos en la función


objetivo y viendo las diversas curvas de nivel podemos encontrar cual punto
critico (que salen de las condiciones KKT) es el máximo/mı́nimo.
En cambio, si queremos ver las condiciones suficientes, vamos a suponer que
existe un vector X ∗ donde se cumplen las KKT para un máximo. Entonces
usamos el teorema Arrow-Enthoven:

52
Si f (.) es diferenciable y cuasi-cóncava en el ortante no negativo, las funciones
g j () son diferenciables y cuasi-convexas para todo j = 1, 2, ..., m en el ortante
no negativo, y se satisface al menos una de las siguientes condiciones:
• fX0 i (X ∗ ) < 0 para alguna variable.

• fX0 i (X ∗ ) > 0 para alguna variable que puede tomar un valor positivo
sin violar las restricciones.

• Las derivadas primeras FX0 i (.) con i = 1, 2, .., n no son todas 0 y la f (.)
es dos veces diferenciable en el entorno de X ∗ .

• La función F (.) es cóncava.


Entonces X ∗ es un máximo global.
Para un problema de mı́nimo se reemplaza cóncava por convexa, cuasi-
cóncava por cuasi-convexa, y se dan vuelta las desigualdades de los dos
primeros ı́tems. Todo muy lindo37 pero esto no siempre funciona. Hay al-
gunas calificaciones que deben cumplir las restricciones para que nosotros
podamos usar las KKT. Con que las restricciones cumplan algunas de las
siguientes condiciones, nos va a bastar para que utilicemos las KKT.
Supongamos sin pérdida de generalidad que h restricciones se cumplen con
igualdad y (m-h) con desigualdad.
• La matriz jacobiana, de dimensión h×n que contiene las derivadas par-
ciales primeras de las restricciones evaluada en el óptimo, tiene que
tener rango máximo h.

• Para todo vector dx∗ ∈ Rn que satisface g j (x∗ )dx∗ ≤ 0 para todo j,
existe  > 0 y una curva continuamente diferenciable α : (0 : ] → Rn
tal que:

– α(0) = X ∗
– α0 (0) = dx∗
– Que satisfaga la restricción, osea g j (α(t)) ≤ rj

• Existe una bola U con centro en X ∗ ∈ Rn tal que las restricciones acti-
vas son convexas en U y existe un punto Z ∈ U tal que las restricciones
evaluadas en Z se cumplan.
37
En realidad no.

53
• Las restricciones activas son lineales.

Para un problema de mı́nimo se intercambian los ≤ por ≥ en la condición


2), y cóncava por convexas en 3).

9.2 Practica
En este apartado, vamos a realizar en detalle el ejercicio 14 de la guı́a
práctica. Este es, a mi entender, el mas completo ya que demuestra varios
caso. El ejercicio nos pide:


 2X + 3Y ≥ 6 (A)
2 2
min F (X; Y ) = (X − 4) + (Y − 4) s.a −3X − 2Y ≥ −12 (B)
X; Y ≥ 0

Lo primero que vamos a hacer, es armar el viejo y confiable Lagrangiano38 .


Este nos queda definido de la siguiente forma:

L : (X − 4)2 + (Y − 4)2 − λ1 (2X + 3Y − 6) − λ2 (−3X − 2Y + 12)

Planteando las condiciones KKT, obtenemos lo siguiente:

L0X : 2(X − 4) − 2λ1 + 3λ2 ≥ 0 X ≥ 0 XL0X = 0

L0Y : 2(Y − 4) − 3λ1 + 2λ2 ≥ 0 Y ≥0 Y L0Y = 0

L0λ1 : 2X + 3Y − 6 ≥ 0 λ1 ≥ 0 λ1 L0λ1 = 0

L0λ2 : −3X − 2Y + 12 ≥ 0 λ2 ≥ 0 λ2 L0λ2 = 0

Ya formuladas las KKT, vamos a ir analizando el problema por etapas.


¿Cuáles son estas etapas? Son las ”variaciones” de las restricciones. En otras
palabras, vamos a ir probando cuales restricciones están activas y cuales no.
A mi me gusta pensar el problema de las restricciones como que estamos en
un cuarto encerrados. Si queremos maximizar/minimizar nuestra posición en
el cuarto, nos podemos parar en cualquier lugar del mismo. ¿Cuales son las
restricciones en esta analogı́a? Las paredes obviamente. Me gusta pensarlo
ası́, porque si yo me paro en medio del cuarto, ninguna restricción me esta
38
Que grande, nunca falla.

54
impidiendo obtener otro punto que yo quisiera. Sin embargo, si estoy pegado
a la pared, esa pared me esta impidiendo moverme mas. En otras palabras,
esa pared esta cumpliendo su rol de estar activa como restricción. Por eso,
entendemos restricción activa como la que se cumple con igualdad en vez de
desigualdad. Esto va a ser importante para mas adelante.
¿Qué restricciones tenemos? Bueno, esta es fácil. Son todas las que están en
la llave. Entonces tenemos 439 . Sin embargo, vamos a variar -principalmente-
las dos primeras (A y B). Las otras dos (X e Y mayores o iguales a 0) las
vamos a estar variando de manera implı́cita40 . Mas adelante se va a detallar
el proceso. Entonces, todas las variaciones principales que obtenemos, sobre
A y B, son:

1. Activa-Activa

2. Inactiva-Inactiva

3. Activa-Inactiva

4. Inactiva-Activa

Estas son las 4 principales etapas del problema. Ahora tenemos que ir inves-
tigando cada una.

1. Activa-Activa: Como explicamos previamente, esto hace referencia


a que se cumplen con igualdad. Es por esto, que se concluye de este
paso que las derivadas del Lagrangiano con respecto a ambos lambdas
son iguales a 0. En otras palabras:
)
2X + 3Y = 6
3X + 12Y = 12

Este caso es el mas fácil, ya que hay un sistema de ecuaciones. En este


caso, X e Y solo pueden tomar los valores que satisfagan este sistema.
De lo contrario, no se estarı́an cumpliendo las KKT para esta etapa.
Entonces concluimos que:

X = 2, 4 Y = 0, 4
39
También cuentan las de X e Y mayor o igual a 0.
40
Técnicamente se están variando de manera explicita, pero esta intuición lo hace mas
fácil de entender.

55
De estos dos valores, también podemos intuir otras cosas. Como las
variables son distintas a 0, sus derivadas tienen que serlo. Esto es por
la tercera condición de las KKT. Entonces, reemplazando estos valores
en sus derivadas e igualando a 0, obtenemos que:
)
−3, 2 − 2λ1 + 3λ2 = 0
−7, 2 − 3λ1 + 12λ2 = 0

Y de este sistema concluimos que:

λ1 = − 28
55
λ2 = 8
11

Acá, nos aparece nuestra primera contradicción. Las variables lambdas,


por las KKT, tienen que ser mayores o iguales a 0. Sin embargo, esto no
se cumple. Es por esto, que concluimos que hay un absurdo. Entonces,
pasamos a la siguiente etapa sin ningún punto critico.

2. Inactiva-Inactiva: Acá es donde se empieza a complicar la cosa.


Nosotros dijimos que hay que ir variando las restricciones, pero esto
también incluye las X e Y mayores o iguales a 0. Por lo tanto, hay que
ir probando dentro de estas etapas, 4 otras etapas. Estas son:

• (X; Y ) = (0; 0)
• (X; Y ) = (> 0; 0)
• (X; Y ) = (0; > 0)
• (X; Y ) = (> 0; > 0)

Notese, que antes no probamos estas 4 sub-etapas debido a que el


sistema de ecuaciones solo se cumple para esos valores. Si probábamos
que pasaba si ambas variables son 0, nos iba a quedar un absurdo.
También vemos que si las dos restricciones están inactivas, las variables
lambdas son iguales a 0 (por la tercera condición de las KKT). Esto
nos va a simplificar el análisis de esta etapa.
Empezando, si queremos ver el caso donde ambas variables sean 0, no
se va a cumplir la desigualdad del lagrangiano derivado respecto a X
o a Y (ninguna de las dos se cumple). Por lo que la descartamos esta
opción. Es por esto, que podemos determinar que para esta etapa, ni
X ni Y pueden ser 0, ya que no se cumplirı́a la desigualdad. Entonces,
para esta etapa, solo nos queda probar el caso donde ambas variables

56
sean mayor a 0. Acá, por la tercera columna, vemos que si ambas son
distintas a 0, sus derivadas tienen que ser igual a 0. Despejando de este
sistema de ecuaciones (el de el lagrangiano derivado con respecto a X
y con respecto a Y igual a 0), nos queda que los posibles valores son
(4; 4). Sin embargo, si reemplazamos estos valores en la desigualdad
de Lλ2 vamos que nos da −48 ≥ 0 cosa que es falso. Es por esto, que
concluimos que se trata de un absurdo. Entonces, proseguimos a la
siguiente etapa sin ningún punto crı́tico.

3. Activa-Inactiva: Cono en el punto dos, repetimos lo mismo para


este. Sin embargo, hay que tener en cuenta las nuevas implicancias
de esta etapa. Estas implicancias son que Lλ1 = 0 y que λ2 = 0. Si
queremos analizar el punto (0;0) vemos que no se cumple para Lλ1 . El
punto donde X es 0 e Y es mayor a 0 (necesariamente 2, ya que se
debe cumplir Lλ1 = 0) tampoco cumple con las KKT ya que no verifica
la desigualdad de Lλ2 > 0. El punto donde Y es 0 y X es mayor a
0 (necesariamente 3, ya que se debe cumplir Lλ1 = 0) parece cumplir
con las KKT. Sin embargo, cuando tratamos de despejar el valor de λ1
de LX = 0 (es igual a 0 ya que X no lo es), nos queda λ1 = −1 cosa
que viola las KKT. Por lo tanto, tampoco es un punto. Finalmente, el
punto donde ambas variables son mayores a 0, nos deja con el siguiente
sistema de ecuaciones:

2X − 8 − 2λ1 = 0 

2Y − 8 − 3λ1 = 0
2X + 3Y − 6 = 0 

Y despejando los valores, encontramos que Y nos da − 30 13


, un valor
negativo. Por lo que tampoco concluimos ningún punto critico en este
apartado.

4. Inactiva-Activa: Finalmente, la última etapa. Las implicancias de


esta etapa son que λ1 = 0 y Lλ2 = 0. El punto (0;0) no puede ser
ya que no cumple con la desigualdad de Lλ1 ≥ 0. Usando la igualdad
de Lλ2 = 0, vemos que si X es 0, Y tiene que ser -1. Y que si Y
es 0, X tiene que ser -4. Debido a que son números negativos, los
descartamos (por la restricción de no negatividad). Entonces nos queda
solo una posibilidad. Que en esta etapa, ambas variables sean mayor a

57
0. Entonces, obtenemos el siguiente sistema:

2X − 8 + 3λ2 = 0 

2Y − 8 + 12λ2 = 0
−3X + −12Y + 12 = 0

De acá, obtenemos los siguientes puntos:


52 28 16
X= 15
Y = 15
λ1 = 0 λ2 = 45

Este punto, es el único que cumple con las KKT. Por lo tanto, es el
único punto critico que pudimos obtener. Sin embargo, va a ser punto
critico si y solo si las restricciones califican (de no calificar, no se podrı́a
concluir nada, ya que las KKT no serı́an condición necesaria).
Conceptos a tener en cuenta:
Anteriormente, se desarrollo como es un ejercicio tı́pico de optimización no
lineal con restricciones de no negatividad de las variables. Sin embargo,
pueden darse algunos que otros casos diferentes:
1. El primer caso, es que ninguna variable de la función objetivo tenga
una restricción de no negatividad41 . En este caso, las derivadas del
Lagragiano con respecto a las variables de la función objetivo, van a
ser iguales a 0. Esto se debe a que, vamos a estar optimizando en todo
el dominio de las variables.
2. Otro caso posible, parecido al primero, es que algunas variables si ten-
gan restricción de no negatividad y otras no. En este caso, las derivadas
del Lagragiano con respecto a las variables sin restricción de no neg-
atividad, van a estar igualadas a 0, y las que si tengan restricción,
van a estar con la desigualdad correspondiente a si es un problema de
maximización o minimización.
3. Por último, nos podemos encontrar con una situación que sea Xi ≥ K
donde K 6= 0. Esta restricción, la vamos a tener que incluir en el
Lagrangiano. Y la derivada de este con respecto a Xi va a estar igualada
a 0. Este es un termino adicional en el Lagrangiano. Cuando derivemos
el mismo por su lambda correspondiente, nos tiene que quedar igual que
la restricción de la consigna42 .
De esta forma, concluye la primera parte de la materia.
41
Esto serı́a que no este el mayor o igual a 0.
42
Esto lo digo debido a que a mi me pasaba que me equivocaba en esto. Tenı́a la

58
10 Ecuaciones Diferenciales
10.1 Teorı́a
Una ecuación diferencia es una ecuación del siguiente tipo:

F (t; y; y 0 ; y 00 ; ...; y k ) = 0

Donde:
d2 Y dk Y
Y = Y (t) Y 0 = dY
dt
Y 00 = dt2
... Y k = dtk

Las ecuaciones diferenciables se pueden clasificar de varias formas. Si tiene


mas de una variable independiente, va a ser de derivadas parciales. Si tiene
solo una, se va a llamar ordinaria. El orden de una ecuación diferencial está
dado por el máximo orden de derivación que aparece en la ecuación. Si la
función está expresada en forma polinómica, entonces la ecuación diferencial
es lineal si y solo si en cada uno de sus términos la función incógnita está
elevada a la potencia unitaria. Si la función no depende de t directamente,
es decir, solo depende indirectamente a través de Y y sus derivadas, entonces
la ecuación diferencial es autónoma. En caso de poder despejarse la Y de
mayor orden, se va a decir que la ecuación diferencial esta escrita en forma
normal. Esto serı́a:
Y k = (t; Y 0 ; Y 00 ; ...; Y k−1 )
En estos problemas, vamos a tener tantas constantes de integración como
orden de la ecuación diferencial.
Cuando la solución queda expresada en función de la constante sin determinar
hablamos de la solución general de la ecuación diferencial. A partir de
esta solución general y de darle valores a la(s) constante(s) de integración se
obtiene la solución particular de la ecuación diferencial.
Teorema fundamental de las ecuaciones diferenciales:
Considerando el siguiente problema:

Y 0 = F (t; y) Y (t0 ) = y0

Supongamos que f es continua en (t0 ; y0 ). Entonces existe una función con-


tinuamente diferenciable y : I → R donde I = (t0 − a; t0 + a) tal que exista
costumbre de, como previamente eran todas igualdades, no cambiar el signo cuando deriv-
aba con respecto al lambda. Esto provoca errores metodológicos cuando se trabajan con
desigualdades, como hacemos ahora.

59
solución para el problema para todo t ∈ I. Además, si f es continuamente
diferenciable (en al menos un punto) en (t0 ; y0 ) entonces la solución para el
problema es única43 .
Para solucionar un problema de ecuaciones diferenciables, lo dividimos en
dos partes. Partiendo del siguiente problema:

aY 0 (t) + bY 0 (t) + cY (t) = h(t)

Primero, buscamos la solución homogénea. Esto serı́a, cuando h(t) = 0. Para


esto, proponemos un guess:
Y = Cert
Entonces:
Y 0 = rCert Y 00 = r2 Cert
Reemplazando cada derivada en la ecuación diferencial, y sacando factor
común:
Cert (ar2 + br + c) = 0
| {z }
=0

Por lo tanto, las soluciones a la ecuación diferencial homogénea se van a


obtener a partir de resolver este polinomio:

ar2 + br + c = 0

De acá, se desprenden 4 casos:

1. Las raı́ces son reales y distintas

2. Las raı́ces son reales e iguales

3. Las raı́ces son complejas y conjugadas

4. Las raı́ces se repiten y son complejas (este caso solo se da a partir de


un grado de 4 o mayor).

Vamos a ir demostrando uno por uno:


43
Básicamente, va a existir solución si la función es continua. Y si es continuamente
diferenciable, va a ser única la solución.

60
1. La solución a este problema es la siguiente:
Y (t) = C1 er1 t + C2 er2 t
Se demuestra ya que las diferentes r son raı́ces de la ecuación carac-
terı́stica, y por lo tanto son soluciones de la ecuación diferencial. Como
esta es lineal, la suma de ambas soluciones también lo es.
a(y1 +y2 )00 +b(y1 +y2 )0 +c(y1 +y2 ) = (ay100 + by10 + cy1 ) + (ay200 + by20 + cy2 ) = 0
| {z } | {z }
=0 =0

Ahora demostramos que también es solución para las particulares:


y(t0 ) = C1 er1 t0 + C2 er2 t0
y 0 (t0 ) = r1 C1 er1 t0 + r2 C2 er2 t0
Que en forma matricial:
" #" # " #
er1 t0 er2 t0 C1 y0
=
r1 er1 t0 r2 er2 t0 C2 z0
Para que haya solución al problema, el determinante tiene que ser dis-
tinto a 0. Y esto es verdadero ya que:
1 1
|w| = er1 t0 er2 t0 6= 0
r1 r2

2. Cuando las raı́ces son iguales, la solución es:


Y (t) = C1 er1 t + tC2 er2 t
Como es raı́z doble, esto quiere decir que r1 = −(b/2a). Entonces,
tenemos una solución, pero necesitamos otra que rompa la dependencia
linea. Por eso, proponemos:
Y2 (t) = C2 ter1 t
Y demostramos que es solución:
ay 00 + by 0 + cy = C2 ter1 t (ar12 + br1 + c) + C2 er1 t (2ar1 + b)
| {z } | {z }
=0 =0

Repitiendo el mismo análisis que hicimos antes:


1 1
W = e2r1 t0
r1 (1 + r1 t0 )

61
3. Cuando las raı́ces son complejas, se escriben como r1;2 = α ± iβ y la
solución es:
Y (t) = eαt (C1 cos βt + C2 sin βt)
Como las raı́ces son distintas:

Y (t) = C1 e(α+iβ)t + C2 e(α−iβ)t

Trabajando la expresión, con la formula de Euler:

eix = cos x + i sin x

Entonces:
e(α+iβ)t = eαt (cos βt + i sin βt)
e(α−iβ)t = eαt (cos βt − i sin βt)
Y (t) = C1 eαt (cos βt + i sin βt) + C2 eαt (cos βt − i sin βt)
eαt (C1 cos βt + C2 sin βt)

4. En este caso, se multiplica por t al segundo par de raı́ces complejas


conjugadas.
Estas fueron las soluciones a las ecuaciones diferenciales homogéneas. Para
encontrar las soluciones generales, hay que sumarle a esta solución, una par-
ticular. Esto se demuestra:
Sea Yp (t) una solución particular de la ecuación completa, y sea C1 y1 + C2 y2
la solución general de la homogénea, entonces demostramos que existe:

Y ∗ (t) = C1∗ y1 (t) + C2∗ y2 (t) + yp (t)

Como:
00 0
a(y ∗ −yp )00 +b(y ∗ −yp )0 +c(y ∗ −yp ) = (ay ∗ +by ∗ +cy ∗ )−(ayp00 +byp0 +cyp ) = 0

y ∗ (t) − yp (t) = C1 y1 (t) + C2 y2 (t)


Y ∗ (t) = C1∗ y1 (t) + C2∗ y2 (t) + yp (t)
Y para resolver esta solución particular, usamos el método de coeficientes
indeterminados:
Este método consiste en hacer un guess informado para la solución particular
que sea una función similar a h(t).Por ejemplo:

62
• si h(t) es un polinomio de grado j entonces se ensaya un polinomio
j
Ai tj
X
completo degrado j en t : yp(t) =
i=0

• Si h(t) es una función exponencial ert entonces se ensaya yp = Aert .

• Si h(t) es un múltiplo de sin rt o de cos rt entonces se ensaya yp =


A sin rt + B cos rt.

• Si h(t) es la suma de dos o más de las funciones indicadas entonces


se ensaya la suma de las soluciones a ensayar para cada función, sin
repetir términos semejantes.

• Si h(t) es el producto de dos o más de las funciones indicadas entonces


se ensaya el producto de las soluciones a ensayar para cada función, sin
repetir términos semejantes.

• Si h(t) contiene algún término que es solución de la ecuación homogénea


asociada,correspondiendo a una raı́z r con orden de multiplicidad m,
entonces se multiplica por tm la solución a ensayar que corresponde a
ese término.
Ahora, buscamos analizar la Estabilidad de la Solución.
La solución general de la ecuación diferencial completa es asintóticamente
estable si y solo si la solución general de la ecuación homogénea tiende a cero
cuando t tiende a infinito.
lim yh (t) = 0
t→∞

Cuando esto no ocurre decimos que la solución es inestable.


Teorema:
La solución general de la ecuación diferencial es estable si y solo si todas las
raı́ces de la ecuación caracterı́stica tienen parte real negativa.
Esto se demuestra a partir de los 4 casos que vimos anteriormente:
1. Si todas las raı́ces de la ecuación caracterı́stica son reales y diferentes
entonces la solución tiene esta forma (sacando factor común y llamando
r1 a la mayor de todas las raı́ces):

y(t) = er1 t [C1 + C2 e(r2 −r1 )t + ... + Cn e(rn −r1 )t ]

Entonces:

63
• Si r1 > 0, entonces lim y(t) = ∞
t→∞
• Si r1 = 0, entonces lim y(t) = C1
t→∞
• Si r1 < 0, entonces lim y(t) = 0. En este caso, serı́a estable.
t→∞

2. Si hay m raı́ces iguales r1 = r2 = = rm = r los términos correspondi-


entes de la solución general son:
m
Ci ti−1 ert
X

i=1

• Si r ≥ 0 entonces esos términos tienden a infinito cuando t tiende


a infinito.
• Si r < 0 entonces:
lim C1 ert = 0
t→∞

C2 y
lim C2 tert = lim =0
t→∞ t→∞ e−rt
...
m−1 rt Cm tm−1 (m − 1)!Cm
lim Cm t e = lim −rt
= ... = lim =0
t→∞ t→∞ e t→∞ (−r)m−1 e−rt
Por lo tanto, en el caso en que hay raı́ces reales y repetidas también
es necesario y suficiente que las raı́ces sean negativas para que la
solución sea estable.

3. Si hay raı́ces complejas, para cada par de raı́ces complejas conjugadas


la solución tiene la forma:

y(t) = eαt (C1 cos βt + C2 sin βt)

Como el seno y el coseno son funciones acotadas, en el lı́mite y(t)


depende del término exponencial:

• Si α > 0 entonces lim y(t) = ∞


t→∞
• Si α = 0 entonces lim y(t) no existe.
t→∞
• Si α < 0 entonces lim y(t) = 0
t→∞

64
4. Finalmente, si existen m pares de raı́ces complejas iguales entonces la
solución tiene la forma:
m
y(t) = eαt ti−1 (C2i−1 cos βt + C2i sin βt)
X

i=1

Si α < 0 entonces:
lim y(t) = 0
t→∞

Ya que el producto tiende a 0.

10.2 Practica
Si bien la teorı́a parece medio rebuscada, al momento de hacer los ejercicios
es bastante directo. A continuación, se van a desarrollar dos ejercicios.
Ejercicio 1, inciso D:
Encontrar la solución general de la siguiente ecuación diferencial e indicar si
es estable o no.
y IV + 8y 000 + 24y 00 + 32y 0 + 16y = 0
Primero, tenemos que encontrar el polinomio caracterı́stico de esta ecuación.
Esto, según la teorı́a, se harı́a reemplazando cada y por un guess (derivando el
guess y reemplazando donde sea correcto). Sin embargo, podemos adelantar
este proceso. Los coeficientes del polinomio van a ser los mismos de los de la
ecuación diferencia. Mas claramente:

r4 + 8r3 + 24r2 + 32r + 16 = 0

Entonces, buscamos las raı́ces de este polinomio. En este caso, se aplicarı́a


Ruffini. Resumiendo, las raı́ces son:

r1 = −2 r2 = −2 r3 = −2 r4 = −2

La solución general (que en este caso es igual a la homogénea, ya que la


ecuación diferencial esta igualada a 0) va a ser:

Yg = Yh = C1 e−2x + C2 xe−2x + C3 x2 e−2x + C4 x3 e−2x

e−2x [C1 + C2 x + C3 x2 + C4 x3 ]
Notese, que esta es la solución porque la raı́z esta repetida. ¿Por qué agreg-
amos un X multiplicando el algunos términos? Por que es necesario para

65
romper la dependencia lineal. En otras palabras, también es necesario que
nos queden 4 constantes de integración (Ci ). Y en el caso de no agregarlas,
se podrı́an simplificar.
En este caso, la ecuación diferencial es estable ya que su raı́z mas grande es
negativa44 .
Ejercicio 2, inciso A:
Encontrar la solución general de la siguiente ecuación diferencial e indicar si
es estable o no.
y 000 − 4y 0 = 3e2x
En este caso, el polinomio caracterı́stico nos quedarı́a:

r3 − 4r = 0

Notese que esto se debe a que, como dije antes, que va a ser igual a los
coeficientes de la ecuación diferencial. Por lo tanto, las raı́ces son:

r1 = −2 r2 = 0 r3 = 2

Por lo tanto, nuestra solución homogénea va a ser:

yh = C1 e−2x + C2 e2x + C3

Sin embargo, esta es la homogénea. Nos falta hallar la solución particular


para sumársela a esta y ası́ encontrar la general. Para esto, vamos a proponer
un termino que se parezca a h(x). En este caso45 :

Ȳ = Ae2x X

¿Cómo se llega a este termino? Bueno, siempre vamos a proponer un termino


parecido a h(x). En este caso, el exponente de la e va a ser igual al del termino
original de la ecuación diferencial. Lo vamos a multiplicar por una incógnita
(que ahora vamos a buscar) y también lo vamos a multiplicar por una X. Esto
último se debe a que si no lo hacemos, se podrı́a mezclar con un termino de
la solución homogénea. Para evitar esto, lo multiplicamos por X. Hay que
acordarse, que solo se multiplica por esto porque si no serı́a igual a un termino
de la solución homogénea. En caso de ser diferente, no se agregarı́a esta X.
Prosiguiendo con el ejercicio, vamos a derivar esta Ȳ tantas veces como orden
44
Siempre que la raı́z mayor lo sea, va a ser estable.
45
Yo lo voy a llamar Ȳ para diferenciarlo.

66
de la ecuación diferencial, y vamos a reemplazar en la misma la derivada
respectivamente.
Y¯ 0 = Ae2x (1 + 2x)
Y¯00 = 2Ae2x (2 + 2x)
Y¯000 = 4Ae2x (3 + 2x)
Reemplazando:

4Ae2x (3 + 2x) − 4Ae2x (1 + 2x) = 3e2x

Y de acá, distribuimos para despejar A.

8Ae2x = 3e2x
3
A=
8
Por lo tanto, la solución particular es:
3
Yp = e2x X
8
Y la solución general:
3
Yg = Yh + Yg = C1 e−2x + C2 e2x + C3 + e2x X
8

11 Sistema de Ecuaciones Diferenciales


11.1 Teorı́a
En este apartado, vamos a ver como solucionar diversos Sistema de Ecua-
ciones Diferenciales. Una forma simple, puede ser por sustitución. Sin em-
bargo, esto se complica cuando hay mas de dos ecuaciones. Esto es posible ya
que, toda ecuación diferencial de segundo orden es equivalente a un sistema
de dos ecuaciones diferenciales de primer orden. Se demuestra:

ay 00 (t) + by 0 (t) + cy(t) = g(t)

Definiendo x(t) = y 0 (t), nos queda el siguiente sistema:

ax0 (t) + bx(t) + cy(t) = g(t)

67
y 0 (t) − x(t) = 0
Este mismo procedimiento también es válido para convertir una ecuación
diferencial de orden n en un sistema de n ecuaciones diferenciales de primer
orden.Por esta razón al estudiar sistemas de ecuaciones diferenciales nos va-
mos a concentraren aquellos que contengan ecuaciones diferenciales de primer
orden.
Ahora, vamos a ver otro método. Para esto, dividimos el problema en dos.
La parte homogénea y la particular. Primero, busquemos la resolución de
sistemas homogéneos lineales por autovalores 46 .
Considerando el siguiente sistema de n ecuaciones diferenciales de primer
orden:
y10 (t) = a11 y1 (t) + ... + a1n yn (t)
...
yn0 (t) = an1 y1 (t) + ... + ann yn (t)
Que escrito de forma matricial queda como:
Y 0 = AY
Si A es diagonalizable, entonces la solución al sistema de ecuaciones es:
y(t) = C1 X 1 eλ1 t + ... + Cn X n eλn t
Se demuestra a partir que A es una matriz diagonal (solo tiene elementos en
su diagonal principal), por lo que es un sistema de n ecuaciones independi-
entes entre si, cuya solución es:
y1 (t) = C1 ea11 t ... yn (t) = Cn eann t
Como los autovalores de una matriz diagonal son los elementos de la diagonal,
la solución puede escribirse:
C 1 e λ1 t
   
y1 (t)
 ...  =  ... 
  

yn (t) C n e λn t
Ahora demostramos que si es diagonal, la solución era esa. Sin embargo, si
no es diagonal buscamos diagonabilizarla:
P −1 AP = Λ
46
Repasar autovalores y autovectores.

68
Para esto aplicamos un cambio de variables tal que Z = P −1 y. Si derivamos
con respecto a t y operamos:

Z 0 = P −1 y 0 = P −1 Ay

= P −1 AP z = ΛZ
Como Λ es una matriz diagonal, el sistema queda:

Z10 = λ1 z1

...
Zn0 = λn zn
Cuya solución es:
C 1 e λ1 t
   
z1 (t)
 ...  =  ... 
  

zn (t) C n e λn t
Deshaciendo el cambio de variables:
λ1 t
   
y1 (t) h i C1 e
1 n
 ...  = X ... X ... 
  
 
λn t
yn (t) Cn e

En otras palabras:

y(t) = C1 X 1 eλ1 t + ... + Cn X n eλn t

Esta proposición también es válida cuando los autovalores son complejos.


Si bien este método es muy útil, vamos a usarlo cambiando un par de cosas:
A veces la matriz (A − λI) se la puede llamar la matriz de operadores G(D):
" # " #" #
X(t)0 D 0 X(t)
=
Y (t)0 0 D Y (t)

Que también puede ser expresado como:


" # " #" # " #
X(t)0 D 0 X(t) 0
− =
Y (t)0 0 D Y (t) 0

Donde la matriz de operadores es definida como (A − DI)(−1), que mantiene


las mismas raı́ces, por lo que el resultado no cambio. Para fines prácticos es

69
más conveniente usar la matriz de operadores G(D) ya que cuando el sistema
tiene ecuaciones de orden mayor a1no hace falta añadir variables adicionales.
Cuando la matriz A no es diagonalizable: hará un autovalor con orden de
multiplicidad m para el cual no es posible encontrar m vectores LI. Se debe
proceder ensayando la solución eλi t multiplicada por un vector de polinomios
completos de grado (m-a), donde a es la cantidad de autovectores LI que
pudieron obtenerse del autovalor.
Cuando se resuelve el sistema por el método de autovalores no se debe multi-
plicar por t cuando hay raı́ces repetidas, a diferencia de lo que ocurrı́a cuando
se resolvı́an ecuaciones diferenciales.
Hasta ahora resolvimos un sistema de ecuaciones diferenciales homogéneos.
Para pasar a la parte no homogénea:

y10 (t) − a11 y1 (t) − ... − a1n yn (t) = h1 (t)

...
yn0 (t) − an1 y1 (t) − ... − ann yn (t) = hn (t)
O escrito de forma matricial:

G(D)Y (t) = H(t)

Si se usa el método de coeficientes indeterminados:

• Si H(t) es un vector de constantes entonces se ensaya un vector de


constantes Y p(t) = A:
G(D)A = H
G(0)A = H
A = G(0)−1 H
es la solución particular del sistema completo, siempre que cero no sea
raı́z de la ecuación caracterı́stica.

• Si H(t) es un vector de funciones exponenciales kebt que tienen el mismo


exponente b, entonces se ensaya Yp (t) = Aebt :

G(D)Aebt = kebt

G(b)Aebt = kebt

70
A = G(b)−1 k
Y reemplazando las constantes en la solución:
Yp (t) = G(b)−1 kebt
se llega a la solución particular, siempre que b no sea raı́z de la ecuación
caracterı́stica. Tener en cuenta, que si H(t) es la suma de funciones
exponenciales con distintos exponentes entonces se separa en términos
con igual exponente y se encuentra la solución particular para cada uno
de ellos.
• Si H(t) es una función seno o coseno con ángulo φt entonces se plantea
Yp (t) = A1 sin(φt) + A2 cos(φt) y se despejan los vectores constantes.
• Si H(t) es un polinomio de grado n entonces se ensaya un polinomio
completo de grado n y se despejan las constantes. Si 1 es raı́z de
la ecuación caracterı́stica con orden de multiplicidad m entonces el
polinomio a ensayar debe tener grado n+m.
Diagrama de fase:
Esta herramienta es un gráfico que sirve para hacer análisis cualitativo de sis-
temas de dos ecuaciones diferenciales de primer orden no lineales autónomas.
Vamos a tratar de hacer un ”Slope Field” 47 .
x0 (t) = f (x; y)
y 0 (t) = g(x; y)
Para construirlo, tenemos los siguientes pasos:
1. Se grafican las curvas de demarcación x0 = 0 y y 0 = 0.Si se conoce
la forma funcional de f (.) y g(.) entonces se pueden graficar directa-
mente. Si no se conocen entonces se puede aproximar el gráfico con las
derivadas. Por el teorema de la función implı́cita:
dy Fx
=−
dx x0 =0
Fy

dy Gx
=−
dx y 0 =0
Gy
47
Una muy buena ayuda para este tema, es ver el vı́deo del YouTuber ”3Blue1Brown”,
en el que muestra mas gráficamente a lo que nos referimos.

71
2. Se determina la dirección de x a ambos lados de la curva de demarcación
x0 = 0 a partir de la derivada (cualquiera de las dos):
∂X 0 ∂X 0
∂X
= Fx ∂y
= Fy

3. Se determina la dirección de y a ambos lados de la curva de demarcación


y 0 = 0 a partir de la derivada (cualquiera de las dos):
∂Y 0 ∂Y 0
∂Y
= Gy ∂X
= Gx

4. A partir de estos dos pasos previos se escriben los signos + o - que


indican la trayectoria del sistema en cada una de las cuatro regiones.
5. Se grafican algunas trayectorias.
El diagrama de fase no nos da información acerca de qué tan rápido se llega
a ese equilibrio, porque la variable t no está explı́citamente graficada. Sin
embargo, a medida que la trayectoria se acerque a la curva x0 = 0(o y 0 = 0) la
velocidad de desplazamiento en sentido horizontal (vertical) debe disminuir
progresivamente.
Existen cuatro tipos de equilibrio que pueden encontrarse cuando se hace un
análisis cualitativo con un diagrama de fase:
• Nodo: Cuando las trayectorias convergen (nodo estable) o divergen
(nodo inestable) en forma no cı́clica.
• Foco: Cuando las trayectorias convergen (foco estable) o divergen (foco
inestable) en forma cı́clica.
• Punto de silla: Cuando algunas trayectorias convergen al equilibrio
pero otras divergen de él. Este equilibrio es inestable.
• Vórtice: Cuando las trayectorias orbitan alrededor del equilibrio sin
converger a él pero tampoco alejarse. Este equilibrio es inestable.
Para analizar la estabilidad local de sistemas no lineales tenemos que ver otro
proceso. Cuando el sistema es no lineal tenemos que apelar a otros métodos.
Uno de ellos es linealizar el sistema en un entorno del punto de equilibrio.
Este método solo permite analizar estabilidad local. Considerando el punto
de equilibrio (x̄; ȳ) y la expansión de Taylor:
x0 = f (x̄; ȳ) + fx (x̄; ȳ)(x − x̄) + fy (x̄; ȳ)(y − ȳ)

72
y 0 = g(x̄; ȳ) + gy (x̄; ȳ)(y − ȳ) + gx (x̄; ȳ)(x − x̄)
Como f (x̄; ȳ) = g(x̄; ȳ) = 0

x0 = fx (x̄; ȳ)(x − x̄) + fy (x̄; ȳ)(y − ȳ)

y 0 = gy (x̄; ȳ)(y − ȳ) + gx (x̄; ȳ)(x − x̄)


x0 − fx (x̄; ȳ)x − fy (x̄; ȳ)y = −fx (x̄; ȳ)x̄ − fy (x̄; ȳ)x̄
y 0 − gy (x̄; ȳ)y − gx (x̄; ȳ)x = −gy (x̄; ȳ)ȳ − gx (x̄; ȳ)x̄
Podemos prescindir de los términos de la derecha ya que son constantes. De
igual manera, lo que no va a importar prácticamente es:
" # " # " # " #
x0 fx fy x 0
− =
y0 gx gy (x̄;ȳ)
y 0

La estabilidad local del sistema linealizado dependerá de la traza y el deter-


minante de la matriz jacobiana evaluada en el punto de equilibrio
" #
fx fy
JE =
gx gy (x̄;ȳ)

Caso Det(J) Tr(J) Equilibrio


+ - Nodo Estable
T r(A)2 > 4Det(A) + + Nodo Inestable
- +;0;- Punto de Ensilladura
+ - Nodo Estable
T r(A)2 = 4Det(A)
+ + Nodo Inestable
+ - Foco Estable
T r(A)2 < 4Det(A) + + Foco Inestable
+ 0 Vórtice

También se puede analizar de la siguiente forma (para los sistemas de


ecuaciones diferenciales lineales con coeficientes constantes):

73
Raices Caso Det(A) Tr(A) Equilibrio
+ - Nodo Estable
Reales Distintas T r(A)2 > 4Det(A) + + Nodo Inestable
- +;0;- Punto de Ensilladura
+ - Nodo Estable
Reales Iguales T r(A)2 = 4Det(A)
+ + Nodo Inestable
+ - Foco Estable
Reales Imaginarias T r(A)2 < 4Det(A) + + Foco Inestable
+ 0 Vórtice

Para analizar la Estabilidad global de sistemas no lineales, usamos


el Teorema de Liapunov:
Considerando el sistema de ecuaciones diferenciales no lineales autónomo
Y 0 (t) = f (Y (t)), y sea Ȳ el punto de equilibrio. El equilibrio es globalmente
estable en sentido asintótico si y solo si existe una función V = V (Y − Ȳ )
con derivadas primeras parciales continuas tal que:

• V es definida positiva para todo Y (t) 6= Ȳ

• V no esta acotada superiormente.

• V 0 es definida negativa para todo Y (t) 6= Ȳ

A la función V se la llama función de Liapunov. Usualmente se suele postular


una forma cuadrática en (Y − Ȳ ) como función de Liapunov, ya que no están
acotadas por los términos cuadráticos. Luego se verifica si su derivada es
una forma cuadrática negativa: si lo es entonces el equilibrio es globalmente
estable.

11.2 Practica
En este apartado, vamos a tratar de cubrir la mayorı́a de los tipos de ejerci-
cios que nos podemos encontrar. Empecemos.
Ejercicio 3:
Este ejercicio nos pide hallar la ecuación caracterı́stica, la solución general,
analizar la estabilidad y el diagrama de fase de la siguiente ecuación carac-
terı́stica: )
X 0 = X + 2Y
Y 0 = 4X + 3Y

74
Primero, vamos a tener que armar la matriz de operadores. Recordando la
teorı́a, esta se define como |A − DI|(−1). Sin embargo, para esto primero
tenemos que definir la matriz A. Esta es una matriz que tiene como compo-
nentes, los coeficientes del sistema de ecuaciones diferenciales escrito como se
muestra arriba. Esto es, la derivada de la variable igual a las otras variables.
Entonces: " #
1 2
A=
4 3
Por lo tanto, el determinante de la matriz de operadores:
D − 1 −2
G[D] =
−4 D − 3
Desarrollando:
G[D] = D2 − 4D − 5
Esto es la ecuación caracterı́stica del problema48 . Las raı́ces son:
D1 = −1 ∧ D2 = 5

Ahora, hay que buscar los autovectores de cada autovalor. Primero, busque-
mos el de −1: " # " #
−1 − 1 −2 −2 −2
=
−4 −1 − 3 −4 −4
Realizando el método de la Adjunta:
" #
−4 4
Adj =
2 −2
Elegimos una columna y simplificamos sus valores:
" # " #
1 2 1
X = =
−2 −1

Realizamos el mismo procedimiento para el otro autovalor (5):


" # " #
5 − 1 −2 4 −2
=
−4 5 − 3 −4 2
48
Multiplicada por menos uno. Esto no cambia el valor de las raı́ces pero si el signo del
polinomio. A fines de resolver el ejercicio no cambia, pero es importante darse cuenta de
esto.

75
Realizando el método de la Adjunta:
" #
2 2
Adj =
4 4

Elegimos una columna y simplificamos sus valores:


" # " #
2 1
X2 = =
4 2

Por lo tanto, la solución al sistema homogéneo, y general ya que el sistema


no tiene componentes extras, es la siguiente:
" # " # " #
X0 1 −t 1
= C1 e + C2 e5t
Y0 −1 2

A su vez, podemos concluir que el sistema es inestable, ya que la raı́z de


mayor valor no es negativa.
Para realizar el diagrama de fase, vamos a tener que analizar las derivadas.
Paro empecemos por lo primero. Primero buscamos las curvas de demar-
cación. Estas son las siguientes:

X 0 = 0 → 2Y + X = 0 → Y = − 21 X
Y 0 = 0 → 4X + 3Y = 0 → Y = − 34 X

Cuando las grafiquemos, vamos a ver como se divide el espacio en 4 sectores.


Estas curvas van a ser los puntos donde no haya un movimiento sobre las
variables. Por eso, queremos analizar lo que pasa al rededor de estas. Para
esto, usamos principalmente dos derivadas:
∂X 0 ∂Y 0
∂X
∧ ∂X

Analicémoslas por separado: La primera, nos informa como varia la X 0 ante


cambios en X:
∂X 0
=1
∂X
Como es positiva, nos dice que a la derecha de la curva de demarcación
(X 0 = 0) va a estar creciendo y a la izquierda decreciendo. Es por esto, que
marcamos con el signo + a la derecha de la misma y con el signo − a la

76
izquierda. Esto va a ser de mas importancia mas adelante.
Simétricamente, hacemos lo mismo para la siguiente derivada:
∂Y 0
=4
∂X
Como es positiva, nos dice que a la derecha de la curva de demarcación
(Y 0 = 0) va a estar creciendo y a la izquierda decreciendo. Es por esto, que
marcamos con el signo + a la derecha de la misma y con el signo − a la
izquierda.
Sumando todo al mismo gráfico, podemos dibujar las flechas de las tendencias
en base a esta información. Por cada sector, vamos a tener un par de flechas.
Los signos (− o +) de la curva de demarcación de X, nos van a decir las
flechas horizontales (hacia la derecha si es un mas o hacia la izquierda si es
un menos). Y los signos (− o +) de la curva de demarcación de Y, nos van
a decir las flechas verticales (hacia la arriba si es un mas o hacia la abajo si
es un menos).
Ası́ es como hicimos el diagrama de fase.
Ejercicio 4:
Hallemos la solución del siguiente sistema de ecuaciones diferenciales:
)
X 00 − X − 2Y = e2t
Y 0 + X + 2Y = 3et
Lo primero que nos llama la atención, es que este sistema no es de primer
orden. Sin embargo, se puede resolver muy fácil. El problema escrito de una
forma diferente: " # " # " #
X 0 t 1
G[D] = e + e2t
Y 3 0
Entonces nuestro primer paso, es hallar la solución para el sistema ho-
mogéneo. " # )
X X 00 − X − 2Y = 0
G[D] =0
Y Y 0 + X + 2Y = 0
Armando la matriz de operadores (|A − DI|(−1)) llegamos a la siguiente:
D2 − 1 −2
1 D+2
Notemos que el primer D esta al cuadrado debido a que la primera ecuación
del sistema es de orden dos. Resolviendo el determinante:
D3 + 2D2 − D = 0

77
√ √
D1 = 0 ∧ D2 = −1 + 2 ∧ D3 = −1 − 2
Buscando los tres autovectores:
" # " #
−1 −2 2 2
→ Adj =
1 2 −1 −1
" #
1 2
X =
−1

" √ # " √ #
−1 + 2−1 −2
√ −1 + 2 + 2 −2

→ Adj =
1 −1 + 2 + 2 1 −1 + 2 − 1
" √ #
2 −1 + 2+2
X =
1

" √ # " √ #
−1 − 2−1 −2
√ −1 − 2+2 −2

→ Adj =
1 −1 − 2 + 2 1 −1 − 2 − 1
" √ #
3 −1 − 2+2
X =
1
Por lo tanto, la solución homogénea es:
" #h " # " √ # " √ #
X0 2 0t −1 + 2+2 √
(−1− 2)t −1 − 2 + 2 √
= C1 e +C2 e +C3 e(−1+ 2)t
Y0 −1 1 1

Para encontrar la solución general, tenemos que encontrar la particular. Esta


se basa en los términos que acompañan a la ecuación diferencial. En este caso,
son los siguientes: " # " #
0 1
et + e2t
3 0
Según la teorı́a, nosotros tenemos que reemplazar en la matriz de operadores
el número que acompaña a la t en el exponente, y calcular la inversa. A esto,
lo multiplicamos por el vector que acompaña correspondientemente a la e:
" #
0
G−1
[1] =
3

78
" #−1 " # " #
0 −2 0 3
=
1 3 3 0
Y para el otro termino: " #
1
G−1
[2] =
0
" #−1 " # " #
1 −2 1 2/7
=
1 4 0 −1/14
Entonces, la solución particular:
" #p " # " #
X0 3 2/7
= et + e2t
Y0 0 −1/14
Por lo tanto, la solución general:
" #g " #h " #p
X0 X0 X0
= +
Y0 Y0 Y0

12 Control Óptimo
12.1 Teorı́a
En los problemas de optimización que vimos hasta ahora el objetivo era
encontrar un valor para cada variable tal que la función objetivo resulte
maximizada. Estos problemas eran estáticos ya que el tiempo no intervenı́a.
Por el contrario, en optimización dinámica vamos a contemplar un horizonte
de planeamiento y buscar los valores para cada momento del tiempo que
maximizan la función objetivo. El resultado no es un valor, sino muchos
(infinitos) para cada momento del tiempo, es decir, una función del tiempo.
El problema canónico de optimización dinámica en tiempo continuo es el
siguiente:

dy(t)
 ≡ Y 0 (t) = g(t; y; u)
 dt


Z t1 
Y (t0 ) = y0
M ax F (t; Y (t); u(t))dt sa 
u(t) t0   Y (t1 ) = y1
u(t) ∈ U ∀t ∈ [t0 ; t1 ]

El objeto matemático que se quiere maximizar es una funcional, que trans-


forma funciones en números. Para ello se debe encontrar la variable u(t),

79
que se denomina variable de control, que maximice dicho funcional. Pero
la funcional también depende de y(t), la variable de estado, que se ve al-
terada por u(t) mediante la ecuación de movimiento g(.).
La variable de estado y(t) constituye una descripción completa de la posición
del sistema en el momento t, ya que incorpora la sucesión de todos los val-
ores de la variable de estado y de control que ocurrieron hasta ese momento
{y(s), u(s)}tt−1
0
Hay tres métodos para resolver este tipo de ejercicios:

• Calculo de variaciones

• La teorı́a del control óptimo

• Programación dinámica

En este apartado, nos vamos a centrar en el segundo método.


El control óptimo es similar al método de los multiplicadores de Lagrange
para optimización estática. En este caso las condiciones de primer orden
se derivan del principio del máximo de Pontryagin. Definimos la función
Hamiltoniana49 :

H(t; u; y; λ) = F (t; y; u) + λg(t; y; u)

Acá. λ es la variable de coestado, y tiene una interpretación similar al mul-


tiplicador de Lagrange, sin embargo en este caso es una función en lugar de
un escalar. Nos muestra el valor de un incremento infinitesimal de y(t) en t.
En otras palabras, es el precio sombra.
Definimos el Principio del Máximo:
Las condiciones necesarias de primer orden para un máximo local son:

• Mu(t)
ax H(t; u; y; λ)

• Y0 = ∂H
∂λ

• λ0 = − ∂H
∂y

49
Notese, que se forma diferente al Lagrangiano. Acá, la función que multiplica al λ no
se le cambia el signo cuando este va sumando.

80
Si u(t) no está restringida entonces la primer condición se puede reemplazar
por Hu0 = 0 y Huu 00
< 0.
La segunda condición re-expresa la ecuación de movimiento. Las ecuaciones
2 y 3 forman un sistema de dos ecuaciones diferenciales de primer orden.
Además, existe cierta simetrı́a entre las dos condiciones.
Definimos el Teorema de Mangasarian:
Las condiciones de primer orden del principio del máximo son también sufi-
cientes para un máximo global si:

• F (.) y G(.) son diferenciables y cóncavas en (u; y).

• λ∗ (t) ≥ 0 para todo t, siempre y cuando g(.) no sea lineal. En el caso


de serlo, con el primer ı́tem es suficiente.

En algunos problemas no se especifica el valor de la variable de estado al


momento final. Frente a esto, las distintas alternativas son:

1. Lı́nea terminal vertical: se especifica el momento final t1 pero se deja


libre y(t1 )

2. Lı́nea terminal horizontal: se especifica el valor y(t1 ) pero se deja libre


t1

3. Lı́nea terminal vertical truncada: como lı́nea terminal vertical pero se


agrega una restricción más: y(t1 ) ≥ ymin

4. Lı́nea terminal horizontal truncada: como lı́nea terminal horizontal


pero se agrega una restricción más: t1 ≤ tmax

Cada uno de estos casos, tiene asociada una condición de transversalidad


para resolver el problema. Estas son:

1. λ∗ (t1 ) = 0

2. H(t1 ; u∗ ; y ∗ ; λ∗ ) = H ∗ |t=t1 = 0

3. λ∗ (t1 ) ≥ 0 y(t1 ) ≥ ymin (y(t1 ) − ymin )λ∗ (t1 ) = 0

4. H ∗ |t=t1 ≥ 0 t1 ≤ tmax (t1 − tmax )H ∗ |t=t1 = 0

81
Las condiciones de transversalidad constituyen, junto con las condiciones del
principio del máximo, condiciones necesarias para la existencia de un máximo
local.
El problema de control óptimo es autónomo cuando la variable t no está en
la función objetivo ni en la ecuación de movimiento:

dy(t)
 ≡ Y 0 (t) = g(y; u)
 dt


Z t1 
Y (t0 ) = y0
M ax F (Y (t); u(t))dt sa 
u(t) t0   Y (t1 ) = y1
u(t) ∈ U ∀t ∈ [t0 ; t1 ]

En este tipo de problemas se puede hacer un análisis cualitativo con un


diagrama de fase. Este se basa en las últimas dos condiciones del principio
del máximo. No obstante, existen otros problemas en los que el tiempo solo
aparece en el factor de descuento en la función objetivo:

dy(t)
 ≡ Y 0 (t) = g(y; u)
 dt


Z t1 
Y (t0 ) = y0
M ax F (Y (t); u(t))e−rt dt sa
u(t) t0 

 Y (t1 ) = y1
u(t) ∈ U ∀t ∈ [t0 ; t1 ]

Si bien estos problemas no son autónomos, pueden “convertirse” si se emplea


la función Hamiltoniana a valor corriente:

Hc ≡ Hert = F (y; u) + µg(y; u) µ ≡ λert

Las condiciones del principio del máximo cambian a:

• Mu(t)
ax Hc (u; y; µ)

• Y0 = ∂Hc
∂µ

• µ0 = − ∂H
∂y
c
+ rµ

Cuando queremos hacer el diagrama de fase, para determinar en qué trayec-


toria va a estar la economı́a hay que obtener los valores de las constantes
indeterminadas. Como son dos ecuaciones diferenciales de primer orden va-
mos a tener dos constantes indeterminadas. Pero puede ser que tengamos

82
una sola condición inicial k(0) = k0 , nos falta una condición más... En reali-
dad no. La otra condición que necesitamos es la condición de transversalidad,
que en el caso de un problema de horizonte infinito es:

lim H(t; c∗ ; k ∗ ; λ∗ ) = lim e−rt Hc (t; c∗ ; k ∗ ; λ∗ ) = 0


t→∞ t→∞

Esta condición es el lı́mite cuando t tiende al infinito de la condición de


transversalidad del problema de lı́nea terminal horizontal cuando el problema
era de horizonte finito. Se verifica para el equilibrio.
A veces la condición de transversalidad no es tan fácil de verificar y se la
reemplaza por la siguiente:

lim λ(t)k(t) = 0
t→∞

Sin embargo, esta condición no es válida para todos los problemas de control
óptimo con horizonte infinito, sino en aquellos en los que U (c) es cóncava,
el tiempo solo afecta a través del factor de descuento y se cumplen algunos
supuestos técnicos adicionales. Solo se nombra para futuros cursos, no para
uso practico en este.

12.2 Practica
A continuación, se procederá a realizar paso por paso 4 ejercicios presentando
diferentes casos a analizar.
Ejercicio 1:
Dado el siguiente problema:
Y0 =y+u

Z 1 

2
max −u dt sa y(0) = 1
0
y(1) ≥ 3

Se pide:
1. Escribir el Hamiltoniano y expresar las condiciones que surgen del prin-
cipio del máximo

2. Encontrar la expresión óptima de las variables de control y de coestado

3. Encontrar la expresión óptima de la variable de estado

4. Justificar la condición de transversalidad asociada al problema

83
1. El primer punto, generalmente es el mas fácil. Planteando la función:

H(t; y; u) = −u2 + λ(y + u)

Recordando las tres condiciones del Principio de Principio del máximo


para una función Hamiltoniana:
H(t; y; u∗ ; λ) ≥ H(t; y; u; λ) (1)

∂H
∂λ
=Y0 (2)

− ∂H
∂y
= λ0 (3)

Procediendo con el ı́tem (1), maximizamos la función con respecto a u:


∂H
: −2u + λ = 0
∂u
λ
u=
2
Para verificar que se trata de un máximo, vemos que su diferencial
segundo es negativo:
∂ 2H
= −2 < 0
∂ 2u
Para el segundo (2) ı́tem:
∂H
:y+u=Y0
∂λ
Y para el tercer (3) ı́tem:
∂H
− : −λ = λ0
∂Y
A estas condiciones necesarias, se les suman otra mas que surgen de la
condición de transversalidad. Esto se debe a que este es un problema
de Linea Terminal Vertical Truncada:

λ∗ (t1 ) ≥ 0 y(t1 ) ≥ ymin (y(t1 ) − ymin )λ∗ (t1 ) = 0

λ∗ (1) ≥ 0 y(1) ≥ 3 (y(1) − 3)λ∗ (1) = 0


Hecho el inciso 1, seguimos.

84
2. Este en un principio puede ser el problema mas difı́cil. Primero tenemos
que ver si encontramos una ecuación diferencial que podamos resolver.
Encontramos la siguiente:
λ0 = −λ
λ0 + λ = 0
Esto se puede resolver como una ecuación diferencial homogena. Lo
único que tenemos que hacer es encontrar la raı́z del problema y el
resultado serı́a el siguiente:

λ∗ (t) = C1 e−t

Si recordamos, también tenı́amos la siguiente expresión funcional:


λ
u=
2
Que ahora queda:
C1 e−t
u∗ (t) =
2
3. Y nos queda la ultima expresión funcional (la de la variable de estado):

Y0 =y+u

Que re expresada:
y0 − y = u
C1 e−t
y0 − y =
2
Este, es otra ecuación diferencial, la cual se puede resolver fácilmente
(hay que encontrar la solución general, esto es la homogénea mas la
particular). La resolución esta a cargo del lector ya que: (i) es buena
practica y (ii) es un tema de otro apartado explicado en este resumen.

C1 −t
Y ∗ (t) = C2 et − e
4

4. Finalmente, solo nos queda verificar la condición de transversalidad,


que además, nos va a ayudar a encontrar los valores de las constantes:
En el caso de lı́nea vertical truncada, el enfoque práctico a abordar

85
es el siguiente: primero probamos que λ(t1 ) = 0 y si los valores re-
sultantes de esta prueba satisfacen y(t1 ) ≥ ymin , terminamos el ejer-
cicio. En cambio, de no satisfacerlo, tenemos que realizar el ejercicio
probando y(t1 ) = ymin . Si o si alguna se va a cumplir debido a la ter-
cera condición50 .
Si λ(1) = 0 podemos ver que:

λ∗ (1) = C1 e−1
C1
λ(1) = =0
e
Por lo tanto el único valor posible para C1 es igual a 0.
Y también sabemos que Y (0) = 1
C1 −0
Y ∗ (0) = C2 e0 − e =1
4
C1
Y (0) = C2 − =1
4
Y (0) = C2 = 1
Verificando si cumple con Y (1) ≤ 3 vemos lo siguiente:

Y (1) = e1 = e

Y como e es menor a 3, no cumple con la condición. Entonces tenemos


que probar con Y (1) = 3. Acá tenemos las dos condiciones que nos
forman un sistema de ecuaciones:

y(0) = 1 ∧ y(1) = 3

Si resolvemos este sistema encontramos que:


h i
12e−4e2 12e−4e2
C1 = e2 −1
∧ C2 = 1 + e2 −1
/4

Entonces, nuestra solución final van a ser las funciones óptimas con las
constantes reemplazadas:
12e − 4e2 e−t
u∗ (t) =
e2 − 1 2
50
Hay una cierta simetrı́a con respecto a las KKT. Entender bien ese tema
metodológicamente puede ayudar a entender este tema.

86
2
 
12e−4e
12e − 4e2
" # !
Y ∗ (t) = 1 + /4 e t
−  e2 −1  e−t
e2 − 1 4

12e − 4e2
" # !

λ (t) = 1 + /4 e−t
e2 − 1

Ejercicio 2:
Dado el siguiente problema de maximización:

K 0 = ln(k) − c − k

Z ∞ 

−γt
max ln(Ac)e dt sa k(0) = 0
0
{c; γ} > 0

Se pide:

1. Escribir las 3 ecuaciones diferenciales que surgen del principio de máximo

2. En el plano (k;c) Encontrar la ecuación de la curva K 0 = 0 y c0 = 0

3. Realizar el diagrama de fase correspondiente a K 0 = ln(k) − c + k

1. Para el primer punto es necesario escribir el Hamiltoniano. Solo que


esta vez vamos a usar el corriente. ¿Cómo saber cual usar? Eso depende
de si tener un termino en la función objetivo que sea e elevado a la
variable t. Definimos entonces el Hamiltoniano Corriente:

Hc = ln(Ac) + µ [ln(k) − c − k]

Muy importante recordar que en este se usa µ en vez de λ, ya que este


es equivalente a λeγt .
Planteando las condiciones de primer orden:
La primera:
∂Hc A
= −µ=0
∂c c
A
µ=
c
La segunda:
∂Hc
= ln(k) − c − k = K 0
∂µ

87
La tercera:
∂Hc 1
 
− + γµ = µ γ + 1 − = µ0
∂k k
Estas son las tres ecuaciones del principio del máximo. Es muy impor-
tante recordar que a la tercera, por ser un Hamiltoniano Corriente, se
le va a sumar otro termino.

2. Acá nos tenemos que dar cuenta de lo siguiente: el enunciado nos


pide que las curvas de demarcación estén igualadas a K 0 y a C 0 . Sin
embargo, nuestras curvas de demarcación están en igualadas a K 0 y a
µ0 . Entonces, vamos a tener que reemplazar a mu por otra variable que
si sea de interés. Para esto usamos la primera condición:
A
µ=
c
Si derivamos con respecto al tiempo:
A 0
µ0 = − C
c2
Reemplazando esto es la curva de demarcación de mu:
A 1 A 0
 
γ+1− =− C
c k c2
Que simplificando y despejando C 0 nos queda:
1
C 0 = c( − 1 − γ)
k
Y la otra curva habı́a quedado como:

K 0 = ln(k) − c − k

Igualando las curvas de demarcación a 0 y despejando una variable,


obtenemos que:
1
K=
1+γ
C = ln(k) − k

88
3. En este apartado nos cambian las curvas de demarcación. Ahora, K 0
va a ser:
K 0 = ln(k) − c + k
Y las curvas van a ser:
1
K=
1+γ
C = ln(k) + k
Para hacer el diagrama de fase, vamos a ver las derivadas cruzadas51 .
Encontramos lo siguiente:
∂C 0 c
=− 2 <0
∂K k
∂K 0
= −1 < 0
∂c
En base a esta información, podemos armar el siguiente gráfico:

51
Usamos estas ya que recordando, estas derivadas no nos sirven si es que dan 0 o
infinito.

89
Ejercicio 3:
Dado el siguiente problema:

K0 = I



Z ∞
k(0) = K0


max e−pt [αK − βK 2 − aI − bI 2 ]dt sa 
0 
 {α; β; a; b} > 0
α/p > a

Se pide:

1. Plantear el Hamiltoniano (utilizar valor presente)

2. Escribir el sistema de ecuaciones diferenciales en k y m que surgen de


las condiciones de primer orden

3. Buscar el punto de equilibrio del sistema

1. El primer punto nos pide hallar el Hamiltoniano Corriente:

Hc = αK − βK 2 − aI − bI 2 + µI

Donde µ = λept

2. Planteando las condiciones del principio del máximo:


La primera:
∂Hc
= −a − 2bI + µ = 0
∂I
µ = a + 2bI
La segunda:
∂Hc
: I = K0
∂µ
La tercera:
∂Hc
− + pµ = −α + 2βK + pµ
∂µ
Pero, como es costumbre, la tercera condición no sirve mucho de esa
forma. Es por esto derivamos la primera condición y reemplazamos µ
donde corresponda:
µ = a + 2bI
µ0 = 2bI 0

90
Y la tercera nos queda:

2bI 0 = −α + 2βK + p(a + 2bI)

Despejando I 0 , obtenemos la ecuación diferencial que queremos:


ap − α βK
I 0 = pI − +
2b b

3. Para encontrar el equilibrio del sistema, vamos a tener que ver las curvas
de demarcación, igualarlas a 0 y despejar una variable para graficar.
Sin embargo, nos encontramos con algo particular con la primera curva
de demarcación:
K0 = 0 = I
Esto quiere decir que toda I va a valer 0 (va a ser una linea horizontal
recta). Entonces podemos reemplazar esto en la segunda curva de
demarcación:
ap − α βK
I0 = 0 = − +
2b b
α − ap
K=

Esta segunda curva de demarcación no depende de ninguna variable.
Entonces va ser una linea vertical recta.
Con esta información, se puede hacer el diagrama de fase.

Ejercicio 4:

K 0 (t) = φ(K(t)) − c(t) − (n + γ)K(t)



Z ∞ 

−rt
max e U (c)dt sa k(0) = K0
0
0 ≤ c(t) ≤ φ(K(t))

Con algunos supuestos:

U 0 > 0 U 00 < 0 φ0 (K) > 0 φ00 (K) < 0

El Hamiltoniano Corriente es:

Hc = U (c) + µ[φ(K) − c − (n + γ)K]

91
Sabiendo que µ = λrt Las condiciones del principio del máximo:
∂Hc
: U 0 (c) − µ = 0
∂c
µ = U 0 (c)
La segunda:
∂Hc
: φ(k) − c − (n + γ)K = K 0
∂µ
La tercera:
∂Hc
− + rµ : −µ[φ0 (k) − (n + γ)] + rµ = µ0
∂K
µ0 = µ[φ0 (k) − (n + γ + r)]
Pero como somos intensos, no queremos ver la ecuación diferencial en términos
de µ. Ası́ que, vamos a ir derivando la primera condición para poder reem-
plazarla en la tercera:
µ = U 0 (c)
µ0 = U 00 (c)
U 00 (c)c0 = U 0 (c)[φ0 (k) − (n + γ + r)]
U 0 (c) 0
c0 = [φ (k) − (n + γ + r)]
U 00 (c)
Esta última ecuación, junto a la siguiente, son las dos curvas de demarcación
que queremos:
K 0 = φ(k) − c − (n + γ)K
Igualando a 0 y despejando una variable:

c = φ(k) − (n + γ)K

Analizando mas en detalle, vamos a ver la pendiente de esta curva de demar-


cación:
∂c
= φ0 (K) − (n + γ)
∂K
Esta, va a tener tres momentos diferentes:

> 0 → φ0 (k) > n + γ


= 0 → φ0 (k) = n + γ
< 0 → φ0 (k) < n + γ

92
Va a empezar con una pendiente positiva, hasta que se vuelve 0 y después
va a tener una pendiente negativa.
Y la segunda:
U 0 (c)
0 = 00 [φ0 (k) − (n + γ + r)]
U (c)
Notese, que para que esto sea 0, el corchete tiene que ser 0. Esto se debe a
que, por supuesto de la consigna, las derivadas de U (c) son mayores/menores
estrictas a 0. Entonces:
φ0 (k) − (n + γ + r) = 0
Esta va a ser una una linea vertical ya que es independiente de c.

13 Ecuaciones en Diferencias
13.1 Teorı́a
Sea yt una sucesión de valores y0 ; y1 ; y2 ; ...; yn que están indexados por la
variable t, que representa el tiempo en forma discreta. Se define a la diferencia
primera de yt como:
4yt = yt+1 − yt
La diferencia segunda es:
42 = 4(4yt ) = 4(yt+1 − yt ) = yt+2 − yt+1 − (yt+1 − yt ) = yt+2 − 2yt+1 + yt
La diferencia tercera:
43 = 4(yt+2 − 2yt+1 + yt ) = yt+3 − 3yt+2 + 3yt+1 − yt
La diferencia (4) es un operador que aplicado a cualquier función de variable
entera indica que debe restarse el valor de la función en ese perı́odo del valor
en el siguiente perı́odo:
4f (t) = f (t + 1) − f (t)
Como: n n
k1 yti = k1 4yti
X X
4
i=1 i=1
el operador diferencia es un operador lineal. Además del operador diferencia
existe otros operadores:

93
• Operador desplazamiento: Eyt = yt+1

• Operador identidad: IYt ≡ yt

• Operador derivada: Dy(t) = y 0 (t)

• Operador suma: = 4−1


P

Otra forma de escribir la diferencia es el operador de desplazamiento (E)


menos el operador de identidad identidad (I):

4=E−I

4n = (E − I)n
Una ecuación en diferencias es una relación funcional del tipo

F (t; yt ; yt+1 ; ...; yt+k ) = 0

Que también puede escribirse como:

F (t; yt ; 4yt ; 42 yt ; ...; 4k yt ) = 0

Si la función y depende de dos o más variables independientes entonces se


trata de una ecuación en diferencias parciales. De lo contrario se dice que la
ecuación en diferenciases ordinaria. El orden de una ecuación en diferencias
está dado por la diferencia de mayor orden, o lo que es lo mismo, por la
diferencia entre el mayor y el menor desplazamiento. Si F está expresada
en forma polinómica, entonces la ecuación en diferencias es lineal si y solo si
en cada uno de sus términos la función incógnita está elevada a la potencia
unitaria. Si F (.) no depende de t directamente, es decir, solo depende indi-
rectamente a través de y y sus diferencias, entonces la ecuación en diferencias
es autónoma. A veces puede despejarse yt+k de la ecuación en diferencias y
expresarla en forma normal:

F (t; yt ; yt+1 ; ...; yt+k−1 ) = yt+k

Al igual que con las ecuaciones diferenciales, toda ecuación en diferencias lin-
eal de orden n tiene solución única dadas n condiciones iniciales. El método
de resolución también es similar. Para resolver una ecuación en diferencias

94
homogénea se propone un guess y se calcula las raı́ces del polinomio carac-
terı́stico:
ayt+2 + byt+1 + cyt = 0
Se propone: (
t yt+1 = rCrt
yt = Cr →
yt+2 = r2 Crt
t 2
Cr
|{z}(ar + br + c) = 0
6=0

Y de acá se desprenden 3 posibles casos con sus respectivas soluciones:

1. Cuando las raı́ces son reales y distintas la solución es:

Y (t) = C1 r1t + C2 r2t

2. Cuando las raı́ces son reales e iguales la solución es:

Y (t) = C1 rt + C2 trt

3. Cuando las raı́ces son complejas la solución es:

Y (t) = C̃1 (α + βi)t + C̃2 (α − βi)t

Si escribimos los números complejos en forma polar:

Y (t) = C̃1 [p(cos ω + sin ω)]t + C̃2 [p(cos ω − sin ω)]t



Donde ω = arctan(β/α) y p = α2 + β 2 . Además, por la fórmula de
De Moivre:

Y (t) = C̃1 pt (cos ωt + sin ωt) + C̃2 pt (cos ωt − sin ωt)

Finalmente:
Y (t) = pt (C1 cos ωt + C2 sin ωt)

Como observación: El guess que se usa para resolver ecuaciones diferen-


ciales tiene que ver con el hecho de que:

[ert ]0 Es proporcional ert

95
Que luego de reemplazar en la ecuación diferencial permite sacar factor
común y resolver la ecuación caracterı́stica. Similarmente, para ecuaciones
en diferencias:

4rt Es proporcional rt

En otras palabras, en calculo infinitesimal, ex es la única función cuya derivada


es igual a si misma. En calculo discreto 2x es la única función cuya diferencia
es igual a si mimas.
Para resolver la ecuación completa (no homogénea), usamos el método de
coeficientes indeterminados.

• Si h(t) es un polinomio en t de grado p, entonces se ensaya un polinomio


p
Ai ti
X
completo de ese grado: y p =
i=1

• Si h(t) es una función exponencial K t entonces se ensaya y p = AK t

• Si h(t) una función K t sin(φt) (o con coseno), se ensaya y p = K t (A1 sin(φt)+


A2 cos(φt))

• Si h(t) contiene algún término que es solución de la ecuación homogénea,


correspondiendo a una raı́z r con orden de multiplicidad m, entonces se
multiplica por tm la solución a ensayar que corresponde a ese término.

• Si h(t) es la suma de dos o más de las funciones indicadas, entonces


se ensaya la suma de las soluciones a ensayar, sin repetir términos
semejantes.

• Si h(t) es el producto de dos o más de las funciones indicadas, entonces


se ensaya el producto de las soluciones a ensayar, sin repetir términos
semejantes.

En todos los casos, las constantes Ai deben determinarse de forma que yt


satisfaga la ecuación completa para todos los valores de t.
Teorema:
La solución general de la ecuación en diferencias es estable si y solo si todas
las raı́ces tienen módulo menor a uno.

96
Se demuestra: Cuando las raı́ces (reales o complejas) son distintas, los términos
de la solución de la homogénea tienen la siguiente forma:

Ci rit

Que tienden a 0 si y solo si su modulo es menor a 1. Nótese que cuando se


escribe el número complejo en forma polar y se usa la fórmula de De Moivre:

Y (t) = pt (C1 cos ωt + C2 sin ωt)

El módulo del número complejo es p, que está elevado a la t y multiplica


a la suma dedos funciones trigonométricas que están acotadas. Por otro
lado, cuando las raı́ces (reales o complejas) son repetidas, los términos de la
solución de la homogénea tienen la siguiente forma:

Ci tj rit ,

Donde j representa el orden de multiplicidad de la raı́z ri . Estos términos


también tienden a cero si y solo si el modulo es menor a 1.

13.2 Practica
Ejercicio 1:
Dado el siguiente problema, hallar la solución general del problema, con-
siderando que P (0) = P̄ y que B < D.

Qdt = Qst



Qdt = A − BPt
Qst = −c + DPt−1

Si bien este es un sistema de ecuaciones en diferencias, se puede resolver


como una sola. Para esto, las igualamos:

A − BPt = −c + DPt−1

BPt + DPt−1 = A + C
Sin embargo, ası́ como esta el problema no lo podemos resolver. Tenemos que
llevar la variable en el menor tiempo, a t. Para esto, usamos el operador de
desplazamiento. Básicamente, nos movemos para que Pt−1 este en Pt , pero

97
cuando movemos esta variable en el tiempo, hay que tener en cuenta que se
mueven las demás. Estas nos quedan:

BPt+1 + DPt = A + C

Y este problema, lo resolvemos como siempre. Primero, buscamos las raı́ces


del polinomio caracterı́stico para encontrar la solución homogénea:

Br + D = 0
D
r=−
B
D t
 
Pth
= C1 −
B
Y como sabemos por consigna que B < D, sabemos que esta raı́z es mayor a 1.
Por o tanto, este sistema es inestable. Para la solución completa, proponemos
una particular. En este caso, tenemos que proponer un polinomio del mismo
orden del termino A + C (orden igual a 1). Por lo que:

Ptp = K

Aplicando la diferencia:
p
Pt+1 =K
Cuidado que acá, habrı́a que reemplazar cada t, por t + 1, pero al ser una
constante, no se reemplaza por nada. Reemplazando las diferencias en la
ecuación original:
BK + DK = A + C
K(B + D) = A + C
A+C
Ptp = K =
D+B
Entonces la solución general es:
t
D A+C

Ytg = C1 − +
B D+B
Acá, tenemos otra condición en la consigna que nos dice P (0) = P̄ . Aplicándola:
0
D A+C

P0g = P̄ = C1 − +
B D+B

98
A+C
C1 = P̄ −
B+C
Por lo tanto, la solución final es:
t
A+C D A+C

Pt∗ = P̄ − − +
B+C B D+B
Ejercicio 2:
Dado el siguiente problema, hallar la solución general del problema:
2Yt+2 − 9Yt+1 + 18Yt = 2t
Primero, buscamos la solución homogénea planteando la ecuación carac-
terı́sticas y buscando las raı́ces.
2r2 − 9r + 18 = 0
Usando la resolvente, encontramos que:
√ √
9 3 7 9 3 7
r1 = 4
+ 4
i ∧ r2 = 4
− 4
i
Como son raı́ces imaginarias, la solución homogénea es:
ω = arctan(β/α) = 0, 72273
q
p= α2 + β 2 = 3
Y h = 3t (C1 cos 0, 72273t + C2 sin 0, 72273t)
Para la solución particular, proponemos un termino y diferenciamos:
Ytp = A2t
p
Yt+1 = A2t+1 = 2A2t
p
Yt+2 = A2t+2 = 4A2t
Reemplazando en la ecuación en diferencias:
2(4A2t ) − 9(2A2t ) + 18(A2t ) = 2t
8A = 1
1
A=
8
2t
Ytp =
8
Entonces la solución general es:
2t
Ytg = 3t (C1 cos 0, 72273t + C2 sin 0, 72273t) +
8
99
14 Sistema de Ecuaciones en Diferencias
14.1 Teorı́a
Al igual que en sistemas de ecuaciones diferenciales; los sistemas de ecua-
ciones en diferencias se pueden resolver despejando las ecuaciones o medi-
ante diagonalización. También es cierto que todo sistema de n ecuaciones en
diferencias es equivalente a una ecuación en diferencias de orden n.
Para resolver un sistema de ecuaciones en diferencias por sus autovalores se
procede igual que con los sistemas de ecuaciones en diferencias, con la única
salvedad de que los autovalores no van en el exponente de e sino que van
elevados a la t.
La solución homogena, se puede plantear generalizada como:

Xt = C1 X 1 λt1 + C2 X 2 λt2 + ... + Cn X n λtn

Para resolver sistemas de ecuaciones en diferencias no homogéneos se usa el


método de los coeficientes indeterminados:

• Si Ht es un vector de constantes, se ensaya un vector de constantes


Ytp = A
G(E)A = H
G(1)A = H
A = G(1)−1 H
Esta última ecuación es la solución particular del sistema completo,
siempre que uno no sea raı́z de la ecuación caracterı́stica.

• Si Ht es un vector de funciones exponenciales Kbt que tienen la misma


base (b), se ensaya Ytp = Abt

G(E)Abt = kbt

G(b)Abt = kbt
A = G(b)−1 k
Y reemplazando las constantes en la solución:

Yp = G(b)−1 kbt

100
Se llega a la solución particular, siempre que b no sea raı́z de la ecuación
caracterı́stica. Si Ht es la suma de funciones exponenciales con distintas
bases entonces se separa en términos con igual base y se encuentra la
solución particular para cada uno de ellos.

• Si Ht es una función seno o coseno, entonces se ensaya Ytp = A1 sin(φt)+


A2 cos(φt)

• Si Ht es un polinomio de grado n entonces se ensaya un polinomio


completo del mismo grado. Si 1 es raı́z de la ecuación caracterı́stica
con orden de multiplicidad m entonces el polinomio a ensayar debe
tener grado n+m.
En los dos últimos casos la matriz de operadores no se usa para hallar la
solución; solo para ensayarla.
Si queremos analizar el Diagrama de Fase, vamos a tener que re-escribir
el operador de diferencia como delta:

Xt+1 = f˜(xt ; yt )
Yt+1 = g̃(xt ; yt )

4Xt = f (xt ; yt )
4Yt = g(xt ; yt )
Para graficar el diagrama de fases se siguen los mismos pasos que en sistemas
de ecuaciones diferenciales, con la única diferencia de que ahora las curvas
de demarcación serán 4Xt = 0 y 4Yt = 0.
Para analizar las trayectorias, simplemente hacemos las derivadas parciales
como en ecuaciones diferenciales.
Como un sistema de n ecuaciones en diferencia de primer orden puede conver-
tirse en una ecuación en diferencias de orden n, las condiciones de estabilidad
de un sistema son las mismas que las que se aplican a las ecuaciones. Un
sistema es estable si y solo si todas las raı́ces de la ecuación caracterı́stica
tienen módulo menor a 1. Cuando el sistema es no lineal puede linealizarse
alrededor del punto de equilibrio, y analizar la estabilidad del sistema lin-
ealizado. La condición es la misma: que las raı́ces tengan módulo menor
a 1. Este método solo sirve para analizar estabilidad local. Nótese que las
condiciones sobre el determinante y la traza de la matriz jacobiana que se
usaban en sistemas de ecuaciones diferenciales ya no son válidas.
Para determinar la estabilidad global de un sistema no lineal tenemos con el

101
teorema de Liapunov:
Teorema: Consideremos el sistema de ecuaciones en diferencias no lin-
eales autónomo Yt+1 = f (yt ) y sea Ȳ el equilibrio. Este es globalmente
estable en sentido asintótico si y solo si existe una función escalar continua
V = V (Y − Ȳ ) tal que:

1. V es definida positiva para todo Y distinto al equilibrio y v=0 si y solo


si se esta en el equilibrio.

2. V no esta acotada superiormente.

3. La diferencia de V es definida negativa para todo punto distinto al


equilibrio y es 0 en el mismo.

A la función V se la llama función de Liapunov. Usualmente se suele postular


una forma cuadrática en (Y − Ȳ ) como función de Liapunov, ya que no están
acotadas por los términos cuadráticos. Luego se verifica si su diferencia
primera es una forma cuadrática negativa: si lo es entonces el equilibrio es
globalmente estable.

14.2 Practica
Ejercicio 1:
Sea el siguiente modelo, hallar la solución:
)
Xt+1 − Xt − 12Yt = 6
Xt + Yt+1 + 6Yt = 9

Si queremos armas la matriz de operadores, las variables de mayor orden van


a ser las E en la matriz. Entonces, el sistema matricial nos queda:
" #" # " #
E − 1 −12 X 6
=
1 E+6 Y 9

Buscando el determinante de la matriz de operadores:

E 2 + 5E + 6 = 0

Cuyas raı́ces son:


E1 = −2 ∧ E2 = −3

102
Estos son los autovalores de la matriz. Buscando los autovectores correspon-
dientes: " # " #
1 4 2 3
X = ∧ X =
−1 −1
Por lo tanto, la solución homogénea es:
" #h " # " #
Xt 4 t 3
= C1 (−2) + C2 (−3)t
Yt −1 −1

Para la solución particular proponemos una constante igual a G(1)−1 H ya


que 1 no es raı́z de la ecuación caracterı́stica:
" #−1 " # " #
1 − 1 −12 6 25/9
A= =
1 1+6 9 −(1/2)
Por lo tanto, la solución general es:
" #g " # " # " #
Xt 4 t 3 t 25/9
= C1 (−2) + C2 (−3) +
Yt −1 −1 −(1/2)
Ejercicio 2:
Sea el siguiente modelo, hallar la solución:
)
Xt+2 + 6Xt + 7Yt = 4
3Xt + Yt+1 + 2Yt = −1
Si queremos armas la matriz de operadores, las variables de mayor orden
van a ser las E en la matriz. A diferencia del punto anterior, hay que tener
cuidado que la de mayor orden esta en t+2, por lo tanto, E va a estar elevado
a 2. Entonces, el sistema matricial nos queda:
" #" # " #
E2 + 6 7 X 4
2 =
3 E +2 Y −1
Buscando el determinante:

E 4 + 8E 2 − 9 = 0

Para encontrar las raı́ces, bajamos el grado del polinomio. Terminamos en-
contrando que:

E1 = 1 ∧ E2 = −1 ∧ E3 = 0 + 3i ∧ E4 = 0 − 3i

103
Buscando los autovectores, vamos a encontrar que va a ser el mismo para los
autovalores que solo cambian en el signo ya que la E esta elevada al cuadrado.
Por lo tanto, tenemos que:
" # " # " # " #
1 1 1 2 7 7
X = ∧ X = ∧ X3 = ∧ X4 =
−1 −1 3 3
√ π
A su vez, definiendo a P = α2 + β 2 = 3 y a ω = arctan(β/α) = 2
,
definimos a la solución homogénea como:
" #h " # " # " #
Xt 1 1 7 π π
 
t t t
= C1 (1) +C2 (−1) + 3 C3 cos t + C4 sin t
Yt −1 −1 3 2 2
Para solucionar la ecuación en diferencia completa, vemos que están igualados
a un vector de constantes. Sin embargo, 1 es raı́z de la ecuación caracterı́stica.
Por lo tanto la resolución cambia. Tenemos que proponer un polinomio
completo de grado n + m, osea de grado 0 + 1 = 1.
" #
A1 t + B1
Ytp =
A2 t + B2

Para encontrar los coeficientes (A1 ; B1 ; A2 ; B2 ), multiplicamos la matriz de


operadores por esta solución particular y lo igualamos al termino H:
" #" #
E2 + 6 7 A1 t + B1
=
3 E2 + 2 A2 t + B2
" # " #
(E 2 + 6)(A1 t + B) + 7(A2 t + B2 ) 4
=
3(A1 t + B2 ) + (E 2 + 2)(A2 t + B2 ) −1
Recordemos, que el operador E, desplaza a la variable t en un tiempo. Por
ejemplo, At.E = A(t + 1). Entonces, si aplicamos distributiva y el operador,
llegamos a:
" # " #
t(7A1 + 7A2 ) + 2A1 + 7B1 + 7B2 4
=
t(3A1 + 3A2 ) + 2A2 + 3B1 + 3B2 −1

Lo que esta multiplicado por t, va a estar igualado a 0. Entonces tenemos el


siguiente sistema )
7A1 + 7A2 = 0
A1 = −A2
3A1 + 3A2 = 0

104
Y el otro sistema que nos queda es:
)
2A1 + 7B1 + 7B2 = 4 3
B1 = −B2 +
2A2 + 3B1 + 3B2 = −1 10
Si elegimos un número arbitrario para una variable, como B2 = 0, nos
quedan:
3
B2 = 0 ∧ B1 = 10 ∧ A1 = 19
20
∧ A2 = − 19
20

Por lo tanto, la solución particular es:


" #
19 3
20
t + 10
19
− 20 t

Y la solución general es:


" # " # " #  " 19 #
1 1 7 π π t+ 3

t t t 20 10
C1 (1) +C2 (−1) + 3 C3 cos t + C4 sin t +
−1 −1 3 2 2 − 19
20
t

15 Programación Dinámica
15.1 Teorı́a
Como hacı́amos en control óptimo, acá vamos a estar buscando funciones
discretas que nos maximicen según el tiempo donde nos encontremos. Este
tema puede ser un poco confuso al principio entonces se va a ir analizando
la teorı́a con ejemplos prácticos. Posteriormente, se tendrá como siempre la
sección practica. Empecemos.
Los problemas a los que nos vamos a enfrentar son del estilo:

T
X Yt+1 = g(t; yt ; ut )


M ax F (t; yt ; ut ) sa y0
ut ;Yt+1
ut ∈ U ∀t ∈ {0; 1; ...; T }

t=0 

Este problema se puede resolver mediante Lagrange:


T
X T
X
L= F (t; yt ; ut ) + [g(t; yt ; ut ) − yt+1 ]
t=0 t=0

En este caso, las condiciones de primer orden van a ser las derivadas par-
ciales todas igualadas a 0. Van a ser 3(T + 1) ecuaciones que se resuelven

105
simultáneamente y se obtienen las sucesiones de las variables de control, de
estado y de coestado52 .
Sin embargo, a veces se nos complica usar este método por la cantidad de
ecuaciones que tendrı́amos. Existe otro método de resolución (programación
dinámica) que explota la estructura recursiva del problema y lo parte en
muchos problemas de un perı́odo. Dicho de otra forma, el agente tiene el
problema de maximizar su rendimiento presente (en el mismo periodo) y fu-
turo (en el siguiente periodo, dado por su ecuación de movimiento). Sean los
rendimientos futuros:
T
X
Js+1 = F (t; yt ; ut )
t=s+1

Entonces la función de valor óptima en s satisface que:


h i
Js∗ (ys ) = M ax F (s; ys ; us ) + Js+1

(ys+1 )
us ;Ys+1

Sujeto a:
ys+1 = g(s; us ; ys )
Reemplazando la ecuación de movimiento en la objetivo:
h i
Js∗ (ys ) = M ax F (s; ys ; us ) + Js+1

(g(s; us ; ys ))
us ;Ys+1

Esta es la llamada Ecuación de Bellman.


La ecuación de Bellman nos permite pensar el problema de optimización
dinámica de otra forma. En vez de buscar simultáneamente los T+1 con-
troles de un problema dinámico, podemos partir el problema en T+1 prob-
lemas estáticos, y buscar el control óptimo de cada perı́odo. Para tener en
cuenta el impacto de la elección del control sobre los retornos futuros se debe
comenzar a resolver el problema en el último perı́odo.
La idea de partir un problema en subproblemas más pequeños lleva implı́cito
el Principio de Optimalidad de Bellman. Este dice que una polı́tica óptima
tiene la propiedad de que, sin importar cuáles fueron el estado inicial y la
decisión inicial, las restantes decisiones deben constituir una polı́tica óptima
respecto a la variable de estado resultante de la primera decisión. Esto im-
plica que a medida que pasa el tiempo no hay incentivos a desviarse del plan
original. Las polı́ticas óptimas que cumplen el Principio de Optimalidad de
52
Siempre que cumplan con las condiciones de segundo orden.

106
Bellman son consistentes temporalmente. Es una consecuencia de la estruc-
tura recursiva del problema, y no tiene porqué cumplirse en soluciones de
problemas más generales.
Para ver un ejemplo, planteamos el siguiente problema:

−1
TX Yt+1 = yt (1 + ut yt )
2


M ax − ut yt + ln yT sa  y0 > 0
ut ;Yt+1 3
t=0 
ut ≥ 0
Notemos que en la función objetivo, hay un termino que es independiente
de la sumatoria. Este siempre se encuentra en T (un periodo después de la
sumatoria). Entonces si planteamos la ecuación de Bellman de atrás para
delante, en otras palabras en el periodo T − 1, nos queda que:
2
 
JT∗ −1 (yT −1 ) = M ax − uT −1 yT −1 + ln yT
uT −1 ;YT 3
Acá, podemos reemplazar la ecuación de movimiento. Recuerden, que esta
esta en un periodo mas. Por lo tanto se encuentra en T. Por lo que encon-
tramos:
2
 
JT∗ −1 (yT −1 ) = M ax − uT −1 yT −1 + ln(yT −1 (1 + uT −1 yT −1 ))
uT −1 ;YT 3
Prosiguiendo con el ejercicio, ya armada la ecuación de Bellman, derivamos
(e igualamos a 0) con respecto a la variable de control en el tiempo que nos
encontramos:
∂JT∗ −1 2 YT −1
= − yT −1 + =0
∂uT −1 3 1 + uT −1 YT −1
Despejando la variable de control en función de la variable de estado:
1
uT −1 =
2yT −1
Esta se va a llamar Función de Polı́tica y la vamos a reemplazar en la
ecuación de Bellman del periodo correspondiente:
" #
2 1 1
JT∗ −1 (yT −1 ) = M ax − yT −1 + ln(yT −1 (1 + yT −1 ))
uT −1 ;YT 3 2yT −1 2yT −1
1 2
ln yT −1 + − − ln
| 3 {z 3}
=c

107
JT∗ −1 (yT −1 ) = ln yT −1 + C
Repetimos el proceso parea un periodo menos, osea para t = T − 2:
2
 
JT∗ −2 (yT −2 )
= M ax − uT −2 yT −2 + JT∗ −1
uT −2 ;YT −1 3
Que con lo que averiguamos antes nos queda:
2
 
JT∗ −2 (yT −2 ) = M ax − uT −2 yT −2 + ln yT −1 + C
uT −2 ;YT −1 3
Y acordándonos de la ecuación en movimiento, podemos reescribir el termino
yT −1 como:
2
 
JT∗ −2 (yT −2 ) = M ax − uT −2 yT −2 + ln(yT −2 (1 + uT −2 yT −2 )) + C
uT −2 ;YT −1 3
Derivando e igualando a 0, y buscando la variable de control en función de
la variable de estado:
1
uT −2 =
2yT −2
Esto lo reemplazamos en la ecuación de Bellman del mismo periodo (T − 2)
y simplificamos:
1 2
JT∗ −2 (yT −2 ) = ln yT −2 − − ln + C
3 3
JT∗ −2 (yT −2 ) = ln yT −2 + 2C
Acá podemos ver un patrón, que cumple con:

JT∗ −k (YT −k ) = ln yT −k + kC
1
uT −k (yT −k ) =
2 − yT −k
Y reemplazando la variable de control en la ecuación de movimiento obten-
emos una ecuación en diferencia de primer orden:
!
1 3yt
yt+1 = yt 1+ yt =
2yt 2
Que resolviéndola:
 t
3
yt∗ = y0
2

108
Y si reemplazamos a esta variable de estado en la función de la variable de
control:  t
2
3
u∗t =
2y0
Esto serı́a la resolución del problema.
Sin embargo, en muchos casos no vamos a tener un problema autónomo. Si
no, vamos a encontrarnos con un factor de descuento en la función objetivo.
Para esto volvemos a traer el concepto de función a valor corriente:
Sea la siguiente identidad :
Jt (yt )
Vt (yt ) ≡
β
Entonces se define la ecuación de Bellman con la función de valor corriente:
h i

Vt∗ (yt ) = M ax F (yt ; ut ) + βVt+1 (yt+1 )
ut ;YT +1

Sujeto a:
yt+1 = g(t; yt ; ut )
Analicemos esto en un ejemplo, pero agregando una dificultad adicional. Esta
serı́a el tiempo máximo en infinito. Sea el siguiente problema:

β t u(ct )
X
M ax
ct ;kt+1
t=0

Sujeto a:
kt+1 = f (kt ) − ct
La ecuación de Bellman a valor corriente serı́a:

V (kt ) = u(ct ) + βV (Kt+1 ) = u(ct ) + βV (f (kt ) − ct )

En este caso, como el tiempo es infinito, la condición de primer orden es la


derivada de la función con respecto a la variable de control (en este caso ct ):

u0 (ct ) + βV 0 (f (kt ) − ct )(−1) = 0

u0 (ct ) = βV 0 (f (kt ) − ct )
La CPO contiene la derivada de la función de valor (V 0 ), lo cual no es muy
útil para resolver el problema porque no sabemos cuál es esa función. Por lo

109
que vamos a hacer una serie de despejes que nos van a facilitar la vida53 . Para
empezar, nos fijamos que la condición de primer orden define implı́citamente
a la variable de control en función de la de estado. Esto es Ct = h(Kt ). Esta
función la vamos a reemplazar en la ecuación de Bellman y derivarla:

V ∗ (kt ) = u(h(kt )) + βV ∗ (f (kt ) − h(kt ))

V 0 (kt ) = u0 (h(kt ))h0 (kt ) + βV 0 (f (kt ) − h(kt ))(f 0 (kt ) − h0 (kt ))


Sacando factor común:

V 0 (kt ) = h0 (kt ) [u0 (h(kt )) − βV 0 (f (kt ) − h(kt ))] +βV 0 (f (Kt ) − h(kt ))f 0 (kt )
| {z }
=0

Este termino marcado es igual a 0 por la condición de primero orden. En-


tonces:
V 0 (kt ) = βV 0 (f (kt ) − h(kt ))f 0 (kt )
V 0 (kt )
V 0 (f (kt ) − h(kt )) =
βf 0 (Kt )
Esta es la ecuación de Benveniste-Scheinkman, que la vamos a reemplazar
en la (CPO):
V 0 (kt )
u0 (ct ) =
βf 0 (Kt )
Desplazando esta ecuación:
V 0 (kt+1 )
u0 (ct+1 ) =
f 0 (Kt+1 )
Despejando:
V 0 (kt+1 ) = u0 (ct+1 )f 0 (Kt+1 )
Finalmente, reemplazamos en la condición de primer orden:

u0 (ct ) = βu0 (ct+1 )f 0 (kt+1 )

Esta es la ecuación de Euler. Pero podemos seguir desarrollando el problema


si usamos la ecuación de movimiento (ct = f (kt ) − kt+1 ) nos queda:

u0 (f (kt ) − kt+1 ) = βu0 (f (kt+1 ) − kt+2 )f 0 (kt+1 )


53
¿O no?

110
Y esto es una ecuación en diferencias de segundo orden. Si la ecuación en
diferencias es lineal podemos resolverla y encontrar la trayectoria óptima del
stock de capital. Cuando la ecuación es no lineal se puede hacer un análisis
mediante diagramas de fase o linealizar la ecuación.
A veces es útil recordar la condición de transversalidad:

lim β t u0 (ct )kt+1 = 0


t→∞

15.2 Practica
Si bien ya se fueron explicando algunos ejercicios prácticos, ahora se van a
explicar dos mas.
Ejercicio 1:
3
(
yt+1 = yt + ut
u2t
X
1 + yt − sa
t=0
y0 = 0
Busquemos la solución por Bellman. Primero que nada, tenemos que encon-
trar la función de Bellman. Esta es la función objetivo en el periodo t, mas
la función objetivo óptima en el periodo t+1. Por lo tanto:

Jt = 1 + yt − u2t + Jt+1

Que definida en el último periodo es:

J3 = 1 + y3 − u23

Acá, no tenemos función objetivo del siguiente periodo ya que no existe valor
residual. Para resolverla, solo tenemos que derivar la función con respecto a
la variable de control e igualarla a 0.
∂J3
: −2u3 = 0
∂u3
Despejando la variable de control:

u3 = 0

Esto ahora lo reemplazamos en la función de Bellman en el periodo 3 y nos


queda la función óptima de este periodo:

J3 = 1 + y3

111
Entonces la función de Bellman del periodo 2 queda definida como:

J2 = 1 + y2 − u22 + 1 + y3

Sin embargo, no nos sirve ver una variable en el siguiente periodo. Es por
esto que la reemplazamos por la ecuación de movimiento, osea:

J2 = 1 + y2 − u22 + 1 + y2 + u2

Derivando con respecto a la variable de control, igualando a 0, despejando


la variable de control y reemplazando en la función de Bellman,
∂J2
: −2u2 + 1 = 0
∂u2
1
u2 =
2
1
J2 = 1 + y2 − 0, 25 + 1 + y2 + = 2, 25 + 2y2
2
Para el periodo 1 es igual:

J1 = 1 + y1 − u21 + 1 + 2, 25 + 2y2 = 1 + y1 − u21 + 1 + 2, 25 + 2(y1 + u1 )


∂J1
: −2u1 + 2 = 0
∂u1
u1 = 1
J1 = 4, 25 + 3y1
Y finalmente:

J0 = 1 + y0 − u20 + 1 + 4, 25 + 3y1 = 1 + y1 − u21 + 1 + 4, 25 + 3(y1 + u1 )


∂J0
: −2u2 + 3 = 0
∂u0
3
u0 =
2
Y por consigna sabemos que Y0 = 0, por lo que también -gracias a la ecuación
de movimiento- conocemos todos los valores de Yt
3 5
y0 = 0 y1 = 2
y2 = 2
y3 = 3

112
Ejercicio 2:
Finalmente, ya vimos como resolver ejercicios por Bellman buscando los val-
ores óptimos. Sin embargo, a veces no podemos hacer esto ya que terminamos
en un periodo T desconocido. Por lo que buscamos la ecuación de Euler. En
este inciso vamos a ver dos formas diferentes de como encontrarlas.
T
(
X 1 st+1 = α(sy − ct )
ln ct sa 1
t=0 (1 + ω)
t β t = (1+ω)t

Si queremos plantear la resolución por Lagrange, primero planteamos la


función:
T T
t
X X
L= β ln ct + λt [α(st − ct ) − st+1 ]
t=0 t=0

Las 4 condiciones de primer orden54 son las siguientes. Las primeras dos no
suelen generar muchas inconveniencias. Estas son:

∂L β t
: − αλt = 0
∂ct ct
∂L
: α(st − ct ) − st+1 = 0
∂λt
Las siguientes dos son derivadas con respecto a la variable de estado. La
primera que vamos a ver va a ser con respecto a la variable de estado en
t+1. Analizamos este periodo de tiempo ya que son todos los valores posibles
que pueden tomar esta variable. ¿Como llegamos a esta derivada? Primero
derivamos la función con respecto a la variable de estado en t + 1. Sin
embargo, en el siguiente periodo, todas las variables de estado que antes
estaban en t, ahora van a estar en t + 1. Por lo tanto, Lo que vamos a
hacer es, una vez derivado con las que en el periodo actual están en t + 1,
desplazamos la función (toda) un periodo y volvemos a derivar y lo sumamos
a la derivada previa. Esto quedarı́a:
∂L
: −λt + λt+1 α = 0
∂st+1
Finalmente, la ultima condición de primer orden es la derivada con respecto
a la variable de estado pero en el periodo T + 1 (el siguiente al final). En
54
Noten que se hacen para un T genérico.

113
este caso, no vamos a desplazar la función porque no nos interesa ese periodo
que se encuentra fuera de los limites de nuestro problema. Lo que hacemos
es pensar que la función esta en el periodo T y derivamos solo lo que tiene
T + 1.
∂L
: −λT = 0
∂sT +1
Ya planteadas las condiciones de primer orden, busquemos la trayectoria
óptima de la variable de control. Para esto, despejamos lambda de la primera
ecuación:
βt
λt =
ct α
Y la desplazamos un periodo:
β t+1
λt+1 =
ct+1 α
Esto la reemplazamos en la condición tres:
αβ t+1 βt
− =0
ct+1 α ct α
Re organizando los términos:
ct+1 = ct βα
Esta es la Ecuación de Euler55 .
Sin embargo, se puede llegar a este resultado por otro método. Para esto,
planteamos la ecuación de Bellman (usamos la de valor corriente). Esta la
planteamos en un t genérico:
V (st ) = ln ct + βVt+1 (st+1 )
La condición de primer orden es la derivada con respecto a la variable de
control:
∂Vt 1 ∂Vt+1
: −β α=0
ct ct ∂st+1
Hay que notar que realizamos la derivada en cadena, ya que la función en
el siguiente periodo depende de la variable de estado y esta depende de la
variable de control. Despejando la derivada incógnita que nos quedó:
∂Vt+1 1
=
∂st+1 ct βα
55
Una ecuación en diferencias de orden uno que se puede resolver fácilmente.

114
Ahora, buscamos la ecuación de Benveniste-Scheinkman (derivada de la función
con respecto a la variable de estado):

Vt ∂Vt+1 1 1
: βα = βα =
st ∂st+1 ct βα ct
Esta ecuación ahora la vamos a desplazar un periodo:
Vt 1
=
st+1 ct+1
Reemplazando esta ecuación desplazada en la condición inicial nos queda:
1 1
−β α=0
ct ct+1

Entonces la ecuación de Euler nos queda (re-expresada)

ct+1 = βαct

De esta forma, encontramos la ecuación de Euler de una manera mas rápida.


Y con esta información, podrı́amos también hacer un diagrama de fase. Ası́
finaliza la resolución del ejercicio.

115

También podría gustarte