Está en la página 1de 84

mtodos numricos

Clase 1: Introduccin
Marco Ortiz
Marzo-Abril 2015
PUCP

motivacion

motivacin

Muchos modelos econmicos no pueden ser resueltos con


tcnicas matemticas estndar.
Estos modelos son normalmente ms complejos, impulsados
por el afn de capturar de forma ms precisa la realidad.
Esto ha empujado a los economistas (y otros cientcos) a
utilizar mtodos computacionales para resolver estos modelos.
Enfrentamos un primer trade-off: la belleza de la solucin
anlitica versus la relevancia de los supuestos para llegar a la
misma.

motivacin

Mentalidad de obrero vs. mentalidad de artista...

Figure: Arte clsica vs. modernista

mtodos numricos vs. matemtica pura

Lo puro y abstracto versus la impura realidad.

mtodos numricos vs. matemtica pura (2)


La velocidad es una restriccin crtica en el clculo.

mtodos numricos vs. matemtica pura (2)


La velocidad es una restriccin crtica en el clculo.

Nuestras restricciones de tiempo (y espacio) hacen a los objetos


matemticos puros inalcanzables. Esto nos fuerza a aceptar las
aproximaciones impuras y sujetas a error del anlisis numrico.
5

un adelanto...
Las herramientas numricas pueden parecer tediosas, pero el
pago es alto...

un adelanto...
Las herramientas numricas pueden parecer tediosas, pero el
pago es alto...
Forma tradicional de solucin:
Log-linearizacin alrededor del estado estacionario.

Qu preguntas no puede responder?


Riesgo: Las aproximaciones de primer orden no consideran el
riesgo - no hay primas por riesgo, no hay portafolio.
Tamao de choques: La aproximacin alrededor del estado
estacionario asume que los choques son pequeos.
Kinks: Las soluciones pueden cambiar dependiendo del punto
en estado-espacio restricciones de endeudamiento
ocasionalmente efectivas, zero lower bound, ahorro precautivo,
restricciones de no negatividad de la inversin.
Aproximacin de densidades: Agentes heterogneos, informacin
heterognea, aprendizaje no-lineal.
6

conceptos elementales en computacin

aritmtica computacional

Machine epsilon: Es la cantidad relativa ms representable por


la mquina. Es el ms pequeo tal que la mquina reconoce
que 1 + > 1 .
Machine innity: el nmero ms largo tal que ese valor y su
negativo son representables.
Overow: ocurre cuando la mquina intenta representar un
nmero mayor al machine innity.
Machine zero: valor equivalente a cero para la computadora.
Underow: ocurre cuando la mquina intenta representar un
nmero que no es cero pero es menor al machine zero.

procesamiento computacional y algoritmos

Procesamiento serial: La forma tradicional de procesar. El


procesador realiza una operacin a la vez, ejecutando la
operacin luego de que la previa ha nalizado.
Procesamiento vectorial: Diferentes unidades que procesan
elementos simultneamente.
Procesamiento paralelo: Ms de un CPU es utilizado
simultneamente puedes pedirle CPUs prestados a tus
amigos durante sus vacaciones!

economa de la computacin

Discutir mtodos computacionales ecientes es natural para los


economistas.
No slo hay que resolver los problemas, hay que hacerlo
economizando recursos.
Debemos considerar varios trade-offs:
tiempo del programador
tiempo de procesamiento del cdigo
precisin

Al nal debemos sopesar los recursos y objetivos.

10

un ejemplo: el mtodo de horner


Consideremos evaluar el siguiente polinomio:
n

ak xk

(1)

k=0

Tenemos varias alternativas:


1. Evaluar todos los valores de xk y multiplicarlos por los coecientes
y nalmente sumar.
2. Usar multiplicaciones: calcular x, luego x2 = xx, luego x3 = (x2 )x y
reemplazar tomar exponenciales por productos.
3. Mtodo de Horner: Para un polinomio genrico de tercer orden...
a0 + a1 x + a2 x2 + a3 x3 = a0 + x(a1 + x(a2 + x a3 )).

(2)

esta factorizacin hace el uso ms eciente de las


multiplicaciones: tres sumas, tres multiplicaciones.

11

mtodos numricos vs. mtodos iterativos


Mtodos directos:
algoritmos que no presentan errores de redondeo. Por ejemplo,
la solucin a ax = b es x = a/b. La solucin presenta una alta
precisin (la de la maquina.)
Mtodos iterativos:
Pocos problemas tienen mtodos directos de solucin y as
existan, requieren con frecuencia de demasiado tiempo y
espacio para ser prcticos. En este caso recurrimos a mtodos
iterativos:
xk+1 = gk+1 (xk , xk1 , ...) Rn .

(3)

donde x es la solucin deseada. Buscamos que la secuencia de


xk converja a x .
Podemos controlar la calidad del resultado (criterio de
convergencia).
12

el error: el problema central de la matemtica numrica


Fuentes de error:
Redondeo: la precisin de la maquina es limitada.
Truncamiento matemtico: Aproximacin de series innitas por
series nitas (expansin de Taylor).

Propagacin de errores.
Tasas de convergencia: velocidad con la que una secuencia
converge a su lmite. Para la secuencia xk Rn que satisface
que limk xk = x , decimos que xk converge a x a la tasa q si:
xk+1 x
< .
k xk x q

(4)

xk+1 x
< < 1.
k xk x

(5)

lim

Si
lim

decimos que la serie converge linealmente a la tasa .


13

el error: el problema central de la matemtica numrica(2)

Stopping rules: Dado que no podemos lograr una precisin


innita en los mtodos iterativos (o la PC se queda iterando por
siempre), se deben establecer reglas para detener la bsqueda.
La idea general es detener la bsqueda cuando aadir nuevos
trminos no cambia mucho el resultado. Aceptas xk+1 , si:
| xk xk+1 |
< .
1+ | xk |

(6)

Evaluacin nal del error: Determinar la magnitud o la


importancia del error.
Importancia (a) bandas de error, (b) computar y vericar.
Finalmente la prdida en terminos de precisin se compensa
con la ventaja de obtener mayor realismo en el modelo.

14

optimizacin y bsqueda de races

optimizacin
Los problemas de optimizacin (de dimensin nita) son claves
en economa (ej: problema de la rma, problema de
consumidor, etc.) y en econometra (ej: maximizacin de la
funcin de verosimilitud, minimizacin de errores cuadrticos,
etc.)
Existe un vnculo cercano entre la optimizacin y la bsqueda
de races (soluciones a sistemas de ecuaciones).
f(x) = 0.

(7)

donde la funcin f() es a menudo no-lineal.


Esto se le conoce como hallar los ceros del sistema.
Lo hacemos todo el tiempo - podemos expresar las condiciones
de primer orden como funciones que deben ser cero al ser
evaluadas en el equilibrio.
16

optimizacin (2)
La idea clave en economa es que los agentes optimizan.
El problema ms general puede expresarse como:
min f(x) s.t.
x

g(x) = 0, h(x) 0.
donde f : R R es la funcin objetivo, g : Rn Rm es el
vector de m restricciones de igualdad y h : Rn Rl es el vector
de l restricciones de desigualdad.
Los mtodos de solucin numrica evalan el espacio de
alternativas posibles, generando secuencias de solucin que
deben converger a la solucin verdadera. Debido a la
informacin que utilizan los clasicamos en:
n

Mtodos de comparacin: evaluamos condiciones en diferentes


puntos del espacio.
Mtodos de gradiente: utilizan informacin de la gradiente del
objetivo y las restricciones en bsqueda de los mejores puntos.
Mtodos de gradiente y curvatura. Requieren ms smoothness.
17

minimizacin unidimensional
El problema ms sencillo es la optimizacin escalar sin
restricciones:
min f(x),
xR

donde f : R R.
Bracketing: simple... atrapa al mnimo (local). f(a), f(b) > f(c)

18

minimizacin unidimensional (2)


Mtodo de Newton: Para funciones f(x) que son C2 , podemos
utilizar el mtodo de Newton. La idea es comenzar en un punto
a y buscar un polinomio cuadrtico p(x) que se aproxime a f(x)
evaluada en el mismo punto al segundo orden:
f (a)
(x a)2 .
(8)
2
si f (a) > 0, entonces p es convexo. Luego minimizamos f
encontrando el punto xm que minimiza p(x). El valor que
minimiza el polinomio es xm = a f (a)/f (a). Si p(x) es una
buena aproximacin a f(x) xm est ms cerca al mnimo de
f(x).
Hacemos esto iterativamente:
f (xn
(9)
xn+1 = xn
f (xn )
p(x) f(a) + f (a)(x a) +

Idea: estamos buscando crticos... el punto jo puedes llevarnos


al f (xn ) = 0... o no. Hay temas...
19

optimizacin multidimensional

Los problemas ms interesantes involucran ms variables.


El problema genrico est dado por:
min f(x)
x

para f : Rn Rn .
Algunos de estos mtodos requieren la continuidad de la
funcin f, otros son ms generales.
Discutimos los mtodos ms sencillos (la lgica en los ms
complicados es similar).

20

optimizacin multidimensional (2)


Grid search: Denamos un grid (un michi) con 100 o 1000
puntos a evaluar... evaluamos y elegimos el menor.
Polytope: La idea es similar al bracketing, slo que somos ms
inteligentes eligiendo los nuevos puntos - evaluamos los
vrtices y remplazamos uno por uno con vrtices asociados a
un menor valor de la funcin objetivo. Nuestro simplex se va
moviendo (va bajando la colina). Halla mnimos locales.
Newton multivariado: Tomamos ventaja de la continuidad de
las funciones para analizar los gradientes y los hessianos.
Direction sets: Mezclamos ambos tipos de algoritmo, utilizamos
los gradientes para denir una direccion en cada dimensin y
buscamos en esa direccion - tratamos el problema como varios
problemas unidimensionales. Aqu inclumos variantes de los
mtodos de Newton (line, quasi, etc.)
Mnimos cuadrados no lineales: algoritmos Gauss-Newton,
Levenberg-Marquardt (clculo de Hessianos).
21

aproximacin de funciones

introduccin a la aproximacin de funciones

En muchos problemas computacionales requerimos aproximar


funciones. Nuestro objetivo:
no conocemos f(x), pero tenemos alguna informacin sobre ella, o
conocemos f(x), pero es demasiado complicada para trabajar con
ella.

23

informacin disponible

Tenemos:
un set nito de derivadas
normalmente evaluadas en un punto.

...
un set nito de valores de la funcin.
f1 , . . . , fm evaluada en m nodos, x1 , . . . , xm .

24

clases de funciones de aproximacin

1. polinomios
esto aun nos da mucha exibilidad,
ejemplos de polinomios de segundo orden
a0 + a1 x + a2 x2
a0 + a1 ln(x) + a2 (ln(x))2
exp(a0 + a1 ln(x) + a2 (ln(x))2 )

2. splines, e.g., interpolacin lineal.

25

clases de funciones de aproximacin

Los polinomios y los splines pueden ser expresados como:


f(x)

i Ti (x)

(10)

i=0

Ti (x): las funciones bases que denen la clase de funciones


usadas, e.j.: para los polinomios regulares:
Ti (x) = xi .

(11)

i : los coecientes que hacen el pin down de una aproximacin


particular.

26

reduciendo la dimensionalidad

f(x) desconocida: objeto de dimensiones innitas.


n

n + 1 elementos.
i=0 i Ti (x) :
*Truncamiento matemtico.

27

procedimiento general

Fijamos el orden de aproximacin n.


Hallamos los coecientes 0 , ..., n .
Evaluamos la aproximacin.
Si es necesario, incrementamos n para obtener una mejor
aproximacin.

28

weierstrass

Denotemos por f : [a, b] R a cualquier funcin de valores


reales. Para un n sucientemente largo, esta funcin es
aproximada a un nivel arbitrariamente bueno por el polinomio:
n

i xi .

(12)

i=0

Entonces, podemos obtener una aproximacin precisa si:


f no es un polinomio.
f es discontinua.

29

weierstrass

Denotemos por f : [a, b] R a cualquier funcin de valores


reales. Para un n sucientemente largo, esta funcin es
aproximada a un nivel arbitrariamente bueno por el polinomio:
n

i xi .

(12)

i=0

Entonces, podemos obtener una aproximacin precisa si:


f no es un polinomio.
f es discontinua.

Cmo es esto cierto?

29

cmo hallar los coeficientes de la aproximacin?

Con derivadas:
expansin de Taylor.

Con un set de puntos (nodos), x0 , . . . , xm , y valores de la funcin


f0 , . . . , fm
proyectamos.
Forma lagrangiana de escribir el polinomio (interpolacin).

30

proyeccin

Denotemos por:

T1 (x0 )
T1 (x1 )
..
.

...
...
..
.

Tn (x0 )

Tn (x1 )
..

T0 (xm ) T1 (xm )

...

Tn (xm )

T0 (x0 )
0

T0 (x1 )

.
Y = .. =
..
.
m

entonces:
Y X

(13)

Necesitamos m n. Sino el sistema no tiene solucin.


Qu problema enfrentamos si n se incrementa?

31

funciones de dimensionalidad alta

Polinomio completo de segundo orden en x e y:

ai,j xi yj

(14)

0i+j2

El polinomio producto-tensor de segundo orden en x e y est


dado por:
2
2

ai,j xi yj

(15)

i=0 i=0

32

completo vs. producto tensor

el producto tensor hace la programacin ms fcil:


un loop doble simple en lugar de la suma.

el producto tensor tiene un orden mayor que n + 1.


El producto tensor de segundo order tiene elementos de cuarta
potencia.
Al menos localmente, los ordenes bajos son ms importantes
los polinomios completos pueden resultar ms ecientes.

33

polinomios ortogonales

Construyamos las funciones bases de tal forma que sean


ortogonales la una a la otra, e.j.:

Ti (x)Tj (x)w(x)dx = 0, i, j i = j.

(16)

Esto requiere de una funcin de pesos particular (densidad),


w(x) y un rango sobre el cual las variables estn denidas [a, b].

34

polinomios ortogonales de chebyshev

[a, b] = [1, 1] y
1
w(x) =
(1 x2 )1/2
Qu pasa si la funcin de inters no esta denida en [1, 1].

35

construyendo polinomios de chebyshev

Las funciones bases de los polinomios de Chebyshev estan


dados por:
Tc0 (x) = 1
Tc1 (x) = x
Tci+1 (x) = 2xTci (x) Tci1 (x) i 1

36

chebyshev vs. polinomios regulares

Los polinomios de Chebyshev, i.e.,


f(x)

aj Tcj (x),

j=0

pueden ser rescritos polinomios regulares, i.e.,


f(x)

bj xj ,

j=0

37

nodos de chebyshev

La funcin base de orden n tiene n soluciones para:


Tcn (x) = 0,
Estos son los n nodos de Chebyshev - en realidad es as como
se obtienen los nodos de las funciones base.

38

ortogonalidad discreta

Evaluado en los nodos de Chebyshev, el polinomio de


Chebyshev satisface:
n

Tcj (xi )Tck (xi ) = 0, para j = k.

(17)

i=1

entonces, si

T0 (x0 )

T0 (x1 )
X=
..
.
T0 (xm )

T1 (x0 )
T1 (x1 )
..
.

...
...
..
.

T1 (xm ) . . .

Tn (x0 )

Tn (x1 )
..

.
Tn (xm )

entonces, X X es una matrix diagonal.

39

convergencia uniforme

Weierstrass hay una buena aproximacin polinomial.


Weierstrass f(x) = limn pn (x) para toda secuencia pn (x)
Si los polinomios de Chebyshev son jados en sus nodos
garantizamos convergencia uniforme al polinomio!

40

splines

Los splines son otra forma de aproximar funciones a travs de


funciones piece-wise, suaves en el punto en el que las partes se
conecta.
Insumos:
1. n + 1 nodos, x0 , . . . , xn .
2. n + 1 valores de la funcin, f(x0 ), . . . , f(xn )

los nodos son jos los n + 1 valores de la funcin son los


coecientes del spline.

41

piece-wise lineal

Para x [xi , xi+1 ]:


f(x)

(
)
)
(
x xi
x xi
1
fi +
fi+1
xi+1 xi
xi+1 xi

Esto es, una funcin lineal separada es tteada en cada


intervalo.
Igual es mas fcil/mejor pensar en los coecientes de la
funcin de aproximacin como los n + 1 valores de la funcin.

42

piece-wise lineal vs. polinomial

Ventaja: Preservacin de la forma.


en particular monoticiidad y concavidad.

Desventaja: No diferenciable... no es una buena aproximacin


para una funcin suave.

43

splines de orden mayor

Una de las favoritas: la cbica.


!!! Los mismos insumos que en el spline lineal, i.e. n + 1 valores de
la funcin en n + 1 nodos que pueden ser pensados como los
n + 1 coecientes que determinan la funcin de aproximacin.
Ahora tteamos polinomios de tercer orden en cada uno de los
intervalos.
f(x) ai + bi x + ci x2 + di x3 para x [xi1 , xi ] .

(18)

44

condiciones del spline cbico: niveles

Tenemos 2 + 2(n 1) condiciones para asegurarnos que los


valores de la funcin corresponden a los valores de la funcin
en los nodos.
Para los nodos interiores necesitamos que las aproximaciones
cbicas de los segmentos adyacentes nos den la respuesta
correcta. Por ejemplo:
f1 = a1 + b1 x1 + c1 x21 + d1 x31 y
f 1 = a 2 + b2 x 1 +

c2 x21

d2 x31

(19)
(20)

Para los dos valores extremos x0 y xn+1 , solo tenemos una valor
que debe jarse correctamente.

45

condiciones del spline cbico: derivadas de primer orden

Para asegurar diferenciabilidad en los nodos interiores


necesitamos:
bi xi + 2ci xi + 3di x2i = bi+1 xi + 2ci+1 xi + 3di+1 x2i
para xi {x1 , . . . , xn };
Lo que nos da n 1 condiciones.

46

condiciones del spline cbico: derivadas de segundo orden

Para asegurar que las segundas derivadas son iguales,


necesitamos
bi + 2ci + 6di xi = bi+1 + 2ci+1 + 6di+1 xi
para xi {x1 , . . . , xn1 };
Tenemos entonces 2 + 4(n 1) = 4n 2 condiciones para hallar
4n incognitas.
Nos faltan dos condiciones adicionales; e.j.: que las derivadas
de segundo orden en los puntos extremos sean cero.

47

aproximacin de funciones

Los mtodos de aproximacin de funciones son sumamente


tiles en el campo de mtodos numricos.
Por ejemplo, podemos aproximar una funcin de valor o de
poltica a travs de un nmero limitado de elementos
(aproximacin lineal) o conectar puntos en los que hemos
evaluado la funcin (recuperar la forma de una solucin global).
En nuestras sesiones 3 y 4 haremos uso de estas herramientas
para resolver modelos macroeconmicos que requieren de
soluciones globales.

48

integracin numrica

integracin numrica
La evaluacin numrica de una integral denida es uno de los
problemas hallados frecuentemente en la modelacin
econmica.
Ejemplos:
si una rma paga un ujo continuo de dividendos, d(t), y la tasa de

inters es r, el valor presente de los dividendos es 0 ert d(t)dt.


si una variable aleatoria X se distribuye N(0, 1), la esperanza de

2
f(X) est dada por: (2)1/2 f(x)ex /2 dx.

El problema general de integracin numrica es conocido como


cuadratura o cubatura:
b
n
n

I=
f(x)dx
wi f(xi ) =
wi fi
(21)
a

i=1

i=1

donde xi son los nodos y wi son los pesos.


50

tcnicas de cuadratura

Dos versiones:
Formulas Newton-Cotes
Nodos equidistantes y la mejor eleccin de pesos wi .

Cuadratura Gaussiana
la mejor eleccin de nodos y pesos.

51

tcnicas de monte carlo

Pseudo:
es la versin implementable del verdadero Monte Carlo.

Cuasi:
parece Monte Carlo, pero es algo distinto... debieron elegir mejor
el nombre.

52

newton-cotes: la idea detrs


Valores de funciones en n nodos podemos ttear un
polinomio de orden n 1 e integrar el polinomio aproximado.

f(x)dx
a

P2 (X)dx

(22)

resulta que esto puede ser estandarizado.

53

regla de simpson para un intervalo (3 nodos)

es una aproximacin piece-wise cuadrtica de f que utiliza los


valores de f en los puntos a y b y en el punto medio 21 (a + b). En
el caso de 3 puntos.

f(x)dx
a

1
4
1
f0 + f1 + f2
3
3
3

)(

ba
6

)
.

(23)

que puede generalizarse para multiples intervalos (ms nodos).

54

regla de simpson en matlab

Rutina de integracin en Matlab


quad(@myfun, A, B)
Este es un proceso iterativo que ajusta la longitud del intervalo
(mirando a los cambios en las derivadas).

55

cuadratura gaussiana

Podemos hacerlo mejor? Esto es, obtener mejor precisin con


la misma cantidad de nodos?
Respuesta: S, si somos inteligentes seleccionando los nodos.
Este es el punto de la cuadratura gaussiana.

56

cuadratura gauss-legendre

Con [a, b] [1, 1]


siempre podemos lograrlo re-escalando

Cuadratura:

1
1

f(x)dx

wi f(i )

(24)

i=1

Objetivo: Obtener una respuesta exacta si f(x) es un polinomio


de orden 2n 1
Con 5 nodos obtenemos una respuesta exacta aun si f(x) es un
polinomio de noveno orden.

57

implementando la cuadratura gauss-legendre

Toma n nodos con n pesos de un programa de computadora (o


tu tablita del Judd).
i , i = 1, . . . , n, wi , i = 1, . . . , n.

(25)

Calcula los valores de la funcin en los n nodos, fi , i = 1, . . . , n.


La respuesta es igual a:
n

wi fi

(26)

i=1

Cualquiera puede hacer esto.


Cmo hace la computadora para obtener los nodos y pesos?

58

2n ecuaciones para nodos y pesos


Para obtener la respuesta para f(x) = 1

1dx =
1

wi 1.

i=1

Para obtener la respuesta para f(x) = x

xdx =
1

w i i .

i=1

Para obtener la respuesta para f(x) = x2

x2 dx =
1

wi i2 .

i=1

etc...
59

2n ecuaciones para nodos y pesos

Para obtener la respuesta para f(x) = xj , para j = 0, . . . , 2n 1.

xj dx =
1

wi ij

(27)

i=1

para j = 0, 1, . . . , 2n 1.
Este es un sistema de 2n ecuaciones y 2n incognitas.

60

qu hemos obtenido hasta ahora?

Por construccin obtuvimos la respuesta correcta para:


f(x) = 1, f(x) = x, . . . , f(x) = x2n1

(28)

pero no es suciente para obtener la solucin correcta para


cualquier polinomio.

61

cuadratura gauss-hermite

Supongamos que queremos aproximar:



n
2
= f(x)ex dx con i=1 wi f(i )

(29)

la funcin ex es la funcin de pesos. No es utilizada en la


aproximacin pero es capturada por los coecientes wi .

62

cuadratura gauss-hermite

Podemos usar el mismo procedimiento para calcular los pesos y


los nodos. Resolvemos el sistema:

n

2
xj ex dx =
wi ij ; para j = 0, 1, . . . , 2n 1.
(30)
infty

i=1
2

Note que ei no est en el lado derecho.

63

implementando la cuadratura gauss-hermite

Tomemos los n nodos, i , i = 1, . . . , n, y n pesos, wi , i = 1, . . . , n,


de un programa de computadora.
Calculamos los valores de la funcin en los n nodos,
fi , i = 1, . . . , n.
La respuesta es igual a:
n

w i fi ,

(31)

i=1

64

la expectativa de una variable normalmente distribuida

Cmo calculamos...
E[h(y)] con y N(, 2 )?
Entonces, requerimos calcular:
)
(

1
(y )2
h(y) exp
dy
2 2
2
Desafortunadamente, esto no encaja exactamente con la
funcin de pesos Hermitianos...
Aqu el cambio de variable nos ayuda.

65

cambio de variables

Si y = (x), entonces

1 (b)

g(y)dy =
b

g((x)) (x)dx

1 (a)

Note que aadimos el Jacobiano.

66

cambio de variables

La transformacin que utilizamos aqu ser:


x=

y
o y = 2x +
2

67

cambio de variables

E[h(y)] =

(
)
1
(y )2
h(y) exp
dy
2 2
2

)
(
1
h( 2x + ) exp x2 2dx
2

(
)
1
h( 2x + ) exp x2 dx

68

qu hacer en la prctica?

Obtenemos los pesos de cuadratura Gauss-Hermite y sus nodos


usando un algoritmo numrico (o la tabla en el Judd).
Calculamos la aproximacin usando:
n

1
GH
wGH
E[h(y)]
+ )
i h( 2i

i=1

No se olviden de dividir por

69

qu hacer en la prctica?

Obtenemos los pesos de cuadratura Gauss-Hermite y sus nodos


usando un algoritmo numrico (o la tabla en el Judd).
Calculamos la aproximacin usando:
n

1
GH
wGH
E[h(y)]
+ )
i h( 2i

i=1

No se olviden de dividir por

Genial e increiblemente simple, no?

69

probemos el nuevo juguete...

Abran el cdigo: Quadrature.m


Puede observar la diferencia en el error y tiempos de
procesamiento.
Cul es el problema?

70

aplicacin 1: funcin inversa de la demanda

Tomamos dos ejercicios sencillos, propuestos por Miranda &


Fackler (2002) en el captulo 1.
Pensemos en un mercado con una funcin de demanda con
elasticidad constante:
q = p 0.2

(32)

Es una funcin, dado que para cada precio p, hay una nica
cantidad demanda.
En este caso es fcil calcular el precio que limpia el mercado
(basta una calculadora de mano).

71

aplicacin 1: funcin inversa de la demanda (2)

Ahora imaginemos un funcin de demanda ligeramente distinta:


q = 0.5p 0.2 + 0.5p 0.5

(33)

Esta funcin puede motivarse como una rma con una


demanda domstica y una externa.
La funcin inversa de la demanda (mapa de cantidades a
precios) est bien denida, es continua y estrictamente
decreciente.
Bsqueda de races: L1_Exercise_1.m

72

aplicacin 2: un simple modelo de un producto agrcola


En este mercado, las decisiones de oferta son realizadas antes
que la rentabilidad por hectrea y el precio es conocido.
Los agricultores usan el precio esperado:
a = 0.5 + 0.5Ep

(34)

Luego de la siembra, una rentabilidad aleatoria y se realiza,


obteniendo como cantidad:
q = ay

(35)

que es vendida al precio de mercado:


p = 3 2q

(36)

Asumiremos que y N (1, 0.1).


73

aplicacin 2: un simple modelo de un producto agrcola (2)

Resolviendo para el equilibrio de expectativas racionales


obtenemos:
p = 3 2(0.5 + 0.5Ep)y

(37)

tomando expectativas en ambos lados obtenemos:


Ep = 3 2(0.5 + 0.5Ep)

(38)

Obtenemos Ep = 1 y a = 1.
Asumamos ahora que el gobierno implementa un programa de
apoyo, que garantiza un precio mnimo de 1.
El productor ahora recibir max(p, 1)

74

aplicacin 2: un simple modelo de un producto agrcola (3)


Con este subsidio ahora:
a = 0.5 + 0.5Emax(p, 1)

(39)

Intentemos ahora hallar el equilibrio de expectativas racionales:


p = 3 2[0.5 + 0.5max(p, 1)]y

(40)

Tomando expectativas en ambos lados:


Ep = 3 2[0.5 + 0.5E[max(p, 1)]

(41)

Esta claro que no podemos calcular la funcin de expectativas


sobre la funcin max (no es lineal.)
En este problema, la dicultad es tener que evaluar la
esperanza truncada de una distribucin continua .
75

aplicacin 2: un enfoque alternativo

Podemos aproximar esta funcin y discretizar el choque.


Cuadratura y algortimo de punto jo: L1_Exercise_2.m

76

conclusiones

conclusiones

Hemos revisado algunos conceptos elementales de matemtica


computacional.
Estudiamos la lgica detrs de diversos algoritmos de bsqueda
de races y optmizacin.
Discutimos respecto a las formas de aproximar funciones, va
polinomios o interpolacin (splines).
Finalmente revisamos diversas tcnicas de integracin
numrica de funciones.
En las siguiente sesiones haremos uso de estos conceptos en
las diversas tcnicas de solucin numrica que estudiaremos.

78

Preguntas?

79

También podría gustarte