Está en la página 1de 53

UNIVERSIDAD CENTRAL DEL ECUADOR

FACULTAD DE INGENIERÍA,
CIENCIAS FÍSICAS Y MATEMÁTICA
CARRERA DE INGENIERÍA MATEMÁTICA

ESTIMACIÓN VÍA CÓPULAS


DE LA FUNCIÓN DE DENSIDAD
DE TRANSFORMACIÓN DE VARIABLES.

TRABAJO DE GRADUACIÓN PREVIO LA OBTENCIÓN DEL TÍTULO


DE INGENIERO MATEMÁTICO

AUTOR: Guachamin Morales Gustavo Ricardo

TUTOR: Mat. Castillo Cabay Luis Cornelio

Quito, agosto 2018


DEDICATORIA

Dedicado a
LALALllalala

ii
AGRADECIMIENTO

Laallalalala

iii
AUTORIZACIÓN DE LA AUTORÍA INTELECTUAL

Yo, Pedro Gabriel Fernández Dalgo en calidad de autor del trabajo de inves-
tigación: EQUIVALENCIA DE ALGUNAS FORMULACIONES PARA LA
DEFINICIÓN DE DISTRIBUCIÓN TEMPERADA, autorizo a la Universidad
Central del Ecuador a hacer uso de todos los contenidos que me pertenecen o
parte de los que contiene esta obra, con fines estrictamente académicos o de
investigación.

Los derechos que como autor me corresponden, con excepción de la presente


autorización, seguirán vigentes a mi favor, de conformidad con lo establecido en
los artı́culos 5, 6 , 8, 19 y demás pertinentes de la Ley de Propiedad Intelectual
y su Reglamento.

También, autorizo a la Universidad Central del Ecuador a realizar la digital-


ización y publicación de este trabajo de investigación en el repositorio virtual,
de conformidad a lo dispuesto en el Art. 144 de la Ley Orgánica de Educación
Superior.

Quito, 22 de marzo de 2016.

Pedro Gabriel Fernández Dalgo

CI: 1722056718

Telf: 0992875676

E-mail: gabrielmanfima1993@hotmail.com

iv
APROBACIÓN DEL TRABAJO DE INVESTIGACIÓN POR
PARTE DEL TUTOR

Yo, Dr. Borys Xxx Xxxx Xxxxx Ph.D., en calidad de tutor del trabajo de
titulación EQUIVALENCIA DE ALGUNAS FORMULACIONES PARA LA
DEFINICIÓN DE DISTRIBUCIÓN TEMPERADA, elaborado por el estudi-
ante Pedro Gabriel Fernández Dalgo, estudiante de la Carrera de Ingenierı́a
Matemática, Facultad de Ingenierı́a, Ciencia Fı́sicas y Matemática de la Uni-
versidad Central del Ecuador, considero que el mismo reúne los requisitos y
méritos necesarios en el campo metodológico y en el campo epistemológico, para
ser sometido a la evaluación por parte del jurado examinador que se designe,
por lo que lo APRUEBO, a fin de que el trabajo investigativo sea habilitado
para continuar con el proceso de titulación determinado por la Universidad
Central del Ecuador.

Quito, 22 de marzo de 2016.

Dr. Xxxx Xxxxxxx Xxxx Xxxxx, Ph.D.

CI: 1715111111

Telf: 099999999

E-mail: tatatataa@gmail.com

v
APROBACIÓN DEL INFORME FINAL/TRIBUNAL

EQUIVALENCIA DE ALGUNAS FORMULACIONES PARA LA


DEFINICIÓN DE DISTRIBUCIÓN TEMPERADA

El tribunal constituido por: ...............................................................................


..........................................................................................................................

Luego de Calificar el Informe Final de Investigación del trabajo de titulación


denominado EQUIVALENCIA DE ALGUNAS FORMULACIONES PARA LA
DEFINICIÓN DE DISTRIBUCIÓN TEMPERADA previo a la obtención del
tı́tulo de Ingeniero Matemático presentado por el señor Pedro Gabriel Fernández
Dalgo.

Emite el siguiente veredicto: (aprobado/reprobado) y ordena que se hagan las


siguientes correcciones: ..........................

Fecha:.............................................

Para constancia de lo actuado firman: (Se detallan las califica-


ciones en caso de aprobación o reprobación, en caso de ordenar
correcciones, estas se detallan en un documento anexo y no se
consigna la calificación en el párrafo que sigue)

Nombre Apellido Calificación Firma

Vocal 1 ................................................. ................ ..........................

Vocal 2 ................................................. ................ ..........................

Vocal 3 ................................................. ................ ..........................

vi
CONTENIDO

DEDICATORIA ii

AGRADECIMIENTO iii

AUTORIZACIÓN DE LA AUTORÍA INTELECTUAL iv

APROBACIÓN DEL TRABAJO DE INVESTIGACIÓN POR


PARTE DEL TUTOR v

APROBACIÓN DEL INFORME FINAL/TRIBUNAL vi

RESUMEN x

ABSTRACT xi

INTRODUCCIÓN 1

DEFINICIÓN DEL PROBLEMA 5

I RESULTADOS PRELIMINARES 7
1.1 Distribución Conjunta. . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Densidad Conjunta. . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Cambio de variable en vectores aleatorios bivariados. . . . . . . 9

II CÓPULAS 11
2.1 Definición de Cópula y propiedades . . . . . . . . . . . . . . . . 11
2.2 Teorema de Sklar . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Tipos de Cópulas . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.1 Cópula producto . . . . . . . . . . . . . . . . . . . . . . 15

vii
2.3.2 Copula Gaussiana (Normal). . . . . . . . . . . . . . . . . 15
2.3.3 Cópulas Arquimedianas. . . . . . . . . . . . . . . . . . . 15
2.3.3.1 Cópula Clayton. . . . . . . . . . . . . . . . . . 17
2.3.3.2 Cópula Frank. . . . . . . . . . . . . . . . . . . 17
2.3.3.3 Cópula Gumbel. . . . . . . . . . . . . . . . . . 18
2.4 Estmación del parámetro de una cópula. . . . . . . . . . . . . . 18
2.4.1 Estimación por máxima verosimilitud. . . . . . . . . . . 19
2.4.2 Selección de la cópula. . . . . . . . . . . . . . . . . . . . 20
2.4.2.1 Criterio de Información de Akaike (AIC). . . . 20
2.4.2.2 Criterio de Información Bayesiano (BIC). . . . 21

III FUNCIÓN DE DENSIDAD 22


3.1 Estimación de las marginales . . . . . . . . . . . . . . . . . . . . 22
3.2 Estimación de los parámetros de dependencia . . . . . . . . . . 23
3.2.1 Parámetro de dependencia para cópula Clayton . . . . . 23
3.2.2 Parámetro de dependencia para cópula Frank . . . . . . 23
3.2.3 Parámetro de dependencia para cópula Gumbel . . . . . 24
3.3 Cópulas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3.1 Cópula Clayton . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.2 Cópula Frank . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.3 Cópula Gumbel . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Cópulas para transformación de variables aleatorias . . . . . . . 26

IV APLICACIÓN 28
4.1 Modelos de evaluación de impacto . . . . . . . . . . . . . . . . . 28
4.2 Función de densidad para diferencias simples . . . . . . . . . . . 30
4.2.1 Cópula Clayton en diferencias simples . . . . . . . . . . 31
4.2.2 Cópula Frank en diferencias simples . . . . . . . . . . . . 31
4.2.3 Cópula Gumbel en diferencias simples . . . . . . . . . . 31
4.3 Función de densidad para variación relativa . . . . . . . . . . . 32
4.3.1 Cópula Clayton en variación relativa . . . . . . . . . . . 32
4.3.2 Cópula Frank en variación relativa . . . . . . . . . . . . 33

viii
4.3.3 Cópula Gumbel en variación relativa . . . . . . . . . . . 33
4.4 Función de densidad para diferencias en diferencias . . . . . . . 33
4.4.1 Cópula Clayton por diferencias en diferenicas . . . . . . 34
4.4.2 Cópula Frank por diferencias en diferenicas . . . . . . . . 35
4.4.3 Cópula Gumbel para diferencias en diferencias . . . . . . 36

V EL ESPACIO C0∞ (R) Y EL ESPACIO DE LAS DISTRIBU-


CIONES 41

BIBLIOGRAFÍA 42

ix
EQUIVALENCIA DE ALGUNAS FORMULACIONES PARA LA
DEFINICIÓN DE DISTRIBUCIÓN TEMPERADA

Autor: Pedro Gabriel Fernández Dalgo


Tutor: Dr. Xxxxx Xxxx Xxxxx Xxxxx, Ph.D.

RESUMEN

El espacio de las distribuciones temperadas es importante para estudiar ecua-


ciones diferenciales, porque la transformada de Fourier se comporta bien sobre
él. Se analizan las definiciones de distribución temperada dadas en [6] y en [7],
y se demuestra la equivalencia de éstas dos definiciones. Con el fin de probar
este último resultado, se usa los siguientes hechos: la completitud de S (R),
el Teorema de Baire, la convolución de una distribución con un elemento de
C0∞ (R) ası́ como también el soporte de esta convolución.

PALABRAS CLAVE: ESPACIO DE SCHWARTZ / DISTRIBUCIÓN TEM-


PERADA / TEORÍA DE DISTRIBUCIONES / ECUACIÓN DIFERENCIAL
/ TRANSFORMADA DE FOURIER / CONVOLUCIÓN EN TEORÍA DE
DISTRIBUCIONES.

x
EQUIVALENCE OF SOME FORMULATIONS FOR
DEFINITION OF TEMPERED DISTRIBUTION

Author: Pedro Gabriel Fernández Dalgo


Tutor: Dr. Xxxx Xxxxx Xxxxx Xxxxxx, Ph.D.

ABSTRACT

The space of tempered distributions is important to study differential equa-


tions, since the Fourier transform is well behaved on this space. The definitions
of tempered distribution, given in [6] and [7], are analized, and the equivalence
of these two definitions is shown. In order to prove this last result, we use the
following facts: the completeness of S (R), Baire’s Theorem, the convolution
between a distribution and an element of C0∞ (R) as well as the support of this
convolution.

KEYWORDS: SCHWARTZ SPACE / TEMPERED DISTRIBUTION /


DISTRIBUTION THEORY/ DIFFERENTIAL EQUATION / FOURIER TRANS-
FORM / CONVOLUTION IN DISTRIBUTION THEORY.

I CERTIFY that the above and foregoing is a true and correct translation of
the original document in Spanish.

——————————–

Certified Translator
ID: ......................

xi
INTRODUCCIÓN

NOTACIONES

En el presente trabajo N = {0, 1, 2, ...} y Z+ = {1, 2, ...}.

RESULTADOS DE ANÁLISIS

Teorema 1. Si f : X ⊂ Rm → Rn es continua y K ⊂ X es compacto, entonces


para todo ε > 0, existe δ > 0 tal que para todo x ∈ X, y ∈ K, con |x − y| < δ,

|f (x) − f (y)| < ε,

(Ver [3], Teorema 21.a, página 46).


Lema 1. (Lema de Petree) Si s ≥ 0 entonces existen constantes l, L ≥ 0 tales
que para todo a, b ≥ 0,

l(as + bs ) ≤ (a + b)s ≤ L(as + bs ),

(Ver [1], Lema 2.10, páginas 75,76).


Teorema 2. Sea (fn )+∞
n=1 una sucesión de funciones derivables en el intervalo

[a, b] que toman valores reales (o complejos). Si existe c ∈ [a, b] tal que la
+∞
sucesión numérica (fn (c))+∞ 0
n=1 converge, y la sucesión de las derivadas (fn )n=1

converge uniformemente en [a, b] para una función g, entonces (fn )+∞


n=1 converge

uniformemente en [a, b] para una función derivable f tal que f 0 = g, (Ver [1],
Lema 2.3, páginas 58-61; [2], Teorema 7, páginas 302-304).
Teorema 3. Sea (X, d) un espacio métrico completo y suponga que X =
+∞
[
Xn , donde Xn es cerrado en X para todo n ∈ Z+ . Luego, existe n0 ∈ Z+
n=1

1
tal que Xn0 tiene interior no vacı́o. Este resultado se conoce como Teorema de
Baire, (Ver [4], Teorema 4.7-2, páginas 247, 248).

TRANSFORMADA DE FOURIER

La teorı́a de las distribuciones proviene del estudio de ecuaciones diferenciales


parciales, donde aparece la necesidad de entender objetos como la transformada
de Fourier, la convolución, el núcleo del calor, y muchos otros, para comprender
y resolver problemas memorables provenientes de la Fı́sica.
Definición 1. La transformada de Fourier de una función integrable f : R →
C, se define como
fˆ : R −→ C
Z
1
7 → √
ξ− f (x)e−iξx dx.
2π R

Proposición 1. Si f : R → C es integrable, se tiene que fˆ es uniformemente


continua, (Ver [6], Proposición 2.2, páginas 190, 191).
Lema 2. (Lema de Riemann-Lebesgue) Si f : R → C es integrable, entonces
fˆ(ξ) converge a 0, cuando |ξ| → +∞, (Ver [1], Lema 2.6, páginas 70, 71; [6],
Proposición 2.3, páginas 191, 192; [6], Teorema 1.1, páginas 303-305).

Existe un conjunto de funciones, llamado el espacio de Schwartz, sobre el cual


la transformada de Fourier se comporta aún mejor.
Definición 2. El espacio de Schwartz S (R), es el conjunto formado por todas
las funciones ϕ : R → C, ϕ ∈ C ∞ (R), tales que para todo α, β ∈ N,

||ϕ||α,β := sup |xα ϕ(β) (x)| < +∞.


x∈R

Proposición 2. Si ϕ ∈ S (R), se sigue que xα ϕ(β) ∈ S (R) y además, xα ϕ(β) (x)


converge a 0, cuando |x| → +∞, para todo α, β ∈ N, (Ver [6], página 194).
Definición 3. Una distribución temperada sobre la recta, (Ver [6], página 205)
es un funcional lineal T : S (R) → C tal que existe una sucesión (ϕn )+∞
n=1 en

2
S (R), que cumple
Z
< T, ϕ >= lim ϕn (x)ϕ(x) dx, ∀ϕ ∈ S (R).
n→+∞ R

Teorema 4. La aplicación d : S (R) × S (R) → [0, +∞), dada por

X 1 ||ϕ − θ||α,β
d(ϕ, θ) := α+β 1 + ||ϕ − θ||
, ∀ϕ, θ ∈ S (R),
α,β∈N
2 α,β

define una métrica sobre S (R).

n=1 en S (R) converge a ϕ ∈ S (R) en el espacio


Además, una sucesión (ϕn )+∞
métrico (S (R), d) si y solamente si ||ϕn − ϕ||α,β converge a 0, cuando n →
+∞, para todo α, β ∈ N, (Ver [1], Lema 2.1, páginas 54-57).
Proposición 3. (S (R), d) es un espacio métrico completo, (Ver [1], Proposición
2.1, páginas 61-63).
Proposición 4. Si ϕ ∈ S (R), se tiene que ϕ̂ ∈ S (R) y

(ϕ(α) )ˆ(ξ) = iα ξ α ϕ̂(ξ), (ϕ̂)(α) (ξ) = (−i)α (xα ϕ)ˆ(ξ), ∀ξ ∈ R, ∀α ∈ N,

(Ver [6], Teorema 3.1 y Teorema 3.2, páginas 195,196).


Lema 3. Si ϕ ∈ S (R) y ϕ(0) = 0 entonces ϕ(x) = xθ(x), para todo x ∈ R,
donde θ : R → C definida por

ϕ(y)

 lim
 = ϕ0 (0), si x = 0
y→0 y
θ(x) =
 ϕ(x) ,

si x 6= 0
x

es un elemento de S (R), (Ver [1], Lema 2.5, páginas 64-66).

El resultado anterior es útil para probar el siguiente teorema.


Teorema 5. Si ϕ ∈ S (R), entonces se cumple la fórmula de inversión
Z
1 ˆ
ϕ(x) = √ ϕ̂(ξ)eiξx dξ = ϕ̂(−x), ∀x ∈ R,
2π R

3
(Ver [6], Teorema 3.3, páginas 196-198).
Definición 4. Para cada ϕ ∈ S (R), se define la transformada inversa de
Fourier de ϕ, como

ϕ̌ : R −→ C
Z
1
x 7−→ √ ϕ(ξ)eiξx dx = ϕ̂(−x).
2π R

Usando la fórmula de inversión, se prueba el siguiente teorema.


Teorema 6. La transformada de Fourier, ˆ: S (R) → S (R), es una biyección
lineal continua con inversa, ˇ : S (R) → S (R), continua (Ver [6], Teorema
3.3, páginas 200, 201).

La transformada de Fourier sobre S (R) relaciona el producto de funciones con


una operación llamada convolución.
Definición 5. Para cada f, g : R → C, se define la convolución f ∗ g en x ∈ R,
por la fórmula Z
(f ∗ g)(x) = f (x − y)g(y)dy,
R

siempre que el lado derecho tenga sentido, (Ver [6], página 202).
Proposición 5. Si ϕ ∈ S (R) y f : R → C es continua y acotada, entonces
ϕ ∗ f ∈ C ∞ (R) y
(ϕ ∗ f )(α) = ϕ(α) ∗ f, ∀α ∈ N.

Si además, Z
(1 + |y|)α |f (y)|dy < +∞, ∀α ∈ N,
R

entonces ϕ ∗ f ∈ S (R), (Ver [6], Lema 4.1, página 203).



Proposición 6. Si ϕ, θ ∈ S (R) entonces ϕ ∗ θ ∈ S (R) y (ϕ ∗ θ)ˆ= 2π ϕ̂ θ̂,
(Ver [5], Teorema 5.2, página 35,36; Ver [6], Lema 4.2, página 203).

4
DEFINICIÓN DEL PROBLEMA

FORMULACIÓN DEL PROBLEMA

La transformada de Fourier es un objeto esencial para alcanzar uno de los


objetivos principales de esta tesis, que es, mostrar que un funcional lineal T :
S (R) → C es continuo si y solamente si es una distribución temperada. Ası́, se
probará de forma rigurosa y detallada la equivalencia de varias formulaciones
para la definición de distribución temperada.

JUSTIFICACIÓN DEL PROBLEMA

Este hecho ha sido de interés para la comunidad matemática, desde los ini-
cios de la teorı́a de distribuciones a finales de la década de 1940, por Laurent
Schwartz, lo que le llevó a ganar la medalla Fields durante el Congreso Inter-
nacional de Matemáticos (ICM), en Cambridge, Massachusets, USA, en 1950.
Sin embargo, la mayorı́a de tratados no presentan una prueba en detalle, o
acuden a resultados avanzados de espacios vectoriales topológicos. Debido a
esto, se quiere presentar una prueba detallada de estos resultados.

OBJETIVOS

Objetivo General

Probar la equivalencia de algunas formulaciones para la definición de dis-


tribución temperada, mediante el uso de razonamientos deductivos, para justi-
ficar el uso de diferentes definiciones de distribución temperada.

5
Objetivos Especı́ficos

a) Mostrar que un funcional lineal T : S (R) → C es continuo si y solamente


si es una distribución temperada.

b) Analizar una generalización de la definición de convolución, para aproximar


distribuciones temperadas, mediante funciones en C0∞ (R).

6
CAPÍTULO I

RESULTADOS PRELIMINARES

En este capı́tulo se presentan definiciones básicas que servirán para el desarrollo


posterior del concepto de cópulas.

Primero se denota a R como la recta real (−∞, ∞), R se denota como la


2
linea real extendida [−∞, ∞], y R como el plano real extendido R × R. Un
2
rectángulo en R es el producto cartesiano de dos intervalos cerrados: B =
[x1 , x2 ] × [y1 y, 2 ]. Los vértices del rectángulo B son los puntos (x1 , y1), (x1 , y2),
(x1 , y1) y (x2 , y2). El cuadrado unidad I2 es el producto I × I donde I = [0, 1].
Definición 6. Sean S1 y S2 subconjuntos no vacı́os de R, y sea H una función
real tal que DomH = S1 × S2 . Sea B = [x1 , x2 ] × [y1 y, 2 ] el rectángulo que tiene
todos sus vertices en el DomH. Entonces el H-volumen de B está definido por

VH (B) = H(x2 , y2 ) + H(x1 , y1 ) − H(x1 , y2 ) − H(x2 , y1 ) (1.1)

2
Definición 7. Una función H ⊂ R es bicreciente si VH (B) ≥ 0 para todos los
rectángulos de B cuyos vértices están en DomH.
Lema 4. Sean S1 y S2 subconjuntos no vacı́os de R, y sea H una función
bicreciente con dominio S1 × S2 . Sea x1 , x2 ∈ S1 , con x1 ≤ x2 , y sea y1 , y2 ∈
S2 ,con y1 ≤ y2 . Entonces la función t → H(t, y2 ) − H(t, y1 ) es no decreciente
en S1 , y la función t → H(x2 , t) − H(x1 , t) es no decreciente en S2 .

Suponga que S1 tiene al menos un elemento a1 , y que S2 tiene al menos un


elemento a2 . Se dice que una función H de S1 ×S2 en R es de base si H(x, a2 ) =
0 = H(a1 , y) para todo (x, y) en S1 × S2 . Ası́ tenemos
Lema 5. Sean S1 y S2 subconjuntos no vacı́os de R, y sea H una función de
base y bicreciente con dominio S1 × S2 . Entonces H es no decreciente en cada

7
argumento.
Lema 6. Sean S1 y S2 subconjuntos no vacı́os de R, y sea H una función de
base y bicreciente, con funciones marginales, cuyo dominio es S1 × S2 . Sean
(x1 , y1 ) y (x2 , y2 ) puntos en S1 × S2 . Entonces

|H(x2 , y2 ) − H(x1 , y1 )| ≤ |F (x2 ) − F (x1 )| + |G(y2 ) − G(y1 )|.

Proof. De la desigualdad triangular, se tiene que

|H(x2 , y2 ) − H(x1 , y1 )| ≤ |H(x2 , y2 ) − H(x1 , y1 )| + |H(x1 , y2 ) − H(x1 , y1 )|

Ahora si suponemos que x1 ≤ x2 . Como H es una función de base, bicreciente


y tiene funciones marginales. Por los dos lemas anteriores se tiene que 0 ≤
H(x2 , y2 ) − H(x1 , y1 ) ≤ F (x2 ) − F (x1 ). Una desigualdad análoga se obtiene
cuando x2 ≤ x1 , ası́ se sigue que para cualquier x1 , x2 ∈ S1 , |H(X2 , Y2 ) −
H(x1 , y1 )| ≤ |F (x2 ) − F (x1 )|. De igual forma, para cualquier y1 , y2 ∈ S2 ,
|H(X1 , Y2 ) − H(x1 , y1 )| ≤ |G(y2 ) − G(y1 )|

A continuación se definira los conceptos de distribución conjunta, y densidad


conjunta que son necesarios para el desarrollo de este proyecto de investigación.

1.1 Distribución Conjunta.

Definición 8. La función de distribución conjunta de un vector aleatorio es

F (X1 ...., Xn ) = P (X1 ≤ x1 , ...Xn ≤ xn ) (1.2)

donde el evento [X1 ≤ x1 , ...Xn ≤ xn ] es la intersección de todos los eventos


[X1 ≤ x1 ] , ... [Xn ≤ xn ].

8
1.2 Densidad Conjunta.

Definición 9. Suponga que X1 ...., Xn variables aleatorias definidas en un mismo


espacio muestral, y que

Z xn Z x1
P (X1 ≤ x1 , ...Xn ≤ xn ) = ··· f (t1 , ...tn )dt1 · · · dtn , (1.3)
−∞ −∞

para todo x1 , ..., xn. Entonces f (x1 , ...xn ) es la función de densidad conjunta
de X1 ...., Xn (con f (x1 , ...xn ) ≥ 0).

1.3 Cambio de variable en vectores aleatorios bivariados.

Teorema 7. Suponga ahora que (X, Y ) es un vector con función de densidad


conocida y g es una función tal que (U, V ) = g(X, Y ) es otro vector aleatorio.

Sea (X, Y ) un vector continuo con valores en I ⊆ R2 con función de densidad


fX,Y (x, y). Sea g(x, y) : I → R2 una función continua con inversa g −1 (u, v)
diferenciable. Entonces el vector (U, V ) = g(X, Y ) toma valores en g(I) y tiene
función de densidad

fU,V (u, v) = fX,Y (g −1 (u, v)) |J(u, v)| para (u, v) ∈ g(I) (1.4)

en donde

−1
∂g1 ∂g1−1
J(u, v) = ∂g∂u−1 ∂v

−1
∂g2
∂u2 ∂v

Note que, si g no admite inversa pero cada y ∈ Rn tiene un número finito de


anti-imágenes g1−1 (y), ..., gk(y)
−1
(y), y cada una satisface las hipótesis del Teorema,
entonces

9
k(y)
X
fX gi−1 (y) |Ji | .

fY (y) = (1.5)
i−1

Proof. Sean S cualquier región en el plano (u, v), y sea S 0 su correspondiente


región en el plano (x, y). Ası́ (U, V ) ∈ S si y solo si (X, Y ) ∈ S 0 , se sigue que

ZZ
0
P ((U, V ) ∈ S) = P ((X, Y ) ∈ S ) = f (x, y)dxdy.
S0

Por (7.1.4) al cambiar de variables de (x, y) a (u, v) en la doble integral nos da

ZZ ZZ
∂(x, y)
P ((U, V ) ∈ S) = f (x, y)| |dudv = g(u, v)dudv,
S ∂(u, v) S

que prueba que la función g definida en () es la densidad conjunta de U y


V.

10
CAPÍTULO II

CÓPULAS

Este capı́tulo se centra en la definición de cópula, sus propiedades y el Teorema


de Sklar el cual establece la relación que existe entre una cópula y sus funciones
de distribución marginales.

Antes de dar el concepto de lo que es una función cópula, primero se define


las subcópulas como una clase de funciones de base, bicrecientes que tienen
funciones marginales; entonces se definen las cópulas como subcópulas con
dominio I2 .
Definición 10. Una subcópula bidimensional es ua función C 0 con las sigu-
ientes propiedades:

1.) DomC 0 = S1 × S2 , donde S1 y S2 son subconjuntos de I que contienen el


0 y el 1;

2.) C 0 es de base y bicreciente;

3.) Para todo x ∈ S1 y todo y ∈ S2 ,

C 0 (x, 1) = x y C 0 (1, y) = y. (2.1)

Note que para todo (x, y) ∈ DomC 0 , 0 ≤ C 0 (x, y) ≤ 1, ası́ RanC 0 también es
un subconjunto de I.

2.1 Definición de Cópula y propiedades

Definición 11. Una cópula bidimensional, o simplemente una cópula es una


subcópula C cuyo dominio es I2 .

11
Note que una cópula C, es una función de distribución multivariante cuyas
distribuciones marginales se distribuyen uniformemente entre [0, 1]. En el caso
bivariante, C(x, y) = P [X ≤ x, Y ≤ y]

La función C(x, y) es llamada una cópula si cumple las siguientes propiedades:

1.) Para todo x, y ∈ I.

C(x, 0) = 0 = C(0, y)

C(x, 1) = x y C(1, y) = y;

2.) Para todo x1 , y1 , x2 , y2 ∈ I tal que x1 ≤ x2 y y1 ≤ y2 ,

C(x2 , y2) + C(x1 , y1) − C(x1 , y2 ) − C(x2 , y1 )

Teorema 8. Sea C 0 una subcópula. Entonces para todo (x, y) ∈ DomC 0

max {x + y − 1, 0} ≤ C 0 (x, y) ≤ min {x, y} (2.2)

Proof. Sean (x, y) puntos arbitrarios en DomC 0 . Como C 0 (x, y) ≤ C 0 (x, 1) = x


y C 0 (x, y) ≤ C 0 (1, y) = y, se sigue que C 0 (x, y) ≤ min {x, y}. Además,
VC 0 ([x, 1]×[y, 1]) ≥ 0 implica que C 0 (x, y) ≥ x+y −1, si los dos últimos resulta-
dos se combinan con C 0 (x, y) ≥ 0 obtenemos C 0 (x, y) ≥ max {x + y − 1, 0}.

Porque toda cópula es una subcópula, la desigualdad en el teorema anterios


funciona para cópulas. Además las cotas de teorema anterior son cópulas y co-
munmente se notan por M (x, y) = min {x, y} y W (x, y) = max {x + y − 1, 0}.
Ası́ para toda cópula C y todo (x, y) ∈ R2 .

W (x, y) ≤ C(x, y) ≤ M (x, y).

12
Esta ecuación es la versión cópula de las cotas de Fréchet-Hoeffding.

2.2 Teorema de Sklar

El teorema de Sklar es esencial en la teorı́a de cópulas, pues implica que pueden


ser usadas para expresarlas en términos de las distribuciones marginales.
Lema 7. Sea H una función de distribución conjunta con marginales F y G.
Entonces existe una única subcópula C 0 tal que

1.) DomC 0 = RanF × RanG.

2.) Para todo x, y ∈ R, H(x, y) = C 0 (F (x), G(y)).

Proof. La función de distribución conjunta H satisface la hipótesis del Lema


2
2.1.5 con S1 = S2 = R. Ası́ para unos puntos (x1 , y1 ) y (x2 , y2 ) en R ,

|H(x2 , y2 ) − H(x1 , y1 )| ≤ |F (x2 ) − F (x1 )| + |G(y2 ) − G(y1 )|

Se sigue que si F (x1 ) = F (x2 ) y G(y1 ) = G(y2 ), entonces H(x1 , y1 ) = H(x2 , y2 ).


Ası́ el conjunto de pares ordenados


((F (x), G(y)), H(x, y))x, y ∈ R

define una función real C 0 cuyo dominio es RanF ×RanG que es una subcópula
por las propiedades de H, Luego, para cada u ∈ RanF , existe un x ∈ R tal
que F (x) = u. Ası́ C 0 (u, 1) = C 0 (F (x), G(∞)) = H(x, ∞) = F (x) = u.
La demostración de las otras propiedades de subcópulas se realizan de forma
similar.

Lema 8. Sea C 0 una subcópula. Entonces existe una cópula C tal que C(x, y) =
C 0 (x, y) para todo (x, y) ∈ C 0 ; es decir, una subcópula puede ser extendida a
una cópula.

13
Teorema 9. Sea H una función de distribución conjunta con marginales F y
G. Entonces existe una cópula C tal que para todo x, y

H(x, y) = C(F (x), G(y)) (2.3)

Si F y G son continuos, entonces C es único. Reciprocamente, si C es una


cópula y F y G son funciones de distribución, entonces la función H es una
función de distribución conjunta con marginales F y G.

Si una de las marginales no es estrictamente creciente, no posee una inversa en


el sentido usual. En este caso se utilizan las denominadas cuasi-inversas que se
definen a continuación.
Definición 12. Sea F una función de distribución. Entonces la cuasi-inversa
de F es una función F (−1) con dominio I tal que

1.) Si t ∈ RanF , entonces F (−1) (t) es un número x ∈ R tal que F (x) = t, es


decir, para todo t ∈ RanF ,

F (F (−1) (t)) = t. (2.4)

2.) Si t no pertenece al RanF , entonces

F (−1) (t) = inf {xF (x) ≥ t} = sup {xF (x) ≤ t} (2.5)

Si F es estrictamente creciente, entonces F tiene la inversa usual que se denota


por F −1 .
Corolario 1. Sean H una función de distribución conjunta, F y G funciones
de distribución, y C 0 una subcópula, y sean F (−1) y G(−1) las cuasi-inversas de
F y G, respectivamente. Entonces para (x, y) ∈ DomC 0 ,

C 0 (x, y) = H(F (−1) (x), G(−1) (y)) (2.6)

14
Cuando F y G son continuas, este corolario nos sirve como un método para
construir cópulas desde las funciones de distribución conjuntas.

2.3 Tipos de Cópulas

Un gran número de cópulas se proponen en la literatura. En esta sección se


recogen aquellas que son utilizadas con mayor frecuencia.

2.3.1 Cópula producto

Definición 13. La cópula producto tiene la forma

C(x, y) = xy, (2.7)

donde (x, y) ∈ I2 . La cópula producto es importante como un punto de refer-


encia porque denota dependencia.

2.3.2 Copula Gaussiana (Normal).

Definición 14. La cópula tiene la forma

φ−1 (x) φ−1 (y)


−(s2 − 2θst + t2 )
Z Z  
1
C(x, y; θ) = × dsdt, (2.8)
−∞ −∞ 2π(1 − θ2 )1/2 2(1 − θ2 )

donde Φ es la función de distribución de la distribución normal.

2.3.3 Cópulas Arquimedianas.

Un grupo particular de cópulas que ha demostrado ser útil en el modelado


empı́rico es la clase arquimediana. Las cópulas arquimedianas son populares
porque sus derivadas son fáciles de determinar y son capaces de capturar am-

15
plios rangos de dependencia. A coninuación se presentan ejemplos de la familia
Arquimediana.
Teorema 10. Sea ϕ : I → [0, ∞] una función continua y estrictamente decre-
ciente, tal que ϕ(1) = 0. Entonces la función

Cϕ (u, v) = ϕ(−1) (ϕ(u) + ϕ(v)) (2.9)

es una cópula si y solo si ϕ es convexa.

Donde


ϕ−1 (t), 0 ≤ t ≤ ϕ(0).
ϕ(−1) (t) = (2.10)
 0, otro caso.

Proof. Se va a probar que

• C(0, v) = ϕ(−1) (ϕ(0) + ϕ(v)) = 0.

• C(1, v) = ϕ(−1) (ϕ(1) + ϕ(v)) = v.

Para primera igualdad se utiliza que ϕ(0) + ϕ(v) ≥ ϕ(0) y la definición de ϕ(−1)
obteniendose el resultado.

Para la segunda igualdad se utiliza que ϕ(1) = 0. Asi tenemos

C(1, v) = ϕ(−1) (ϕ(1) + ϕ(v)) = ϕ(−1) (ϕ(v)) = v

Si una cópula C satisface las condiciones del Teorema, es llamada cópula Ar-
quimediana y la función ϕ(t) es su generador.

A continuación se presentan 3 cópulas Arquimedianas que se implementaran


en este proyecto.

16
2.3.3.1 Cópula Clayton.

Definición 15. El generador

1 −α
ϕ(t) = (t − 1),
α

con la pseudoinversa

ϕ(−1) (s) = max (1 + αs)−1/α , 0 ,




se utiliza para definir la clase de cópulas de Clayton:

Cα (u, v) = max (u−α + v−α − 1)−1/α , 0 ,



a ∈ [−1, 0) ∪ (0, ∞).

Esta cópula se aplica tipicamente para α > 0, entonces

Cα (u, v) = (u−α + v−α − 1)−1/α , α > 0. (2.11)

La densidad de esta cópula es

(α + 1)(uv)α
cα (u, v) = 1 . (2.12)
(uα + v α − (uv)α )2+ α

2.3.3.2 Cópula Frank.

Definición 16. El generador

e−αt − 1
ϕ(t) = −ln ,
e−α − 1

17
con la pseudoinversa

1
ϕ(−1) (s) = − ln[1 + e−s (e−α − 1)],
α

definen la cópula Frank como

(e−αu − 1)(e−αv − 1)
 
1
Cα (u, v) = − ln 1 + , α 6= 0. (2.13)
α e−α − 1

La densidas de esta cópula es

α(1 − eα )e−α(u+v)
cα (u, v) = (2.14)
(e−α − 1 + (e−αu − 1)(e−αv − 1))2

2.3.3.3 Cópula Gumbel.

El generador
ϕ(t) = (−ln(t))α ,

con pseudoinversa
1/α
ϕ(−1) (s) = e−s ,

define la cópula

Cα (u, v) = exp(−((−ln(u))α + (−ln(v)α ))1/α ), α ≥ 1. (2.15)

La densidad de está cópula es

cα (u, v) = (uv)−1 (lnulnv)α−1 (w2/α−2 + (α + 1)w1/α−2 )Cα (u, v). (2.16)

2.4 Estmación del parámetro de una cópula.

Las cópulas Arquimedianas necesitan un parámetro de dependencia que se


debe estimar, para esto uno de los métodos más utilizados es el de máxima

18
verosimilitud que se detalla a continuación.

2.4.1 Estimación por máxima verosimilitud.

Suponga que se tiene cierta cantidad de datos que, sin pérdida de generalidad,
asumimos provienen de una cópula. En principio no conocemos nada acerca de
la ”verdadera” cópula de la cual provienen los datos, ası́ que lo se hará es buscar
posibles candidatos dentro de las familia Arquimediana que se propondrá.

Este trabajo de investigación utilizará el metodo de máxima verosimilitud como


ajuste para estimar el mejor parámetro de cada miembro seleccionado de la
familia Arquimediana. Suponga que se tiene una muestra Xn = (x̂1 , ..., x̂n )
independiente, idénticamente distribuida, de tamaño n con x̂i ∈ I2 . Con este
método, se considera un vector aleatorio X = (x1 , ..., xn ) de tamaño n que
representa el suceso de haber obtenido una muestra; la densidad de ese vector
aleatorio (al variar el parámetro α) es

n
Y
f (x1 , ..., xn ; α) = cα (xi ).
i=1

Desde esta perspectiva, se conoce α y se desconoce X. Dado que se conoce el


valor de X = Xn , y no se conoce α, la función queda de un parámetro

n
Y
ς(α; Xn ) = cα (xi ).
i=1

A la función ς se la llama función de verosimilitud. Consideraremos el logaritmo


de la función de verosimilitud

n
X
l (α; Xn ) = log(cα (xi ))). (2.17)
i=1

Entonces el estimador de máxima verosimilitud que maximiza l (α; Xn ) está


dado por

19
α = argmax l (α; Xn ) (2.18)
α

2.4.2 Selección de la cópula.

Una vez obtenidos los parámetros de cada cópula se procede a seleccionar la


que mejor se ajusta a los datos, para ello se utilizará el criterio de Akaike (AIC)
que está definido como sigue

2.4.2.1 Criterio de Información de Akaike (AIC).

El AIC evalua la bondad de la estimación de los parámetros α realizada en la


etapa previa que se obtiene por el método de la máxima verosimilitud. El AIC
está definido por

AIC = −2 · log(L) + 2 · k, (2.19)

donde L es la función de verosimilitud de la muestra que se utiliza para la


estimación del parámetro α y k es el número de parámetros que se estima.

Dado que L representa la probabilidad de que la muestra quede bien represen-


tada por los parámetros, interesa que L sea próxima a 1 lo cual se traducirá
en que el logaritmo de L se aproxime a 0. Es por ello que un AIC pequeño es
indicativo de que el estimador representa fielmente a la muestra a la vez que
castiga el posible sobreajuste derivado del empleo de un excesivo número de
parámetros. Con más parámetros es más fácil conseguir un buen ajuste a la
muestra de referencia pero los resultados del mismo no suelen adaptarse bien
a otras muestras distintas (el “modelo” no es bueno, sus conclusiones no son
extrapolables).

ya que la función logaritmo es monótona creciente, seleccionar como mejor


modelo que maximice, equivale aproximadamente a seleccionar al que maximice
(2.19),lo que a su vez equivale a seleccionar el modelo que minimice.

20
2.4.2.2 Criterio de Información Bayesiano (BIC).

El criterio de información Bayesiana (BIC) propuesto por Schwarz en (1978),


ha sido uno de los métodos más populares usado para la selección de modelos.
Este es un criterio de evaluación de modelos en términos de sus probabilidades
posteriores que está definido como sigue

BIC = −2 · log(L) + ln(n) · k, (2.20)

donde L es la función de verosimilitud de la muestra que se utiliza para la


estimación del parámetro α, k es el número de parámetros que se estima y n
es el número de observaciones de la muestra.

21
CAPÍTULO III

FUNCIÓN DE DENSIDAD

En este capı́tulo se muestra como utilizar las cópulas para estimar la función
de densidad de transformación de variables aleatorias

3.1 Estimación de las marginales

Para estimar las marginales se utiliza la estimación tipo núcleo que es un tipo
de estimación no paramétrica.

La estimación tipo núcleo, de función de núcleo K, está definida como:

n  
ˆ 1 X x − Xi
fn (x) = K . (3.1)
nhn i=1 h

Dada la muestra de n observaciones reales X1 , ..., Xn y, donde K(x) es una


función kernel (función tipo núcleo o peso) que cumple ciertas condiciones
de regularidad, {hn } es una sucesión de constantes positivas, conocidas como
parámetro de suavización o bandwith.

Como X es una variable aleatoria continua se sigue que

Z x
F̂X (x) = fˆX (t)dt (3.2)
−∞

Una vez obtenidas las marginales se procede a definir las cópulas.

22
3.2 Estimación de los parámetros de dependencia

El primer paso para trabajar con cópulas es estimar el parámetro de depen-


dencia α, para esto, se hara uso de la estimación por máxima verosimilitud.

3.2.1 Parámetro de dependencia para cópula Clayton

Para obtener la estimación del parámetro α en la cópula Clayton se utilizan


las ecuaciones (2.18) y (2.12) y se sigue que

n
X
l(α) = ln(cα (xi , yi )))
i=1
"Z n n
#
x Z x
1 X t − Xi 1 X t − Yi
= α · log K( ) dt · K( ) dt
−∞ nhx i=1 hx −∞ nhy i=1 hy
" Z n

  x
1 1 X t − Xi
+ log(α + 1) + + 2 log K( ) dt
α −∞ nhx i=1 hx
Z x n Z y n

1 X t − Xi 1 X t − Yi
− K( ) dt · K( ) dt
−∞ nhx i=1 hx −∞ nhy i=1 hy
Z y n
!α #
1 X t − Yi
+ K( ) dt (3.3)
−∞ nhy i=1 hy

3.2.2 Parámetro de dependencia para cópula Frank

Las ecuaciones (2.18) y (2.12) para obtener el parámetro de la cópula Frank se


definen como sigue

23
n
X
l(α) = ln(cα (xi , yi )))
i=1

= log(α) + log [1 − exp(−α)]


Z x n Z x n
!
1 X t − Xi 1 X t − Yi
−α K( ) dt + K( ) dt
−∞ nhx i=1 hx −∞ nhy i=1 hy
" Z x n
! !
1 X t − Xi
− log exp(−α) − 1 + exp −α K( ) dt − 1
−∞ nhx i=1 hx
Z y n
! !#2
1 X t − Yi
· exp −α K( ) dt − 1 (3.4)
−∞ nhy i=1 hy

3.2.3 Parámetro de dependencia para cópula Gumbel

A partir de las ecuaciones (2.18) y (2.12) se estima el parámetro de dependencia


de la cópula Gumbel

n
X
l(α) = ln(cα (xi , yi )))
i=1
" n n
!#
x Z y
t − Xi t − Yi
Z
1 X 1 X
= − log K( ) dt · K( ) dt
−∞ nhx i=1 hx −∞ nhy i=1 hy
" Z x n
!#
1 X t − Xi
+ (α − 1)log ln K( ) dt
−∞ nhx i=1 hx
" Z y n
!#
1 X t − Yi
+ (α − 1)log ln K( ) dt
−∞ nhy i=1 hy

+ log w2/α−2 + (α − 1)w1/α−2 + log [Cα (FX (x), FY (y))]


 
(3.5)

3.3 Cópulas

Como se propuso en el cápitulo anterior se va a hacer uso de las 3 cópulas


Arquimedianas: Clayton, Frank y Gumbel, su desarrollo se muestra a contin-
uación.

24
3.3.1 Cópula Clayton

Por la ecuaciones (2.11) y (3.2), la cópula Clayton toma la siguiente forma:

Cα (u, v) = Cα (FX (x), FY (y))


" Z n
!−α
x
1 X t − Xi
= K( ) dt
−∞ nhx i=1 hx
Z y n
!−α #−1/α
1 X t − Yi
+ K( ) dt −1 (3.6)
−∞ nhy i=1 hy

3.3.2 Cópula Frank

Al utilizar las ecuaciones (2.11) y (3.2), la cópula Frank toma la forma:

Cα (u, v) = Cα (FX (x), FY (y))


(e−αFX (x) − 1)(e−αFY (y) − 1)
 
1
= − ln 1 + , (3.7)
α e−α − 1

donde

x n
t − Xi
Z
1 X
FX (x) = K( ) dt
−∞ nhx i=1 hx

x n
t − Yi
Z
1 X
FY (y) = K( ) dt
−∞ nhy i=1 hy

3.3.3 Cópula Gumbel

Por las ecuaciones (2.11) y (3.2), la cópula Gumbel toma la siguiente forma:

25
Cα (u, v) = Cα (FX (x), FY (y))
" n
!!α
x
t − Xi
Z
1 X
= exp − −ln K( ) dt
−∞ nhx i=1 hx
n
!!α !−1/α 
x
t − Yi
Z
1 X
+ ln K( ) dt  (3.8)
−∞ nhy i=1 hy

3.4 Cópulas para transformación de variables aleatorias

La transformación de variables aleatorias se realiza utilizando el Teorema de


Cambio de Variable que fue descrito en el capı́tulo 1, este teorema permite
encontrar la función de densidad de cualquier transformación.

A continuación se muestra una forma de calcular la transformación utilizando


cópulas.

De manera general el Teorema de cambio de variable para el caso bivariado se


expresa como sigue:

fZ,W (z, w) = fX,Y (g −1 (z, w)) |J(z, w)|

El Teorema de Sklar muestra que las cópulas se pueden utilizar para estimar
la distribución conjunta, donde u = FX (x) y v = FY (y), esto es

FX,Y (x, y) = Cα (u, v) (3.9)

Si derivamos la ecuación (3.9) en u y v, se sigue que

∂2
C(u, v) = fX,Y (x, y)fX (x)fY (y)
∂u∂v

Luego

26
∂2
fX,Y (x, y) = Cα (u, v) · fX (x)fY (y)
∂u∂v

∂2
∂u∂v
C(u, v) es la densidad cópula y se la representa por c(u, v). Entonces

fX,Y (x, y) = cα (u, v) · fX (x)fY (y)

reemplazando u = FX (x) y u = FY (y) en la ecuación anterior se obtiene

fX,Y (x, y) = cα (FX (x), FY (y)) · fX (x)fY (y) (3.10)

luego, utilizando la ecuación (3.10) en el Teorema de Cambio de Variable se ve


que

fZ,W (z, w) = cα (g −1 (z, w)) |J(z, w)| (3.11)

Ası́, la ecuación (3.11) es una estimación vı́a cópulas de la densidad conjunta


de transformación de variables aleatorias.

27
CAPÍTULO IV

APLICACIÓN

En este capı́tulo se presenta la aproximación de transformación de variables


aleatorias por medio de 3 cópulas que son: Clayton, Frank y Gumbel.

Para las transformaciones de variables aleatorias se trabajará con los métodos


econométricos.

4.1 Modelos de evaluación de impacto

El objetivo de una evaluación de impacto es medir el impacto de un programa


o una polı́tica con respecto a alguna variable de interés (efecto causal). La di

cultad de medir el impacto se encuentra en que solamente se puede observar lo


que sucedió, mas no lo que hubiera ocurrido si no se llevaba a cabo el programa
(contra-factual)

Tomando en cuenta que el contra-factual no existe en la realidad, una evalu-


ación intenta, ya sea de forma explı́cita o implı́cita, construir una estimación
del contra-factual para compararlo con lo que ocurrió. Usualmente, la esti-
mación del contra-factual se representa con un grupo que se denomina el grupo
de control, el cual consiste de entidades que no participaron en el programa,
mientras que el grupo de tratamiento es el que participó en el programa

Cuando los supuestos son realistas, el grupo de control es una buena repre-
sentación del contra-factual, cuando los supuestos no son realistas, la estimación
del impacto del programa resulta sesgada, lo cual puede conducir a tomar malas
decisiones, y generar pérdidas [6].

28
Los métodos de evaluación se describen a continuación.

• Diferencia simple.

Mide las diferencias después del programa entre aquellos que participaron
en el programa x y aquellos que no y. En el grupo de comparación se
encuentran los individuos que no participaron en el programa, y para los
cuales se tiene datos después del programa.

Se supone que los no participantes son idénticos a los participantes ex-


cepto por la intervención del programa, no hay selección en el tipo de
persona que entró al programa.

Es interesante notar que el método no requiere datos de la situación


anterior al programa [6],

x − y.

• Variación relativa

Mide las diferencias después del programa entre aquellos que participaron
en el programa x y aquellos que no y, con respecto a alguno de los dos
grupos de interés, por ejemplo, con respecto a aquellos que no partici-
paron.

x−y
. (4.1)
y

• Diferencias en diferencias

Compara el cambio en los resultados de los participantes x con el cambio


en los resultados de los que no participaron y en el programa. El cambio
de los que no participaron en el programa sirve como representación del
contra-factual del cambio de los participantes del programa. Se supone
que sin el programa los dos grupos tendrı́an trayectorias idénticas a lo
largo de este periodo. Este método controla todas las caracterı́sticas que

29
no cambian con en el tiempo y todos los cambios en el tiempo que afectan
al grupo tratado y no tratado de igual manera. Existen algunas desven-
tajas para la utilización de este método, si los dos grupos se hubieran
desarrollado de manera diferente en la ausencia del programa existe un
sesgo de selección, por lo que se necesita un grupo no afectado por el
programa y datos anteriores a la intervención [6].

(xf − x0 ) − (yf − y0 ).

4.2 Función de densidad para diferencias simples

Se va a utilizar la transformación g : (x, y) → (x, x − y)

Se definen Z = X y W = X − Y . Entonces



1 0
J(z, w) =
=1

0 1

Luego se resuelve z = x y w = x − y y se obtiene

x = z; y = z − w.

Asi, por 3.11 se tiene que

fZ,W (z, w) = cα (FX (z), FY (z − w)) · fX (z)fY (z − w), (4.2)

es la transformación por diferencias simples estimada por cópulas.

A continuación se presenta la estimación de la transformación por diferencias


simples utilizando las 3 cópulas arquimedianas mencionadas antes.

30
4.2.1 Cópula Clayton en diferencias simples

Por las ecuaciones (4.2) y (2.19) la transformación vı́a copula Clayton se expresa
como sigue

fZ,W (z, w) = cα (FX (z), FY (z − w)) · fX (z)fY (z − w),


(α + 1)(FX (z)FY (z − w))α · fX (z)fY (z − w)
= 1
2+ α
(4.3)
[(FX (z))α + (FY (z − w))α − (FX (z)FY (z − w))α ]

4.2.2 Cópula Frank en diferencias simples

Por las ecuaciones (4.2) y (2.19) la transformación vı́a copula Frank se expresa
como sigue

fZ,W (z, w) = cα (FX (z), FY (z − w)) · fX (z)fY (z − w),


α(1 − e−α )e−α(FX (z−w)+FY (z−w)) · FX (z)FY (z − w)
= (4.4)
(e−α − 1 + (e−αFX (z) − 1)(e−αFY (z−w) − 1))2

4.2.3 Cópula Gumbel en diferencias simples

Por las ecuaciones (4.2) y (2.19) la transformación vı́a copula Gumbel se expresa
como sigue

fZ,W (z, w) = cα (FX (z), FY (z − w)) · fX (z)fY (z − w),

= (FX (z)FY (z − w))−1 (ln(FX (z))ln(FY (z − w)))

· Cα (FX (z), FY (z − w)) w2/α−2 + (α − 1)w1/α−2



(4.5)

donde w = (−ln(FX (z)))α + (−ln(FY (z − w)))α y, Cα (FX (z), FY (z − w)) es la


cópula Frank.

31
4.3 Función de densidad para variación relativa

Se va a utilizar la transformación g : (x, y) → (x, x−y


y
)

X−Y
Se definen Z = X y W = Y
. Entonces



1 0
J(z, w) = = X
y1 −X Y2
Y2

x−y
Luego se resuelve z = x y w = y
y se obtiene

z
x = z; y= (4.6)
w+1

Asi, por 3.11 se tiene que

z z x
fZ,W (z, w) = cα (FX (z), FY ( )) · fX (z)fY ( ) 2, (4.7)
w+1 w+1 y

es la transformación por variación relativa estimada por cópulas.

A continuación se presenta la estimación de la transformación por variación


relativa utilizando las 3 cópulas Arquimedianas mencionadas antes.

4.3.1 Cópula Clayton en variación relativa

Por las ecuaciones (4.2) y (2.19) la transformación vı́a copula Clayton se expresa
como sigue

z z
fZ,W (z, w) = cα (FX (z), FY ( )) · fX (z)fY ( ),
w+1 w+1
z
(α + 1)(FX (z)FY ( w+1 ))α · fX (z)fY (z − w)
= α 2+ 1 (4.8)
(FX (z))α + FY ( w+1
z
) − (FX (z)FY ( w+1 z
))α α

32
4.3.2 Cópula Frank en variación relativa

Por las ecuaciones (4.2) y (2.19) la transformación vı́a copula Frank se expresa
como sigue

z z
fZ,W (z, w) = cα (FX (z), FY ( )) · fX (z)fY ( ),
w+1 w+1
z
α(1 − e−α )e−α(FX (z)+FY ( w+1 )) · FX (z)FY ( w+1
z
)
= z (4.9)
(e−α − 1 + (e−αFX (z) − 1)(e−αFY ( w+1 ) − 1))2

4.3.3 Cópula Gumbel en variación relativa

Por las ecuaciones (4.2) y (2.19) la transformación vı́a copula Gumbel se expresa
como sigue

z z
fZ,W (z, w) = cα (FX (z), FY ( )) · fX (z)fY ( ),
w+1 w+1
z z
= (FX (z)FY ( ))−1 (ln(FX (z))ln(FY ( )))
w+1 w+1
z
)) w2/α−2 + (α − 1)w1/α−2

· Cα (FX (z), FY ( (4.10)
w+1

z z
donde w = (−ln(FX (z)))α + (−ln(FY ( w+1 )))α y, Cα (FX (z), FY ( w+1 )) es la
cópula Frank.

4.4 Función de densidad para diferencias en diferencias

Se utiliza la transformación

g : (X0 , Xf , X0 , Xf ) → (X0 , Xf , Y0 , (X0 − Xf ) − (Y0 − Yf ))

33
Se definen R = X0 , S = Xf , W = Y0 , y Z = (X0 − Xf ) − (Y0 − Yf ). Entonces

1 0 0 0




0 1 0 0
J(g 1) = = −1 (4.11)

0 0 1 0

−1 −1

1 1

Luego se resuelve el sistema

r = x0

s = xf

w = y0

z = (x0 − xf ) − (y0 − yf ))

y se obtiene

x0 = r

xf = s

y0 = w

z2 = s − r − z + w

Ası́, por (3.11) se tiene la transformación por diferencias en diferencias

fRSW Z = cα · fX0 (r)fXf (s)fY0 (w)fYf (s − r − z + w), (4.12)

donde cα = cα (FX0 (r), FXf (s), FY0 (w), FYf (s − r − z + w)).

4.4.1 Cópula Clayton por diferencias en diferenicas

La cópula Clayton toma la forma:

Cα (u1 , u2 , u3 , u4 ) = (u−α −α −α −α
1 + u2 + u3 + u4 − 3)
−1/α
. (4.13)

34
La densidad de esta cópula es

cα (u1 , u2 , u3 , u4 ) = (u1−α + u−α −α −α


2 + u3 + u4 − 3)
−1/α−4
(1 + α)

· (1 + 2α)(1 + 3α)u−α−1
1 u−α−1
2 u−α−1
3 u−α−1
4 (4.14)

Por las ecuaciones (4.14) y (4.12), se sigue que

fE,S,W,Z (r, s, w, z) = cα (FX0 (r), FXf (s), FY0 (w), FYf (s − r − z + w))

· fX0 (r)fXf (s)fY0 (w)fYf (s − r − z + w)

= (FX0 (r)−α + FXf (s)−α + FYf (s − r − z + w))−α

− 3 + FY0 (w)−α )−1/α−4 (1 + α)(1 + 2α)(1 + 3α)

· ·fX0 (r)fXf (s)fY0 (w)fYf (s − r − z + w) (4.15)

4.4.2 Cópula Frank por diferencias en diferenicas

La cópula Frank toma la forma

(e−αu1 )(e−αu2 )(e−αu3 )(e−αu4 )


 
1
Cα (u1 , u2 , u3 , u4 ) = − · log 1 + (4.16)
α e−α − 1

La densidad de esta cópula es

α3 e−α(u1 +u2 +u3 +u4 ) 7α3 he−α(u1 +u2 +u3 +u4 )


cα (u1 , u2 , u3 , u4 ) = − +
(e−α − 1)3 · lf (e−α − 1)6 · lf2
12α3 · h2 · e−α(u1 +u2 +u3 +u4 ) 6α3 · h3 · e−α(u1 +u2 +u3 +u4 )
− +
(e−α − 1)9 · l3 (e−α − 1)12 · l4
(4.17)

donde

h = (eαu1 − 1)(eαu2 − 1)(eαu3 − 1)(eαu4 − 1),


(e−αu1 )(e−αu2 )(e−αu3 )(e−αu4 )
 
l = 1+ .
e−α − 1

35
Por las ecuaciones (4.17) y (4.12) se sigue que

α3 e−α(FX0 (r)+FXf (s)+FY0 (w)+FYf (s−r−z+w))


fE,S,W,Z (r, s, w, z) = −
(e−α − 1)3 · lf
7α3 he−α(FX0 (r)+FXf (s)+FY0 (w)+FYf (s−r−z+w))
+
(e−α − 1)6 · lf2
12α3 · h2 · e−α(FX0 (r)+FXf (s)+FY0 (w)+FYf (s−r−z+w))

(e−α − 1)9 · l3
6α3 · h3 · e−α(FX0 (r)+FXf (s)+FY0 (w)+FYf (s−r−z+w))
+
(e−α − 1)12 · l4
· fX0 (r)fXf (s)fY0 (w)fYf (s − r − z + w), (4.18)

donde

h = (eαFX0 (r) − 1)(eαFXf (s) − 1)(eαFY0 (w) − 1)(eαFYf (s−r−z+w) − 1),


!
(e−αFX0 (r) )(e−αFXf (s) )(e−αFY0 (w) )(e−αFYf (s−r−z+w) )
l = 1+ .
e−α − 1

4.4.3 Cópula Gumbel para diferencias en diferencias

La cópula Gumbel toma la forma

Cα (u1 , u2 , u3 , u4 ) = exp −A1/α ,



(4.19)

donde

A = (−ln(u1 ))α + (−ln(u1 ))α + (−ln(u1 ))α + (−ln(u1 ))α .

La densidad de esta cópula es

cα (u1 , u2 , u3 , u4 ) = (ln(u1 )ln(u2 )ln(u3 )ln(u4 ))α−1 (u1 u2 u3 u4 )−1 Cg

A4/α−4 + (6α − 6)A3/α−4 + (11α2 − 18α + 7)A2/α−4

+(α − 1)(1 − 2α)(1 − 3α)A1/α−4 ,



(4.20)

36
donde A esta definida en y, Cg es la cópula Gumbel.

A continuación, se presenta un tipo de funciones que al multiplicarse por un


elemento de S (R), dan como resultado un elemento de S (R).
Definición 17. ([6]) Una función de crecimiento lento sobre la recta es una
función Φ : R → C tal que Φ ∈ C ∞ (R) y para cada α ∈ N, existen constantes
C > 0, K ∈ N y M > 0 que cumplen para todo x ∈ R \ (−M, M ),

|Φ(α) (x)| ≤ C(1 + |x|2 )K .

Una función de crecimiento lento puede definirse de manera más simple.


Observación 1. Una función Φ : R → C es de crecimiento lento si y solamente
si Φ ∈ C ∞ (R) y para cada α ∈ N, existen constantes C > 0 y K ∈ N tales que
para todo x ∈ R,
|Φ(α) (x)| ≤ C(1 + |x|2 )K .

Proof. Sea Φ : R 7→ C una función de crecimiento lento. Sea α ∈ N.

Luego, existen constantes C̃ > 0, K ∈ N y M > 0 que cumplen para todo


x ∈ R \ (−M, M ),
|Φ(α) (x)| ≤ C̃(1 + |x|2 )K . (4.21)

Como Φ ∈ C ∞ (R), se tiene que Φ(α) es continua. Ası́, se puede definir


!
C := (1 + C̃) 1 + sup |Φ(α) (x)| > 0.
x∈[−M,M ]

Entonces, para todo x ∈ ( − M, M ),

|Φ(α) (x)| ≤ sup |Φ(α) (x)|


x∈[−M,M ]
!
≤ (1 + C̃) sup |Φ(α) (x)| (1 + |x|2 )K
x∈[−M,M ]

< C(1 + |x|2 )K , (4.22)

37
y para todo x ∈ R \ (−M, M ), usando (4.21) se tiene que

|Φ(α) (x)| ≤ C̃(1 + |x|2 )K


!
≤ C̃ 1+ sup |Φ(α) (x)| (1 + |x|2 )K
x∈[−M,M ]

< C(1 + |x|2 )K . (4.23)

De (4.22) y (4.23) se sigue que para todo x ∈ R, |Φ(α) (x)| < (1 + |x|2 )K .

Proposición 7. Si Φ : R → C es una función de crecimiento lento y ϕ ∈


S (R), entonces Φϕ ∈ S (R). Además, si (ϕn )+∞
n=1 converge a ϕ en S (R)

n=1 converge a Φϕ en S (R).


entonces (Φϕn )+∞

Proof. Sea Φ : R → C una función de crecimiento lento. Sea ϕ ∈ S (R). Como


Φ, ϕ ∈ C ∞ (R), se tiene que Φϕ ∈ C ∞ (R). Puesto que Φ : R 7→ C es una
función de crecimiento lento, por la Observación 1, para cada j ∈ N, existen
constantes Cj > 0 y Kj ∈ N tales que para todo x ∈ R,

K
|Φ(j) (x)| ≤ Cj (1 + |x|2 ) j .

Además, por el Lema 1, existe Lj ≥ 0 tal que para todo x ∈ R,

|Φ(j) (x)| ≤ Lj Cj (1 + |x|2Kj ). (4.24)

38
Sean α, β ∈ N. Luego, usando (4.24), se sigue que para todo x ∈ R,
β  

α (β)
X
α β (j) (β−j)

|x (Φϕ) (x)| = x Φ (x)ϕ (x)

j j=0

β  
α
X β
≤ |x| |Φ(j) (x)||ϕ(β−j) (x)|
j=0
j
β  
α
X β
Cj (1 + |x|2 )Kj |ϕ(β−j) (x)|
 
≤ |x|
j=0
j
β  
α
X β
Lj Cj (1 + |x|2Kj )|ϕ(β−j) (x)| .
 
≤ |x|
j=0
j

Entonces,

||Φϕ||α,β = sup |xα (Φϕ)(β) (x)|


x∈R
β  
" #
X β
≤ sup |x|α Lj Cj (1 + |x|2Kj )|ϕ(β−j) (x)|
x∈R
j=0
j
β  
X β
Lj Cj sup (|x|α + |x|α+2Kj )|ϕ(β−j) (x)|
 

j=0
j x∈R

β  
X β  
= Lj Cj ||ϕ||α,β−j + ||ϕ||α+2Kj ,β−j < +∞. (4.25)
j=0
j

Por tanto, Φϕ ∈ S (R).

n=1 converge a ϕ en S (R), se sigue de (4.25) y el Teorema 4


Además, si (ϕn )+∞
que para todo α, β ∈ N,

||Φϕn − Φϕ||α,β = ||Φ(ϕn − ϕ)||α,β


β  
X β  
≤ Lj Cj ||ϕn − ϕ||α,β−j + ||ϕn − ϕ||α+2Kj ,β−j
j=0
j

−−−−→ 0.
n→+∞

39
n=1 converge a Φϕ en S (R).
Usando el Teorema 4, se obtiene que (Φϕn )+∞

Proposición 8. Si T : S (R) → C es un funcional lineal continuo y Φ : R → C


es una función de crecimiento lento, entonces el producto

ΦT : S (R) −→ C
ϕ 7−→ < ΦT, ϕ >=< T, Φϕ >,

es un funcional lineal continuo.

Proof. Sea T : S (R) → C un funcional lineal continuo. Sea Φ : R → C


una función de crecimiento lento. El funcional ΦT está bien definido por la
Proposición 7.

Sean ϕ, θ ∈ S (R) y γ ∈ C. Luego,

< ΦT, ϕ + γθ > =< T, Φϕ + γΦθ >

=< T, Φϕ > +γ < T, Φθ >

=< ΦT, ϕ > +γ < ΦT, θ > .

Ası́, ΦT es un funcional lineal.

40
CAPÍTULO V

EL ESPACIO C0∞ (R) Y EL ESPACIO DE LAS DISTRIBUCIONES

41
BIBLIOGRAFÍA

[1] Borys Álvarez Samaniego, Problema de Cauchy para una ecuación no lineal,
no local, proveniente de la Dinámica de Fluidos, Memorias de la “I Escuela
de Verano en Matemáticas y Fı́sica”, ISBN: 978-9942-945-08-2, Editorial
Universitaria (UCE), Núcleo de Investigadores Cientı́ficos (UCE), Junio
2015.
[2] Elon Lages Lima, Curso de Análise, Volume 1, Sétima Edição, Projeto
Euclides, Instituto de Matemática Pura e Aplicada (IMPA), Rio de Janeiro,
1992.
[3] Elon Lages Lima, Curso de Análise, Volume 2, Terceira Edição, Projeto
Euclides, Instituto de Matemática Pura e Aplicada (IMPA), Rio de Janeiro,
1989.
[4] Erwin Kreyszig, Introductory Functional Analysis with Applications, United
States of America, John Wiley & Sons, Inc., 1978.
[5] Ivan F. Wilde, Distribution Theory (Generalized Functions) Notes, Novem-
ber 9, 2005, 66 pages.
[6] Rafael Iório Júnior & Valéria de Magalhães, Equações Diferencias Parcias:
Uma Introdução, Projeto Euclides, Instituto de Matemática Pura e Apli-
cada (IMPA), Rio de Janeiro, 1988.
[7] Rafael Iório Júnior & Valéria de Magalhães, Fourier Analysis and Partial
Differential Equations, Cambridge University Press, United Kingdom, 2001.
[8] Robert G. Bartle, The Elements of Integration and Lebesgue Measure,
United States of America, John Wiley & Sons, Inc., 1995.
[9] Walter Rudin, Functional Analysis, Second Edition, Singapure, McGraw-
Hill, Inc., 1991.

42

También podría gustarte