Está en la página 1de 146

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/371908510

Derivada de Radón-Nikodym y Aproximación de Distribuciones de


Probabilidades Continuas y Discretas

Thesis · March 2023


DOI: 10.13140/RG.2.2.31022.48961

CITATIONS READS
0 125

2 authors, including:

Juan Toribio Milane


Universidad Autónoma de Santo Domingo
19 PUBLICATIONS 0 CITATIONS

SEE PROFILE

All content following this page was uploaded by Juan Toribio Milane on 28 June 2023.

The user has requested enhancement of the downloaded file.


UNIVERSIDAD AUTÓNOMA DE SANTO DOMINGO
FACULTAD DE CIENCIAS
ESCUELA DE MATEMÁTICA
UNIDAD DE POSTGRADO

Derivada de Radón-Nikodym y Aproximación de


Distribuciones de Probabilidades Continuas y Discretas

Tesis para optar por el título de


Maestría en Matemática pura

SUSTENTANTE:

Víctor Mercedes Batista Torres

ASESOR:
Mtro. Juan Toribio Milane

Los conceptos emitidos en esta


tesis son de la exclusiva respon-
sabilidad de su sustentante.

República Dominicana
Santiago De Los Caballeros
Marzo, 2023
Derivada de Radón-Nikodym y Aproximación de
Distribuciones de Probabilidades Continuas y Discretas
Índice general

Dedicatoria i

Agradecimientos iii

Resumen v

Abstrac vi

1. Introducción 1
1.1. Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Planteamiento del Problema . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3. Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1. Generales: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2. Específicos: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2. Teoría de la Medida y Probabilidades 15


2.1. Teoría de la Medida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1. Algebras y σ-Álgebra . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2. Medida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.3. Espacios Medibles . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.4. Medidas Positivas . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.5. El Teorema de Lebesgue-Radón-Nikodym . . . . . . . . . . . . . 26
2.1.6. Medidas signadas . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.7. Funciones Absolutamente Continuas en R . . . . . . . . . . . . 41
2.1.8. Distribuciones Singulares, (Ortogonales) . . . . . . . . . . . . . 47
2.2. Dos Teoremas Importantes, de Aproximación . . . . . . . . . . . . . . 48
2.2.1. Teorema del Límite Central . . . . . . . . . . . . . . . . . . . . 51

3
4 ÍNDICE GENERAL

2.2.2. Teorema de DeMoivre-Laplace. . . . . . . . . . . . . . . . . . . 63

3. Aspectos Metodológicos 79
3.1. Tipo de Estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2. Diseño de Investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.3. Alcances y Límites de la Investigación . . . . . . . . . . . . . . . . . . . 79

4. Derivadas y Aproximaciones 80
4.1. Algunas Propiedades Importantes . . . . . . . . . . . . . . . . . . . . . 80
4.2. Distribución Normal con respecto a la Exponencial . . . . . . . . . . . 82
4.3. Distribución Exponencial con respecto a la Normal. . . . . . . . . . . . 84
4.4. Distribución Binomial, con respecto a la Geomética . . . . . . . . . . . 86
4.5. Distribución de Bernoulli, con respecto a la de Poissón. . . . . . . . . . 88
4.6. De la Suma de la Normal y de Poissón, con respecto a la Distribución
Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.7. De la Suma de la Normal y de Poissón, con respecto a la Suma de la de
Cauchy y Geomética . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.8. Aproximación de la Distribución Binomial mediante la Normal . . . . . 95
4.9. Aproximación de la Distribución Hipergeométrica mediante la Binomial. 100
4.10. Aproximación de la Distribución Binomial mediante la de Poissón. . . . 103

5. Conclusiones y Recomendaciones. 105


5.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.2. Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

Apéndice 107

A. Teoría de Probabilidades 108


A.1. Distribuciones Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 108
A.2. Distribución Uniforme Discreta . . . . . . . . . . . . . . . . . . . . . . 109
A.3. Distribución Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
A.4. Distribución Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . 111
A.5. Distribución Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . 112
A.6. Distribución Binomial Negativa o Distribución de Pascal . . . . . . . . 113
A.7. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
A.8. Distribuciones Continuas . . . . . . . . . . . . . . . . . . . . . . . . . . 115
A.9. Distribución Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
ÍNDICE GENERAL

A.10.Distribución Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118


A.11.Distribución Normal Tipificada o Estandarizada . . . . . . . . . . . . . 119
A.12.Distribución Lognormal . . . . . . . . . . . . . . . . . . . . . . . . . . 122
A.13.Distribución Logística . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
A.14.Distribución Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
A.15.Distribución Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
A.16.Distribución de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
A.17.Distribución Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 129
A.18.Distribución Ji-Cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . 130
A.19.Distribución t de Student . . . . . . . . . . . . . . . . . . . . . . . . . 130
A.20.Distribución F de Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . 131

Bibliografía. 132
Dedicatoria

Esta tesis está dedicada a:

Dios: porque sin Él, nada es posible, por brindarme la oportunidad de iniciar y
terminar este gran proyecto en mi vida, y alcázar el título de Magister en Matemática
Pura, dotándome fuerzas a cada momento para que pueda seguir adelante, dándome su
amor incondicional, sabiduría y depositando en mi la perseverancia necesaria para salir
a flote en aquellos momentos difíciles donde la fuerza y el deseo de seguir parecían no
ser suficientes. Tuyo es este logro señor.

Mis padres, Daniel Batista y María Sotera Torres: por no perder nunca
la fe en mí, en que lograría terminar esta maestría. Confieso que en muchas ocasiones
sentí defraudarlos, llegando a pensar que al final no lo alcanzaría, pero por cosas del
inmenso amor que me manifiestan, frecuentemente escuchaba salir de los labios de mi
madre las siguientes preguntas: ¿cuándo te graduarás?, ¿para cuándo es la fecha de la
graduación?, ¿lograste terminar?, y así muchas más, mientras que mi padre me decía:
"ven a buscar el dinero del pasaje a Santo Domingo". El peso de todas esas preguntas
lo sentía sobre mí como una carga que no podía aguantar, porque igual de pesada era
la verguenza de quizás defraudarlos, entonces los miraba y en silencio me daba fuerzas
y con mis pensamientos les decía: "No se preocupen mis viejos, no me daré por ven-
cido, yo lo lograré". Sin su apoyo, no lo habría logrado, GRACIAS VIEJOS DEL ALMA.

Mis hijos, Ángel, Albert y Ashley: porque el tiempo que he perdido en de-
dicarles tiempo, escucharles, aconsejarles, en mostrarles lo tanto que significan para
mí, quiero devolvérselo con mi ejemplo de que todo se puede lograr, de que estudiar y
prepararse es lo que nosotros, los pobres, debemos hacer. Ahora, tendré tiempo para
ustedes. GRACIAS HIJOS MÍOS.

i
ii ÍNDICE GENERAL

Mi Esposa, Yasmín Altagracia Núñez: por ver en mí la persona capaz de


lograr completar esta meta y motivarme día a día en buscar la manera de salir del
laberinto en el que me encontraba, laberinto que parecía no tener salida y calcomía
mis sueños y esperanzas, pero ella siempre estuvo segura de que lograría encontrar esa
salida. Fue mucho lo perdido en estos tantos años de maestría, sustituyendo nuestros
bellos momentos por sueños rotos, ezperanzas teñidas de marrón oscuro y pensamientos
opacos por la insuficiencia de tiempo que dividía nuestra relación y todo nuestro hogar.
Sería injusto de mi parte no reconocer que gran parte de este logro está lavado con sus
lágrimas y digitado una y mil veces con el ungüento de su fe, en que al final llegaría a
la meta. GRACIAS POR TU PERSEVERANCIA ESPOSA MÍA.

Mis hermanos: porque siempre han confiado en mí, exaltando, según ellos, mi
capacidad e inteligencia, creyendo en mí, sin dudar ni un instante y dándome fuerzas
en mis flaquezas. GRACIAS QUERIDOS HERMANOS.

Mis compañeros de maestría: aquellos que lograron terminar y ya están gra-


duados, manteniendo siempre a su lado ese espacio vacío que ocuparía yo cuando los
alcanzara, al final de la meta y aquellos que no lograron continuar y desde afuera siem-
pre contaron con que yo lo lograría por ellos. GRACIAS A TODOS COLEGAS.

Mis compañeros de trabajo: por siempre estar pendiente de mi proceso, mos-


trándome su preocupación por mi dejadez en culminar esta tesis, a sabiendas de lo
dedicado que siempre les he mostrado que soy. GRACIAS COLEGAS.

Mis amigos: por confiar en mí y de forma incondicional siempre estar prestos a


ayudarme y motivarme a segir adelante. GRACIAS.
Agradecimientos

Mis más humilde y sincero agradecimiento a:

Los maestros: nadie dijo que sería facil lograr culminar un programa de Maestría
en Matemática Pura, sin embargo, todos los maestro dedicaron tiempo inmedible y sus
conocimientos, para lograr que un buen grupo pudiera llegar a la meta. De manera
muy especial presento mis respetos y agradecimientos a los maestros Juan Toribio
Milane, Carlos Feliz y Genaro Viñas, por confiar en mí y ser dignos modelos a
seguir en esta ardua tarea de educar. GRACIAS.

Gerónimo Tomás Núñez: mi Hemano, Cuñado, Compadre, Compañero de tra-


vesía y de trabajo. Todo lo bueno que pudiera pincelar en un papel, con mi débil
gramática, resulta poco cuando de hablar de este gran ser humano se trata; ya que no
sólo fue para mí todo lo anteriormente mencionado; sino que también fue uno de mis
principales maestros en todo el programa y un perfecto guía de estudio, personificando
en sí mismo la esencia de un verdadero y talentoso estudiante. Seguir sus pasos era mi
Norte, mantenerme al menos cerca de la cúspide de su intelecto, fue también mi meta,
módulo tras módulo, y si por cosas del azar pudiera yo explicarle algo, en algún mo-
mento o asignatura, que aún no lograra entender, fue para mi alcanzar lo inalcanzable.
GRACIAS.

Mi asesor Juan Toribio Milane: por su increible disciplina, que lo hace merece-
dor de mi respeto y admiración, por su paciencia para conmigo y sus puntuales consejos
y recomendaciones en pro de alumbrar el oscuro y espinoso camino que parecía tender
al infinito. GRACIAS, MI REPETO, MAESTRO.

Santo Ángeles Núñez: Cuñado, Compadre, Consejero, Amigo, por su apoyo in-
condicional, entrega y muestras sinceras de afecto y preocupación por la posibilidad de

iii
iv ÍNDICE GENERAL

que no lograre alcanzar la meta. GRACIAS.

Dionis Genao: por darme luz de esperanza, cuando ya estaba casi decidido a
rendirme, subrayando mis fortalezas y mostrándome que aún podía salir adelante, pues
la meta aún estaba ahí, a mi espera. GRACIAS.

DS: por brindarme su apoyo, aun sin conocerme, depositando su valioso tiempo en
lograr que se cumpliesen los sueños de un desconocido. Fueron invaluables sus consejos
y aportes, espero algún día poder corresponderle de igual manera. GRACIAS.

Mis compañeros de Maestría: Gerónimo Thomas Núñez, Pedro Tifa, Juan Ro-
dolfo Holguín, Francisco del Rosario Sánchez, Wendy Liriano, Miguel Estrella, Fenelix
Aracena, Cándido Silverio, Juan Carlos López, Ronny Gerónimo, Francisco Evange-
lista, José Joel, Melquicede, José Miguel y demás compañeros que en todo este largo
camino aportaron su granito de arena para que este programa de Maestría lo pudiera
culminar con éxito. GRACIAS.
Resumen

En la presente tesis, se estudian la Derivada de Radón-Nikodym y las Aproxi-


maciones de Distribuciones de Probabilidades Continuas y Dicretas que a la vez son
medidas en ciertos espacios métricos. La misma consta de cinco capítulos desarrollados
en el siguiente orden: En el Capítulo I, se presenta de forma explícita los antecedentes
históricos de las Distribuciones de Probabilidades, así como también, el planteamiento
del problema, su justificación, el objetivo general y los específicos. En el Capítulo II, se
presentan las Distribuciones desde el punto de vista de la Teoría de las Probabilidades y
la Teoría de la Medida, así como también, la Derivada Radón-Nikodym y la Aproxima-
ción (mediante el Teorema del Límite Central), de las Distribuciones de Probabilidad
Continuas y Discretas, en el Capítulo III, se presenta la metodología, el tipo de estudio,
el diseño de la investigación y los alcances y límites de la misma, en el Capítulo IV,
se presentan de forma desarrollada los resultados de la Derivada de Radón-Nikodym y
la Aproximación (mediante el teorema del límite central), de ciertas Distribuciones de
Probabilidad Continuas y Discretas, dando cumplimiento a los objetivos propuestos y
en el Capítulo V, se presentan las conclusiones y recomendaciones consideradas en esta
investigación.

v
Abstrac

In this thesis, the Derivative of Radon-Nikodym and the Approximations of Con-


tinuous and Discrete Probability Distributions are studied, which are also Measured
in certain Metric Spaces. It consists of five chapters developed in the following order:
In Chapter I, the historical background of the Probability Distributions is explicitly
presented, as well as the problem statement, its justification, the general objective and
the specific ones, Chapter II presents the Distributions from the point of view of the
Probability Theory and the Measurement Theory, as well as the Radon-Nikodym Deri-
vative and the Approximation (through the Central Limit Theorem) of the Distributions
of Continuous and Discrete Probability, in Chapter III, the methodology, the type of
study, the design of the investigation and its scope and limits are presented, in Chapter
IV, the results of the Derivative of Radon-Nikodym and the Approximation (through
the central limit theorem), of certain Continuous and Discrete Probability Distribu-
tions, complying with the proposed objectives. os and in Chapter V, the conclusions
and recommendations considered in this investigation are presented.

vi
Capítulo 1

Introducción

1.1. Antecedentes
A pesar de lo sencillo que puede parecer el enfoque axiomático en el cálculo dife-
rencial, este no es muy utilizado a pesar de que el desarrollo de la estructura de las
distribuciones bajo los teoremas básicos del análisis funcional es particularmente intere-
sante, pues permite la combinación entre diferentes áreas de las matemáticas entre las
que se destacan el análisis de Fourier, las ecuaciones diferenciales parciales, la teoría
de la medida y por supuesto el análisis funcional. Por esta razón, en este proyecto de
investigación se hará una recopilación de conceptos básicos sobre la teoría de las distri-
buciones haciendo mayor énfasis en las propiedades de la ortogonalidad con respecto a
medidas de distribuciones de probabilidades.

Desde el inicio del cálculo diferencial se intuye la necesidad de extender funciones


de la Física y la matemática que vienen dadas por ecuaciones diferenciales fundamenta-
les y, por consiguiente, son aplicables solamente (al menos en principio) a fenómenos en
los que las variables físicas (como el desplazamiento elástico o la intensidad eléctrica)
sean funciones muy regulares del espacio y el tiempo. Desde el comienzo mismo de la
aplicación del cálculo diferencial a la Física, se vio que había una marcada diferencia
entre los fenómenos estáticos (descritos usualmente por ecuaciones elípticas) y los di-
námicos (regidos generalmente por ecuaciones hiperbólicas). Las variables físicas en los
fenómenos estáticos podían suponerse sin dificultad de clase infinito, sin discrepancia
con los datos observables; pero las variables físicas en los problemas dinámicos exhi-
bían a menudo discontinuidades esenciales en la práctica. Puede decirse entonces que
estas ideas desde el inicio del cálculo diferencial intuyen la necesidad de extender estas

1
2 CAPÍTULO 1. INTRODUCCIÓN

nociones de modo que las operaciones fundamentales del análisis se puedan realizar
siempre y sin hipótesis complicadas de validez, por tanto, de alguna manera se trata de
obtener una notación generalizada de diferenciación que permita derivar funciones (en
principio) que no lo son en sentido ordinario.

Posteriormente estas funciones generalizadas tomaran el nombre de distribuciones,


nombre que les dio el matemático francés Schwartz, y que, debido a la aceptación y
difusión de su teoría es el nombre utilizado actualmente. Al igual que en el caso de
Sóbolev, la motivación para el desarrollo de la teoría de las distribuciones por parte
de Schwartz, se debió al estudio de las soluciones débiles de ecuaciones diferenciales
parciales. Pero a diferencia de los trabajos anteriores, Schwartz contaba con un avance
en el estudio del análisis funcional antes de utilizar esta herramienta en las aplicaciones.
Así,inicialmente, Schwartz concibió las distribuciones como operadores, pero gracias
a los precedentes que había establecido en la teoría de la dualidad de los espacios de
Banach, la de los espacios de Frechet y a los beneficios de trabajar con los espacios
duales, Schwartz definió las distribuciones como un funcional lineal continuo sobre un
espacio vectorial de funciones (llamadas funciones prueba).

Para los matemáticos del siglo XVIII, no estaba muy claro el concepto de función,
y menos aún el de función diferenciable. Los matemáticos de este período, en lugar
de trabajar con una jerarquía bien establecida de funciones, lo hacían con una clase
no muy bien definida: las funciones continuas (que llamaremos a partir de ahora
F-continuas). Una función F-continua venía dada por una expresión analítica, enten-
diéndose como tal a cualquier combinación de constantes y variables construida a partir
de las operaciones matemáticas conocidas, algebraicas y trascendentes, incluyendo su-
mas infinitas, diferenciación e integración. Se admitía que tales funciones se podían
representar en el entorno de cada punto por una serie de potencias y, por tanto, en len-
guaje moderno, serían funciones localmente analíticas. Después venían las "funciones
discontinuas"(F-discontinuas) o "mecánicas", que aparecían definidas por expresiones
analíticas distintas en distintos intervalos. En cualquier caso, estos conceptos no esta-
ban expresados ni aceptados de una manera universal, sino que variaban de un autor a
otro.

En 1747, D’Alembert, a partir de un análisis de una ecuación en "diferenciales",


encontró como solución del desplazamiento de una cuerda vibrante fija en los extremos,
en función del tiempo t, la expresión:
1.1. ANTECEDENTES 3

y = f (x, t) = Ψ(x + t) + ϕ(x − t)

donde las funciones .arbitrarias" ψ y ϕ pueden determinarse a partir de las con-


diciones iniciales. Euler, en 1753, exhibió la ecuación diferencial que rige el fenómeno
que, en lenguaje moderno, sería equivalente a:

∂ 2f ∂ 2f
= (1.1)
∂x2 ∂t2
(recuérdese que la noción moderna de derivada, como límite de un cociente, se
debe a Cauchy; en este período la noción de derivada parcial tenía interpretaciones
esencialmente geométricas). Euler llega a la misma solución que D’Alembert, pero con
interpretaciones esencialmente distintas. Para D’Alembert, las funciones arbitrarias ϕ
y ϕ deberían ser F -continuas, a fin de que se les pudiera aplicar las reglas del análisis co-
nocido. En una argumentación posterior (1761), D’Alembert usó el análogo geométrico
de la expresión:

f (z) + f (z + 2r) − 2f (z + r)
f ′′ (z) = (r > 0, infinitamente pequeño)
r2
obteniendo para la solución f (x, t) = Ψ(x + t) + ϕ(x − t) de la ecuación (1.1) la
expresión

∂ 2 f (x, t) ψ(x − t) + ψ(x + 2r + t) − 2ϕ(x + r + t)


= + (1.2)
∂x2 r2
φ(x − t) + φ(x + 2r + t) − 2φ(x + r + t)
r2
2
∂ f (x, t) ψ(x + t) + ψ(x + t + 2r) − 2ϕ(x + t + r)
2
= +
∂t r2
φ(x − t) + φ(x − t − 2r) − 2φ(x − t − r)
r2
Para que f fuera solución de la ecuación (1.1), ambas expresiones deberían ser
iguales, según observó D’Alembert, lo que implicaba que los radios de curvatura en
cualquier valor de (x − t) deberían coincidir (no podían tener saltos, en palabras de
D’Alembert). Como tales saltos del radio de curvatura eran posibles para funciones
F-discontinuas, esas soluciones deberían desecharse.
4 CAPÍTULO 1. INTRODUCCIÓN

Sin embargo, Euler mantenía la posición de que ψ y ϕ podían ser completamente


arbitrarias (incluso F-discontinuas), con cualquier curva que pudiéramos dibujar como
posible estado inicial. Naturalmente, Euler contestó a los argumentos de D’Alembert.
Respecto a las críticas basadas en las reglas usuales del calculo, se mostró de acuerdo
en que el análisis conocido no podía solventar el problema, pero replicó que había que
extender estas reglas para poder tratar las funciones F -discontinuas, ya que estas fun-
ciones aparecían de modo obligatorio en matemáticas como constantes de integración
en la teoría de ecuaciones diferenciales en dos o más variables.

Pero, además de estas consideraciones generales, presentó algunos interesantes ar-


gumentos contra las objeciones de D’Alembert. Así, considerando el ejemplo de una
solución construida a partir de dos expresiones analíticas distintas (dos parábolas, con-
cretamente), de modo que el radio de curvatura tenga un salto en un punto B, Euler
dedujo las siguientes razones respecto al argumento de D’Alembert de que

∂ 2f ∂ 2f
̸
=
∂x2 ∂t2

1. El error afecta exclusivamente al comportamiento de la solución en un punto y,


por tanto, es de naturaleza infinitamente pequeña, comparado con el resto de los
infinitos puntos del intervalo donde la solución es correcta desde el punto de vista
ortodoxo (este argumento refleja las ideas de los matemáticos de la época sobre el
análisis global y la indiferencia hacia las singularidades, y apunta hacia la direc-
ción de considerar soluciones regulares a trozos para las ecuaciones diferenciales).

2. Pero, además, basta alterar de modo infinitesimal las dos curvas en el punto B
para que la f ′ sea regular en ese punto y el radio de curvatura no tenga saltos; esta
alteración infinitesimal no alterara el movimiento de la cuerda. Este argumento
es mucho más interesante desde el punto de vista de las distribuciones, pues an-
ticipa el llamado método de las sucesiones para definir soluciones generalizadas
de ecuaciones diferenciales, que sería ámpliamente utilizado en el siglo XX. En
efecto, si en lugar de una alteración infinitesimal pensamos en una sucesión (fn )
que converja a f en alguna topología, el argumento de Euler toma la forma si-
guiente: si las fn son soluciones clásicas de la ecuación diferencial y convergen a
f , entonces f es solución generalizada de la misma ecuación diferencial.
1.1. ANTECEDENTES 5

Otra aportación interesante al tema, precursora también de otros métodos de de-


finición de soluciones generalizadas, se debe a Lagrange (1736-1813). En su artículo
Recherches sur la nature et la propagation du son (1759), Lagrange se mostró de acuer-
do con los argumentos de D’Alembert sobre la solución de la ecuación diferencial de
la cuerda vibrante, pero también pensó que la solución de Euler era correcta para des-
cribir el movimiento real de la cuerda. Para justificar esta opinión, obtuvo una nueva
derivación del resultado de Euler que (en su opinión) no usaba el cálculo diferencial o
el integral, origen de las dificultades. Su método consistía en considerar primero una
cuerda sin peso con un número finito de masas puntuales, calcular el movimiento de
esas masas, y luego hacer tender el número de puntos a infinito. Es decir, se trata de
sustituir la ecuación diferencial por otra descripción matemática más adecuada para
describir el fenómeno físico considerado; esta actitud fue seguida por un gran número
de físico-matemáticos de finales del siglo XIX.

Sin embargo, en su Nouvelles recherches sur la nature et propagation du son (1760-


∂ 2f ∂ 2f
1761), Lagrange volvió de nuevo a considerar la ecuación diferencial = como
∂x2 ∂t2
eje central de su análisis, pero esta vez utilizando un interesante argumento: si se multi-
plica la ecuación por una función M (x) y se integra parcialmente sobre [0, α], se obtiene

Z α
∂ 2 f (x, t) Z α 2
∂ f (x, t)
2
M (x)dx = M (x)dx = (1.3)
0 ∂t 0 ∂x2
x=α
∂f (x, t) Z α
∂f (x, t) ′
M (x) − M (x)dx =
∂t x=0 0 ∂x
" # x=α
∂f (x, t) Z α
M (x) − f (x, t)M ′ (x) + f (x, t)M ′′ (x)dx
∂t x=0 0

Si se supone que f es 0 en los puntos x = 0 y x = a de la cuerda, y se consideran


sólo funciones M que se anulen en esos dos puntos, la ecuación (1.3) se transforma en

Z α
∂ 2 f (x, t) Z α
M (x)dx = f (x, t)M ′′ (x)dx (1.4)
0 ∂t2 0

Imponiendo ahora que


6 CAPÍTULO 1. INTRODUCCIÓN

M ′′ (x) = −k 2 M (x) (1.5)

(donde k es una constante), Lagrange obtiene de (1.4)

Z α
∂ 2 f (x, t) 2
Z α
M (x)dx = −k f (x, t)M (x)dx (1.6)
0 ∂t2 0

Si se introduce una nueva variable por la expresión

Z α
∂ 2 f (x, t)
s= M (x)dx (1.7)
0 ∂t2
la ecuación (1.6) se transforma en la

ds2
= −k 2 s (1.8)
dt2
Por tanto, la integración de la ecuación en derivadas parciales (1.1) se reduce a la
integración del par de ecuaciones diferenciales ordinarias (1.5) y (1.8), ligadas ambas
por (1.7), con lo cual las diferenciales de f respecto de x desaparecen, por lo que, en
palabras de Lagrange (textbfon ná point á craindre díntroduire par lá dans notre calcul
aucune loi de continuité entre les différentes valeu de f ). Después Lagrange procedió a
resolver (1.6) con unos extraños argumentos con integrales trigonométricas. La fórmula
(1.8) contiene todavía las derivadas de f respecto de t, pero Lagrange trata de convencer
al lector de que la dependencia respecto a t puede tratarse según las reglas usuales del
cálculo, pues la ley de continuidad se verifica en esta ocasión (es obvio que no es éste
el caso: la solución final presenta el mismo tipo de discontinuidades en x que en t).
El descubrimiento importante de Lagrange es que el uso de la integración por partes
permite trasladar el operador diferencial de la función incógnita a una cierta (función
test) adecuada M . Como veremos, ésta es la idea básica en el cálculo con distribuciones.
Naturalmente, con esta actitud Lagrange caía dentro de las críticas de DÁlembert.
Sin embargo, rechaza estas críticas con el siguiente razonamiento: DÁlembert había
calculado las segundas derivadas a partir de los valores de la función en los puntos
(z, z + r, z + 2r). Lagrange creía que debían tomarse los puntos (z, r, z, z + r), es decir,
tomar

f (z) + f (z + 2r) − 2f (z + r)
f ′′ (z) = (r > 0, infinitamente pequeño)
r2
1.1. ANTECEDENTES 7

De esta forma, Lagrange encontraba que las dos expresiones de (1.3) eran idénticas,
incluso en los puntos en los que el radio de curvatura tenían un salto (pero mantenién-
dose f de clase C 1 ). De esta forma, se restablecía la validez de la solución de Euler para
la ecuación de la cuerda vibrante. Este argumento de cambiar la definición de derivada,
anticipa las consideraciones de Riemann y muchos matemáticos posteriores.

- La teoría de distribuciones de L. Schwartz

El punto de partida para la creación por Schwartz de la teoría de distribuciones fue


su trabajo sobre soluciones generalizadas de ecuaciones en derivadas parciales, motivado
por un artículo de 1944, Sur certaines familles non fondamentales de fonctions conti-
nues, en el que generalizaba un teorema de Cartan sobre caracterización de funciones
que engendraban conjuntos fundamentales (e.d., tales que las combinaciones lineales
fueran densas) en el espacio de funciones continuas sobre Rn con la topología de la con-
vergencia uniforme sobre compactos. El teorema probado por Schwartz es el siguiente:

Para que el sistema de funciones continuas

U (λx1 + ξ1 , λx2 + ξ2 , · · · , λxn + ξn )

de las variables x1 , · · · , xn sea no fundamental sobre un compacto K del espacio de n


dimensiones, cuando λ y ξ1 , · · · , ξn toman todos los valores reales posibles, es necesario
(y suficiente si el interior de K no es vacío) que U sea solución generalizada de almenos
una ecuación en derivadas parciales del tipo
X ∂ mU
0= αp1 p2 · · · pn (1.9)
p1 +···+pn =m (∂x1 )p1 · · · (∂xn )pn

donde αp1 , · · · , pn son constantes.

Schwartz dfinió U como solución generalizada de la ecuación (1.9) si era límite


uniforme de soluciones ordinarias sobre cada compacto de Rn . Así pues, Schwartz,
como Sobolev, partió de una definición secuencial de solución generalizada, aunque el
tipo de convergencia difería de la conver gencia en L1 usada por Sobolev. También
observó Schwartz que la ecuación de ondas

∂ 2U ∂ 2U
− =0
∂x2 ∂y 2
8 CAPÍTULO 1. INTRODUCCIÓN

tenía las soluciones generalizadas f (x + y) + g(x − y) para todo par de funciones conti-
nuas f y g. Posteriormente probó que todas las soluciones generalizadas de la ecuación
de Laplace son soluciones ordinarias.

Pocos días después de escribir este artículo, Schwartz atacó el problema para ob-
tener una definición mejor que la solución generalizada. Fijó su atención en el hecho de
que la solución generalizada obtenida en la demostración del teorema actuaba como un
operador de convolución que transformaba una función ifinitamente diferenciable con
soporte compacto en una función C 1 . Esto le llevó a introducir un nuevo objeto, que
llamó operador de convolución: lo definió como un operador lineal continuo de D (es-
pacio de las funciones ifinitamente diferenciables con soporte compacto, con la noción
de convergencia secuencial idéntica a la de Sobolev) en E (espacio de las funciones de
clase C ∞ , con la convergencia uniforme sobre compactos de todas las derivadas), con
la propiedad de que
∀ φ, ψ ∈ D T (φ ∗ ψ) = (T φ) ∗ ψ
(la continuidad tomada en sentido secuencial).

Schwartz observó que toda función continua f podía identaficarse con el operador

φ→f ∗δ (φ ∈ D)

y que la función δpodía interpretarse como el operador

φ→δ·φ (φ ∈ D)

Como el punto de partida para la definición de operadores de convolución había si-


do la teoría de soluciones generalizadas de ecuaciones diferenciales, Schwartz abordó,
naturalmente, la cuestión de definir la derivada de un operador, lo que hizo por la
fórmula !
∂ ∂φ
T ·φ=T ·
∂xi ∂xi
que generaliza la fórmula usual de derivación de un producto de convolución. Definió
también la convolución de dos operadores, de modo obvio, y el producto de un operador
por una función de D, aunque aquí se encontró con dificultades. Para resolverlas, tuvo
que probar que todo operador de convolución era localmente la derivada textiu-sima de
(el operador asociado a) una función continua, para lo que tuvo que echar mano de sus
conocimientos del espacio D(K) y la teoría por él desarrollada en espacios de Frechet.
1.1. ANTECEDENTES 9

Schwartz desarrolló estos conceptos y varios teoremas sobre sus operadores de con-
volución durante una noche de octubre de 1944. En los próximos seis meses continuó
trabajando sobre el mismo tema, obteniendo nuevos teoremas. Alrededor de febrero de
1945 comenzó a desarrolar una teoría de transformadas de Fourier para estos operado-
res, pero se encontró con grandes dificultades. Intentó resolverlas durante varios meses.
Por fin, un día, probablemente en abril de 1945, de repente se dio cuenta que estos
problemas podían resolverse fácilmente si dfinía las funciones generalizadas no como
operadores, sino como funcionales sobre D, que llamá distribuciones. Según sus propias
afirmaciones, hubo dos hechos que le pudieron sugerir la definición real de distribución:

1. Su trabajo anterior sobre la dualidad de espacios de Frechet le había suminis-


trado una teoría abstracta de los operadores lineales continuos sobre E, sin una
representación concreta con la que calcular.

2. Sabía, por sus contactos con Cartan y el grupo Bourbaki, que las medidas, y en
especial la medida δ, podían representarse como funcionales.

Durante la primavera de 1945, Schwartz desarrolló su nueva teoría dedistribuciones. Si


en la teoría de operadores de convolución su trabajo sobre análisis funcional abstracto
había jugado un papel importante, en la nueva teoría ocupaba una posición mucho más
importante aún, y ayudó considerablemente a su desarrollo. Sin embargo, la influencia
era recíproca. Por ejemplo, el concepto de límite inductivo de espacios de Frechet tiene
sus raíces en la teoría de distribuciones. Schwartz sabía muy bien que la convergencia
que había definido en D no podía obtenerse a partir de una topología de Frechet en
ese espacio. Por tanto, él no trató de definir un sistema de entornos en D, sino sólo un
sistema de conjuntos acotados que le permitieran (por dualidad) deínir una topología
en D′ . Cuando Dieudonné conoció la descripción topológica de D hecha por Schwartz,
la relacionó con la teoría abstracta de límite inductivo de espacios topológicos. En 1949,
Dieudonné y Schwartz escribieron un artículo conjunto sobre el tema, en el que pro-
baban los principales teoremas que Schwartz había usado en el caso concreto de los
espacios D y D′ en un marco general, y a partir de este trabajo se produjo un gran
impulso en la teoría general de espacios localmente convexos.

Gracias a su trabajo previo en análisis funcional. Schwartz desarrolló su nueva teo-


ría de distribuciones tan rápidamente que pudo dar un curso sobre ella en el invierno
1945-1946 en el Collége de France de Paris.
10 CAPÍTULO 1. INTRODUCCIÓN

Aparte de sus conocimientos sobre la teoría general de soluciones generalizadas de


ecuaciones en derivadas parciales y la teoría de la función δ, Schwartz no conocía en
1944 el resto de lo que hemos visto como historia de la teoría de distribuciones: los
trabajos de Sobolev, el cálculo de Heaviside, las funciones impropias usadas por los
físicos en la mecánica cuántica, los funcionales analíticos de Fantappié o los trabajos de
Bochner y Carleman sobre la transformación de Fourier generalizada.

A partir de su curso en el Collége de France, tuvo noticia de alguno de estos desa-


rrollos. En particular, los ingenieros le hablaron del cálculo operacional y le animaron
a continuar su trabajo, especialmente con el tratamiento de las transformaciones de
Laplace y Fourier y la convolución. Además, le pidieron que hiciera una monografía
sobre el tema, tan elemental que todos ellos pudieran entenderla.

Más tarde, Schwartz tuvo conocimiento a través de sus colegas de los trabajos pre-
vios sobre el tema. Sin embargo, para entonces había desarrollado tanto su teoría, que
no encontró en ellos nada nuevo que le inspirara nuevos conceptos o técnicas.

Schwartz escribió cuatro artículos sobre la teoría de distribuciones antes de la publi-


cación de su monografía Theoríe des Distributions en 1950-1951. En el primero y cuarto
se encuentra un resumen general de la teoría, con énfasis en los aspectos matemáticos
en el primero y más en las aplicaciones en el cuarto. El segundo y tercer artículos
tratan fundamentalmente de la transformada de Fourier, definida para funciones de
crecimiento lento por la fórmula
Z B
F (f )(x) = lı́m f (t)e2πitx dt
A,B→∞ −A

donde el límite se toma en D′ . Sólo más tarde apareció la idea de la transformación


de Fourier usual en el espacio S. Ciertamente, en junio de 1947 Schwartz ya había
descubierto las distribuciones temperadas, pues en esa fecha habló sobre Teoría de dis-
tribuciones y transformación de Fourier en un congreso de análisis armónico celebrado
en Nancy.

La monografía de Schwartz, publicada en dos volúmenes en 1950-1951, se convirtió


inmediatamente en la obra de referencia standard sobre la teoría de distribuciones. En
las sucesivas ediciones la obra se ha ido manteniendo al día, de modo que aún hoy es
una de las obras más completas sobre el tema.
1.2. PLANTEAMIENTO DEL PROBLEMA 11

Schwartz continuó trabajando en la teoría de distribuciones después de la publica-


ción de su monografía. El primer gran éxito de la teoría no contenido en su texto es la
formulación y demostración rigurosa del teorema de los núcleos.

A pesar de la importancia del trabajo de Schwarzt en el estudio de las distribu-


ciones, estas no fueron muy utilizadas, por el conocimiento de análisis funcional previo
necesario para desarrollar esta teoría. Por esta razón, se desarrolló posteriormente el
enfoque axiomático de las distribuciones. En este enfoque se trabaja con un concepto
intuitivo de las distribuciones: estas son abordadas como las derivadas de funciones con-
tinuas usuales, donde la derivación es interpretada en un sentido muy general. Entre los
precursores de una nueva forma de estructurar las distribuciones, está el matemático
portugués José Sebastiao de Silva.

1.2. Planteamiento del Problema


La teoría de la medida es una de las ramas del análisis y de la geometría, cuyo
campo de estudio es investigar las medidas, las funciones medibles y la integración,
por lo que su mayor fuerza de aplicación radica en su enfoque sobre el estudio de la
geometría, la probabilidad y la estadística. Uno de sus principales enfoque de estudio,
es la ortogonalidad de funciones medibles, por poseer grán aplicabilidad en el análisis
de los polinomios clásicos y las medidas de distribución mediante el uso del Teorema
de descomposicíon de Lebesgue asociado a la derivada de Radón-Nikodym. En esta
investigación presentaremos la relación entre la Teoría de la Medida y la Teoría de
probabilidades, a partir de la derivada de Radón-Nikodym de medidas de distribución
univariadas discretas y absolutamente continuas, así como también pretendemos desa-
rrollar aproximaciones de una distribución con respecto a otra.

Una de las principales aplicaciones de la derivada de Radón-Nikodym, radica en el


estudio de las martingalas, sustentando sus bases teóricas en varios teoremas importan-
tes, entre los que se destaca el Teorema de Límite Central, con el cual es posible obtener
una aproximación de una medida de distribución Binomial a través de la distribución
Normal. En esta investigación, no solo utilizaremos las bases teóricas de dicho teorema
para obtener dicha aproximación, sino que, a través de este, intentaremos obtener una
aproximación de otras medidas de distribución, mostrando el rigor científico de los pro-
cedimientos y demostraciones que se abordarán mediante su desarrollo, Por lo que, en
12 CAPÍTULO 1. INTRODUCCIÓN

esta investigación, los fundamentos matemáticos de la demostración de cada una de las


propiedades y teoremas involucrados con el tema, se presentaran de forma desarrollada.

Debido a que dos medidas distintas de un mismo espacio métrico pueden ser ab-
solutamente continuas entre si y singulares con respecto a cierta función medible, este
enfoque axiomático es muy utilizado en el desarrollo de los Teoremas de Descomposición
de Lebesgue y de la derivada de Radón-Nikodym, el cual relacionaremos directamente
con los espacios probabilísticos sobre los cuales se manifiestan distribuciones continuas
y discretas (Binomial, Exponencial, Cauchy, Normal y de Poissón), tras la busqueda
de obtener la derivada de Radón-Nikodym y la aproximación de dichas distribuciones
a través del Teorema del Límite Central.

Expresado lo anterior, en esta investigación se pretende dar respuesta a las siguien-


tes interrogantes:

- ¿Cómo se obtiene la derivada, según Radón-Nikodym, de distribuciones de pro-


babilidades continuas y discretas?

a) De la Normal con respecto a la Exponencial.


b) De la Exponencial con respecto a la Normal.
c) De la Binomial con respecto a la Geométrica.
d) De la de Bernoulli con respecto a la de Poissón.
e) De la suma de la Normal y la de Poissón con respecto a la de Cauchy.
f) De la suma de la Normal y la de Poissón con respecto a la suma de la de
Cauchy y la Geométrica.

- ¿Bajo cuáles condiciones es posible obtener la derivada de Radón-Nikodym de


distribuciones de probabilidades continuas y discretas?

- ¿Cómo se aproxima una Distribución continua o discreta a otra, a través del


Teorema de Límite Central?

a) A la Binomial mediante la Normal.


b) A la Hipergeométrica mediante la Binomial.
c) A la Binomial mediante la de Poissón-
d) A la Hipergeométrica mediante la de Poissón.
1.3. JUSTIFICACIÓN 13

- ¿Bajo cuáles condiciones pueden aproximarse una distribución continua o discreta


a otra, a través del Teorema de Límite Central?

1.3. Justificación
La teoría de distribuciones constituyen un tema de amplio campo de aplicación
debido a que su enfoque axiomático esta extrechamente relacionado con la teoría de la
medida, el análisis de Fourier, las ecuaciones diferenciales parciales y el análisis fun-
cional, así como también en la estadística y el cálculo de probabilidades. No obstante,
las fuentes consultadas abordan las distribuciones de forma independiente para la re-
solución de problemas relacionados con el cálculo de la densidad de probabilidades en
espacios probabilísticos, mientras que en la teoría de la medida, es más frecuente su uso
en la aplicación del teorema de la descomposición de medidas de Lebesgue y la derivada
de Radón-Nikodym, por lo que centraremos de vital importancia en esta investigación
el cálculo de dicha derivada y la aplicación del Teorema del Límite Central para obtener
aproximaciones válidas de estas distribuciones continuas y discretas y las condiciones
y/o parámetros bajo las cuales es posible obtenerlas, sin dejar de lado el desarrollo de
las propiedades de cada una de estas medidas de distribución y las demostraciones de
cada uno de los Teoremas con los que se relaciona, asumiendo como un pilar principal
en esta investigación, el rigor matemático que sustentan, tanto en la Teoría de Proba-
bilidades como en la Teoría de la Medida.

1.4. Objetivos
En esta investigación nos proponemos los siguientes objetivos:

1.4.1. Generales:
- Obtener la derivada de Radón-Nikodym y la aproximación distribuciones de pro-
babilidades continuas y discretas.

1.4.2. Específicos:
- Derivar, según Radón-Nikodym, distribuciones de probabilidades continuas y dis-
cretas.
14 CAPÍTULO 1. INTRODUCCIÓN

a) De la Normal con respecto a la Exponencial.


b) De la Exponencial con respecto a la Normal.
c) De la Binomial con respecto a la Geométrica.
d) De la de Bernoulli con respecto a la de Poissón.
e) De la suma de la Normal y la de Poissón con respecto a la de Cauchy.
f) De la suma de la Normal y la de Poissón con respecto a la suma de la de
Cauchy y la Geométrica.

- Identificar las condiciones bajo las cuales es posible obtener la derivada de Radón-
Nikodym de Distribuciones de probabilidades continuas y discretas.

- Aproximar una distribución de probabilidad continua o discreta, a otra, mediante


el Teorema del Límite Central.

a) A la Binomial mediante la Normal.


b) A la Hipergeométrica mediante la Binomial.
c) A la Binomial mediante la de Poissón.
d) A la Hipergeométrica mediante la de Poissón.

- Identificar las condiciones bajo los cuales es posible aproximar distribuciones de


probabilidad continuas y discretas, a una distribución Normal u otra, mediante
el Teorema del Límite Central.
Capítulo 2

Teoría de la Medida y
Probabilidades

2.1. Teoría de la Medida


2.1.1. Algebras y σ-Álgebra
Definición 2.1.1 Sea R una clase no vacía de subconjuntos de X. Se dice que R es
un anillo si satisface las siguientes propiedades:

i) A, B ∈ R ⇒ A\B ∈ R.

ii) A, B ∈ R ⇒ A ∪ B ∈ R.

si R cumple, ademas:

iii) X ∈ R.

Se dice que R es un álgebra.

se sigue de la definición que ϕ = A\A ∈ R por tanto A ∈ R

Definición 2.1.2 (σ-álgebra). Sea F una familia de subconjuntos de un espacio Ω.


Entonces, F posee estructura de σ-álgebra sobre Ω, si y sólo si,

15
16 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

i) Ω ∈ F.

ii) si A ∈ F, entonces Ac ∈ F.

iii) Si {An }n≥1 es una sucesión de elementos en F, entonces



[
An ∈ F.
n=1

Propiedad 2.1.1 Sea R una clase de partes de F cumpliendo las propieades ii) y

iv) A ∈ R ⇒ Ac ∈ R.

Entonces R es un álgebra. Por tanto, un álgebra es toda clase R de partes de F


que es cerrada frente a uniones finitas y complementación.

Propiedad 2.1.2 Sea R un anillo, A1 , · · · , An ∈ R. Entonces:

A1 ∪ · · · ∪ An ∈ R A1 ∩ · · · ∩ An ∈ R

Propiedad 2.1.3 Sea R una clase de subconjuntos de F que cumple las propiedades
i) y

ii’) A, B ∈ R & A ∩ B = ϕ ⇒ A ∪ B ∈ R.

Entonces R es un anillo. Por tanto i), ii’) caracterizan la propiedad de ser anillo.

Definición 2.1.3 Se dice que una clase A es un σ-anillo si cumple i) junto con:

ii”) ∪∞
n=1 En ∈ A para toda sucesión {En }n∈N en A. Es inmediato comprobar que un
σ-anillo en un anillo.

Definición 2.1.4 Se llama σ-álgebra a todo σ-anillo que es un álgebra.

Propiedad 2.1.4 Sea A una clase que cumple i) junto con

ii”’) ∪∞
n=1 En ∈ A para toda sucesión {En }n∈N en A de elementos disjuntos dos a dos.

Entonces A es un σ-anillo. Por tanto i) y ii”’) caracterizan los σ-anillos.


2.1. TEORÍA DE LA MEDIDA 17

2.1.2. Medida
La recta real ampliada R es R con la adición de dos nuevos elementos −∞, +∞
más las siguientes propiedades:

1. −∞ < x < +∞ para todo x ∈ R.

2. x ± ∞ = ±∞ para todo x ∈ R; ±∞ ± (±∞) = ±∞; x · (±∞) = ±∞ si


x > 0, x · (±∞) = ∓∞ si x < 0.

Definición 2.1.5 Una función de conjunto µ : D → R, D una clase de partes en X, se


dice finitamente aditiva si cualesquiera que sean E1 , · · · , En ∈ D con E1 ∪ · · · ∪ En ∈ D
y En ∩ Em = ϕ para n ̸= m se satisface:
n n
!
[ X
µ Ek = µ(Ek ).
k=1 k=1

Se dice que µ es completamenta aditiva si


∞ ∞
!
[ X
µ Ek = µ(Ek ),
k=1 k=1

siempre que {En }n∈N sea una sucesión en D con ∪∞ n=1 En ∈ D cuyos elementos son
disjuntos dos a dos, es decir En ∩ Em = ϕ si n ̸= m.

Definición 2.1.6 Sean A una δ-álgebra y µ : A → [0, +∞] una función de conjunto.
Se dice que µ una medida si es completamente aditiva y µ(ϕ) = 0.

Definición 2.1.7 Sea µ una medida en F con dominio A. Se dice que µ es finita si
µ(F) < ∞. Se dice que µ es δ-finita si F = ∪∞
n=1 En donde µ(En ) < ∞ para cada n.

La siguiente definición, establece concepto de familia numerable.

Definición 2.1.8 Sea f : F → [0, ∞]. Se define


 
X X 
f (x) = sup f (x) : f ⊂ F, f f inito .
 
x∈F x∈f

Proposición 2.1.1 Si para f : F → [0, ∞] el conjunto {f (x) > 0} en no numerable


entonces
X
f (x) = ∞
x∈X
18 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Prueba Como
1
{f > 0} = ∪n {f > }
n
existe n tal que {f > n1 } es no numerable. Para todo F ⊂ {f > n1 } finito
X card F
f> .
F n

Como pueden encontrarse partes F de cardinal tan grande como se desee resulta
X
f (x) = ∞.
x∈F

Para los primeros cuatro ejemplos A = P(F).

Ejemplo 2.1.1 Si para f : X → [0, ∞] se define


X
µ(E) = f (x),
x∈E

entonces µ define una medida.

Ejemplo 2.1.2 Si en el (ejemplo 2.1.1) se toma f (x) = 1 para cada x la medida µ


cuenta los elementos de E.

Ejemplo 2.1.3 Si para x0 ∈ F, f (x0 ) = 1 y f (x) = 0 entonces µ se llama la medida


de Dyrac (concentrada en el punto x0 ).

Ejemplo 2.1.4 A = {A ⊂ F : A numerable ó Ac numerable} es una σ-álgebra.


A = {A ⊂ F : A finito ó Ac finito} es un álgebra, pero sólo es σ-álgebra. cuando F es
finito.

Ejemplo 2.1.5 Sobre cualquier espacio no vacío Ω, las familias P (Ω) = {A|A ⊆ Ω}
(el conjunto potencia) y {ϕ, Ω} poseen estructura de σ-álgebra sobre Ω.
En efecto, es fácil ver que las condiciones (σ1 ) y (σ2 ) se cumplen para ambas familias.
Ahora bien, la unión cualquiera de subconjuntos de Ω es un subconjunto mismo de
Ω, en particular esto sucede para uniones numerables; entonces la propiedad (σ3 ) es
válida para la familia P (Ω). Por otra parte, toda sucesión en la familia {Ω, ϕ} es en
realidad una sucesión finita, cuya unión es ϕ, o bien Ω, en cualquier caso, dicha unión
es elemento de {Ω, ϕ}.
2.1. TEORÍA DE LA MEDIDA 19

Ejemplo 2.1.6 Sea Ω el pequeño espacio {1, 2, 3, 4}. Y consideremos las familias A =
{ϕ, Ω, {2, 3, 4}, {1}}, B = {ϕ, Ω, {1}, {2}, {1, 2}, {3, 4}, {2, 3, 4}, {1, 3, 4}} y C = {ϕ, Ω,
{1, 3, 4}, {2}}. Mediante una inspección visual notamos que todas ellas poseen estructura
de σ-álgebra sobre el mismo espacio Ω. Sin embargo, las familias D = {{1}, {2}, ϕ} y
E = {{1}, {2}}, no son σ-álgebras sobre Ω.

Ejemplo 2.1.7 Por convención entenderemos como subconjunto contable, aquel sub-
conjunto (o espacio) de cardinalidad o a lo sumo infinito numerable. Sea Ω un espacio
no contable. Consideremos la familia

F = {A ⊆ Ω | A es contable o Ac es contable}.

Como ejemplo tenemos que Ω podría ser el conjunto R de los números reales, y un
elemento de F en tal caso es el conjunto N de los números naturales. Se tiene que F
posee estructura de σ-álgebra sobre Ω.
Las tres condiciones de un σ-álgebra son verificables.

i) Se tiene que el conjunto vacio no posee elementos, y Ωc = ϕ, con lo cual Ω ∈ F.

ii) Ahora, supongamos que A ∈ F,

⇒ A es contable o Ac es contable

⇒ Ac es contable o A es contable
⇒ Ac es contable o (Ac )c es contable,
entonces A ∈ F

iii) Consideremos la sucesión {An }∞ ∞


n=1 en la familia F. Sea A ∩n=1 An , entonces
A ∈ F. Efectivamente, se tienen dos posibles situaciones:

a) Si A es contable, entonces, obviamente A ∈ F.

b) Ahora, supongamos que A es no contable, debemos probar que Ac es contable.


Para ello observamos que, según nuestra suposición, existe un número natural m
tal que Am es no contable (de lo contrario, A sería contable); entonces Acm es
contable, pues Am ∈ F. Y dado que

!c ∞
c
Acn ⊆ Acm
[ \
A = An =
n=1 n=1

entonces Ac es contable. Con lo cual A ∈ F.


20 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Ejemplo 2.1.8 Sea Ω = (0, 1]. La familia


( )
[
G= A | D ⊂ A, D es f inito
A∈D

con A = {f (x, y) | 0 ≤ x ≤ y ≤ 1}, es cerrada bajo uniones finitas (lo cual se sigue
de forma inmediata de la propia definición de G), sin embargo no es σ-álgebra. Por
ejemplo, los intervalos (1/2n, 1/(2n − 1)] pertenecen a G (de hecho pertenecen a A), sin
embargo, dado que son ajenos, su unión no puede ser expresada como una unión finita
de intervalos en A. Consideremos la nueva familia
( )
[
F= A | D ⊂ A, D es f inito
A∈D

entonces F es un σ-álgebra.

Proposición 2.1.2
X ∞
X
an = an
N n=1

En el caso en que f : N2 −→ [0, ∞]; f (i, j) = aij ,


X
aij ,
N2

que se conoce como la suma de una serie doble.

Proposición 2.1.3 sean f : F −→ [0, ∞], A ⊂ F. se define


X
µ(A) = f (x) µ(ϕ) = 0.
A

Entonces µ es una medida en P (F).

Prueba: En primer lugar, es evidente que µ es monótona.


En segundo lugar, probamos que µ es finitamente aditiva para lo que tomamos
A1 , · · · , Am disjuntos. Si
F ⊂ A1 + · · · + Am ,
es finito
X X X X
f= f= f + ··· + f ≤ µ(A1 ) + · · · + µ(Am ).
F (F ∩A1 )+···+(F ∩Am ) (F ∩A1 ) (F ∩Am )

Luego
µ(A1 + · · · + am ) ≤ µ(A1 ) + · · · + µ(Am ).
2.1. TEORÍA DE LA MEDIDA 21

Para la desigualdad contraria basta con suponer que los µ(Ai ) son todos finitos.
En ese caso, dado ϵ > 0 existen Fi ⊂ Ai finitos tales que:
ϵ X
µ(Ai ) − ≤ f.
m Fi

Así
X
µ(A1 ) + · · · + µ(am ) − ϵ ≤ f ≤ µ(A1 + · · · + am ).
F1 +···+Fm

Para probar que µ es completamente aditiva observamos que si A = ∪An , F ⊂ A


finito, F ⊂ A1 + · · · + Am para algún m con lo que

X ∞
X
f ≤ µ(A1 ) + · · · + µ(am ) ≤ µ(An ).
F n=1

Con ello

X
µ(∪An ) ≤ µ(An ).
n=1

Para la desigualdad contraria nótese que:

A1 + · · · + Am ⊂ ∪An ,

Por lo que

µ(A1 ) + · · · + µ(Am ) = µ(A1 + · · · + am ) ≤ µ(∪An ),

es decir

X
µ(An ) ≤ µ(∪An ).
n=1

Proposición 2.1.4 Sean αn ≥ 0, δ : N −→ N una biyección y {N} una partición de N.


A partir de an fabricamos:
X
bn = αδ(n) cn = αk .
k∈Nn

Entonces

X ∞
X ∞
X
αn = bn = cn
n=1 n=1 n=1
22 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Proposición 2.1.5 Sean αn ≥ 0, {Nn } una partición de N2 , cn =


P
Nb αij . Entonces,

X ∞
X
αij = cn .
N2 n=1

En particular

( ∞ ) ∞
( ∞ )
X X X X X
αij = αij = αij .
N2 i=1 j=1 j=1 i=1

A esta última identidad se le conoce como el teorema de Fubini para las series dobles.

Proposición 2.1.6 Sean αij ≥ 0 y δ : N2 −→ N2 una biyección. Si bpq = αδ (p, q)


entonces,
X X
αij = bpq .
N2 N2

De la que podemos plantear una propocisión mas general.

Proposición 2.1.7 Sean f : X −→ [0, ∞] y una biyección δ : Y −→ X. Llamando


g = f ◦ δ:
X X
f= g.
Y X

2.1.3. Espacios Medibles


Definición 2.1.9 Sea A una familia de subconjuntos del conjunto no vacio Ω. Diremos
que A es un álgebra si contiene a Ω y es cerrado por complementación (es decir, si A
está en A, su complementario Ac también está en A) y frente a uniones finitas. Si
A es una σ-álgebra de partes de Ω, el par (Ω,A) se llamará un espacio medible, los
subconjuntos de que pertenecen a A se llamarán conjuntos medibles (A-medibles) o
sucesos.

Proposición 2.1.8 a) Si A es un álgebra de partes de Ω, A es cerrada frente a


la diferencia de conjuntos e intersecciones finitas y contiene además al conjunto
vacío.

b) Si A es un álgebra de partes de Ω, será también una σ-álgebra si además es cerrada


frente a uniones numerables crecientes o frente a uniones numerables disjuntas.

Prueba

a) Es trivial.
2.1. TEORÍA DE LA MEDIDA 23

b) Si (An )n es una sucesión en A, entonces A := ∪n An = ∪n Bn = ∪n Cn donde Bn =


∪ni=1 Ai y Cn = An \∪i=1
n−1 Ai . Siendo A un álgebra, se verifica que Bn , Cn ∈ A, para
cada n. Si A se supone estable frente a uniones numerables crecientes, entonces
A = ∪n Bn ∈ A.

Proposición 2.1.9 La intersección arbitraria de σ-álgebras de partes de un conjunto


Ω, es una σ-álgebra en Ω. Así, si C es una familia de partes de Ω, existe la más pe-
queña σ-álgebra en Ω que contiene a C; la llamaremos σ-álgebra engendrada por C y la
denotaremos σ(C).

Prueba

La primera afirmación es trivial. La segunda es consecuencia de la primera, pues


σ(C) es la intersección de todas las σ-álgebras que contienen a C, conjunto de
σ-álgebras que es no vacío pues contiene a la σ-álgebra P(Ω) de todos los sub-
conjuntos de Ω.

Ejemplo 2.1.9 (σ-álgebra discreta) El conjunto P(Ω) de todos los subconjuntos de Ω


es trivialmente una σ-álgebra en Ω que llamaremos discreta. No obstante, llamaremos
espacio medible discreto un conjunto numerable provisto de la σ-álgebra de todas sus
partes. En lo que sigue, cualquier conjunto numerable se supondrá provisto de la σ-
álgebra discreta, a menos que, expresamente, se indique lo contrario.

Ejemplo 2.1.10 (σ-álgebra trivial o grosera) {ϕ, Ω} es la más pequeña σ-álgebra que
podemos considerar en Ω. Se llamará σ-álgebra grosera o σ-álgebra trivial.

Ejemplo 2.1.11 Si A es un subconjunto de Ω, la más pequeña σ-álgebra que contiene


a A es {ϕ, A, Ac , Ω}. Si A1 , · · · , An es una partición finita de Ω (es decir, subconjuntos
dos a dos disjuntos que recubren Ω), entonces la más pequeña σ-álgebra que contiene a
los Ai está formada por el conjunto vacío y las uniones finitas de A′i s.

Ejemplo 2.1.12 (σ-álgebra de Borel) La σ-álgebra de Borel de Rn , que denotaremos


por Rn (o, simplemente, R si n = 1), se define como la σ-álgebra engendrada por los
intervalos nn-dimensionales de la forma {x ∈ Rn : xi < a} para algún a ∈ R y algún
1 ≤ i ≤ n. La σ-álgebra de Borel de Rn es también la σ-álgebra engendrada por cada
una de las siguientes familias de subconjuntos de Rn : la familia de los abiertos de Rn ,
la de los compactos, la de los intervalos n-dimensionales cerrados y acotados.
24 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Ejemplo 2.1.13 R denotará la recta real ampliada y R la σ-álgebra de Borel de R


que se define como la σ-álgebra engendrada por los conjuntos de la forma [∞, x], x ∈ R.
n n n
Análogamente se define la σ-álgebra R de Borel en R . En lo que sigue, R se supondrá
provisto de la σ-álgebra de Borel, a menos que, expresamente, se indique lo contrario.

Ejemplo 2.1.14 En general, la σ-álgebra de Borel en un espacio topológico es la en-


gendrada por sus abiertos; los sucesos de esta σ-álgebra se llaman conjuntos de Borel o
borelianos.

Ejemplo 2.1.15 (σ-álgebra producto) Sean (Ωi , Ai ), i = 1, 2, espacios medibles en y


hagamos Ω = Ω1 × Ω2 . Un rectángulo medible en Ω es un conjunto de la forma A1 × A2
con Ai ∈ Ai , i = 1, 2. La familia de los rectángulos medibles no es una σ-álgebra, salvo
en casos triviales. La σ-álgebra engendrada por ellos se llamará σ-álgebra producto y se
denotará A1 ×A2 . Análogamente se define el producto de una cantidad finita de espacios
medibles. Si (Ωi , Ai )i∈I es una familia de espacios medibles y Ω = i∈I Ωi , llamaremos
Q

σ-álgebra producto en Ω , y la denotaremos i∈I Ai , la σ-álgebra engendrada por i∈I Ai


Q Q

los rectángulos medibles. La σ-álgebra de Borel en Rn coincide con el producto de n


copias de la de Borel en R; la notación R utilizada para ella no puede dar lugar a
confusión.

Ejemplo 2.1.16 ( σ-álgebra inducida en un subespacio) Si (Ω, A) es un espacio me-


dible y B es un subconjunto no vacío de Ω entonces AB := {A ∩ B : A ∈ A} es una
σ-álgebra en B. Si B ∈ A los elementos de AB son A-medibles. De forma general,
todo subconjunto B de una espacio medible (Ω, A) se supondrá provisto, a menos que
se indique lo contrario, de la σ-álgebra AB

Ejemplo 2.1.17 (Sub-σ-álgebra) Si (Ω, A) es un espacio medible y B es una σ-álgebra


en Ω tal que B ⊂ A, diremos que B es una Sub-σ-álgebra de A. Por ejemplo, {ϕ, [0, 1], [0, 1]c , R}
es una Sub-σ-álgebra de R, y ésta lo es de P(R).

2.1.4. Medidas Positivas


Definición 2.1.10 Sea (X , Ω) un espacio medible. Una medida positiva en (X , Ω) es
+
un mapeo µ : Ω → R con µ(ϕ) = 0 y tal que, para cualquier secuencia (Ak )k∈N en Ω
de conjuntos disjuntos (k ̸= l ⇒ Ak ∩ Al = ϕ),
2.1. TEORÍA DE LA MEDIDA 25
X
µ(∪k∈N Ak ) = µ(Ak ) (2.1)
k∈N

Esa propiedad se llama σ-aditividad y (X , Ω, µ) es un espacio métrico (donde µ es


una medida positiva). Cuando µ(X ) = 1, diremos que µ es una medida de probabilidad
y (X , Ω, µ) se llama espacio de probabilidad.

Proposición 2.1.10 Sea (X , Ω, µ) un espacio métrico, donde µ es una medida positiva.

i) Para A, B ∈ Ω, A ⊂ B =⇒ µ(A) ⩽ µ(B).

ii) Sea (Ak )k∈N una secuencia creciente de Ω y A = ∪k∈N Ak , entonces µ(Ak ) ↑ µ(B)
+
en R .

iii) (Ak )k∈N una secuencia decreciente en Ω, tal que µ(A0 ) < +∞ y A = ∩k∈N Ak ,
+
entonces µ(Ak ) ↓ µ(B) en R .

Proposición 2.1.11 Sea (F, Ω, µ) un espacio de medida donde µ es una medida po-
+
sitiva, sean f, g : F → R funciones medibles, A, B ∈ Ω y α > 0 un número real.
Definimos

Z Z f (x)

cuando x ∈ A
f dµ = f · 1A dµ con fA (x) = (2.2)
A F | {z } 0

cuando x ∈
/ A.
fA

Entonces se cumplen las siguientes propiedades.

A ⊂ B =⇒
R R R R
i) 0 ⩽ f ⩽ g =⇒ F f dµ ⩽ F f dµ, A f dµ ⩽ B f dµ.
R R
ii) F αf dµ = α F f dµ.

f dµ = 0, incluso para f ≡ +∞.


R
iii) µ(A) = 0 =⇒ F

iv) Sea s una funcián simple E ∈ Ω y definamos λs (E) =


R
E sdµ. Entonces λs es una
medida positiva definida en Ω.

Ejemplo 2.1.18 Veamos algunos ejemplos simples.

1. Sea F un conjunto finito, equipado con el σ-álgebra P (F ), y definamos la medida


de conteo µ0 por µ0 (A) = card(A).
26 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

2. Sea F un conjunto finito no vacio, y sea µ1 la medida de probabilidad definida


por
card(A)
µ1 (A) = .
card(F)

3. Sea F un conjunto de una σ-algebra en P (F). Se define la medida contadora en


F por

card(A),

cuando A es finito,
µ(A) = 
+∞, cuando A es infinito.

Para verificar que es realmente una medida, consideramos una secuencia de sub-
conjuntos separados por pares (Ak )k∈N : si uno de ellos es infinito, (2.1) es obvio,
así como cuando todos son finitos con una unión finita. Si todos son finitos con
una unión infinita, (2.1) se deduce de las desigualdades
X X
card(∪0⩽k⩽N Ak ) = card(Ak ) = Ak
0⩽k⩽N 0⩽k

y lı́mN →+∞ card(∪0⩽k⩽N Ak ) = +∞

4. Sea F un conjunto de una σ-algebra en P (F). Para todo a ∈ F se define la


medida de Dirac δa por

1,

si a ∈ A,
δa = 
0, si a ∈
/ A.

2.1.5. El Teorema de Lebesgue-Radón-Nikodym


Definición 2.1.11 (Absolútamente Continua). Sean µ y ν dos medidas en (F, A).
La medida ν es absolútamente continua con respecto a µ si ν(A) = 0 ⇒ µ(A) = 0

Si µ es absolútamente continua con respecto a µ, entonces tendremos que:

i. µ es dominante sobre ν.

ii. µ ≪ ν.

f dν ⇒ µ ≪ ν.
R
Por lo tanto, µ(A) = A
2.1. TEORÍA DE LA MEDIDA 27

Definición 2.1.12 Sea (Ω, F) un espacio medible y sean µ y ν dos medidas en (Ω, F).
Se dice que la medida µ está dominada por ν o absolutamente continua cor respecto a
ν y escrito como µ ≪ ν si:

ν(A) = 0 ⇒ µ(A) = 0 ∀ A ∈ F (2.3)

Ejemplo 2.1.19 Sea !


Z
2 −1 x−θ
µ(A) = xσ ϕ dx
σ
, si g(x) = x2 , entonces

a) ν es la medida de Lebesgue.

b) µ es la medida de probabilidad Normal(θ, σ 2 ).


 

c) dν
= f = σ −1 ϕ x−θ
σ
es la densidad de µ con respecto a ν.

Ejemplo 2.1.20 Sea m una medida de lebesgue en (R, B(R)) y sea µ la distribución
normal estandar, es decir,
Z
1 x2
µ(A) ≡ √ e− 2 m(dx)
A 2π

entonces, m(A) = 0 ⇒ µ(A) = 0 por tanto µ ≪ m.

Ejemplo 2.1.21 Sea Z+ ≡ {0, 1, 2, ...} denota el conjunto de todos los no negativos
enteros. Sea ν la medida de conteo en Ω = Z+ y sea µ la distribución de Poissón (λ)
para 0 < λ < ∞, es decir,

ν(A) = número de elementos de A

y
X e−λ λj
µ(A) =
j∈A j!

para todo A ∈ P(Ω) el conjunto de potencias de Ω. Dado que ν(A) = 0 ⇔ A = ϕ ⇔


µ(A) = 0, se sigue que µ ≪ ν y ν ≪ µ.

Ejemplo 2.1.22 Sea f una función numerable no negativa en un espacio métrico


(µ, F, ν). Sea
28 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
Z
µ(A) ≡ f dν ∀ A ∈ F. (2.4)
A

Donde µ es una medida de (Ω, F) y ν(A) = 0 ⇒ µ(A) = 0 ∀ A ∈ F y por tanto µ ≪ ν.


El teorema de Radón-Nikodym es una especie de conversación con el ejemplo
2.1.22. Esto dice que si µ y ν son medidas δ-finitas en un espacio medible (Ω, F)
y µ ≪ ν, entonces hay una función numerable no negativa f en (Ω, F), tal que (2.3) se
mantiene.

Definición 2.1.13 Sea (Ω, F) un espacio numerable y sean µ y ν dos medidas en


(Ω, F), entonces µ se llama ortogonal con respecto a ν y se escribe como µ ⊥ ν si
existe un conjunto B ∈ F tal que:

µ(B) = 0 y ν(B c ) = 0. (2.5)

Tenga en cuenta que µ es singular con respecto a ν y ν es singular con respecto a µ, así
la notación de singularidad entre dos medidas µ y ν es simétrica, pero la de continuidad
absoluta no lo es. Tenga en cuenta también que si µ y ν son mutuamente singulares y
B satisface (2.5) , luego para todo A ∈ F,

µ(A) = µ(A ∩ B c ) y ν(A) = ν(A ∩ B). (2.6)

Ejemplo 2.1.23 Sea µ la medida de Lebesgue en (R, B(R)) y ν sea definido como
ν(A) = # de elementos en A ∩ Z donde Z es el conjunto de enteros.

Entonces
ν(Zc ) = 0 y µ(Z).

Y por tanto, µ(B) = 0 y ν(B c ) = 0 se cumple con B = Z. Así, µ y ν son mutuamente


singulares.
Otro ejemplo es el par m y µc en [0,1] donde µc des la medida Lebesgue-Stieltje
generada por la función de cantor y m es la medida de Lebesgue.

Ejemplo 2.1.24 Sea µ la medida de Lebesgue restringida en (−∞, 0] y ν la distribución


exponencial. Es decir para cualquier A ∈ B(R),

µ(A) = medida de Lebesgue en A ∩ (−∞, 0];


Z
ν(A) = e−x dx.
A∩(0,∞]
2.1. TEORÍA DE LA MEDIDA 29

Entonces µ((0, ∞]) = 0 y ν((−∞, 0]) y (2.1.24) se mantiene y B = (−∞, 0].


Supongamos que µ y ν son dos medidas finitas en un espacio medible (Ω, F). H.
Lebesgue demostró que µ1 se puede descomponer como la suma de dos medidas, es
decir,
µ = µa + µs

donde µa ≪ ν y µs ⊥ ν. El siguiente teorema es el principal resultado de esta sección y


combina el resultado anterior de descomposición de Lebesgue con el teorema de Radón-
Nikodym mencionado anteriormente.

Teorema 2.1.1 Sea (Ω, F) un espacio medible y sean µ1 y µ2 dos medidas δ-finitas en
(Ω, F).

i. (El Teorema de descomposición de Lebesgue). La medida µ1 puede ser


excepcionalmente descompuesta como

µ1 = µ1a + µ1s (2.7)

donde µ1a y µ1s son medidas δ-finitas en (Ω, F) de tal manera que µ1a ≪ µ2 y
µ1a ⊥ µ2 .

ii. (El teorema de Radón-Nikodym). Existe una función h medible no negativa


tal que
Z
µ1a (A) = hdµ2 ∀ A ∈ F. (2.8)
A

Prueba

Caso i. Supongamos que µ1 y µ2 son medidas finitas. Sea µ = µ1 + µ2 una medida y


sea H = L2 (µ). Si definimos una función T en H por
Z
T (f ) = f dµ1 . (2.9)

Entonces, por la desigualdad de Cauchy-Schwarz aplicada a las funciones f y


g ≡ 1,
Z 1
2 1
2
|T (f )| ≤ f dµ1 (µ1 (Ω)) 2
Z 1
2 1
≤ f 2 dµ (µ1 (Ω)) 2 .
30 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Esto muestra que T , obviamente, es una función lineal limitada en H con ∥ T ∥≤


1
M ≡ (µ1 (Ω)) 2 . Por el teorema de representación de Riesz, existe una función
g ∈ L2 (µ) tal que,
Z
T (f ) = f gdµ. (2.10)

Por tanto f ∈ L2 (µ). Sea f = IA con A ∈ F, entonce (2.9) y (2.10) implican que,
Z
µ1 (A) = T (IA ) = gdµ.
A

Pero 0 ≤ µ1 (A) ≤ µ(A) para todo A ∈ F. Entonces la función g ∈ L2 (µ) satisface


Z
0≤ gdµ ≤ µ(A) ∀ A ∈ F. (2.11)
A

Sean A1 = {0 ≤ g < 1}, A2 = {g = 1} y A3 = {g ∈ / [0, 1]}. Entonces (2.11)


implica que µ(A3 ) = 0. Ahora, si definimos las medidas µ1a (γ) y µ1s (γ) por,

µ1a ≡ µ1 (A ∩ A1 ), µ1s ≡ µ1 (A ∩ A2 ) ∀ A ∈ F. (2.12)

Mostraremos a continuación que µ1a ≪ µ2 y µ1s ⊥ µ2 , estableciendo así (2.7) por


(2.9) y (2.10), para todo f ∈ H,
Z Z Z Z
f dµ1 = f gdµ = f gdµ1 + f gdµ2

Z Z
⇒ f (1 − g)dµ1 = f gdµ2 . (2.13)

Haciendo f = IA2 se tiene que

0 = µ2 (A2 ).

Desde µ1a ≡ µ1 (A ∩ A1 ), µ1s ≡ µ1 (A ∩ A2 ) ∀ A ∈ F, como µ1s(Ac2 ) = 0 se deduce


que µ1s ⊥ µ2 . Ahora para n ≥ 1 y A ∈ F. Sea f = IA∩A1 (1 + g + ... + g n−1 ).
Entonces, Z Z
f (1 − g)dµ1 = f gdµ2
Z Z
n
⇒ f (1 − g )dµ1 = g(1 + g + ... + g n−1 )dµ2 .
A∩A2 A∩A2
Ahora haciendo n −→ ∞ y usando el teorema de convergencia monótona en
ambos lados, se tiene que,
Z
g
µ1a (A) = IA1 dµ2 . (2.14)
A (1 − g)
g
Haciendo h ≡ I
(1−g) A1
completa la prueba de (2.7) y (2.8)
2.1. TEORÍA DE LA MEDIDA 31

Caso ii. Ahora supongamos que µ1 y µ2 son δ-finitos. Entonces existe una partición
contable Dn ≥ 1 ⊂ F de Ω tal que µ1 (Dn ) y µ2 (Dn ) son ambos finitos para todo
(n) (n)
n ≥ 1. Sea µ1 (γ) ≡ µ1 (γ ∩ Dn ) y µ2 (γ) ≡ µ2 (γ ∩ Dn ). Luego, aplicando el caso
(n) (n) (n) (n)
1 a µ1 y µ2 para todo n ≥ 1 se obtienen las medidas µ1a , µ1s y una función
hn tal que
(n) (n) (n)
µ1 (γ) ≡ µ1a (γ) + mu1s (γ) (2.15)
Z Z
(n) (n) (n) (n)
donde para A en F, µ1a (A) = hn dµ2 = hn IDn dµ2 y µ1s (γ) ⊥ µ2 . Enton-
A A

X (n) (n) (n) (n)
ces µ1 (γ) = µ1 (γ) por lo que de µ1 ≡ µ1a (γ) + µ1s (γ) se obtiene que
n=1

µ1 (γ) = µ1a (γ) + µ1s (γ), (2.16)


∞ ∞
X (n) X (n)
donde µ1a (A) ≡ µ1a (A) y µ1s (γ) ≡ µ1s (γ). Por el teorema de convergencia
n=1 n=1
monótona, Z
µ1a (A) = hdµ2 , A ∈ F,
A

X
donde h ≡ hn IDn .
n=1
Claramente, µ1a ≪ µ2 .
Queda por demostrar la singularidad de la descomposición. Sea µ1 = µa + µs
y µ1 = µ′a + µ′s dos descomposiciones de µ1 donde µa y µ′a son absolutamente
continuas con respecto a µ2 y µs y µ′s es singular con respecto a µ2 . Por definición
existen conjuntos B y B ′ en F tal que

µ2 (B) = 0, µ2 (B ′ ) = 0 y µs (B c ) = 0, µ′s (B ′c ) = 0.

Sea D = B ∪ B ′ . Entonces µ2 (D) = 0 y µs (Dc ) ≤ µs (B c ) = 0. Así mismo


µ′s (Dc ) ≤ µ′s (B ′c ) = 0. Además µ2 (D) = 0 implica µa (D) = 0 = µ′a (D). Así por
alguna A ∈ F,

µa (A) = µa (A ∩ Dc ) y µ′a (A) = µ′a (A ∩ Dc ).

Así,

µs (A ∩ Dc ) ≤ µs (A ∩ B c )
µ′s (A ∩ Dc ) ≤ µ′s (A ∩ B ′c ).
32 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Así µ(A ∩ Dc ) = µa (A) ∩ Dc ) + µs (A ∩ Dc ) = µa (A ∩ Dc ) = µa (A) y por tanto


µ(A ∩ Dc ) = µ′a (A ∩ Dc ) + µ′s (A ∩ Dc ) = µ′a (A ∩ Dc ) = µ′a (A). Entonces, µa (A) =
µ(A ∩ Dc ) = µ′a (A) para cada A ∈ F. Esto es, µa = µ′a y por tanto, µs = µ′s .

Observación 2.1.1 En el teorema 1.1, la hipótesis de δ-finitos no puede ser eliminada.

Por ejemplo, sea µ la medida de Lebesgue y sea ν la medida contable en [0, 1]. Entonces
Z
µ ≪ ν pero no existe una función h, F-numerable no negativa, tal que µ(A) = hdν,
A
por consiguiente,
Z para poder ver esto, en caso de ser posible, supongamosZ un h ∈
L1 (ν), µ(A) = hdν ∀ A ∈ F. Note que µ([0, 1]) = 1 implica que para hdν < ∞
A [0,1]
y por tanto B ≡ {x : h(x) > 0} es contable, pero siendo µ la medida de Lebesgue
µ(B) = Z0 y µ(B c ) = 1. ya que por definición h ≡ 0 en B c , esto implica que 1 =
µ(B c ) = hdν = 0, lo que lleva a una contradicción, sin embargo, si ν es δ-finito y
[0,1]
µ ≪ ν (µ no necesariamente δ-finito), entonces el teorema de Radon-Nikodym satisface,
es decir, existe una función de F no negativa, tal que
Z
µ(A) = hdν ∀ A ∈ F.
A

Definición 2.1.14 Sean µ y ν medidas en un espacio medible (Ω, F) y sea h una


función numerable no negativa tal que
Z
µ(A) = hdν ∀ A ∈ F.
A

Entonces h se llama la deribada de Radon-Nikodym de µ con respecto a ν y esta escrito


como

= h.

Si µ(Ω) < ∞ y existen dos funciones F-numerables medibles no negativas h1 y h2 tal
que Z Z
µ(A) = h1 dν = h2 dν
A A
∀ A ∈ F, entonces h1 = h2 casi en cualquier parte y por tanto la derivada de Radon-

Nikodym es única hasta la equivalencia. Esto también se extiende al caso cuando µ

es δ-finito.

Proposición 2.1.12 Sean ν, µ, µ1 , µ2 , ..., medidas δ-fimnitas en un espacio medible


(Ω, F).
2.1. TEORÍA DE LA MEDIDA 33

i. Si µ1 ≪ µ2 y µ2 ≪ µ3 , entonces µ1 ≪ µ3 y

dµ1 dµ1 dµ2


= casi en todas partes para µ3
dµ3 dµ2 dµ3

ii. Supongamos que µ1 y µ2 están dominadas por µ3 . Entonces para cualquier α, β ≥


0, entonces αµ1 + βµ2 está dominada por µ3 y

d(αµ1 + βµ2 ) dµ1 dµ2


=α +β casi en todas partes para µ3
dµ3 dµ3 dµ3


iii. Si µ ≪ ν y dν
> 0 casi en todas partes para ν, entonces ν ≪ µ y
!−1
dµ dν
= casi en todas partes para µ.
dν dµ

iv. Sea {µn }n≥1 una secuencia de medidas y {αn }n≥1 una secuencia de números reales

X
positivos, es decir, αn > 0 ∀ n ≥ 1. Se define µ = αn µn .
n=1

a) Entonces, µ ≪ ν si µn ≪ ν para cada n ≥ 1 y en este caso,



dµ X dµn
= αn casi en todas partes para ν.
dν n=1 dν

b) µ ⊥ ν si µn ⊥ ν ∀ n ≥ 1.

2.1.6. Medidas signadas


Sean µ1 y µ2 dos medidas finitas de un espacio medible (Ω, F). Sea

ν(A) = µ1 (A) − µ2 (A), ∀ A ∈ F. (2.17)

Entonces ν : F → R, satisface lo siguiente:

i. ν(ϕ) = 0.

X
ii. Para cualquier {An }n≥1 ⊂ F con Ai ∩ Aj = ϕ para i ̸= j y con |ν(Ai )| < ∞,
i=1


X
ν(A) = ν(Ai ). (2.18)
i=1
34 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

iii. Sea
( ∞
X
∥ ν ∥≡ sup |ν{Ai }| : {An }n≥1 ⊂ F, Ai ∩ Aj = ϕ
i=1
)
para i ̸= j, ∪n≥1 An = Ω . (2.19)

Donde, ∥ν∥ es finito.


Tome en cuenta que (iii) se mantiene porque ∥ν∥ ≤ µ1 (Ω) + µ2 (Ω) < ∞.

Definición 2.1.15 Una función de conjuntos ν : F → R que satisface (i),(ii) y (iii),


se llama una medida signada finita.

El ejemplo anterior muestra que la diferencia de dos medidas finitas es una medida
con signo finito. Se mostrará a continuación que cada medida con signo finito se puede
expresar como la diferencia de dos medidas finitas.

Proposición 2.1.13 Sea ν una medida con signo finito en (Ω, F). Sea
( ∞
X
|ν|(A) ≡ sup |ν{An }| : {An }n≥1 ⊂ F, Ai ∩ Aj = ϕ
n=1
)
para i ̸= j, ∪n≥1 An = Ω . (2.20)

Entonces |ν|(A) es una medida finita en (Ω, F).

Prueba: Que |ν|(Ω) < ∞ se desprende de la parte (iii) de la definición. Así es suficiente
para verificar que ν es contable aditivo. Sea {An }n≥1 una familia contable de
conjuntos disjuntos en F. Sea ∪n≥1 An . Por la definición de |ν| para todo ϵ > 0
y n ∈ N, existe una familia contable {Anj }j≥1 de conjuntos disjuntos en F con

X ϵ
∪j≥1 Anj tal que |ν(Anj )| > |ν|(An ) − n . Por lo tanto,
j=i 2
∞ X
X ∞
|ν(Anj )| > |ν|(An ) − ϵ.
n=1 j=1

Tenga en cuenta que {An }n≥1,j≥1 es una familia contable de conjuntos disjuntos
en F tal que A = ∪n≥1 An = ∪n≥1 ∪j≥1 Anj . Se sigue de la definición de |ν| que
∞ X
X ∞
|ν|(A) ≥ |ν(Anj )| > |ν|(An ) − ϵ.
n=1 j=1
2.1. TEORÍA DE LA MEDIDA 35

Como esto es cierto para todo ϵ > 0, se sigue que



X
|ν|(A) ≥ |ν|(An ). (2.21)
n=1

Para obtener la desigualdad opuesta, sea {Bj }j≥1 una familia contable de con-
juntos disjuntos en F tal que ∪j≥1 Bj = A = ∪n≥1 An . Entonces, podemos hacer
Bj = Bj ∩ A = ∪n≥1 (Bj ∩ An ) y ν satisface (2.18),

X
ν(Bj ) = ν(Bj ∩ An ) ∀ j ≥ 1.
n=1

Así

X ∞ X
X ∞
|ν(Bj )| ≤ |ν(Bj ∩ An )|
j=1 j=1 n=1
∞ X
X ∞
= |ν(Bj ∩ An )|. (2.22)
n=1 j=1

Tenga en cuenta que para cada An , Bj ∩ An j≥1 es una familia contable de con-
juntos disjuntos en F tal que An = ∪j≥1 (Bj ∩ An ). Entonces desde (2.20), resulta

X ∞
X
que |ν|(A) ≥ |ν(Bj ∩ An )| y entonces se desprende de esto que, |ν|(An ) ≥
j=1 n=1
∞ X
X ∞
|ν(Bj ∩ An )|.
n=1 j=1

X ∞ X
X ∞
Desde (2.22) resulta que |ν|(An ) ≥ |ν(Bj ∩)|. Esto es cierto para cada
n=1 n=1 j=1
familia {Bj }j≥1 , de lo que sigue de (2.20), que

X
|ν|(A) ≤ |ν|(Ai ) (2.23)
i=1

y con (2.21), esto completa la prueba

Definición 2.1.16 La medida |ν| definida por (2.20) se denomina medida de variación
total de la medida signada ν.
36 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

A continuación, defina las funciones establecidas


|ν| + ν |ν| − ν
ν+ ≡ , ν− ≡ (2.24)
2 2
Se puede verificar que ν + y ν− son medidas finitas en (Ω, F).

Definición 2.1.17 Las medidas ν + y ν − se denominan medidas de variación positivas


y negativas de la medida firmada ν, respectivamente.

De (2.24) se deduce que

ν = ν + − ν −. (2.25)

Por lo tanto, cada medida signada finita ν en Ω, F es la diferencia de dos medidas


finitas, como se afirmó anteriormente.
Tenga en cuenta que ν + y ν − están dominados por |ν| y las tres medidas son finitas.
Por el teorema de Radon-Nikodym, existen funciones h1 y h2 en L1 (Ω, F), |ν| tales que
dν + dν −
= h1 y = h2 (2.26)
d|ν| d|ν|
Esto y (2.25) implican que para cualquier A ∈ F,
Z Z Z
ν(A) = h1 d|ν| − h2 d|ν| = hd|ν| (2.27)
A A A

donde h = h1 − h2 . Por lo tanto, cada medida con signo finito ν en (Ω, F) se puede
expresar como
Z
ν(A) = f dµ, A∈F (2.28)
A

para algunas medidas finitas µ en (Ω, F) y algo de f ∈ L1 (Ω, F, µ).


A la inversa, es fácil verificar que una función de conjunto ν definida por (2.28)
para alguna medida finita µ on (Ω, F) y algo de f ∈ L1 (Ω, F, µ) es una medida con
signo finito. Esto lleva a lo siguiente:

Teorema 2.1.2 i. Una función de conjunto ν en un espacio medible (Ω, F) es una


medida con signo finito si existen dos medidas finitas µ1 y µ2 en (Ω, F) de manera
que ν = µ+ − µ− .

ii. Una función de conjunto ν en un espacio medible (Ω, F es una medida con signo
finito si existe una medida finita µ en (Ω, F y una f ∈ L1 (Ω, F, µ) tal que para
toda A ∈ F,
Z
ν(A) = f dµ, A∈F
A
2.1. TEORÍA DE LA MEDIDA 37

Definición 2.1.18 Sea ν una medida con signo finito en un espacio medible (Ω, F. Un
conjunto A ∈ F se llama un conjunto positivo para ν si para cualquier B ⊂ A, B ∈ F ,
ν(B) ≥ 0. Un conjunto A ∈ F se llama un conjunto negativo para ν si para cualquier
B ⊂ A con B ∈ F , ν(B) ≤ 0.

Sea h como en (2.27). Sea

Ω+ = {ω : h(ω) ≥ 0} y Ω− = {ω : h(ω) < 0} (2.29)

De (2.27), se deduce que para todos A en F, ν(A ∩ Ω+ ) ≥ 0 y ν(A ∩ Ω− ) ≤ 0. Así, Ω+


es un conjunto positivo y Ω− es un conjunto negativo para ν . Además, Ω+ ∪ Ω− = Ω
y Ω+ ∩ Ω− = ϕ. Resumiendo esta discusión, se obtiene el siguiente teorema.

Teorema 2.1.3 (Teorema de la descomposición de Hahn). Sea ν una medida


con signo finito en un espacio medible (Ω, F. Luego existe un conjunto positivo Ω+ y
un conjunto negativo Ω− para ν tal que Ω = Ω+ ∪ Ω− y ϕ = Ω+ ∩ Ω− .

Sean Ω+ y Ω− como en (2.29). Se puede verificar que para cualquier B ∈ F , si


B ⊂ Ω+ , entonces ν(B) = |ν|(B). Por (2.27), esto implica que para toda A en F ,
Z
hd|ν| = |ν|(A ∩ Ω+ )
A∩Ω+

Se sigue que h = 1 es decir, |ν| en Ω+ . Del mismo modo,h − 1 es decir |ν| en Ω− . Por
lo tanto, las medidas ν + y ν − , definidas en (2.24), se reducen a

1+h
Z
ν + (A) = d|ν|
A 2
Z
1+h Z
1+h
= d|ν| + d|ν|
A∩Ω+ 2 A∩Ω− 2

= |ν|(A ∩ Ω+ )

y de manera similar

ν − (A) = |ν|(A ∩ Ω− )

Tenga en cuenta que ν + y ν − son medidas finitas que son mutuamente singulares. Esta
particular descomposición de ν como

ν = ν+ − ν−
38 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

se conoce como la descomposición de Jordan de ν. Ahora se mostrará que esta des-


composición es mínima y que es única en la clase de medidas signadas con compo-
nentes mutuamente singulares. Supongamos que existen dos medidas finitas µ1 y µ2
en (Ω, F) de manera que ν = µ1 − µ2 . Para cualquier subconjunto A ∈ F, ν + (A) =
ν(A ∩ Ω+ ) = µ1 (A ∩ Ω+ ) − µ2 (A ∩ Ω+ ) ≤ µ1 (A ∩ Ω+ ) ≤ µ1 (A) y ν − (A) = −ν(A ∩ Ω− ) =
µ2 (A ∩ Ω− ) − µ1 (A ∩ Ω− ) ≤ µ2 (A ∩ Ω− ) ≤ µ2 (A). Por lo tanto, ν + ≤ µ1 y ν − ≤ µ2 . Cla-
ramente, dado que tanto µ1 como ν + son medidas finitas en (Ω, F), µ1 − ν + también es
una medida finita. De manera similar, µ2 − ν − también es una medida finita. Además,
como µ1 − µ2 = ν = ν + − ν − , se sigue que µ1 − ν + = µ2 − ν − = λ, por ejemplo. Por
lo tanto, para cualquier descomposición de ν como µ1 − µ2 con µ1 , µ2 medidas finitas,
se mantiene que µ1 = ν + + λ y µ2 = ν − + λ, donde λ es una medida en (Ω, F). Por
lo tanto, ν = ν + − ν − es una descomposición mínima en el sentido de que en este caso
λ = 0. Ahora supongamos que µ1 y µ2 son mutuamente singulares, es decir, existen Ω1 ,
Ω2 ∈ F de tal manera que Ω1 ∩ Ω2 = ϕ, Ω1 ∪ Ω2 = ϕ, y µ1 (Ω2 ) = 0 = µ2 (Ω1 ). Como
µ1 ≥ λ y µ2 ≥ λ, se deduce que λ(Ω2 ) = 0 = λ(Ω1 ). Por lo tanto, λ = 0 y µ1 = ν + y
µ2 = ν − .

Teorema 2.1.4 Sea ν una medida con signo finito en un espacio medible (Ω, F) y sean
µ1 y µ2 dos medidas finitas en (Ω, F) de manera que ν = µ1 − µ2 . Luego existe una
medida finita λ tal que µ1 = ν + + λ y µ2 = ν − + λ con λ = 0 si µ1 y µ2 son mutuamente
singulares.
sea

S ≡ {ν : ν es una medida f inita en (Ω, F)}.

Además, para cualquier α ∈ R, sea α+ = max(α, 0) y α− = max(−α, 0). Tenga en


cuenta que para ν1 , ν2 en S y α1 , α2 ∈ R,

α1 ν1 + α2 ν2 = (α1+ − α1− )(ν1+ − ν1− ) + (α1+ − α2− )(ν2+ − ν2− )


= (α1+ ν1+ + α1− ν1− + α2+ ν2+ + α2− ν2− )
−(α1+ ν1− + α1− ν1+ + α2+ ν2− + α2− ν2+ )
= λ1 − λ2 , es decir,

donde λ1 y λ2 son medidas finitas. Ahora se desprende del Teorema 1.2 que α1 ν1 +α2 ν2 ∈
S. Por lo tanto, S es un espacio vectorial sobre R. Ahora se mostrará que ∥ν∥ ≡ |ν|(Ω)
es una norma en S y que (S, ∥ · ∥) es un espacio de Banach.

Definición 2.1.19 Para una medida con signo finito ν en un espacio medible (Ω, F)
la norma de variación total ν se define por ∥ν∥ ≡ |ν|(Ω)
2.1. TEORÍA DE LA MEDIDA 39

Proposición 2.1.14 Sea S ≡ {ν : ν es una medida con signo f init en (Ω, F)}.
Entonces ∥ν∥ ≡ |ν|(Ω), ν ∈ S es una norma en S.

Pueba: Sean ν1 , ν2 ∈ S, α1 , α2 ∈ R y λ = α1 ν1 + α2 ν2 . Para cualquier A ∈ F y


cualquier {Ai }i≥1 ⊂ F, con A = ∪i≥1 Ai .

|λ(Ai )| ≤ |α1 ||ν1 (Ai )| + |α2 ||ν2 (Ai )|, ∀ i≥1


X X X
⇒ |λ(Ai )| ≤ |α1 | |ν1 (Ai )| + |α2 | |ν2 (Ai )|
i≥1 i≥1 i≥1
≤ |α1 ||ν1 |(A) + |α2 ||ν2 |(A).

tomando supremo sobre todo {Ai }i≥1

|λ|(A) ≤ |α1 ||ν1 |(A) + |α2 ||ν2 |(A)


es decir |λ|(Ω) ≤ |α1 ||ν1 |(Ω) + |α2 ||ν2 |(Ω)
⇒ ∥λ∥ ≡ |λ|(Ω) ≤ |α1 ||ν1 |(Ω) + |α2 ||ν2 |(Ω)
= |α1 |∥ν1 ∥ + |α2 |∥ν2 ∥.

Tomando α1 = α2 = 1 se tiene que

∥ν1 + ν2 ∥ = ∥ν1 ∥ + ∥ν2 ∥.

Es decir, la desigualdad triangular se mantiene.


Ahora, tomando α2 = 0 se tiene que ∥α1 ν1 ∥ ≤ |α1 |∥ν1 ∥. Para obtener la des-
igualdad opuesta, tenga en cuenta que para α1 ̸= 0, ν1 = α11 α1 ν1 y entonces
∥ν1 ∥ = | α11 |∥α1 ν1 ∥. Por lo tanto |α1 |∥ν1 ∥ ≤ ∥α1 ν1 ∥. Por consiguiente, para cual-
quier α1 ̸= 0, ∥α1 ν1 ∥ = |α1 |∥ν1 ∥. Finalmente ∥ν∥ = 0 ⇒ |ν|(Ω) = 0 ⇒ |ν|(A) = 0
para todo A ∈ F ⇒ ν(A) = 0 para todo A ∈ F, es decir, ν es la medida cero,
por tanto es una norma en S.

Proposición 2.1.15 (S, ∥ · ∥) es completo.

Prueba: Sea {νn }n≥1 una sucesión de Cauchy en (S, ∥ · ∥). Note que para cualquier
A ∈ F, |νn (A) − νm (A)| ≤ |νn − νm |(A) ≤ ∥νn − νm ∥. Entonces, para cualquier
A ∈ F, {νn (A)}n≥1 es una sucesión de Cauchy en R y por tanto

ν(A) ≡ lı́m νn (A) existe.


n→∞
40 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Se mostrará que ν(·) es una medida con signo finito y ∥νn − ν∥ −→ 0 cuando
n −→ ∞. Sea {Ai }i≥1 ⊂ F, Ai ∩ Aj = ϕ, para i ̸= j, y A = ∪i≥1 Ai . Sea
xn ≡ {νn (Ai )}i≥1 , n ≥ 1 y sea x0 ≡ {ν(Ai )}i≥1 , n ≥ 1. Tenga en cuenta que
X
cada xn ∈ ℓ1 donde ℓ1 ≡ {x : x = {xi }i≥1 ∈ R, |xi | < ∞}. Para x ∈ ℓ1 sea
i≥1

X X
∥x∥1 = |xi |. Luego ∥xn − xm ∥ = |xn (A) − xm (A)| ≤ |xn − xm |(A) ≤ |xn −
i=1 i=1
xm |(Ω) −→ 0 cuando n, m −→ ∞. Pero ℓ1 es completo bajo ∥·∥1 . Entonces existe
x∗ ∈ ℓ1 tal que |xn − x∗ |1 −→ 0. Desde xni ≡ νn (Ai ) −→ ν(Ai ) para todo i ≥ 1,

X
se deduce que x∗ = ν(Ai ) para todo i ≥ 1 y que |ν(Ai )| < ∞. Ademas, para
i=1

X X
todo n ≥ 1, νn (A) = νn (Ai ). Entonces |νn (Ai ) − ν(Ai )| −→ 0, νn (A) ≡
X X i=1 i=1
νn (Ai ) −→ ν(Ai ) cuando n −→ ∞. Pero νn (A) −→ ν(A). por lo tanto,
i=1 i=1

X
ν(A) = ν(Ai ). También para cualquier partición contable {Ai }i≥1 ⊂ F en Ω,
i=1

X ∞
X
|ν(Ai )| = lı́m |νn (Ai )| ≤ lı́m ∥νn ∥ < ∞.
n−→∞ n−→∞
i=1 i=1
Por lo tanto |ν(Ω)| < ∞ y por consiguiente, ν ∈ S. Finalmente,

X
∥νn − ν∥ = sup{ |νn (Ai ) − ν(Ai )| : {Ai }i≥1 ⊂ F
i=1
es una partición separable de Ω}.

Pero para cada partición contable {Ai }i≥1 ⊂ F,



X ∞
X
|νn (Ai ) − ν(Ai )| = n−→∞
lı́m |νn (Ai ) − νm (Ai )| ≤ m−→∞
lı́m ∥νn − νm ∥.
i=1 i=1

Así

∥νn − ν∥ ≤ lı́m ∥νn − νm ∥ y por lo tanto lı́m ∥νn − ν∥ ≤


m−→∞ m−→∞
lı́m lı́m ∥νn − νm ∥ = 0, por consiguiente νn −→ ν en S.
n−→∞ m−→∞

Definición 2.1.20 (Integración con respecto a medidas signadas). Sea µ una


medida con signo finito en un espacio medible (Ω, F) y |µ| sea su medida de variación
total como en la Zdefinición (2.1.16). Entonces es preciso notar que, para cualquier
f ∈ L1 (Ω, F, |µ|), f dµ se define como
Z Z Z
f dµ = f dµ − +
f dµ− ,
2.1. TEORÍA DE LA MEDIDA 41

donde µ+ y µ− son las variaciones positivas y negativas de µ como se define en (2.1.16).

Proposición 2.1.16 Sea µ una medida firada en un espacio medible (Ω, F, P ). Sea
µ = λ1 − λ2 donde λ1 y λ2 son medidas finitas. Sea f ∈ L1 (Ω, F, λ1 + λ2 ). Entonces
f ∈ L1 (Ω, F, |ν|) y
Z Z Z
f dµ = f dλ1 − f dλ2 . (2.30)

2.1.7. Funciones Absolutamente Continuas en R


Definición 2.1.21 Una función F : R −→ R es absolutamente continua si para todos
ϵ > 0, existe δ > 0 tal que si Ij = [aj , bj ], j = 1, 2, · · · , k (k ∈ N) son disjuntos y
k
X k
X
(bj − aj ) < δ, entonces, |F (bj ) − F (aj )| < ϵ.
i=1 i=1

Por el teorema del valor medio, se deduce que si F es diferenciable y F ′ (·) está
limitada, entonces F es absolutamente continua. También tenga en cuenta que si F es
absolutamente continua implica que F es uniformemente continua.

Definición 2.1.22 Una función F : [a, b] −→ R es absolutamente continua si la fun-


ción Fe , definida por




 F (x), si a ≤ x ≤ b,

Fe (x) = F (a), si x < a,


F (b),

si x > b,

es absolutamente continua.

Entonces F (x) = x es absolutamente continua en R. Cualquier polinomio es abso-


lutamente continuo en cualquier intervalo limitado pero no necesariamente en toda R.
Por ejemplo, F (x) = x2 es absolutamente continua en cualquier intervalo limitado pero
no absolutamente continuo en R, ya que no es uniformemente continua en R.
42 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

El resultado principal de esta sección es el siguiente resultado, debido a H. Lebes-


gue, conocido como el teorema fundamental del cálculo integral de Lebesgue.

Teorema 2.1.5 Una función F : [a, b] −→ R es absolutamente continua si hay una


función F : [a, b] −→ R tal que f es Lebesgue medible e integrable casi en todas partes
de m y tal que
Z
F (x) = F (a) + f dm, ∀ a ≤ x ≤ b (2.31)
[a,x]

donde m es una medida de Lebesgue.

Prueba: Primero
Z considere el "si parte". Supongamos que (2.31) se cumple.
Como |f |dm < ∞, para cualquier ϵ > 0, existe un δ > 0 tal que
[a,b]

Z
m(A) < δ ⇒ |f |dm < ϵ (2.32)
[a,b]

k
X
Asi, si Ij = (aj , bj ) ⊂ [a, b], j = 1, 2, · · · , k son tales que (bj − aj ) < δ
i=1

k
X Z
|F (bj ) − F (aj )| ≤ |F |dm < ϵ,
i=1 ∪kj=1 Ij

k
ya que m(∪kj=1 Ij ) <
X
(bj − aj ) < δ y (2.32) se mantiene. Por lo tanto, F es
i=1
absolutamente continua. Luego considere “solo si es parte”. No es difícil verificar
que si F es absolutamente continua, implica que F es de variación limitada en
cualquier intervalo finito [a, b] y tanto las variaciones positivas como negativas
de F en [a, b] son absolutamente continua también. Por lo tanto, es suficiente
establecer (2.31) asumiendo que F es absolutamente continua y no decreciente.
Sea µF la medida de Lebesgue-Stieltjes generada pora Fe como en la definición
(2.1.22). Ahora se mostrará que µF es absolutamente continua con respecto a La
medida de Lebesgue. Fijar ϵ > 0. Deje que δ > 0 sea elegido para que
k
X k
X
(aj , bj ) ⊂ [aj , bj ], j = 1, 2, · · · , k, (bj − aj ) < δ ⇒ |F (bj ) − F (aj )| < ϵ
j=1 j=1
2.1. TEORÍA DE LA MEDIDA 43

Dejemos que A ∈ Mm , A ⊂ (a, b) y m(A) = 0. Entonces, existe una colección


contable de intervalos abiertos separados {Ij = (aj , bj ) : Ij ⊂ [a, b]} j ≥ 1 tal que
X
A ⊂ ∪j≥1 Ij y (bj − aj ) < δ.
j≥1

Así
!
 
∪kj=1 Ij
X
µF A ∩ ≤ µF Ij
i=1
k
X k
X
≤ µF (Ij ) = (F (bj ) − F (aj )) < ϵ
j=1 j=1

para todo k ∈ N.
Desde A ⊂ ∪j=1 Ij , por la propiedad de la continuidad monótona desde abajo de
µF (·), µF (A) = lı́mk−→∞ µF (A ∩ ∪kj=1 Ij ) ≤ ϵ. Esto es cierto para cualquier ϵ > 0,
se sigue que µF (A) = 0. Dado que F es continuo, µF ({a, b}) = 0 y por lo tanto
µF (a, b)c = 0. Por lo tanto, µF ≪ m, es decir, µF está dominado por m. Ahora,
según el teorema de Radod Nikodym, existeZ una función mensurable no negativa
f tal que A ∈ Mm implica que µF (A) = f dm y, en particular, para un
A∩[a,b]
a ≤ x ≤ b,
Z
µF ([a, x]) = F (x) − F (a) = f dm,
[a,x]

es decir (2.31) se cumple.

Teorema 2.1.6 Si F : R −→ R satisfac (2.31). Entonces F es diferenciable casi en


todas partes de (m) y F ′ (·) = f (·) casi en todas partes de (m).

La relación entre la noción de continuidad absoluta de una función de distribución


F : R −→ R y la de la medida asociada de Lebesgue-Stieltjes µF con respecto a la
medida m de Lebesgue será discutida ahora.
Sea F : R −→ R una función de distribución, es decir, F no disminuye y es continuo.
Sea µF la medida Lebesgue-Stieltjes asociada tal que µF ((a, b]) = F (b) − F (a) para
todos −∞ < a < b < ∞. Recuerde que se dice que F es absolutamente continua en
44 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

un intervalo [a, b] si para cada ϵ > 0, existe una δ > 0 tal que para cualquier colección
finita de intervalos Ij = (aj , bj ), j = 1, 2, ·, n, contenido en [a, b],
n
X n
X
(bj − aj ) < δ ⇒ (F (bj ) − F (aj )) < ϵ.
j=1 j=1

Recuerde también que µF es absolutamente continuo con respecto a la medida de Le-


besgue m si para A ∈ R, m(A) = 0 ⇒ µF (A) = 0. Es normal hascernos la pregunta
que ¿si F es absolutamente continua en cada intervalo [a, b] ⊂ R, es µF absolutamente
constante casi en todas partes de m y viceversa? La respuesta es sí.

Teorema 2.1.7 Sea F : R −→ R una función no decreciente y sea µF la medida


Lebesgue-Stieltjes asociada. Entonces F es absolutamente continuo en [a, b] para todos
−∞ < a < b < ∞ si µF ≪ m donde m es la medida de Lebesgue en (R, B(R)).

Prueba: Supongamos que µF ≪ m. Entonces por el teorema (2.1.1), existe una Fun-
ción medible no negativa h tal que
Z
µF (A) = hdm para todo A ∈ B(R)
A

Por lo tanto, para cualquier a < b en R y a < x < b,


Z
F (x) − F (a) ≡ µF ((a, x]) = hdm.
(a,x]

Esto implica la continuidad absoluta de F en [a, b] como se muestra en el teorema


(2.1.5).

Pero, si F es absolutamente continuo en [a, b] para todos −∞ < a < b < ∞,


entonces, como se muestra en la prueba de la parte de "Solamente si"del Teorema
(2.1.5), para todos los −∞ < a < b < ∞, entonces µF (A ∩ [a, b]) = 0 si m(A ∩
[a, b]) = 0. Por lo tanto, si m(A) = 0, entonces para todos valores −∞ < a < b <
∞, m(A ∩ [a, b]) = 0 y por lo tanto µF (A ∩ [a, b]) = 0 y por lo tanto µF (A) = 0,
es decir, µF ≪ m .


2.1. TEORÍA DE LA MEDIDA 45

Recuerde que una medida µ en (Rk , B(Rk )) es una medida de radón si µ(A) < ∞
para cada conjunto de Borel acotado A. En lo siguiente, m(·) denota la medida de
Lebesgue en Rk .

Definición 2.1.23 Una medida de Radón µ en (Rk , B(Rk )) es diferenciable en x ∈ Rk


con derivada (Dµ)(x) si para cualquier ϵ > 0, hay una δ > 0 tal que
µ(A)
− Dµ)(x) < ϵ
m(A)

por cada bola abierta A tal que x ∈ A y diam(A) ≡ sup{∥x − y∥ : x, y ∈ A}, el diámetro
de A, es menor que δ.

Teorema 2.1.8 Sea µ una medida de Radón en (Rk , B(Rk )). Entonces

i) µ es diferenciable con respecto a (m), Dµ(·) es medible de Lebesgue, y ≥ 0 con


respecto a (m) y para todos los conjuntos de Borel acotados A ∈ B(Rk ),
Z
Dµ(·)dm ≤ µ(A).
A

ii) Sea µa (A) ≡ A Dµ(·)dm, A ∈ B(Rk ). Sea µs (·) la única medida en B(Rk ) tal que
R

para todos los conjuntos de Borel acotados A

µs (A) = µ(A) − µa (A.)

Entonces

µs ⊥ m y Dµs (·) = 0 con respecto a (m).

Observación: Por la singularidad de la descomposición de Lebesgue, se deduce que


una medida de Radónµ
Z en (Rk , B(Rk )) es ⊥ m si Dµ(·) = 0 con respecto a (m) y
es ≪ m si µ(A) = Dµ(·)dm para todos los A ∈ B(Rk ).
A

Sea f : Rk −→ Z R+ integrable casi en todas partes de (m) en conjuntos limitados.


Sea ε(A) ≡ f dm para A ∈ B(Rk ). Entonces µ(A) es una medida de radón y
A
es m y, por lo tanto, por el teorema 2.1.8

Dµ(x) = f (x) para casi todo x(m).


46 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Es decir, para casi todas las x(m), para cada ϵ > 0, hay una det > 0 tal que
1 Z
f dm − f (x) < ϵ
m(A) A
para todas las bolas abiertas A tal que x ∈ A y diam(A) < δ.
Resulta que un resultado más fuerte se mantiene.

Teorema 2.1.9 Para casi todas las x(m), para cada ϵ > 0, hay una δ > 0 tal que
1 Z
|f − f (x)|dm < ϵ
m(A) A
para todas las bolas abiertas A tal que x ∈ Aydiam(A) < δ

Teorema 2.1.10 (Cambio de fórmula de variables en Rk , k > 1). Sea V un conjunto


abierto en Rk . Sea T ≡ (T 1, T 2, · · · , T k) un mapa de Rk −→ Rk tal que para cada
∂Ti (·)
i, Ti : Rk R y en V para todos 1 ≤ i, j ≤ k. Supongamos que el Jacobiano
∂xj !!
∂Ti (·)
JT (ů) ≡ det es continuo y positivo en V . Supongamos además que T (V )
∂xj
es un conjunto abierto acotado W en Rk y que T es (1 − 1) y T −1 es continuo. Entonces

i) Para todo el conjunto de Borel E ⊂ V, T (E) es un conjunto de Borel ⊂ W .

ii) ν(·) ≡ m(T (·)) es una medida en B(W ) y ν ≪ m con


dν(·)
= JT (·).
dm

iii) Para cualquierh ∈ L1 (W, m)


Z Z
hdm = h(T (·))JT (·)dm.
W V

iv) λ(·) ≡ mT −1 (·) es una medida en B(W ) y λ ≪ m con



= |J(T −1 (·))|−1 .
dm

v) Para cualquier µ ≪ m en B(V ), la medida ψ(·) ≡ µT −1 (·) está dominada por m


con
!
dψ(·) dµ
= (T −1 (·))(J(T −1 (·)))−1 en W.
dm dm
2.1. TEORÍA DE LA MEDIDA 47

2.1.8. Distribuciones Singulares, (Ortogonales)


Descomposición de una función de distribución acumulativa

Recuerde que una función de distribución acumulativa en R es una función F :


R −→ [0, 1] tal que no disminuye, derecha continua, F (−∞) = 0, F (∞) = 1.

Definición 2.1.24 Una función de distribución acumulativa F es singular si F ′ ≡ 0


casi en todas partes con respecto a la medida de Lebesgue en R.

Ejemplo 2.1.25 Las funciónes de distribuciónes acumulativas Binomiales, Poisson o


cualquier variable aleatoria de valor entero son singulares.

Se sabe que una función monótona F : R −→ R es diferenciable en casi todas


partes con respecto a La medida de Lebesgue y su derivada F ′ satisfacen
Z b
F ′ (x)dx ≤ F (b) − F (a), (2.33)
a

para cualquier −∞ < a < b < ∞


Z x Z ∞
Para x ∈ R, sea F̃ac (x) = Fc′ (t)dt y F̃sc (x) ≡ Fc (x)−F̃ac (x). Si β̃ ≡ Fc′ (t)dt =
∞ −∞
F̃ac (∞) = 0, entonces Fc (t) = 0 casi en cualuier parte y así, Fc es singular continuo.
Si β̃ = 1, entonces Fc = Fac y por lo tanto, Fc es absolutamente continuo. Si 0 < α < 1
y 0 < β < 1, entonces F puede escribirse como

F = αFd + βFac + γFsc , (2.34)

donde β = (1 − α)β̃, γ = (1 − α)(1 − β), Fac = β̃ −1 F̃ac , Fsc = (1 − β̃)−1 F̃sc , y Fd es


como en F = αFd + (1 − α)Fc . Tenga en cuenta que Fd , Fac , Fsc son todas las funciónes
de distribuciónes acumulativas y α, β, γ son números no negativos que suman 1. Resu-
miendo las discusiones anteriores, uno tiene lo siguiente:

Proposición 2.1.17 Dada cualquier función de distribución acumulativa F , existen


constantes no negativas α, β, γ y funciónes de distribuciónes acumulativas Fd , Fac , Fsc
que satisfacen (a) α + β + γ = 1, y (b) Fd es discreto, Fac es absolutamente continuo,
Fsc es singular continuo , tal que la descomposición (2.34) se mantiene.
48 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Se puede demostrar que las constantes α, β y γ se determinan de forma única, y


que cuando 0 < α < 1, la descomposición F = αFd + (1 − α)Fc es única, y que cuando
0 < α, β, γ < 1, la descomposición (2.34) es única. La descomposición (2.34) también
tiene una interpretación probabilística. Cualquier variable aleatoria X puede realizarse
como una elección aleatoria sobre tres variables aleatorias Xd , Xac y Xsc que tienen
las funciónes de distribuciónes acumulativas Fd , Fac y Fsc , respectivamente, y con las
correspondientes probabilidades de aleatorización α, β y γ.

2.2. Dos Teoremas Importantes, de Aproximación


Definición 2.2.1 Densidad Si ν(A) = A f dµ para algunos f ∈ (mA)+ y todos los
R

A ∈ A, decimos que la medida ν tiene densidad f con respecto a µ.

Ejemplo 2.2.1 1. Si A = R, µ es una medida de Lebesgue en R, f una desidad


normal, entonces ν es una distribución normal (medida de probabilidad normal).

2. Si A = N0 , µ está contando la medida en N0 , f una densidad de Poisson, entonces


ν es la distribución de Poisson (medida de probabilidad de Poisson).

Tenga en cuenta que en el último ejemplo, f es una densidad a pesar de que no es


continua en x ∈ R.

Ejemplo 2.2.2 Sea a1 < a2 < · · · una secuencia de números reales y pn , n = 1, 2, · · ·


una secuencia de números positivos tal que inf
P ty
n=1 pn = 1. Entonces

 ∞ para an ⩽ x < an+1 , n = 1, 2, · · ·
P

n=1 pn
F (x) =
0

para −∞ < x < 0

es una función discreta absolutamente continua paso a paso. Tiene un salto de tamaño
pn en cada an y es plano entre an y an+1 , n = 1, 2, · · · . La medida de probabilidad
correspondiente es
X
P (A) = pi A∈F
i:ai ∈A

donde F = es el conjunto de todos los subconjuntos (conjunto potencia).


Sea µ la medida contadora en el conjunto potencia, entonces
Z X
P (A) = f dµ = f (ai ), A ⊂ Ω,
A ai ∈A
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 49

donde f (ai ) = pi , i = 1, 2, · · · pueto que f es la función de probabilidad discreta de P


con respecto a µ.

Ejemplo 2.2.3 Sea F una función discreta continua y supongamos que F es diferen-
ciable en el cálculo usual. Sea f la derivada de F .
Z x
F (x) = f (y)dy, f ∈ R.
−∞
R
Sea P la medida de probabilidad correspondiente a F . Entonces P (A) = A f dm para
todo A ∈ B donde m es la medida de Lebesgue en R y f es la función de probabilidad
discreta de P con respecto a la medida de Lebesgue.
La derivada de Radon-Nicodym es la suma de la derivada en el cálculo usual.

Densidad

Teorema 2.2.1 Sea (X , A, µ un espacio medible, f ∈ (mA). Define


Z Z
ν(A) = f dµ = 1A (x)f (x)µ(dx).
A

Entonces ν es una medida en (X , A).

Prueba

Necesitamos mostrar que ν es contable aditiva. Sea {An } ⊂ A disjunto. Entonces


Z
ν(∪An ) = f dµ
∪An
Z
= 1∪An (x)f (x)µ(dx)

Z X
= f (x)1An (x)µ(dx)
n=1
Z
= lı́m gk (x)µ(dx),
k→∞

Pk
Donde gk (x) = n=1 f (x)1A (x). Ya que 0 ≤ gk (x) ↑ 1∪An (x)f (x) ≡ g(x), por lo que
Z Z
ν(∪An ) = lı́m gk dµ = lı́m gk dµ
k→∞ k→∞
k
Z X
= lı́m f (x)1An (x)dµ
k→∞
n=1
k Z
X ∞
X
= lı́m f dµ = ν(An )
k→∞
n=1 An n=1
50 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Teorema 2.2.2 Una función f : X → R es L1 (µ)-computable si y solo si es equivalente


R
a una función computable a nivel de µ-capa y f dµ es un número computable.

Teorema 2.2.3 Para las medidas µ ≪ ν, si µ es computablemente normable con res-


pecto a ν, entonces h = dµ

es L1 (ν)-computable, desde ν y µ.

Ahora explicamos lo que significa que una medida sea computablemente normable en
relación con otra. Sean µ y ν medidas de Borel. Considere el operador lineal Lµ :
L2 (µ + ν) → R será definido por
Z
Lµ (f ) = f dµ.

Este es un operador lineal acotado y es fácil ver que, µ, ν y f , se puede calcular el valor
Lµ (f ). Recordamos que para un operador lineal u que actúa en el espacio de Hilbert
L2 , la norma ∥u∥ está definida por

∥u∥ = sup{u ∈ R : |u(f )| ≤ c∥f ∥2 } = sup |u(f )|


∥f ∥2 =1

Definición 2.2.2 Se dice que una medida computable µ es computablemente normable


en relación con alguna otra medida computable ν, si el operador Lµ (como se definió
anteriormente) tiene una norma computable.

Proposición 2.2.1 Sea µ una medida computable y f : X → [0, +∞] una función
R
semi-computable a nivel de µ-capas, el número f dµ es semi-computable inferior.

Teorema 2.2.4 Sea ν una medida de probabilidad computable. Sea h : X → [0, +∞]
una función calculable L1 (ν) tal que hν = 1 denota la medida con densidad h. Luego
R

1. µ es computable.

2. No solo µ ≪ ν sino µ ≪ef f ν, y

3. µ es computablemente numerable con respecto a ν.

Prueba. Según el teorema 2.2.2, podemos suponer sin pérdida de generalidad que h
es el representante computable a nivel de ν-capas de su clase de equivalencia.

1. Tenemos que demostrar que para los conjuntos abiertos efectivos U , los va-
lores µ(U ) son números reales semi-computables más bajos, uniformemente
R
en U . Por definición, µ(U ) = h1U dν y h1U es claramente semi-computable
inferior en ν-capas, lo que implica la semi-computabilidad inferior de µ(U )
por la Proposición 2.2.1.
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 51

2. Como h es computable a nivel de ν-capa, las funciones h1{h<n} son uniforme-


mente semi-computable más bajas en ν-capas, por lo que sus ν-integrales son
números semi-computables más bajos que aumentan a 1. Entonces podemos
calcular una subsecuencia ni tal que
Z
h1{h<n} dν = 2−i−1 .

Ahora, para cada i, φ(i) = i + 1 + ⌈log(ni )⌉. Sea A un conjunto de Borel tal
que ν(A) < 2φ(i) . Entonces
Z Z Z
µ(A) = h1A dν = h1A dν + h1A dν
{h⩾n} {h<n}
−i−1
≤ 2 + ni ν(A)
−i−1
< 2 + ni 2φ(i) ≤ 2−i .

3. La derivada de Radon-Nikodym de µ con respecto a (µ + ν) viene dada por


la función
h
g=
h+1
De hecho, para
Z Z Z Z
f dµ = hf dν = g(h + 1)f dν = gf d(µ + ν).
qR qR
La norma de Ln u es ∥f ∥L2 (µ+ν) = g 2 d(µ + ν) = gdµ. Suponiendo que
R
gdµ es computable.

2.2.1. Teorema del Límite Central


Teorema 2.2.5 (Teorema de Skorohod´s) Sean {µn }n≥1 , µ medidas de Probabili-
d
dad on (R, B(R)) tal que µn →
− µ. Sean

Xn (ω) ≡ sup{t : µn ((−∞, t]) < ω}


X(ω) ≡ sup{t : µn ((−∞, t]) < ω}

para 0 < ω < 1. Siendo Xn y X variables de Random en ((0, 1), (B((0, 1)), m)
siendo m la medida de Lebesgue. Ademas Xn tiene una distribución µn , n ≥ 1
tiene distribución µ y Xn −→ X con probabilidad 1
52 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Prueba Para cualquier función de distribuciones acumulativas F ,se tiene que F −1 (u) ≡
sup t : F (t) < u. Entonces para cualquier u ∈ (0, 1) y t ∈ R se puede probar que
F −1 (u) ≤ t ⇒ F (t) ≥ u ⇒ F −1 (u) ≤ t por lo que, si u es una variable de random
uniforme (0, 1)
P (F −1 (U ) ≤ t) = P (U ≤ F (t)) = F (t)
lo que implica que

F −1 (U ) posee una función de distribuciones acumulatica F

Esto muestra que Xn , n ≥ 1 y X poseen las distribuciones asignadas. Por lo que


queda por demostrar que

Xn (ω) ⇒ x(ω) con probabilidad 1

Si fijamos ω ∈ (0, 1) y sea y < X(ω)talqueµ({y}) = 0. por lo que y < X(ω) ⇒


d
µ((−∞, y]) < ω. Ahora, dado que µn → − µ y µ({y}) = 0, µn (−∞, y]) → ω((−∞, y])
así µn ((−∞, y]) < ω para un n grande. Esto implica que Xn (ω) ≥ y para n grande
y por lo tanto lı́m inf n→∞ Xn (ω) ≥ y. Ya que esto es cierto para todos y < X(ω)
con ω({y}) = 0, y como el conjunto de todas esas y es denso en R, resulta que

lı́m
n→∞
inf Xn (ω) ≥ X(ω) para todo ω ∈ (0, 1).

Ahora, si tomamos un ϵ > 0, y > X(ω + ϵ) y µ({y}) = 0 Entonces µ((−∞, y]) ≥


ω + ϵ. Dado que µ({y}) = 0, µn ((−∞, y]) → µ((−∞, y]). Por tanto, para un n
grande, µn (−∞, y] ≥ ω. Esto implica que Xn (ω) ≤ y para n grande y por lo tanto
lı́m supn→∞ Xn (ω) ≤ y. Dado que esto es cierto para todo y > X(ω + ϵ), µ({y}) =
0, resulta que

lı́m sup Xn (ω) ≤ X(ω) para cualquier ϵ > 0.


n→∞

y por consiguiente
lı́m sup Xn (ω) ≤ X(ω + )
n→∞
con lo que quedq demostrado que para todo 0 < ω < 1

X(ω) ≤ lı́m
n→∞
inf Xn (ω) ≤ lı́m sup Xn (ω) ≤ X(ω + )
n→∞

Dado que X(ω) es una función no decreciente en (0, 1) y tiene como máximo una
función numerable de discontinuidades y así

lı́m Xn (ω) = X(ω) con probabilidad 1


n→∞
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 53

Definición 2.2.3 Sea X una variable aleatoria y F X su función de distribución. De-


finimos a la función carcterística de X por la función ϕX : R → C asociada a F X de
la siguiente manera

ϕX (t) = (eitX )
= E(cos(tX)) + iE(sen(tX))

Observación 2.2.1 Como las variables cos(tX) , sen(tX) son acotadas, las esperan-
zas de estas variables existen y son finitas.

Propiedad 2.2.1 ϕX (0) = E(1) = 1.

Propiedad 2.2.2 Sean X e Y dos variables aleatorias independientes. Entonces para


todo t ∈ R

Prueba Observando que eitX , eitY son variables aleatorias independientes se tiene

ϕX+Y (t) = E(eit()X+Y )


= E((eitX )(eitY ))
= E(eitX )E(eitY )
= ϕX (t)ϕY (t)

Propiedad 2.2.3 Sea X una variable aleatoria e Y = aX + b, con a, b ∈ R. Entonces


para todo t ∈ R
ϕaX+b (t) = eibt ϕX a(t).

prueba Para todo t ∈ R se tiene

ϕY (t) = ϕaX+b (t)


= E(eit(aX+b) )
= E(eit(aX) eit(b) )
= eit(b) Eeit(aX)
= eit(b) ϕX (at).
54 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Teorema 2.2.6 Si µ∗k < ∞ entonces para todo i < k se tiene µ∗i < ∞.

Prueba Sea i < k. Se tiene

|X|i = I|X|≤1 |X|i + I|X|>1 |X|i

Como
I|X|≤1 |X|i ≤ I|X|≤1

y
I|X|>1 |X|i ≤ I|X|>1 |X|k ≤ |X|k

así obtenemos
|X|i ≤ I|X|≤1 + |X|k .

Y tomando esperanza en ambos miembros resulta que


 
µ∗i ≤ P |X| ≤ 1 + µ∗k < ∞,

y esto demuestra el teorema.

Teorema 2.2.7 (Derivada de una función caracterítica)


Supongamos que µ∗n < ∞. Luego se cumple que

(n)
ϕX (t) = in E(X n eitX ). (2.35)

Prueba Demostrando por inducción este teorema, en n. Para n = 0 es cierto ya que


ϕX (t) = Ee(itX por definición. Supongamos ahora que elteorema es cierto para n.
Vamos a demostrar que tambien es cierto para n + 1.

Supongamos que µ∗n+1 < ∞, por el Teorema 2.2.6 resulta µ∗n < ∞ y luego la
fórmula (2.35) es cierta para n. Entonces, tenemos que

(n)
ϕX (t) = in E(xn eitX )
= in (E(X n cos(tX)) + i(E(X n cos(tX)). (2.36)
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 55

Sea g(x, t) = xn cos(tX). Luego g2 (x, t) = −xn+1 sen(tx) es continua y |g2 (X, t)| ≤
|X|n+1 . Como E(|X n+1 |) < ∞, por el Teorema 11.8 se tendrá que si h(t) =
E(X n cos(tX)), entonces

h′ (t) = E(g2 (X, t))


= −E(X n+1 sen(tX)). (2.37)

De forma similar, si h∗ (t) = E(X n sen(tX)), luego

h∗ ′ (t) = E(xn+1 cos(tX)). (2.38)

Luego por (2.37), (2.38) y derivando (2.36) se tendrá que


(n+1)
ϕX (t) = in (h′ (t) + h∗ ′ (t)) (2.39)
= in (E(−X n+1 sen(tX))) + i(E(X n+1 cos(tX))). (2.40)

Multiplicando por i y dividiendo por i se obtiene


1 
(n+1)
ϕX (t) = in+1 E(−X n+1 sen(tX)) + (E(X n+1 cos(tX)). (2.41)
i
1
Y ahora, usando que i
= −i
(n+1)
ϕX (t) = in+1 (iE(X n+1 sen(tX)) + E(X n+1 cos(tX))
= in+1 E(X n+1 eitX )

y por lo tanto el teorema queda demostrado.

Corolario 2.2.1 Sea µn < ∞. Entonces resulta que


(n)
ϕX (0) = in E(X n ).

Nótese que de acuerdo al Teorema 2.2.7 si µn < ∞ resulta así que

ϕ′X (0) = iµ1 (2.42)

ϕ′′X (0) = −µ2 (2.43)


56 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Teorema 2.2.8 Sea X ∼ N (0, 1) . La función característica de X es


1 2
ϕ∗ (t) = e− 2 t

Prueba Como X es simétrica respecto al origen, ϕ∗ es real y par. Consideremos ahora


dos variables aleatorias independientes X1 ∼ N (0, 1), X2 ∼ N (0, 1) y definamos
Y = u1 X1 + u2 X2 con u1 ≥ 0, u2 ≥ 0 . Entonces Y ∼ N (0, u21 + u22 ). Entonces
podemos expresar a Y como un múltiplo de una variable N (0, 1). En efecto
q Y
Y = u21 + u21 q
u21 + u21
q
= u21 + u21 Z

Donde
Y
z=q
u21 + u21
tiene distribución N (0, 1).

Prosedemos entonces a demostrar de dos formas ϕY diferente que para lo cual


haremos uso de la propiedad 2.2.3

ϕY (t) = ϕ√u2 +u2 Z (t) (2.44)


1 2
q 
= ϕ∗ u21 + u22 t . (2.45)

Por otro lado siendo Y suma de variables aleatorias independientes, usando la


Propiedad 2.2.3 y recordando que u1 ≥ 0 y u2 ≥ 0, se tiene que

ϕY (t) = ϕu1 X1 +u2 X2 (t)


= ϕu1 X1 (t)ϕu2 X2 (t) (2.46)
= ϕ∗ (u1 t)ϕ∗ (u2 t)
q  q 
= ϕ∗ u21 t ϕ∗ u22 t . (2.47)

ahora, de (2.44) y (2.47) se obtiene


q  q  q 
ϕ∗ u21 + u22 t = ϕ∗ u21 t ϕ∗ u22 t . (2.48)

Definamos g ∗ como la composición de ϕ∗ con la raíz cuadrada, es decir



g ∗ (u) = ϕ∗ ( u).
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 57

Luego por (2.48) se tiene que

g ∗ (u21 + u22 ) = g ∗ (u21 )g ∗ (u22 )

Así, si ponemos v1 = u21 y v2 = u22 entonces para todo v1 , v2 ≥ 0 obtenemos

g ∗ (v12 + v22 ) = g ∗ (v12 )g ∗ (v22 ) (2.49)

Para todo v ≥ 0 se tiene


v  2
! !
∗ ∗ v v ∗
g (v) = g + = g ≥0
2 2 2

Observación 2.2.2 La Ecuación (2.2.1) hace referencia a la caracterización de


la distribución exponencial como una distrubución con “falta de memoria”. Luego
para caracterizar a g ∗ procederemos de igual manera.

Ahora, por inducción se puede probar que dados v1 ≥ 0, v2 ≥ 0, · · · , vn ≥ 0


entonces
n n
!

g ∗ )(v1 )
X Y
g vi = (2.50)
i=1 i=1

Y usando (2.50) se obiene que para todo n natural


!
g ∗ (n) = g ∗ 1| + 1 + 1{z+ · · · + 1}
n−veces
∗ 2
= [g (1)] (2.51)

Y usando (2.50) y (2.51) se obtiene que para todo m y n naturales

[g ∗ (1)]n = g ∗ (n)
 n
= g∗ m
m !
n n n n
= g∗ + + + ··· +
|m m m {z m}
m−veces
n m
" #
= g∗ ,
m

por lo cual, n h in


g∗ = g ∗ (1) m

m
58 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Luego para todo r ∈ Q positivo se tiene


 h ir
g ∗ r) = g ∗ (1)

Por la continuidad de g ∗ y la densidad de Q en R,se concluye que para todo


x ∈ R+  h ix
g ∗ x) = g ∗ (1)
así, entonces

0 < g ∗ (1) < 1. (2.52)

Como g ∗ (1) es real con 0 ≤ g ∗ (1) ≤ 1 para demostrar (2.52) se deberá mostrar
que g ∗ (1)6 ̸= 0 y que g ∗ (1)6 ̸= 1.
Para esto, supongamos que g ∗ (1) = 0. Entonces para todo t ∈ R+
√  h it
ϕ∗ t = g ∗ (t) = g ∗ (1) = 0.

Esto es absurdo, pues si t = 0 se tendría ϕ∗ (0) = 0 y según la Propiedad 2.2.1


resulta que ϕ∗ (0) = 1. Podremos suponer entonces que g ∗ (1) = 1. Así
√ 
ϕ∗ (1) = ϕ∗ 1 = g ∗ (1) = 1.

Ahora como ϕ∗ es real, ϕ∗ (1) = E(cos(X)) . Entonces g ∗ (1) = 1 se puede escribir


como
E(1) = E(cos(X)).
Por lo que
E(1 − cos(X)) = 0.
Ya que, siendo la variable aleatoria 1 − cos(X) no negativa se concluye que

P (cos(X) = 1) = 1.

Esto no puede ser cierto puesto que {x ∈ R : cos(x) = 1} es un conjunto de pun-


tos numerable, por consiguiente su probabilidad es cero puesto que la ditribución
normal es absolutamente continua.

Entonces si ponemos c = −log(g ∗ (1)) entonces, c > 0 y g ∗ (1) = e−c . Luego


h it
g ∗ (t) = g ∗ (1)
= e−ct para todo t ≥ 0.
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 59

Y además
2
ϕ∗ (t) = g ∗ (t2 ) = e−ct para todo t ≥ 0.

Ya que la función ϕ∗ (t) es par se tendrá


2
ϕ∗ (t) = e−ct para todo t.

Ahora, si derivamos dos veces ϕ∗


2
(ϕ∗ )′ (t) = −2cte−ct
2 2
(ϕ∗ )′′ (t) = 4c2 t2 e−ct − 2cte−ct
2
 
= 2ce−ct 2ct2 − 1

y evaluando en 0, de acuerdo a (2.43) se tendrá

−2c = (ϕ∗ )(2) (0)


= −µ2
= −(V ar(X) + E(X 2 ))
= 1
1
Por consiguiente obtenemos que c = 2
y el Teorema queda demostrado.

Teorema 2.2.9 (Teorema de continuidad de Levy)


Sea Fn , n ≥ 1 y F funciones de distribución acumulativa, ϕn , n ≥ 1 y ϕ sus respec-
d
tivas funciones caracteristicas. Sea Fn →
− F . Entonces, para cada 0 < K < ∞,

sup |ϕn (t) − ϕ(t)| −→ 0, cuando n −→ ∞


|t|⩽K

Es decir, ϕn converge a ϕ uniformemente en intervalos acotados.

Prueba Por el teorema de Skorohod, existen variables aleatorias Xn , X definidas en el


espacio de Lebesgue ([0, 1], B[0, 1], m) donde m es la medida de Lebesgue tal que
Xn ∼ Fn , X ∼ F y Xn −→ X con probabilidad 1. Ahora, para cualquier t ∈ R,
 
|ϕn (t) − ϕ(t)| = E eitXn − eitX
 
⩽ E 1 − eit(X−Xn )
 
⩽ E 1 − eit(X−Xn ) ⨿ (X − Xn ) ⩽ ϵ
+P (Xn − X) > ϵ).
60 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Así, !
iu
sup |ϕn (t) − ϕ(t)| ⩽ sup 1 − e + P (Xn − X) > ϵ)
|t|⩽K |u|⩽Kϵ

donde K y δ > 0 para todo ϵ ∈ (0, ∞)


por lo que

sup 1 − eiu < δ.


|u|⩽Kϵ

Ya que para todo ϵ > 0, P (|Xn −X| > ϵ) −→ 0 cuando n −→ ∞, por consiguiente

lı́m sup |ϕn (t) − ϕ(t)| = 0


n→∞ |t|⩽K

El siguiente lema da el desarrollo de Taylor de la función característica de una


variable aleatoria X con E(X) = 0 y V ar(X) = 1.

Lema 2.2.1 Sea X una variable aleatoria con E(X) = 0 y V ar(X) = 1. Entonces
1
ωX (t) = 1 − t2 + σ 2 (t2 )
2
2 2
donde σ (t ) es una función tal que

σ 2 (t2 )
lı́m = 0. (2.53)
t→0 t2
Prueba Dado que el desarrollo de Taylor de grado 2 en t = 0 para ωX (t) viene
dado mediante la expresión
′ ′′ t2
ωX (t) = ωX (0) + ωX (0)t + ωX (0) + σ 2 (t2 )
2
se tiene que
′ ′′
ωX (0) = 1, ωX (0) = 0 y ωX (0) = −1

′ ′′ t2
ωX (t) = ωX (0) + ωX (0)t + ωX (0) + σ 2 (t2 )
2
t2
= 1 − (0)t + (−1) + σ(t2 )
2
1
= 1 − t2 + σ 2 (t2 )
2
donde σ(t2 ) satisface (2.53), quedando demostrado el lema.
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 61

Teorema 2.2.10 (Teorema del Límite Central), Caso de variables indepen-


dientes idénticamente distribuida: Sea (Xn )n≥1 una sucesión de variables
aleatorias independientes idénticamente distribuidas con varianza finita. Llame-
mos µ = E(Xi ) y σ 2 = V ar(Xi ) > 0 . Sean las sumas parciales
n
X
Sn = Xi
i=1

y
x − np
Zn = √
npq

donde
p+q =1
entonces

Zn −→ N (0, 1) (2.54)

lo cual representa la variable aleatoria denominada "promedio aritmético".

Prueba En primer lugar veamos que basta con probar el teorema suponiendo que
µ = 0 y σ 2 = 1. Teniendo en cuenta la independencia de las Xi y la definición de
Sn se tiene que

E(Sn ) = nµ
V ar(Sn ) = nσ 2

Así, podemos reescribir (??) como


Pn
X − nµ
Zn = √i
i=1

n
!
1 X Xi − µ
= √
n i=1 σ
Pn ∗
i=1 Xi
= √
n
tal que
Xi − µ
Xi∗ =
σ
62 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

donde las variables Xi∗ son independientes idénticamente distribuida con E(Xi∗ ) =
0 y V ar(Xi∗ ) = 1. . Luego si probamos que el teorema vale para µ = 0 y σ 2 = 1
resulta válido para µ y σ 2 arbitrarios.

Ahora bien, de acuerdo al teorema de continuidad de Levy y al teorema 2.2.8


bastaría probar que para todo t ∈ R.
t2
lı́m ϕZn (t) = e− 2 (2.55)
n→+∞

Como sabemos, ya que µ = 0 y σ 2 = 1, por el lema anterior para todo i ∈ N se


tiene
t2
ϕXi (t) = ϕX (t) = 1 − + σ 2 (t2 )
2
2
donde o2 (t ) es una función tal que

σ 2 (t2 )
lı́m =0 (2.56)
t→∞ t2
Como las variables Xi son independientes, podemos aplicar la Propiedad 2.2.2 de
las funciones características y se tiene que para todo n
n
!2
t2
ϕXi (t) = 1 − + σ 2 (t2 )
Y
ϕSn (t) =
i=1 2
Sn
Finalmente teniendo en cuenta que µ = 0 y σ 2 = 1, resulta Zn = √
n
. Luego por
la Propiedad 2.2.3 de las funciones características se obtiene
!
t
ϕZn (t) = ϕSn √
n
!2
t2  t2 
= 1− + σ2 .
2n n

Por lo que, de acuerdo a (2.55), bastará ver que la sucesión de funciones ϕZn
satisface
!2
t2  2
2 t t2
lı́m 1− +σ = e− 2 . (2.57)
n→+∞ 2n n

Por tal razón, escribamos la sucesión características de ϕZn (t), del siguiente modo
" #!2
1 t2  t2 
ϕZn (t) = 1 − + σ2 n .
n 2 n
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 63

Ahora, si llamamos " #


t2  t2 
an = + σ2 n
2 n
entonces, resulta que !2
an
ϕZn (t) = 1 − .
n
Recordemos que, del cálculo elemental
( !2 )
an
1− −→ e−L
n n→+∞

t2
Por lo tanto, para mostrar (2.57) bastará mostrar que en nuestro caso L = 2
. De
forma equivalentemente, bastará con mostrar que
!
2 t2
lı́m σ n −→ 0
n→+∞ n

reescribiendo esta expresion


!
2 t2
! σ
2 t2 n
σ n= ! t2
n t2
n

t2
y de observar que n
→ 0 cuando n → +∞, de acuerdo a (2.56) se tiene
!
t2
σ2 n
lı́m ! t2 = 0
n→+∞
t2
n

Lo que finalmente El prueba el teorema.

2.2.2. Teorema de DeMoivre-Laplace.


Con el proposito de enunciar de una forma clara el Teorema de Demovre- Laplace,
sean
1 Z x − t2
N (x) = √ e 2 dt
2π −∞
y f = O(g), tal que |f | ≤ g.
64 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Teorema 2.2.11 (DeMoivre-Laplace) Sean n, a y b tres números naturales con a <


b. Sea 0 < p < 1 y sea q = 1 − p. Sea
b
! !j
X
n n p
S= Tj tal que Tj = q .
j=a j q

Entonce, se cumple que


( )
p−q b2 a2
S = N (b) − N (a) + √ (1 − b2 )e− 2 − (1 − a2 )e− 2 + ∆.
6 2πnpq
Tal que
0,13 + 0,18|p − q| 3√
|∆| ≤ + e− 2 npq .
npq
La demostración de este teorema precisa de varios lemas los cuales iremos desa-
rrollando a continuación.

Para todo x ∈ R
n
Tj e2πijx ,
X
f (x) = (2.58)
j=0

Lema 2.2.2 Se cumple que f (x) = (q + pe2πix )n .

Prueba Solo debemos sustituir la expresión Tj en la suma que define f (x). Así
n n
! !j n
!
n n p n  j
2πijx 2πijx
pe2πix q n−j
X X X
f (x) = Tj e = q e =
j=0 j=0 j q j=0 j
Así, por el Teorema del Binomio de Newton

f (x) = (q + pe2πijx )n

Lema 2.2.3 Para cada j, se cumple que


Z +1
2
Tj = f (x)e−2πijx dx.
− 12

Prueba Sea β ∈ Z, tenga en cuenta que



1 si β = 0,
 
Z +1 
2

 1

si β = 0,
+ 12
f (x)e−2πijx dx. = e2πiβx
=
− 12 
 si β ̸= 0 0

si β ̸= 0.
 2πiβ

− 12
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 65

Por consiguiente
Z +1 n
Z +1 X
2 2
f (x)e−2πijx dx = Tk e2πi(k−j)x dx
− 12 − 21 k=0

Y al intercambiar la suma con la integral se tiena que


Z +1 n Z +1
2 −2πijx 2
e2πi(k−j)x dx = Tj
X
f (x)e dx = Tk
− 12 k=0 − 12

Por lo que dicho lema queda demostrado ya que todos los terminos de la suma
son iguales a cero, a exción de k = j.

De aquí, se sigue que


Z +1 b Z +1
2 −2πijx 2
f (x)Dab (x)dx.
X
S= f (x) e dx = (2.59)
− 12 j=a − 12

Tal que
b
Dab (x) e−2πijx .
X
= (2.60)
j=a

Así, con el propósito de tener una expresión más cerrada para Dab (x), escribiremos
R = e−2πijx . Por lo que
b b−a+1 b−a+1 b−a+1
1 − Rb−a+1 R− 2 −R 2 R 2
Dab (x) = Rj = Ra = Ra
X
1 1 1
j=a i−R R− 2 − R 2 R 2
− b−a+1 b−a+1 b−a+1
aR
2 −R 2 R 2
= R 1 1 · 1 .
R− 2 − R 2 R2
Por lo tanto
sen(b − a + 1)πx −πix(a+b)
Dab (x) = ·e . (2.61)
sen(πx)
!
Lema 2.2.4 Sea Φx = arctg psen(2πx)
q+pcos(2πx)
. Entonces, se cumple que

n on
f (x) = 1 − 4pqsen2 (πx) 2
ei(nΦx )
66 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Prueba De acuerdo al Lema 2.2.3 sabemos que


n on
|f (x)| = |q + pcos(2πx) + ipsen(2πx)|n = p2 + q 2 + 2pqcos(2πx) 2
.

Ahora, usando la identidad cos(2πx) = 1 − 2sen2 (πx), tendriamos que


n on n on
|f (x)| = p2 + q 2 + 2pqcos(2πx) 2
= p2 + q 2 + 2pq − 4pqsen2 (πx) 2

n on
= (p + q)2 − 4pqsen2 (πx) 2
.

Recordemos que q = 1 − p, así


n on
|f (x)| = (1 − 4pqsen2 (πx) 2
.

Además
#n
(q + pe2πix )n
"
q + pcos(2πx) + ipsen(2πx)
f (x) = |f (x)| n
= |f (x)|
|q + pe |
2πix |q + pe2πix |
" #n
q + pcos(2πx) psen(2πx)
= |f (x)| +i .
|q + pe2πix | |q + pe2πix |

Y como el número complejo q+pcos(2πx)


|q+pe2πix |
psen(2πx)
+ i |q+pe 2πix | es de norma 1, entonces se

puede escribir como cos(Φx ) + isen(Φx ), tal que


!
psen(2P ix)
Φx = arctg .
p + pcos(2πx)
por tanto
" #n
q + pcos(2πx) psen(2πx)
f (x) = |f (x)| +i
|q + pe |
2πix |q + pe2πix |
n on  n
= 1 − 4pqsen2 (πx) 2
cos(Φx ) + isen(Φx )
n on
= 1 − 4pqsen2 (πx) 2
ei(nΦx ) .

Debido a que S es real, entonce de la expresión (2.59) que


Z +1 Z +1
2 2
S = Re f (x)f (x)e−2πijx dx = |f (x)|ReDab (x)ei(nΦx ) dx.
− 12 − 12

Ahora, usando la expresión (2.61), podemos calcular la parte real de Dab (x)ei(nΦx ) ,
por lo que tendriamos
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 67

Z +1
2 sen[(b − a + 1)πx]
S= |f (x)|cos[(nΦx ) − (a + b)πx] · dx. (2.62)
− 12 sen(πx)

Si hacemos ω = cos[(nΦx ) − (a + b)πx] · sen[(b − a + 1)πx], tal que α = (nΦx ) −


(a + b)πx y β = (b − a + 1)πx.

Entonces
sen(α + β) − sen(α − β)
ω = senα · cosβ = .
2
Por consiguiente
( ! ) ( ! )
1 1 1 1
ω = · sen b + 2πx − nΦx − · sen a − 2πx − nΦx
2 2 2 2
Del mismo modo, sean δ1 y δ2 números tales que

1 √ 1 √
b = np − δ1 npq y a = np + δ2 npq. (2.63)
2 2
Entonces
!
1 √
b+ 2πx − nΦx = δ1 npq2πx + n(2πx − nΦx ),
2
!
1 √
a− 2πx − nΦx = δ2 npq2πx + n(2πx − nΦx ),
2
de tal manera que podemos escribir

S = p1 + p2 (2.64)

por lo que, obtendremos Pj al sustituir δj por δ en la siguiente expresión

Z +1 √
2 sen(δ Bn 2πx + Θx )
p= |f (x)| · dx. (2.65)
− 12 sen(πx)
Siendo

Bx = npq y Θx = n(2πx − Φx ). (2.66)

1
Ahora, sea λ un número real ta que 0 < λ < 2
. Y como el integrando en la
expresión (2.65) en una función par, entonces
68 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

P = J1 + J2 (2.67)

en donde

Z λ
sen(δ Bn 2πx + Θx )
J1 = |f (x)| · dx (2.68)
0 sen(πx)
y
1

Z
2 sen(δ Bn 2πx + Θx )
J2 = |f (x)| · dx. (2.69)
λ sen(πx)

Más adelante veremos que J1 representa el término principal, mientras que J2


forma parte de término de error.

Lema 2.2.5 Para todo 0 ≤ x ≤ 21 ,


2
|f (x)| ≤ e−2Bn (2x) .
1
Prueba Sea ρ = |1 − 4pqsen2 (πx)| 2 . Entonces, por el Lema 2.2.4 se sabe que |f (x)|n =
ρn . Sea α = 4pqsen2 (πx). Entonces
Z 1
dy
2logρ = log(1 − α) = ≤ −α
1−α y
Por consiguiente

logρ ≤ −2pqsen2 (πx) (2.70)

Para todo 0 ≤ x ≤ 21 , 2x ≤ sen(πx). Por tanto

1
log ρ ≤ −2pq(2x)2 para todo 0 ≤ x ≤ .
2
Así,
2 2
|f (x)| ≤ ρ2 ≤ e−2pq(2x) = e−2Bn (2x)
1
lo cual se cumple Para todo 0 ≤ x ≤ 2

Lema 2.2.6 Si 0 ≤ x ≤ 12 , entonces


h i
− B2n (2πx)2 + B24n (2πx)4
|f (x)| ≤ e
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 69

Prueba Para todo 0 ≤ x ≤ 1


2
se cumple que

2(πx)4
(πx) − ≤ sen2 (πx).
3
Así, de la expresíon (2.70), se tiene que

(πx)4
logρ ≤ −2pqsen2 (πx) ≤ −2pq(πx)2 + 2pq .
3
Por lo tanto h i
n −2pqn(πx)2 + 2pqn (πx)4
|f (x)| ≤ ρ ≤ e 3
.

Queda demostrado el lema ya que Bn = npq. Así


h i
− 42 pqn(πx)2 + 16pqn (πx)4
|f (x)| ≤ e 24
h i
− B2n (2πx)2 + B24n (2πx)4
= e

Lema 2.2.7 Si 0 ≤ x ≤ 14 , entonces


h i
− B2n (2πx)2 − B16n (2πx)4
|f (x)| ≥ e

1
Prueba Sean α = 4pqsen2 (πx) y ρ = |1 − α| 2 . Se cumple que
!
Z α
dt Z α
t2
−log(1 − α) = = 1+t+ dt.
o 1−t o 1−t

Si 0 ≤ α ≤ 21 , entonces
Z α
t2 Z α
2α3
0≤ dt ≤ 2 t2 dt = .
o 1−t o 3
Por lo que

α α2 α3
logρ = − − + . (2.71)
2 4 3
Ahora, si 0 ≤ x ≤ 41 , entonces

3
sen2 (πx) ≤ (πx)2 − (πx)4 .
10
70 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Por lo que
3pq
−2pqsen2 (πx) ≥ −2pq(πx)2 + (πx)4 .
5
Así
α pq 3
− ≥ − (2πx)2 + (2πx)4 . (2.72)
2 2 80
Por otro lado, para todo 0 ≤ x ≤ 41 , se cumple que
1 1 7
sen4 (πx) + sen6 (πx) ≤ (πx)4
4 3 25
y como 4pq ≤ 1, entonces
1 1 7
(4pq)sen4 (πx) + (4pq)2 sen6 (πx) ≤ (πx)4
4 3 25
Ahora, multiplicando por −4pq se tiene
1 1 28
− (4pq)2 sen4 (πx) − (4pq)3 sen6 (πx) ≥ − pq(πx)4
4 3 25
Por consigiente
α2 α3 28
− − ≥− pq(2πx)4 (2.73)
4 3 300
Así, de las expresiónes (2.71), (2.72) y (2.73) se obtiene que

α α2 α3 pq 67
logρ ≥ − − − − ≥ − (2πx)2 − pq(2πx)4 .
2 4 3 2 1200
Y dado que Bn = pqn, si multiplicamos por n, el miembro derecho de la desigual-
dad, se tiene que
α α2 α3 npq 67
logρ ≥ − − − ≥− (2πx)2 − npq(2πx)4 .
2 4 3 2 1200
1
Por tanto, para todo 0 ≤ x ≤ 4
h i
− B2n (2πx)2 − B16n (2πx)4
|f (x)| ≥ e

Sea

3
λ= 1 (2.74)
2πBn 4
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 71

Lema 2.2.8 Para todo 0 ≤ x ≤ λ, se cumple que


h i
− B2n (2πx)2
n o
|f (x)| = e 1 + O[Bn (2πx)4 ] .

Prueba Por el Lema 2.2.6 se tiene que


h i h i
− B2n (2πx)2 − B16n (2πx)4 Bn
e |f (x)| − 1 ≤ e −1≤− (2πx)4 .
16
Ya que para todo ξ ∈ R, se tiene que eξ ≥ 1 + ξ.


3
Entonces, si x ≤ λ, 2πx ≤ 1 y así
Bn4

Bn 9 3
(2πx)4 ≤ = .
24 24 8
Para todo 0 ≤ ξ 38 se tiene que eξ − 1 ≥ 32 ξ. Por tanto
h i h i
− B2n (2πx)2 − B16n (2πx)4 3 Bn
e |f (x)| − 1 ≤ e −1≤− · (2πx)4 .
2 24
Por consiguiente
h i
− B2n (2πx)2 3 Bn
e |f (x)| − 1 ≤ − · (2πx)4 .
2 24
h i
− B2n (2πx)2
n o 1
⇒ |f (x)| = e 1 + O[Bn (2πx)4 ] tal que O = .
16
Lo cual completa la prueba.

Lema 2.2.9 Si J2 es como en la expresión (2.69) y λ es como en la expresión (2.74),


entonces !
3 π 1 3

|J2 | ≤ log + √ e− 2 Bn .
4 2 6 Bn

Prueba Si 0 ≤ x ≤ 12 , entonces 2x ≤ sen(πx). Por tanto


1 1
Z
2 |f (x)| Z
2 |f (x)|
2|J2 | ≤ 2 dx ≤ dx
λ sen(πx) λ x

Sea λ1 = π2 λ. Por el Lema 2.2.5 se tiene que


1 1
h i h i
Z
2 |f (x)| Z
2 1 −2Bn (2x)2
Z 1
1 −2Bn (2x)2
dx ≤ e dx = e dx.
λ1 x λ1 x 2λ1 x
72 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Sea λ2 = 2λ1 2Bn . Entonces
1
!2
Z
2 |f (x)| Z ∞
1 −x2 Z ∞
x 1 −x2 1 2
dx ≤ e dx ≤ e dx = 2 e−λ2 .
λ1 x 2λ2 x 2λ2 λ2 x 2λ2

Por tanto

1
h i
Z
2 |f (x)| 1 3
Bn
dx ≤ √ e 2
.
λ1 x 3 Bn
Y ahora, por el Lema 2.2.6 se tiene que
h i
Z λ1
|f (x)| Z λ1
− B2n (2πx)2 + B24n (2πx)4 dx
dx ≤ e .
λ x λ x
Por lo que tomando el valor máximo del intervalo del integrando, se obtiene

h iZ
Z λ1
|f (x)| 3
− 32 Bn λ1 dx 3 π 3√
⇒ |J2 | ≤ dx ≤ e 8
≤ · log e− 2 Bn
λ x λ x 2 2
3 π 3√
· log e− 2 Bn
⇒ |J2 | ≤
2 2
Con lo que se concluye la demostración del Lema.

Lema 2.2.10 Supongamos que Bn ≥ 25, entonces se cumple que.


Z λ h Bn i √ " #
− 2 (2πx)2 sen(δ Bn 2πx + Θx ) 0,0605
J1 = e dx + O .
0 πx Bn

Prueba Para todo x ∈ R tal que 0 < x < 12 , se tiene que


" #
1 1 (πx)2
= +O .
sen(πx) πx sen(πx)

De tal modo que la expresión (2.68) puede se reescrita de la siguiente manera


para J1
Z λ √
sen(δ Bn 2πx + Θx )
J1 = |f (x)| · dx
0 sen(πx)
Z λ
1 h q i
= |f (x)| · sen(δ Bn 2πx + Θx dx
0 sen(πx)
" #
Z λ
1 h (πx)2 i h q i
= |f (x)| · +O sen(δ Bn 2πx + Θx dx
0 πx sen(πx)
Z λ √
sen(δ Bn 2πx + Θx )
= |f (x)| · dx + ∆
0 (πx)
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 73

Tal que
Z λ
(πx)2
|∆| = |f (x)| dx.
0 6sen(πx)
x
Y como sen(πx)
es una función creciente, se tiene que
x λ
≤ para cada 0 ≤ x ≤ λ.
sen(πx) sen(πλ)
Por lo tanto
π2λ Z λ
|∆| ≤ x|f (x)|dx.
6sen(πλ) 0
Así, por el Lema 2.2.6 y la expresión (2.74), podríamos establecer que
h i h i h i
Bn
(2πx)2 Bn
(2πx)4 9 3
|f (x)|e 2
≤e 24
≤e 24
≤ .
2
Por lo que
h i
π2λ Z ∞ − Bn (2πx)2
|∆| ≤ xe 2 dx
4sen(πλ) 0
Z ∞
λ 2
≤ xe−x .dx
8Bn sen(πλ) 0
q
1 3
Entonces, como Bn ≥ 25, λ≤ 2π 5
. Por consiguiente
λ 0,0205
≤ 0,327 y |∆| ≤
sen(πλ) Bn
Y podemos resumir lo anterior escribiendo
Z λ √ " #
sen(δ Bn 2πx + Θx ) 0,0205
J1 = dx + O .
0 πx Bn
Así, por el Lema 2.2.8 se tiene que
Z λ h Bn i √ " #
− (2πx)2 sen(δ Bn 2πx + Θx ) 0,0205
J1 = e 2
dx + O + ∆.
0 πx Bn
Tal que
h i
Bn Z λ − Bn (2πx)2
|∆| ≤ (2πx)3 e 2 dx
8 0 h i
1 Z ∞ 3 − x23
≤ xe dx
16πBn 0
1
= .
8πBn
1
Esto termina la prueba debido a que 8π
≤ 0,04.
74 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES



Lema 2.2.11 Sea Θx = n(2πx − Φx ). Sea λ = 3
1 . Si 0 ≤ x ≤ λ, entonces se
2πBn4
cumplen las siguientes expresiones.

" #
3Bn |p − q|
Φx = O (2πx)3 ,
16[1 − pq(2πλ)2 ]3
" #
1 3 Bn |p − q| 5
Φx = − Bn (p − q)(2πx) + O (2πx) .
6 12[1 − pq(2πλ)2 ]4

Prueba Sea Φx como en el Lema 2.2.4. Entonces


dΦx 2πp[p + qcos(πx)]
= ,
dx p2
+ q 2 + 2pqcos(2πx)
2
d Φx (2π)2 pq(p − q)sen(πx)
= ,
dx2 [p2 + q 2 + 2pqcos(2πx)]2
d3 Φx 4pq + (1 − 2pq)cos(2πx) − 2pqcos2 (2πx)
= (2π)3 pq(p − q) ,
dx3 [p2 + q 2 + 2pqcos(2πx)]3
d4 Φx
= (2π)4 pq(p − q)sen(πx) ×
dx4
4pq − 1 + 20p2 q 2 + 8pq(1 − 4p2 q 2 )cos(2πx) − 2pqcos2 (2πx)
× .
[p2 + q 2 + 2pqcos(2πx)]4

Se ve que

dΦx
= 2πp
dx 0
d2 Φx
= 0
dx2 0
d3 Φx
= (2π)3 pq(p − q).
dx3 0

Y como Θx = n(2πpx − Φx ) entonces se cumple que

x3 d3 Φx
Θx = −n
6 dx3 ξ
(2πx)3 x4 d4 Φx
Θx = −npq(p − q) −n .
3! 24 dx4 η

Tal que 0 ≤ ξ ≤ λ y 0 ≤ η ≤ λ.
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 75

Para todo 0 ≤ x ≤ 21 se cumple que sen2 (πx) ≤ (πx)2 . Dada que 0 ≤ x ≤ λ,


entonces sen2 (πx) ≤ (πλ)2 . Por tanto

1 − pq(2πλ)2 ≤ 1 − 4pqsen2 (πx) = p2 + q 2 + 2pqcos(2πx).

Ahora, para probar la primera expresión. Sea

f0 (p) = 4pq + (1 − 2pq)cos(2πx) − 2pqcos2 (2πx).

Entonces
f0′ (p) = 4(2p − 1)[cos(2πx) + 2]sen2 (2πx).
 
Por lo que f0′ 1
2
= 0.
Sea f1 (x) = π[2cos(2πx)−1]sen(2πx). Puesto que f1′ (x) = 0 implica que cos(2πx) =
1
2
. Por lo tanto

1 1
2
− 4 9
f0 (p) ≤ f1 (x) ≤ 1 + =
2 8
Por lo que entonces
(2πx)3 |p − q| 9
|Θx | ≤ −npq · ·
6 [1 − pq(2πλ) ] 8
2 3

Asi, para cada 0 ≤ η ≤ 1, la función f0 (ξ, η) es monótona creciente como función


de ξ ∈ [0, 41 ], por lo que se cumple que
1
−1 = f0 (0, η) ≤ f0 ( , η) ≤ 2.
4
Por lo tanto
Bn (2πx)4 2npq|p − q|
Θx + (p − q)(2πx)3 ≤ · · |sen(2πx)|.
6 24 [1 − pq(2πλ)2 ]4
Esto termina la prueba.

Lema 2.2.12 Supongamos que Bn ≥ 25. Sea J1 como el Lema 2.2.10. Sean
Z λ h Bn i √
λ − 2 (2Πx)2 sen(δ Bn 2πx)
J3 = e · dx
0
h πx i
Z λ
λ Bn − B2n (2πx)2 2
q
J4 = (p − q) e (2πx) cos(δ Bn 2πx)dx.
3 0
76 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Entonces se cumple que


" #
0,0605 + 0,9|p − q|
J = J3λ + J4λ + O .
Bn
!
ξ2
Prueba Puesto que cos(ξ) = 1 + O 2
, entonces el Lema 2.2.10 implica que

" !6 #
  9Bn2 2πx
cos Θx =1+O |p − q| .
512 1 − 2pq(2πλ)2

Y, puesto que sen(ξ) = O(ξ), entonces por el Lema 2.2.11 implica que
" #
  Bn Bn |p − q|
sen Θx = − (p − q)(2πx)3 + O (2πx)5 .
6 12[1 − pq(2πλ) ]
2 4


Ahora, escribiendo α = δ Bn 2πx, se nota que

sen(α + Θx ) = sen(α)cos(Θ) + cos(α)sen(Θ).

Por lo que, si J1 es como en el Lema 2.2.10, entonces


" # " # " #
Bn J5 9Bn2 J6 0,0605
J= J3λ + J4λ +O |p − q| 4 + O |p − q|2 6 + O
6 Ω 256 Ω Bn

Tal que
Ω = 1 − pq(2πλ)2 .
Y además
Z ∞ h Bn
− 2 (2Πx)2
Jk+1 = e (2πx)k dx para k = 4,5.
0

Del mismo modo


3 6
J5 = 5 y J6 = .
2sqrt2πBn 2 πBn3

Por tanto
" # " # " #
|p − q| 9|p − q|2 0,0605
J= J3λ + J4λ +O √ 3 + O + O
4 2πBn2 Ω4 64πBn Ω6 Bn

Y puesto que Bn ≥ 25, entonces (2πλ)2 ≤ 35 . Y debido a que pq ≤ 1


4

1 3 17
Ω = 1 − pq(2πλ)2 ≥ 1 − · = .
4 5 20
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 77

Por consiguiente
!4
|p − q| |p − q| 1 20 |p − q|
√ 3 ≤ · √ ≤ × 0,0385
4 2πBn2 Ω4 Bn 20 2π 17 Bn

Por otro lado


" !2 !2 #
3 3 p+q p−q 17 3
1 − pqλ2 ≥ 1 − pq = 1 − − = + (p − q)2 .
5 5 2 2 20 20

Ahora, sea
!−6
17 3
f0 (ξ) = ξ + ξ2 .
20 20

Entonces f ′ (ξ) = 0 implica que ξ 2 = 17


33
. Por lo tanto
!−6 s !6
17 3 17 50
ξ + ξ2 ≤ × .
20 20 33 51

De esta forma llegamos a la conclución de que

9|p − q|2 |p − q|
√ ≤ × 0,051
64 2πBn Ω 6 Bn

Lo que completa la prueba.

Lema 2.2.13 Supongamos que Bn ≥ 25. Si P es como en la expresión (2.67), entonces



" # h i
0,0605 + 0,09|p − q| 1 − 3
Bn
P = j1∞ + J2∞ +O + e 2
.
Bn 2
√ √
Prueba Puesto que 2πλ Bn = 3B 14 n entonces
Z ∞ h Bn i h i
− 2 (2πx)2 1Z∞
2 dx − 12 x2 dx 1Z∞ x − B2n (2πx)2
e (2πx) = 1 e ≤ e (2πx)2 dx
π λ √3Bn12

λ πx π 3Bn4 x

Por lo tanto
Z ∞ h Bn i

− 2 (2πx)2 dx 1 − 32 Bn
e (2πx)2 ≤ 1 e .
λ πx 3πBn2
78 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES

Por otro lado


Z ∞ h Bn i !3 Z
− (2πx)2 1 1 2 ∞ 1 2
e 2 2
(2πx) dx = √ 1 x2 e− 2 x dx
λ 2π Bn 3Bn4

!3 √ !5
1 1 2 √ 1Z∞ − 12 x2 3 1 4
3

≤ 3Bn4 √ 1 xe dx = e− 2 Bn
.
2π Bn 3Bn4 2π Bn

Y como Bn ≥ 25, entonces


!
3 π 1 1 1 1
0 ≤ log + √ + √ + √ ≤ .
4 2 6 Bn 3π Bn 2 3π 2

Con lo que se concluye la prueba.

Ahora, puesto que


Z ∞ h Bn i √
− 2 (2πx)2 sen(δ Bn 2πx) 1 Z δ − 1 x2
e · dx = √ e 2 dx
0 πx 2π 0
y
Z λ h Bn i
− 2 (2πx)2
q 1 − δ 2 − 1 δ2
e (2πx)2 cos(δ Bn 2πx)dx = 3√ e 2 .
0
2Bn2 2π
Entonces el Teorema 2.2.11 se cumple.


Capítulo 3

Aspectos Metodológicos

3.1. Tipo de Estudio


Se trata de un estudio analítico descriptivo en el cual se presenta el desarrollo de
la definición y las propiedades matemáticas de la derivada de Radón-Nikodym y la
aproximación de distribuciones de probabilidades continuas y discretas.

3.2. Diseño de Investigación


La presente investigación se fundamenta en el Análisis Matemático, por ser la
rama de las matemáticas que más se relaciona con esta investigación. El mismo fue
desarrollado sobre la base teórica de varios documentos, entre ellos libros, revistas y
artículos científicos, entre otras fuentes; analizando las posturas de distintos autores
sobre el tema para así enriquecer nuestro enfoque sobre el mismo.

3.3. Alcances y Límites de la Investigación


En este estudio abordaremos la bese teórica y la propiedades relacionadas la de-
rivada de Radón-Nikodym y la aproximación mediante el teorema del límite central
de distribuciones de probabilidades continuas y discretas; y a pesar de que las mismas
pueden ser obtenidas desde distintos enfoques, solo las desarrollaremos desde el punto
de vista de la teoría de la medida.

79
Capítulo 4

Derivadas y Aproximaciones

En la primera parte de este capítulo desarrollaremos de forma detallada la Derivada


de Radón-Nikodym de las Distribuciones Continuas y Discretas, de las cuales iremos
haciendo mención.

4.1. Algunas Propiedades Importantes

1. Sean ν, µ, µ1 , µ2 , ..., medidas δ-finitas en un espacio medible (Ω, F).

i. Si µ1 ≪ µ2 y µ2 ≪ µ3 , entonces µ1 ≪ µ3 y

dµ1 dµ1 dµ2


= casi en todas partes para µ3 .
dµ3 dµ2 dµ3

Sean f = dµ 1
dµ3
y g = dµ 2
dµ3
siendo µ1 , µ2 medidas positivas, entonces f ≥ 0 con
respecto a µ2 y g ≥ 0 con respecto a µ3 .
Si hacemos (fn )n∈N una sucesión creciente de funciones simples no negativas
que convergen a f , entonces para todo E ∈ Ω,

Z Z Z Z
lı́m fn dµ2 = lı́m fn dµ2 y lı́m fn gdµ3 = lı́m fn gdµ3
E E E E

80
4.1. ALGUNAS PROPIEDADES IMPORTANTES 81
R R
Así, tomando en cuenta que E fn dµ2 = E fn gdµ3
Z Z Z
=⇒ µ1 (E) = f dµ2 = lı́m fn dµ2 = lı́m fn dµ2
E Z E Z E Z
= lı́m fn gdµ3 = lı́m fn gdµ3 = f gdµ3
Z E E E

=⇒ µ1 (E) = f gdµ3
EZ

=⇒ dµ1 (E) = d f gdµ3


E
=⇒ dµ1 = f gdµ3
dµ1
=⇒ = fg
dµ3

dµ1 dµ2
por lo que, como f = dµ3
yg= dµ3
, entonces

dµ1 dµ1 dµ2


=
dµ3 dµ2 dµ3

ii. Supongamos que µ1 y µ2 están dominadas por µ3 . Entonces para cualquier


α, β ≥ 0, entonces αµ1 + βµ2 está dominada por µ3 y

d(αµ1 + βµ2 ) dµ1 dµ2


=α +β casi en todas partes para µ3
dµ3 dµ3 dµ3
dµ1 dµ2
sean f = dµ 3
, g = dµ 3
y α, β ≥ 0
Sopngamos ahora que µ1 ≪ µ3 y µ2 ≪ µ3 , entonces para todo E ∈ Ω

Z Z
=⇒ αµ1 (E) + βµ2 (E) = α f dµ3 + β gdµ3
Z E Z E

=⇒ (αµ1 + βµ2 )(E) = αf dµ3 + βgdµ3


ZE E

=⇒ (αµ1 + βµ2 )(E) = (αf + βg)dµ3


EZ

=⇒ d(αµ1 + βµ2 )(E) = d (αf + βg)dµ3


E
=⇒ d(αµ1 + βµ2 ) = (αf + βg)dµ3
d
=⇒ (αµ1 + βµ2 ) = αf + βg
dµ3
d(αµ1 + βµ2 ) dµ1 dµ2
=⇒ = α +β
dµ3 dµ3 dµ3
82 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES


iii. Si µ ≪ ν y dν
> 0 casi en todas partes para ν, entonces ν ≪ µ y
!−1
dµ dν
= casi en todas partes para µ.
dν dµ

Sea f = dν
>0
dν dν dµ
=⇒ 1 = =
dν dµ dν

por lo que dν
es invertible y positiva.


Si hacemos g = dν

> 0 =⇒ g −1 = dν
>0

=⇒ f · g = 1
!
1
=⇒ f =
g
=⇒ f = (g)−1
!−1
dµ dν
=⇒ =
dν dµ

4.2. Distribución Normal con respecto a la Expo-


nencial
Es preciso, antes de inferir la derivada de Radón-Nikodym, de distribuciones con-
tinuas y discretas, verificar si es posible o no establecer dicha inferencia. Para esto
analizaremos las definiciones 2.1.11, 2.1.12 y 2.1.13 relativas a funciones absolutamente
continuas y la ortogonalidad de funciones medibles no negativa.

Sean µ = N (γ, σ) ∀β ∈ (0, ∞) y ν = Exponencial(β) ∀γ ∈ R, ∀σ ∈ (0, ∞).

Dado que
Z
1 (x−γ)2
µ(A) = √ e− σ2 m(dx), tal que m es la medida de Lebesgue.
A 2πσ

Entonces
dµ 1 (x−γ)2
=√ e− σ 2
dx 2πσ
4.2. DISTRIBUCIÓN NORMAL CON RESPECTO A LA EXPONENCIAL 83

Del mismo modo


Z
1 − βx
ν(A) = e I(0,∞) (x)m(dx), siendo m es la medida de Lebesgue.
A β
Entonces
dν 1 x
= e− β I(0,∞) (x)
dx β
Notemos que
Z
1 −
(x−γ)2
Z
1 − βx
µ(A) = √ e σ m(dx) ≪
2
e I(0,∞) (x)m(dx) = ν(A)
A 2πσ A β

Debido a que ambas distribuciones están definidas bajo la medida de Lebesgue, es


evidente que cuando ν(A) = 0 para todo m = 0, lo que implica que µ(A) = 0.
Por consiguiente, µ es absolutamente continua con respecto a ν.

µ(A) ≪ ν(A)

Esta condición nos permite que si es posible inferir la derivada de Radón-Nikodym


de ambas distribuciones. Entonces aplicando la regla de la cadena tendríamos que

dµ dµ dν
=
dx dν dx
Ahora, de acuerdo al Teorema 2.1.1 y la Definición 2.1.14, que establecen la derivada
de Radón-Nikodym, esta podríamos escribirla como

h= .

Tal que h representa la derivada de Radón-Nikodym, así

!−1
dµ dµ dν
h= =
dν dx dx

Lo que implicaría que


! !−1
dµ 1 (x−γ)2 1 − βx
h= = √ e− σ2 e I(0,∞) (x)
dν 2πσ β
! !
1 −
(x−γ)2 x
= √ e σ 2
βe I(0,∞) (x)
β
2πσ
β (x−γ)2 x
= √ e− σ2 + β I(0,∞) (x)
2πσ
84 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

Tomemos este resultado y usemoslo para un caso particular que nos sirva como
ejemplo.

Ejemplo Obtenga la derivada de Radom-Nikodym de la Distribución Normal con res-


pecto a la Exponencial.

Sean µ = N (0, 1), ν = Exponencial(1). Dado que µ =Normal(γ, σ), γ ∈ R, σ ∈


(0, ∞), implica que γ = 0, σ = 1 y ν =Exponencial(β), β ∈ (0, ∞) implica que
β = 1.
Por consiguiente
dµ β (x−γ)2 x
h= =√ e− σ2 + β I(0,∞) (x)
dν 2πσ

dµ 1 (x−0)2
− +x
⇒h= =√ e (1)2 1 I(0,∞) (x)
dν 2π(1)

dµ 1 2
⇒h= = √ e−x +x I(0,∞) (x)
dν 2π

4.3. Distribución Exponencial con respecto a la Nor-


mal.
Sean ν = N (γ, σ) ∀β ∈ (0, ∞) y µ = Exponencial(β) ∀γ ∈ R, ∀σ ∈ (0, ∞).
Dado que µ =Exponencial(β), β ∈ (0, ∞), implica que su distribución estandar
absolutamente continua es
Z
1 − βx
µ(A) = e I(0,∞) (x)m(dx).
A β
Entonces
dµ 1 x
= e− β I(0,∞) (x)
dx β
Del mismo modo, ν =Normal(γ, σ), γ ∈ R, σ ∈ (0, ∞).
Esto implica que Z
1 (x−γ)2
ν(A) = √ e− σ2 m(dx).
A 2πσ
4.3. DISTRIBUCIÓN EXPONENCIAL CON RESPECTO A LA NORMAL. 85

Entonces
dν 1 (x−γ)2
=√ e− σ2
dx 2πσ
Notemos que
Z
1 − βx Z
1 (x−γ)2
µ(A) = e I(0,∞) (x)m(dx) ≪ √ e− σ2 m(dx) = ν(A)
A β A 2πσ

Debido a que ambas distribuciones están definidas bajo la medida de Lebesgue, es


evidente que cuando ν(A) = 0 para todo m = 0, lo que implica que µ(A) = 0.

Por consiguiente, µ es absolutamente continua con respecto a ν.

µ(A) ≪ ν(A)

Esta condición nos permite que si es posible inferir la derivada de Radón-Nikodym


de ambas distribuciones. Entonces aplicando la regla de la cadena tendríamos que

dµ dµ dν
=
dx dν dx
Ahora, de acuerdo al Teorema 2.1.1 y la Definición 2.1.14, que establecen la derivada
de Radón-Nikodym, esta podríamos escribirla como


h= .

Tal que h representa la derivada de Radón-Nikodym, así

!−1
dµ dµ dν
h= =
dν dx dx

Lo que implicaría que


! !−1
dµ 1 − βx 1 (x−γ)2
h= = e I(0,∞) (x) √ e− σ 2
dν β 2πσ

! !
1 − βx (x−γ)2
= e I(0,∞) (x) 2πσe σ2
β

2πσ (x−γ) 2
x
−β
= e σ 2
I(0,∞) (x)
β


86 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

Tomemos este resultado y usemoslo para un caso particular que nos sirva como
ejemplo.

Sean µ = Exponencial(1), ν = N (0, 1).

Ejemplo Dado que µ =Exponencial(β), β ∈ (0, ∞), implica que β = 1 y ν =


Normal(γ, σ) para todo γ ∈ R, σ ∈ (0, ∞), implica que γ = 0, σ = 1.
Por cosiguiente, como

2πσ (x−γ)2
x
h= e σ2 − β I(0,∞) (x).
β

√ 2
2π(1) (x−0) − x
⇒h= e (1)2 (1) I(0,∞) (x).
(1)

√ 2
⇒h= 2πex −x I(0,∞) (x).

4.4. Distribución Binomial, con respecto a la Geo-


mética
Sean µ = Binomial(n, p), ν =Geométrica(p).
Dado que µ =Binomial(n, p), 0 < p < 1, n ∈ N y ν =Geométrica(p), 0 < p < 1,
esto implica que

n ∞
(ni )pi (1 − p)n−i IA (i) y ν(A) = pi (1 − p)i−1 IA (i).
X X
µ(A) =
i=0 i=0

Nótese que IA (i) es la medida indicadora y que bajo esta estan definidas tanto la
Distribución Binomial como la Geométrica.

Recordemos que

1,

si i ∈ A
IA (i) =
O,

si i ∈
/ A.
4.4. DISTRIBUCIÓN BINOMIAL, CON RESPECTO A LA GEOMÉTICA 87

Y como de acuerdo al Teorema 2.1.1 y la Definición 2.1.14, la derivada de Radon-


Nikodym establece que
dµ = hdν.
Podemos reescribir esta expresión como
Z
µ(A) = hdν.
A

Entonces, si hacemos x = IA (i), podriamos establecer que


= (ni )pi (1 − p)n−i
dx
Del mismo modo

= pi (1 − p)i−1
dx
Notemos que
n ∞
(ni )pi (1 n−i
pi (1 − p)i−1 IA (i) = ν(A)
X X
µ(A) = µ(A) = − p) IA (i) ≪
i=0 i=0

Debido a que ambas distribuciones están definidas bajo la medida de indicadora


, es evidente que cuando ν(A) = 0 para todo IA (i) = 0, lo que implica que µ(A) = 0.

Por consiguiente, µ es absolutamente continua con respecto a ν.

µ(A) ≪ ν(A)

Esta condición nos permite que si es posible inferir la derivada de Radón-Nikodym


de ambas distribuciones. Entonces, de acuerdo a la regla de la cadena
dµ dµ dν
= ∗
dx dν dx
!−1
dµ dµ dν
h= =
dν dx dx
Por tanto
! !−1

h= = (ni )pi (1 − p) n−i i
p (1 − p) i−1

Esto implica que
! !
dµ −i
h= = (ni )pi (1 − p)n−i p (1 − p) 1−i


h= = (ni )(1 − p)n−2i+1

Que es el resultado que buscamos.
88 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

Como ejemplo podriamos presental el siguiente.

Ejemplo Determina la derivada de Radón-Nicodym de:

Sean µ = Binomial(10, 1/4), ν =Geométrica(1/4)


Dado que µ =Binomial(n, p), 0 < p < 1, n ∈ N y ν =Geométrica(p), 0 < p < 1,
esto implica que n = 10, y p = 1/4


h= = (ni )(1 − p)n−2i+1

!10−2i+1
dµ 1
h= = (10i ) 1 −
dν 4
!10−2i+1
dµ 3
h= = (10i )
dν 4

4.5. Distribución de Bernoulli, con respecto a la de


Poissón.
Sean µ =Bernoulli(p) ∀ 0 < p < 1 y ν =Poissón(λ) ∀ 0 < λ < ∞, tales que

1
pi (1 − p)1−i IA (i)
X
µ(A) =
i=1


λi
e−λ
X
ν(A) = · IA (i).
i=0 i!
Nótese nuevamente que IA (i) es la medida indicadora y que bajo esta estan defini-
das tanto la Distribución de Bernoulli como la Poisson.

Recordemos que

1,

si i ∈ A
IA (i) =
O,

si i ∈
/ A.
4.5. DISTRIBUCIÓN DE BERNOULLI, CON RESPECTO A LA DE POISSÓN. 89

Y como de acuerdo al Teorema 2.1.1 y la Definición 2.1.14, la derivada de Radon-


Nikodym establece que
dµ = hdν.
Podemos reescribir esta expresión como
Z
µ(A) = hdν.
A

Entonces, si hacemos x = IA (i), podriamos establecer que



= pi (1 − p)1−i .
dx
Del mismo modo
dν λi
= e−λ .
dx i!
Notemos que
1 ∞
λi
pi (1 − p)1−i IA (i) ≪ e−λ
X X
µ(A) = · IA (i) = ν(A)
i=1 i=0 i!
Debido a que ambas distribuciones están definidas bajo la medida de indicadora
, es evidente que cuando ν(A) = 0 para todo IA (i) = 0, lo que implica que µ(A) = 0.

Por consiguiente, µ es absolutamente continua con respecto a ν.


µ(A) ≪ ν(A)
Esta condición nos permite que si es posible inferir la derivada de Radón-Nikodym
de ambas distribuciones. Entonces, de acuerdo a la regla de la cadena

dµ dµ dν
=
dx dν dx
!−1
dµ dµ dν
h= =
dν dx dx
Por tanto
!−1
i
!
dµ i 1−i −λ λ
h= = p (1 − p) e
dν i!
! !
λ i!
= pi (1 − p)1−i ∗ e i
λ
Por consiguiente
dµ i!eλ pi (1 − p)1−i
h= =
dν λi

90 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

4.6. De la Suma de la Normal y de Poissón, con


respecto a la Distribución Cauchy
Dado que µ = µ1 +µ2 , tal que µ1 =Normal(γ, σ), γ ∈ R, σ ∈ (0, ∞), µ2 =Poissón(λ),
0 < λ < ∞ y ν =Cauchy(γ, σ), γ ∈ R, σ ∈ (0, ∞), esto implica que

Z
1 (x−γ)2 λi
e− σ2 m(dx), e−λ
X
µ1 (A) = √ µ2 (A) = · IA (i)
A 2πσ i=0 i!
y
1 Z
σ2
ν(A) = · 2 m(dx)
A πσ σ + (x − γ)2

Por lo que, de acuerdo al Teorema 2.1.1 y la Definición 2.1.14, la derivada de


Radón-Nikodym establece que
dµ = hdν.
Podemos reescribir esta expresión como
Z
µ(A) = hdν.
A

Entonces, si hacemos x = IA (i), podriamos establecer que

dµ1 1 (x−γ)2 dµ2 λi


=√ e− σ 2 , = e−λ
dx 2πσ dx i!
Del mismo modo
dν 1 σ2
= · 2
dx πσ σ + (x − γ)2
Notemos que
∞ i
1 Z

(x−γ)2 X
−λ λ
µ(A) = µ1 (A) + µ2 (A) = √ e σ 2
m(dx) + e · IA (i)
A 2πσ i=0 i!
Z
1 σ2
≪ · 2 m(dx) = ν(A).
A πσ σ + (x − γ)2

Debido a que la distribución µ1 están definida bajo la medida de Lebesgue,µ2 ,


definida bajo la medida indicadora y ν definida bajo la medida de Lebesgue es evi-
dente que cuando ν(A) = 0 para todo m = 0, µ1 (A) = 0, lo que implica que
µ1 + µ2 (A) = 0 para todo m = IA (i).

Por consiguiente, µ es absolutamente continua con respecto a ν.

µ(A) = µ1 (A) + mu2 (A) ≪ ν(A)


4.6. DE LA SUMA DE LA NORMAL Y DE POISSÓN, CON RESPECTO A LA DISTRIBUCIÓN CAUC

Esta condición nos permite asegurar que es posible inferir la derivada de Radón-
Nikodym de estas distribuciones tal que m representa la medida de Lebesgue e IA (i),
la medida indicadora.

Ahora, dado que una de las propiedades de las derivadas establece que

d(µ1 + µ2 ) dµ1 dµ2


= +
dx dx dx

Entonces tomando en cuenta la regla de la cadena, tendriamos que

dµ1 dµ1 dν
=
dx dν dx
!−1
dµ1 dµ1 dν
h1 = =
dν dx dx

del mismo modo

dµ2 dµ2 dν
=
dx dν dx
!−1
dµ2 dµ2 dν
h2 = = ∗
dν dx dx

Entonces
!−1 !−1
dµ dµ1 dµ2 dµ1 dν dµ2 dν
h = h1 + h2 = = + = +
dν dν dν dx dx dx dx
! !−1
dµ1 dµ2 dν
= +
dx dx dx

Así
! !−1
dµ dµ1 dµ2 dν
h= = +
dν dx dx dx
!−1
λi
!
1 (x−γ)2 1 σ2
= √ e− σ2 + e−λ · 2
2πσ i! πσ σ + (x − γ)2
i
! !
2 2
1 −
(x−γ)2
−λ λ σ + (x − γ)
= √ e σ2 + e π
2πσ i! σ


92 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

4.7. De la Suma de la Normal y de Poissón, con res-


pecto a la Suma de la de Cauchy y Geomética
Sean µ = µ1 + µ2 , ν = ν1 + ν2 donde µ1 = N (γ, σ), µ2 = Poissón(λ), ν1 =
Cauchy(γ, σ) y ν2 = Geométrica(p), 0 < p < 1.
Sean

Z
1 (x−γ)2 λi
e− σ2 m(dx), e−λ
X
µ1 = √ µ2 = · IA (i)
A 2πσ i=0 i!


Z
1 σ2
p(1 − p)i−1 IA (i).
X
ν1 = m(dx) y ν2 =
A πσ σ 2 + (x − γ)2 i=0

si hacemos x = IA (i), esto implica que

dµ1 1 (x−γ)2 dµ2 λi


=√ e− σ 2 , = e−λ
dx 2πσ dx i!

dν1 1 σ2 dν2
= y = p(1 − p)i−1
dx πσ σ 2 + (x − γ)2 dx
Por lo que, de acuerdo al Teorema 2.1.1 y la Definición 2.1.14, la derivada de
Radón-Nikodym establece que
dµ = hdν.

Podemos reescribir esta expresión como


h=

Y tomando en cuenta la regla de la cadena, tendriamos que

dµ1 dµ1 dν
=
dx dν dx
!−1
dµ1 dµ1 dν
h1 = =
dν dx dx

del mismo modo


dµ2 dµ2 dν
=
dx dν dx
!−1
dµ2 dµ2 dν
h2 = =
dν dx dx
4.7. DE LA SUMA DE LA NORMAL Y DE POISSÓN, CON RESPECTO A LA SUMA DE LA DE CAU

Entonces

!−1 !−1
dµ dµ1 dµ2 dµ1 dν dµ2 dν
h = h1 + h2 = = + = +
dν dν dν dx dx dx dx
! !−1
dµ1 dµ2 dν
= +
dx dx dx

Así mismo, dado que una de las propiedades de las derivadas establece que

dν d(ν1 + ν2 ) dν1 dν2


= = + .
dx dx dx dx

Entonces

dµ dµ1 dµ2
h = h1 + h2 = = +
dν dν dν
!−1 !−1
dµ1 dν1 dν2 dµ2 dν1 dν2
= + + +
dx dx dx dx dx dx
! !−1
dµ1 dµ2 dν1 dν2
= + +
dx dx dx dx
dµ1 dµ2
+
= dx dx .
dν1 dν2
+
dx dx

Por consiguiente


h =

(x − γ)2
1 − λi
√ e σ2 + e−λ
2πσ i!
= 2 .
1 σ i−1
+ p(1 − p)
πσ σ 2 + (x − γ)2

Las medidas mencionadas anteriormente se definen en las Tablas siguientes.


94 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

Medida µ µ(A), A ∈ B(R)


1
pi (1 − p)1−i IA (i)
X
Bernoulli(p),
i=0
0<p<1
n
(ni )pi (1 − p)n−i IA (i)
X
Binomial(n, p),
i=0
0 < p < 1, n ∈ N,

p(1 − p)i−1 IA (i)
X
Geométrica(p),
i=0
0<p<1

λi
e−λ
X
Poissón(λ), · IA (i)
i=0 i!
0<λ<∞

Tabla 4.1: Algunas distribuciones univariadas discretas

Medida µ µ(A), A ∈ B(R)


 
Uniforme(a, b), m A ∩ [a, b] /(b − a)
−∞ < a < b < ∞
Z
1 − βx
Exponencial(β), e I(0,∞) (x)m(dx)
A β
β ∈ (0, ∞),
Z
1 x
α−1 − β
Gamma(α, β), x e I(0,∞) (x)m(dx),
A Γ(α)β α
α, β ∈ (0, ∞) Z ∞
donde Γ(α) = xα−1 e−x dx, α ∈ (0, ∞)
Z 0
Beta(α, β), 1
B(α,β)
xα−1 (1 − x)β−1 I(0,1) (x)m(dx),
A
α, β ∈ (0, ∞) donde B(a, b) = Γ(a)Γ(b) a, b ∈ (0, ∞)
Γ(a+b)
2
Z
1 σ
Cauchy(γ, σ), m(dx)
A πσ σ + (x − γ)2
2
γ ∈ R, σ ∈ (0, ∞)
Z
1 (x−γ)2
Normal(γ, σ), √ e− σ2 m(dx)
A 2πσ
γ ∈ R, σ ∈ (0, ∞)
(log x−γ)2
Z
1 e− 2σ2
Lognormal(γ, σ), √ I(0,∞) m(dx)
A 2πσ x
γ ∈ R, σ ∈ (0, ∞)

Tabla 4.2: Algunas distribuciones estándar absolutamente continuas. Aquí m denota la


medida de Lebesgue en (R, B(R).
4.8. APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL MEDIANTE LA NORMAL95

4.8. Aproximación de la Distribución Binomial me-


diante la Normal

A continuación veremos utilizaremos los Teoremas del Límite Central y de DeMoivre-


Laplace para aproximar una variable aleatoria Binomialmente Distribuida, mediante la
Distribución Normal. Este desarrollo es muy importante debido a que cuando n es muy
grande resulta poco conveniente calcular los coeficientes Binomiales y las potencias de
la Distribucion Binomial, de aquí la importancia de este desarrollo.

Teorema 4.8.1 Sea 0 < p < 1, entonces para n grande la Distribución Binomial se
puede aproximar a la Distribución Normal con media µ = np y Varianza σ 2 = npq, es
decir
1 x2
lı́m P (X = x) = √
n→∞
√ e− 2 .
2π npq

Prueba Para esta prueba, usaremos la fórmula de Stirling para los factoriales que
aparecen el la Distribución Binomial.

!k
√ k τ
Fórmula de Stirling n! = 2πk e 12k ∀ 0 < τ < 1.
e

Dado que la Distribución Normal

n  n!
P (X = x) = px q n−x = px q n−x
x x!(n − x)!
√  n τ1
2πn ne e 12n
≈ √  x τ2
q  n−x τ3 px q n−x ∀ 0 < τi < 1,
x n−x
2πx e
e 12x 2π(n − x) e
e 12(n−x)

∀ i = 1, 2, 3, ...
√ √  n n τ1
2π n e e 12n
≈ √ √  x τ2 q  n−x τ3 px q n−x
x n−x
2π x e e 12x 2π(n − x) e e 12(n−x)
96 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

 n τ1
n
n1/2 e
e 12n
P (X = x) ≈  x τ2
q h
(n−x)n−x
i τ3 px q n−x
x1/2 xe e 12x 2π(n − x) en−x
e 12(n−x)

 n τ1
n
n1/2 e
e 12n
≈ q h x n−x
i τ2 τ3 px q n−x
x1/2 2π(n − x) x (n−x)
x
e en−x e 12x e 12(n−x)
 n τ1
1/2 n
n e
e 12n
≈ h i px q n−x
τ2 τ3
+ 12(n−x)
q
xx (n−x)n−x
h i
x1/2 2π(n − x) ex en−x
e 12x

h i
τ2 − 3τ
τ1 − 12x
nn+1/2 e 12n e 12(n−x)

≈ q i px q n−x
en xx (n−x)n−x
h
x1/2 2π(n − x) ex en−x
h i
τ1 τ2 τ3
− 12x − 12(n−x)
nn+1/2 e 12n

≈ q px q n−x .
2π(n − x)x x+1/2 (n − x)n−x

τ1 τ2 τ3
Ahora, haciendo λ = 12n
− 12x
− 12(n−x)

nn+1/2 eλ px q n−x
P (X = x) ≈ √ √
2π n − xxx+1/2 (n − x)n−x
nn+1/2 px+1/2−1/2 q n−x+1/2−1/2 eλ
≈ √
2π(n − x)1/2 xx+1/2 (n − x)n−x
nn+1/2 px+1/2−1/2 q n−x+1/2−1/2 eλ
≈ √
2πxx+1/2 (n − x)n−x+1/2
nn+1/2 px+1/2 q n−x+1/2 eλ n1/2
≈ √
2πp1/2 q 1/2 xx+1/2 (n − x)n−x+1/2 n1/2
nn+1/2+x−x px+1/2 q n−x+1/2 eλ n1/2
≈ √
2πnpqxx+1/2 (n − x)n−x+1/2
nn−x+1/2 nx+1/2 px+1/2 q n−x+1/2 eλ n1/2
≈ √
2πnpqxx+1/2 (n − x)n−x+1/2
!x+1/2 !n−x+1/2
eλ np nq
≈ √ · ·
2πnpq x n−x
!−(x+1/2) !−(n−x+1/2)
eλ x n−x
≈ √ · ·
2πnpq np nq
4.8. APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL MEDIANTE LA NORMAL97

" !−(x+1/2) !−(n−x+1/2) #


x n−x
ln ·
eλ np nq
P (X = x) ≈ √ ·e
2πnpq
" !−(x+1/2) !−(n−x+1/2) #
x n−x
ln +ln
eλ np nq
≈ √ ·e
2πnpq
h    i
eλ −(x+1/2) ln x
−(n−x+1/2) ln n−x
≈ √ ·e np nq
.
2πnpq

Ahora, si hacemos
! !
x n−x
h = (x + 1/2) ln + (n − x + 1/2) ln .
np nq

Entonces la expresión se simplifica como

eλ e−h
P (X = x) ≈ √ .
2πnpq

Y si hacemos
x − np
z= √
npq
y luego despejamos x, tendremos

x = np + npqz.

Por tanto
√ √
√ np + npqz √ n − (np + npqz)
   
h = (np + npqz + 1/2) ln + (n − (np + npqz) + 1/2) ln
np nq
√ √
√ np + npqz √ n − np − npqz
   
= (np + npqz + 1/2) ln + (n − np − npqz + 1/2) ln
np nq

√ q √ n − np − npqz
 r   
= (np + 1/2 + npqz) ln 1 + z + (n − np + 1/2 − npqz) ln
np nq

√ q √ n(1 − p) − npqz
 r   
= (np + 1/2 + npqz) ln 1 + z + (n(1 − p) + 1/2 − npqz) ln
np nq

√ q √ nq − npqz
 r   
= (np + 1/2 + npqz) ln 1 + z + (nq + 1/2 − npqz) ln
np nq
√ q √ p
 r   r 
= (np + 1/2 + npqz) ln 1 + z + (nq + 1/2 − npqz) ln 1 − z .
np nq
98 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

Teniendo por hipotesis que |z| es acotado y para n lo suficientemente grande, se tiene
que
q p
r r
z <1 z <1
np nq
y recordamos que

v2 v3 v4
ln(1 + v) = v − + − + ··· |v| < 1.
2 3 4
Así q
q
 r
q
 r
q z np
r
q z2q
ln 1 + z =z − + ··· = z − + ··· ,
np np 2 np 2np
q
p
 r
p
 r
p z nq
r
p z2p
ln 1 − z = −z − − · · · = −z − − ··· .
nq nq 2 nq 2nq
Ahora, si sustituimos esto en h

√ q √ p
 r   r 
h = (np + 1/2 + npqz) ln 1 + z
+ (nq + 1/2 − npqz) ln 1 − z
np nq
2 z2p
√ q z q √ p
 r   r 
≈ (np + 1/2 + npqz) z − + · · · + (nq + 1/2 − npqz) − z − − ···
np 2np nq 2nq

Realizando las productos

q z2q z q z2q z3q √


r r
h ≈ npz − + ··· + − + · · · + z2q − npq + · · ·
np 2 2 np 4np 2np
p z2p z p z2p z3p √
r r
−nqz − − ··· − − − · · · + z2p + npq + · · ·
nq 2 2 nq 4nq 2nq
z2 z q p z2 q p z3 p q
r r     r r 
≈ (p + q) + − − + + √ p −q
2 2 np nq 4n p q 2 n q p
q p
 r r 
+nz p −q + ···
np nq
√ 
z2 z q p z2 n q p z3 p q
r r    r r 
≈ + √ − − √ + + √ p −q
2 2 n p q 4n n p q 2 n q p
nz q p
 r r 
+√ p −q + ···
n p q
z2 1 z q p z2 q p z3 p q
 r r     r r 
≈ +√ − − √ + + p −q
2 n 2 p q 4 n p q 2 q p
√ √

+nz( pq − pq) + · · ·

z2 1 z q p z2 q p z3 p q
 r r     r r  
≈ +√ − − √ + + p −q + ···
2 n 2 p q 4 n p q 2 q p
4.8. APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL MEDIANTE LA NORMAL99

En conseuencia, h puede ser escrito como

z2 1
h≈ + √ θ.
2 n

Tal que θ es una función que sigue acotada en el valor absoluto cuando n → ∞. por consi-
guiente
2
[ z2 + √1n θ] z2
lı́m e−h = lı́m e = e− 2 .
n→∞ n→∞

Y como
α ≤ z ≤ β.

Entonces

α ≤ z
x − np
α ≤ √
npq

α npq ≤ x − np

α npq + np ≤ x
 √
npq

np α +1 ≤ x
np
q
 r 
np α +1 ≤ x.
np

Entonces, de aquí tendriamos que

1 1
≤  q .
x q
np α np +1

Mientras, por otro lado

z ≤ β
x − np
√ ≤ β
npq

x − np ≤ β npq

x ≤ np + β npq

−x ≥ −np − β npq

n − x ≥ −n(1 − q) − β npq + n

n − x ≥ −n + nq − β npq + n
p
 r 
n − x ≥ nq 1 − β .
nq
100 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

Luego tendremos

1 τ1 τ2 τ3
 
λ= − − o < τi < 1
12 n x n−x

1 1 1 1 1 1 1
   
|λ| < − − ≤ 1− − q  .
12 n x n − x 12
q
q p
np α np + 1 q 1 − β nq

Por lo tanto
λ→0 cuando n → ∞.

Luego
lı́m eλ = 1.
n→∞

Por tanto
z2
eλ e−h e− 2
lı́m P (X = x) = lı́m √ = √
n→∞ n→∞ 2πnpq 2πnpq
z2
e− 2
= √ √
2π npq
z2
e− 2
= √ .
2πσ

Que completa la demostración del Teorema.

4.9. Aproximación de la Distribución Hipergeomé-


trica mediante la Binomial.
Supongamos que tenemos un lote N de artículos de los cuales M son defectuosos y N −M
no son defectuosos.
Supongamos ademas que se escoge al azar, n artículos del lote (n ≤ N ), sin sustitución.

Sea X una variable aleatoria con Distribución HipergeomÉtrica, si el tamaño del lote es lo
suficientemente grande, la Distribución X puede ser aproximada por la distribucion binomial,
es decir
M
P (X = i) ≈ (ni )pi (1 − p)n−i donde p = ,
N
para N grande.
4.9. APROXIMACIÓN DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA MEDIANTE LA BINOMIAL.

Para probar esto, primero debemos brobar que la Distribución Hipergeométrica esta
acotada, es decir,
i  n−i −n
i n−i n
 
(ni ) p − q− < P (X = i) < (ni )pi (1 − p)n−i 1 − (4.1)
N N N
donde p= M
N

Probemos la primera desigualdad


M  N −M 
i n−i
P (X = i) = N
n

M  N −M  M! (N −M )!
i n−i i!(M −i)! · (n−i)![(N −M )−(n−i)]!
N
= N!
n i!(N −i)!
M! (N −M )!
i!(M −i)! · (n−i)!(N −M −n+i)!
= N!
i!(N −i)!
M! (N − M )! n!(N − n)!
= · ·
i!(M − i)! (n − i)!(N − M − n + i)! N!
n! M! (N − n)! (N − M )!
= · · ·
i!(n − i)! i!(M − i)! N! (N − M − n + i)!
Así
n  (M − i + 1)(M − i + 2) · · · (M )(N − M − n + i + 1)(N − M − n + i + 2) · · · (N − M )
= i (N − n + 1)(N − n + 2) · · · (N )
Tendríamos que

(M − i + 1)(M − i + 2) · · · (M ) > (M − i)i


(M − n + 1)(M − n + 2) · · · (M ) < N n
(N − M − n + i + 1)(N − M − n + i + 1) · · · (N − M ) > (N − M − n + i)n−i

Por lo tanto
n  (M − i)i (N − M − n + i)n−i
P (X = i) > i Nn
n  (M − i) (N − M − n + i)
i n−i
= i N n−i+i
n  (M − i) (N − M − n + i)n−i
i
= i
·
Ni N n−i
i 
n M i M n − i n−i
 
= i
− · 1 − −
N N N N
i  n−i
i n−i

n
= i
p− q−
N N
102 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

Por lo que podemos concluir que


i  n−i
i n−i

n
i
p− q− < P (X = i).
N N

Prueba la primera desigualdad.

Para probar la segunda desigualdad, recordemos que

n  (M − i + 1)(M − i + 2) · · · (M )(N − M − n + i + 1)(N − M − n + i + 2) · · · (N − M )


P (X = i) = .
i (N − n + 1)(N − n + 2) · · · (N )

Así, tendremos que

(M − i + 1)(M − i + 2) · · · (M ) < (M − i)i


(M − n + 1)(M − n + 2) · · · (M ) > N n
(N − M − n + i + 1)(N − M − n + i + 1) · · · (N − M ) < (N − M − n + i)n−i .

Por consiguiente

i (N
− M )n−i
n M
P (X = i) < i (N − n)n
n  M (N − M )
i n−i (N − n)−n
= i N i−i+n−n
N − n −n
 i 
n M N − M n−i
  
= i
· ·
N N N
i  n−i  −n
M M n

n
= i
· 1− · 1−
N N N
−n
n

n  i n−i
= i
pq 1− .
N

Y así se concluye que

−n
n

n  i n−i
P (X = i) < i
pq 1− .
N

Si se mantienen n e i fijos y hacemos que N y M se aproximen al infinito de tal forma


que p = MN se aproxime a un valor entre 0 y 1, entonces la primera parte y la ultima parte de
la expresión (4.1) se aproxima a la Distribución Binomial.


4.10. APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL MEDIANTE LA DE POISSÓN.103

4.10. Aproximación de la Distribución Binomial me-


diante la de Poissón.
En lo siguiente, se presenta un Teorema de real importancia, pues este establece que si
n es grande y p es pequeño, una distribución Binomial se aproxima a una distribución de
Poissón, pues cuando n es muy grande, los coeficientes Binomiales sun difÍciles de calcular,
de aquÍ radica la importancia de este Teorema.

Teorema 4.10.1 Sea x una variable aleatoria binomialmente distribuida con parámetros n
y p. Supongamos que cuando n → ∞ y p → 0, se tiene que np → α. Entonces
αi
lı́m P (X = i) = e−α
n→∞ i!
Que es la Distribución de Poissón con parámetro α

Prueba Debido a que X tiene Distribución Binomial, entonces


n  i n−i
P (X = i) = i
pq
n i
= p (1 − p)n−i

i
n!
= pi (1 − p)n−i
i!(n − i)!
n(n − 1)(n − 2) · · · (n − i + 1) i
= p (1 − p)n−i . (4.2)
i!
Ahora, haciendo np = α, tendremos que
α
p= (4.3)
n
y sustituyendo la expresón (4.3) en la expresión (4.2), veriamos que
 i   n−i
n(n − 1)(n − 2) · · · (n − i + 1) α α
P (X = i) = 1−
i! n n
n−i
αi n(n − 1)(n − 2) · · · (n − i + 1) α
 
= 1−
i! ni n
n  −i
αi n n−1 n−2 n−i+1 α α
     
= ··· 1− 1−
i! n n n n n n
n  −i
αi 1 2 i−1 α α
    
= 1− 1− ··· 1 − 1− 1− .
i! n n n n n

Mientras, por otro lado, sabiendo que


n
1

lı́m 1+ = e.
n→∞ n
104 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES

Entonces n
α

lı́m 1− = e−α .
n→∞ n

Por consiguiente
n  −i 
1 2 i−1
 i 
α α α
   
lı́m P (X = i) = lı́m 1−
1− ··· 1 − 1− 1−
n→∞ n→∞ i! n n n n n
αi 1 2 i−1
    
= lı́m 1− 1− ··· 1 − ×
n→∞ i! n n n
n −i 
α α
 
× lı́m 1− lı́m 1−
n→∞ n n→∞ n
αi
= (1)e−α (1)
i!
αi
= e−α
i!


Capítulo 5

Conclusiones y Recomendaciones.

5.1. Conclusiones
En virtud de los objetivos planteados en esta tesis, a continuación se presentan las con-
clusiones a las que se ha arribado.

1) Las distribuciones de probabilidad son variable aleatoria que usualmente suelen escribir-
se como la denominada función de densidad en el caso de variables continuas y función
de masa de probabilidad en el caso de variables discretas, en tanto que lo que se conoce
como función de distribución representa las probabilidades acumuladas.

2) En el contexto de la teoría de la medida, la terna (Ω, A, µ) corresponde a un espacio de


medida donde la medida µ asigna el valor uno al espacio total.

3) Las distribuciones de Probabilidades son medida de un espacio métrico (Ω, µ).

4) En la sección (4.1), se verifican las principales propiedades de la derivada de Radón-


Nikodym, por ser de grán utilidad para lograr dar respuesta al primer objetivo específico,
ver sección (4.1).

5) Utilizando correctamente las propiedades, la regla de la cadena y tomando en cuenta las


medidas a las que pueden estar conectadas las distribuciones de probabilidades continuas
y discretas, podemos inferir la derivada de Radón-Nikodym de dichas distribuciones.

6) Para lograr inferir la derivada de Radón-Nikodym de distribuciones de probabilidades


continuas y discretas, deben verificarse las siguientes condiciones. Sea (Ω, A, µ) un es-

105
106 CAPÍTULO 5. CONCLUSIONES Y RECOMENDACIONES.

pacio de medida y ν una medida con signo sobre A. Se dice que ν es absolutamente
continua con respecto a µ, denotado ν ≪ µ si ν(E) = 0 siempre que µ(E) = 0, verificado
todo esto en el teorema (2.1.1) la sección (2.1.6).

7) Para aproximar una distribución a otra, junto al teorema del límite central, desarrolla-
mos en la sección (2.3), un conjunto de lemas y el teorema de DeMoivre-Laplace, por
ser más generalizado y permitir no solo aproximar una distribución continua o discreta,
a la distribución Normal, sino a lo de Poissón o la Geométrica, ver las pruebas en la
sección (2.3).

8) Para aproximar una distribución de probabilidad, a la distribución Normal u otra, se


deben tener presente las siguientes condiciones:

a) Si 0 < p < 1, entonces para n grande la Distribución Binomial se puede aproximar


a la Distribución Normal con media µ = np y Varianza σ 2 = npq, es decir
1 x2
lı́m P (X = x) = √ √ e− 2 .
n→∞ 2π npq

b) Si X una variable aleatoria con Distribución Hipergeométrica y el tamaño del


lote es lo suficientemente grande, la Distribución X puede ser aproximada por la
distribucion binomial, es decir
M
P (X = i) ≈ (ni )pi (1 − p)n−i donde p= ,
N
para N grande.

c) Si x una variable aleatoria Binomialmente distribuida con parámetros n y p y


establecemos que cuando n → ∞ y p → 0, se tiene que np → α. Entonces
αi
lı́m P (X = i) = e−α
n→∞ i!
Que es la Distribución de Poissón con parámetro α

5.2. Recomendaciones
Se proponen como líneas de investigación las siguientes recomendaciones:

1) Dada las Medidas de Distribución de Probabilidade ν =Normal(γ, σ), γ ∈ R, σ ∈ (0, ∞),


µ1 =Exponencial(β), 0 < β < ∞ y µ2 =Geométrica(p), 0 < p < 1, aproximar me-
diante el Teorema del Límite Central o de DeMoivre-Laplace, la derivada de Radón-
Nikodym de la Distribución Geométrica con respecto a la Normal, a la derivada de
5.2. RECOMENDACIONES 107

Radón-Nikodym de la Distribución Exponencial con respecto a la Normal.

2) Continuar el estudio de las aplicaciones de la derivada de Radón-Nikodym iniciado en


esta investigación, aplicándola sobre las Martigalas de variables aleatorias de Espacios
Probabilísticos.

3) Continuar el estudio de la derivada de Radón-Nikodym como eslabón que relaciona di-


rectamente un Espacio Métrico en la Teoría de la Medida, con un Espacio probabilístico
en la Teoría de las Probabilidades.
Apéndice A

Teoría de Probabilidades

A.1. Distribuciones Discretas


Definición A.1.1 Una variable aleatoria (v.a.) ξ se dice que es de tipo discreto, o discreta,
si su función de distribución asociada, Fξ (x) , es constante a trozos, existiendo una cantidad
finita o infinita numerable de ‘saltos’.

Es importante saber que


Fξ (b) − Fξ (a) = P {ω : a < ω(ξ) ≤ b}
= P {ξ ∈ (a, b]}
= P ((A, B])
En donde a1 , a2 , · · · , an , son los puntos donde tiene lugar el salto de la v.a. entonces

Pxi (an ) = P (ξ = an )
y puesto que an = lı́my↗an (y, an ], entonces con Ay = (y, an ].
 
P {ξ = an } = P ξ ∈ lı́m Ay
y↗an
= limy↗an P {ξ ∈ Ay }
= limy↗an P {ξ ∈ (y, an ]}
= limy↗an Fξ (an ) − Fξ (y)
= an

La función Pξ∗ (·), que a cada punto an (llamado punto de masa) le asocia su salto o peso,
pn = Pξ∗ (an ), llamamos función de densidad de masa asociada a la variable aleatoria ξ.

Las principales Distribuciones Discretas son las siguientes

108
A.2. DISTRIBUCIÓN UNIFORME DISCRETA 109

- Uniforme Discreta - Binomial Negativa

- Binomial
- Poisson
- Hipergeométrica

- Geométrica [2cm]

A.2. Distribución Uniforme Discreta


Definición A.2.1 Se dice que una v.a. X sigue una distribución uniforme en n puntos si
toma n valores, x1 , x2 , · · · , xn , con igual probabilidad.

Cuando esto ocurre se dice que X se distribuye como una variable aleatoria Uniforme
discreta. Esta es la distribución discreta más sencilla, la cual asigna la misma probabilidad a
cada una de las soluciones.
En tanto, la función de masa de probabilidad de una Distribución Uniforme Discreta se
define por la expresión
1
p(xi ) = P (X = xi ) = , ∀ i = 1, 2, · · · , n
n
mientras que la función Distribución Uniforme Discreta se define por




 0, si x < x1

si x1 ≤ x < x2

1
n,






2, si x2 ≤ x < x3


n
F (x) = .. .. ..
., . .





n−1
 n , si xn−1 ≤ x < xn





1 si x ≥ xn

Intuitivamente, esta variable está asociada a experimentos similares como al de elegir al


azar un número entre 1 y n sin disponer de ninguna información adicional, así:
x1 + · · · + xn
µ=
n
y
(x1 − µ)2 + · · · + (xn − µ)2
σ2 =
n
110 APÉNDICE A. TEORÍA DE PROBABILIDADES

A.3. Distribución Binomial


Consideremos un experimento que sólo puede presentar 2 posibles resultados que llama-
remos verdadero (si ocurre el suceso de interés) o falso (en caso contrario). Las probabilidades
de estos sucesos suelen denotarse por p = P (verdadero) y q = 1 − p = P (f also). Este tipo de
experimento se conoce como ensayo de Bernoulli. Si el experimento se repite n veces siempre
en las mismas condiciones, entonces cada una de estas realizaciones es independiente de las
demás y la probabilidad de ´exito, p, permanece constante.

Definición A.3.1 La v.a. X que representa el “número de éxitos obtenidos en los n ensayos”
se dice que sigue una distribución binomial de parámetros n y p, X −→ B(n, p), siendo n el
número de veces que se repite el experimento, p la probabilidad de éxito y tomando en cuenta
que X solo puede tomar los valores 0, 1, 2, · · · , n.

En tanto, la función de masa de probabilidad de una Distribución Binomial se define por


la expresión
!
n n!
p = (x) = P (X = x) = px q n−x = px q n−x , ∀ x = 1, 2, · · · , n
x (n − x)!x!

Del mismo modo, la función de Distribución Binomial se define por la expresión






 0, si x < 0
  
 ⌈x⌉
n

X
F (x) =   pi q n−i , si 0 ≤ x < n



 i=0 i

1 si x ≥ n


con ⌈x⌉ la parte entera de x.

La función de Distribución Binomial verifica las siguientes propiedades.


i) La distribución Binomial se puede obtener como suma de n variables aleatorias inde-
pendientes Bernouilli con el mismo parámetro ”p”.

ii) Si tenemos dos variables aleatorias que se distribuyen según una Binomial con el mismo
parámetro ”p”, es decir, con la misma probabilidad de éxito, X −→ B(n, p) e Y −→
B(m, p) , entonces siempre se verifica

X + Y −→ B(n + m, p).

Si no tienen la misma probabilidad no se pueden sumar.


A.4. DISTRIBUCIÓN HIPERGEOMÉTRICA 111

iii) Sea X una variable aleatoria e Y otra variable aleatoria que verifican que X −→
n , entonces se verifica
B(n, p) e Y −→ X

p
 
Y −→ B 1, .
n

A.4. Distribución Hipergeométrica


La distribución hipergeométrica es de gran utilidad en casos donde la probabilidad de
éxito no permanece constante.

Cuando el muestreo o la selección de elementos de la muestra se hace sin reposición, la


probabilidad de éxito no permanece constante como sucedía en el caso binomial.

Definición A.4.1 Sean N el número total de objetos de una población finita, de forma
que k de éstos son de un tipo y los N − k restantes de otro. Si se selecciona una mues-
tra de la población constituída por n objetos, la v.a. X que representa el número de objetos
del primer tipo en la muestra se dice que tiene distribución hipergeométrica de parámetros
N, n y k, X −→ H(N, n, k).

En tanto, la función de masa de probabilidad de una Distribución Hipergeométrica se


define por la expresión

! !
k N −k k! (N − k)!
x n−x x!(k − x)! (n − x)!(N − k − n + x)!
p(x) = P (X = x) = = ,
N!
!
N
x n!(N − n)!

para todo x = 1, 2, · · · , min{k, n}

Asi mismo, la función de Distribución se define mediante la expresión


112 APÉNDICE A. TEORÍA DE PROBABILIDADES





 0, si x < máx{0, n − N + k}

   
k N − k





   


X⌈x⌉ x n−x
F (x) =   , si máx{0, n − N + k} ≤ x < mı́n{n, k}
N



 i=0

  




 x

1 si x ≥ mı́n{n, k}

donde ⌈x⌉ es la parte entera de x.

A.5. Distribución Geométrica


Definición A.5.1 Se llama distribución geomética a la BN (p, k), con k = 1. Luego es la
distribución de la variable aleatoria X definida como .el número de experimentos necesarios
para alcanzar el primer éxito". A esta distribución la denotarenos como G(p).

La distribución geométrica se utiliza en la distribución de tiempos de espera, de manera


que si los ensayos se realizan a intervalos regulares de tiempo, esta variable aleatoria propor-
ciona el tiempo transcurrido hasta el primer éxito.

Esta distribución presenta la propiedad denominada "falta de memoria", que implica que
la probabilidad de tener que esperar un tiempo t no depende del tiempo que ya haya trans-
currido.

La función de masa de probabilidad de una Distribución Geométrica se define por la


expresión

x−1
!
p = (x) = P (X = x) = p(1 − p)x−1 , ∀ x = 1, 2, · · · , n
0

Del mismo modo, la función de Distribución Geométrica se define por la expresión





 0, si x < 0
  
F (x) = X⌈x⌉
x − 1

   p(1 − p)i−1 , si x ≥ 0
0


i=0
A.6. DISTRIBUCIÓN BINOMIAL NEGATIVA O DISTRIBUCIÓN DE PASCAL113

con ⌈x⌉ la parte entera de x.

A.6. Distribución Binomial Negativa o Distribución


de Pascal
Definición A.6.1 Sea X el número de fracasos hasta obtener de manera exacta k éxitos en
un experimento binomial, donde la probabilidad de éxito en cada ensayo es p. Entonces, se dice
que la v.a. X sigue una distribución binomial negativa con parámetros k y p, X −→ BN (k, p).

Esta distribución es una generalización de la distribución geométrica. La variable alea-


toria X cuenta el número de ensayos hasta la ocurrencia de r éxitos. Los parámetros de la
distribución son r y p

En el caso de que los sucesos ocurran a intervalos regulares de tiempo, esta variable
proporciona el tiempo total hasta que ocurren r éxitos, por lo que también se denomina "dis-
tribución binomial de tiempo de espera".

Consideremos la sucesión variables aleatorias independientes Zi , i ∈ N definidas por



1, si el i-ésimo experimento es éxito
Zi =
0, si el i-ésimo experimento es fracaso,

y definimos las variables


i
Yi =
X
Zi ,
j=1

Claramente Yi cuenta la cantidad de éxitos que se alcanzaron en los primeros i experimentos.


Luego su distribución es Bi(k, i).

El evento {X = x}, o sea el evento definido como "la cantidad de experimentos necesarios
para alcanzar r éxitos es x", puede escribirse como una intersección de dos eventos

{X = x} = {Yx−1 = r − 1} ∩ {Zr = 1}.

Los dos eventos del lado derecho de la última ecuación son independientes, por lo que, usando
114 APÉNDICE A. TEORÍA DE PROBABILIDADES

el hecho que Yx−1 tiene distribución Bi(k, x − 1) resulta para x ≥ r.

p(x) = P (X = x
= P (Yx−1 = r − 1)P (Zk = 1)
x−1
!
= k r−1 (1 − k)x−r k
r−1
x−1
!
= k r−1 (1 − k)x−r
r−1

Para una Distribución Binomial Negativa, la función de masa de probabilidad se define


con la siguiente expresión

k+x−1
!
p = (x) = P (X = x) = pk (1 − p)x , ∀ x = 1, 2, · · · , n
x

Mientras que la función de distribución la define mediante la expresión





 0, si x < 0
  
F (x) = X⌈x⌉
k + i − 1


   pk (1 − p)i , si x ≥ 0
i

i=0

donde ⌈x⌉ es la parte entera de x.

A.7. Distribución de Poisson


Definición A.7.1 Se dice que una v.a. X tiene distribución de Poisson de parímetro λ, X −→
P (λ) cuando puede tomar los valores enteros positivos 0, 1, 2, 3, · · · con la siguiente probabili-
dad
e−λ λx
p(x) = P (X = x) = , con x = 0, 1, 2, 3, · · ·
x!
tal que:

• λ es el número medio de ocurrencias del suceso por unidad de tiempo (o espacio),

• x es el número de veces que ocurre el suceso.

Es importante reconocer que la distribución de poisson posee las siguientes caracteristicas:


A.8. DISTRIBUCIONES CONTINUAS 115

i) La probabilidad de que ocurra un suceso es constante para dos intervalos de tiempo o


espacio cualesquiera.

ii) La aparición de un suceso en cualquier intervalo es independiente de su apariciónn en


cualquier otro intervalo.

iii) El promedio de ocurrencias del suceso en cada unidad temporal o espacial, representado
por λ, permanece constante.

Una distribución de poisson es una distribución discreta de gran utilidad sobre todo en
procesos biológicos, donde X suele representar el número de eventos independientes que ocu-
rren a velocidad constante en un intervalo de tiempo o en un espacio.

Por lo que, si X es una variable aleatoria discreta, se dice que se distribuye como una
distribución de Poisson,
X −→ P (λ)

Así, si λ > 0 en una distribución poisson, su función de masa se define por la expresión

e−λ λx
p(x) = P (X = x) = , con x = 0, 1, 2, 3, · · ·
x!

Por lo que, la función de distribución de poisson se define



0, si x < 0



F (x) = X⌈x ⌉ −λ x
e λ

 , si x ≥ 0
x!


i=0

donde ⌈x⌉ es la parte entera de x.

A.8. Distribuciones Continuas


Definición A.8.1 Una v.a. ξ es del tipo continua, si su distribución Fξ es continua.

De tal manera que podemos definir la densidad media de probabilidad en el intervalo


(x, x + ∆x], de amplitud ∆x, como

Fξ (x + ∆x) − Fξ (x)
;
∆x
116 APÉNDICE A. TEORÍA DE PROBABILIDADES

si en esta situación hacemos h −→ 0 y suponemos que Fξ es derivable en x, entonces se tiene

Fξ (x + ∆x) − Fξ (x)
lı́m = Fξ′ (x) = fξ (x),
∆x−→0 ∆x

que es la densidad media de probabilidad en un intervalo infinitamente pequeño, digamos de


longitud dx.

Definición A.8.2 sea X una variable aleatoria de tipo continuo, y si existe una función f (x)
tal que verifica:

i) f (x) ≥ 0, −∞ < x < +∞


Z +∞
ii) f (x)dx = 1.
−∞

diremos que f (x)es la función de densidad de la variable aleatoria continua X.

Definición A.8.3 Sea una variable aleatoria X de tipo continuo que toma un número infi-
nito de valores sobre la recta real y cuya función de densidad es f (x). se define la función
de distribución acumulativa de la variable aleatoria X, que notaremos por F (x), como la
probabilidad de que la variable aleatoria continua X tome valores menores o iguales a x, es
decir: Z x
F (x) = P (X ≤ x) = f (x)dx
−∞

La función de distribución de una variable aleatoria continua es una función que verifica
las siguientes propiedades:

i) F (−∞) = 0

ii) F (+∞) = 1

iii) Es no decreciente, es decir: si xi < xj , entonces F (xi ) ≥ F (xj ).


Rb
iv) P (a ≥ X ≥ b) = a f (x)dx = F (b) − F (a).
A.9. DISTRIBUCIÓN UNIFORME 117

v) La derivada de la función de Distribución es la función de densidad

dF (x)
= f (x)
dx
como la ab f (x)dx representa gráficamente el área encerrada bajo la curva f (x) y los
R

valores a y b del eje de abscisas, entonces a la probabilidad:

P (a ≥ X ≥ b) = F (b) − F (a)

se le puede dar la misma interpretación.

Las principales Distribuciones Continuas son las siguientes:

- Uniforme - Cauchy

- Normal
- Exponencial
- Longnormal
- Ji-cuadrado
- Logistica
- t de student
- Gamma

- Beta - F de Snedecor

A.9. Distribución Uniforme


Definición A.9.1 Se dice que una v.a. X se distribuye según una uniforme en el interva-
lo [a, b], X −→ U [a, b], si la probabilidad de que tome cualquier subintervalo de valores es
proporcional a la longitud de dicho subintervalo.

Es importante tener presente que El intervalo de definición de la distribución uniforme


puede ser abierto, semi-abierto o cerrado.

Para una distribución Uniforme Continua se verifica que su función de densidad viene
dada por la expresión:
1


 , si a ≤ x ≤ b
p(x) = b − a
0,

para cualquier otro caso.
118 APÉNDICE A. TEORÍA DE PROBABILIDADES

Mientra que su función de distribución dada una variable aleatoria uniforme es





 0, si x < a

F (x) = x−a
b−a , si a ≤ x ≤ b


1, si x > b

A.10. Distribución Normal


La distribución normal o de Gauss es la distribución continua más importante y de mayor
aplicación. Es adecuada para describir el comportamiento de muchos conjuntos de datos en
Ciencias, Medicina, Ingeniería, Economía, etc.

Esta distribución de caracteriza porque los valores se distribuyen formando una campana
de Gauss, en torno a un valor central que coincide con el valor medio de la distribución:

Definición A.10.1 Se dice que una v.a. X tiene una distribución normal de parámetros µ y
σ, X −→ N (µ, σ), si su función de densidad tiene la siguiente forma:

1 (x−µ)2
f (x) = √ e− 2σ2
σ 2π

Del mismo modo, para obtener la probabilidad de un evento, mediante la distribución


Normal, sujeta a un intervalo de evaluación [a, b] ∈ R, tendriamos que aplicar la expresión

1
Z b (x−µ)2
p(x) = P (X = x) = √ e− 2σ2 dx ∀ − ∞ < a < x ≤ b < +∞
a α 2π

Intuitivamente, es la distribución de probabilidad que se asume para una variable cuyos


posibles valores se disponen de forma simétrica en torno a su media de modo que los valores
próximos a dicha media tendrán mayor probabilidad de ser alcanzados. Conforme más aleja-
dos estén de la media, los valores tienen menor probabilidad de ser alcanzados.

La distribución Normal posee las siguientes propiedades:


A.11. DISTRIBUCIÓN NORMAL TIPIFICADA O ESTANDARIZADA 119

i) Es contínua en todo R.

ii) La moda (punto donde se alcanza el máximo) es M o = µ y el valor de la función en


este punto es f (µ) = σ√12π .

iii) Es estrictamente creciente para x < µ y estrictamente decreciente para x > µ.

iv) Posee dos puntos de inflexión: µ + σ y µ − σ. La situación de estos puntos determina


la forma de la curva de modo que cuanto mayor es σ más lejos de la moda están los
puntos de iflexión y más plana sería la curva.

v) Tiene como asíntota horizontal el eje de abcisas, ya que

lı́m f (x) = lı́m f (x) = 0


x→−∞ x→+∞

vi) Es simétrica respecto ax = µ, esto es

f (x − µ) = f (x + µ), ∀ x ∈ R.

Por tanto, la mediana es también µ.

A.11. Distribución Normal Tipificada o Estandari-


zada
Supongamos que Ynn∈mathbbN es una sucesión de variables a independientes tales que
ninguna de ellas prevalezca sobre las otras, entonces la variable aleatoria
n
Sn =
X
Yj
j=1

es aproximadamente normal para n suficientemente grande. Esta distribución tiene mucha


aplicación en la teoría de errores, donde se supone que el error total de medición es la suma
de errores que obedecen a diferentes causas.

La distribución normal depende de dos parámetros µ ∈ R y σ 2 ∈ R.

Veamos la distribución normal correspondiente a µ = 0 y σ 2 = 1. En este caso la función


de densidad es
x2
p(x) = P (X = x) = Ke− 2
120 APÉNDICE A. TEORÍA DE PROBABILIDADES

donde K es una constante. Calcularemos la constante K de forma tal que


Z +∞
x2
1= Ke− 2 dx
−∞

por lo que
1
K=R x2
+∞
−∞ e− 2 dx
Sea Z +∞
x2
I= e− 2 dx
−∞

Para el cálculo de esta integral podemos obtener I 2 como integral doble a traves de un
cambio de variable a cordenadas polares.

Supongamos que
 Z +∞  Z +∞
y2

x2
I2 = e− 2 dx e− 2 dy
−∞ −∞
Z +∞ Z +∞ 2 y2
− x2
= e e− 2 dxdy
−∞ −∞
Z +∞ Z +∞
x2 +y 2

= e− 2 dxdy
−∞ −∞

Si hacemos el cambio de variables

x(ρ, ϕ) = x = ρcos(ϕ)
y(ρ, ϕ) = y = ρsen(ϕ)

es evidente que
x2 + y 2 = ρ2
Esta transformación del cambio de variable, la cual representaremos mediante la expresión
T (ρ, ϕ) = (x(ρ, ϕ), y(ρ, ϕ)), con ρ ≥ 0 y 0 ≤ ϕ ≤ 2π tiene matriz diferencial
! !
xρ xϕ cos(ϕ) −ρsen(ϕ)
DT (ρ, ϕ) = =
yρ yϕ sen(ϕ) ρcos(ϕ)
y si calculamos su Jacobiano, tendriamos que
!
cos(ϕ) −ρsen(ϕ)
J(ρ, ϕ) = det(DT (ρ, ϕ)) = det
sen(ϕ) ρcos(ϕ)
= ρcos2 (ϕ) + ρsen2 (ϕ)
= ρ(cos2 (ϕ) + sen2 (ϕ))
= ρ
A.11. DISTRIBUCIÓN NORMAL TIPIFICADA O ESTANDARIZADA 121

por consiguiente |DT (ρ, ϕ)| = ρ y aplicando la fórmula de cambio de variables en integrales
múltiples resulta
Z +∞ Z +∞
x2 +y 2


I 2
= e 2 dxdy
−∞ −∞
Z +∞ Z 2π
ρ2

= e− 2 ρdϕdρ
0 0
Z +∞ ρ2

= 2π e− 2 ρdϕ
0
ρ2 ∞
= 2π(−e− 2 ) 0
= 2π

y por tanto

I= 2π
así, finalmente se tiene que
1 x2
p(x) = P (X = x) = √ e− 2 .

Del mismo modo, para obtener la probabilidad de un evento, mediante la distribución Normal
Tipificada sujeta a un intervalo de evaluación [a, b] ∈ R, tendriamos que aplicar la expresión
1
Z b
x2
p(x) = P (X = x) = √ e− 2 dx ∀ − ∞ < a < x ≤ b < +∞
a 2π

Esta, representa la Distribución Normal Tipificada o estandarizada y satisfase las siguien-


tes propiedades.

i) Es simétrica respecto a x = 0.

ii) Alcanza una máximo en x = 0 que vale f (0) = √1



≈ 0,4.

iii) Es creciente para x < 0 y decreciente para x > 0.

iv) −1, 1 son puntos de inflexión.

v) y = 0 es una asíntota horizontal.

vi) F (−x) = 1 − F (x)

La transformación a la distribución normal estándar se realiza tipificando la variable


X −→ N (µ, σ) mediante la expresión:
X −µ
Z= −→ N (0, 1)
σ
122 APÉNDICE A. TEORÍA DE PROBABILIDADES

Así
X −µ
 
F (X = x) = FZ (A.1)
σ

La función de distribución de la normal tipficada está tabulada de forma que, para trabajar
con una v.a. normal arbitraria, la transformaremos siempre en una N (0, 1).

A.12. Distribución Lognormal


Definición A.12.1 Dada una variable aleatoria X −→ N (µ, σ), se dice que la variable alea-
toria Y = eX sigue una distribución lognormal cuya función de densidad se define mediante
la expresión:
1 1 2
p(x) = P (X = x) = √ e− 2α2 (ln(x)−µ) , ∀x>0
xα 2π
tal que, σ es la desviación estandar en la distribución Normal.
y µ es una medida.

Del mismo modo, para obtener la probabilidad de una distribición lognormal sujeta a un
intervalo de evaluación [a, b] ∈ R, mediante la expresión

1
Z b
1 2
p(x) = P (X = x) = √ e− 2α2 (ln(x)−µ) dx, ∀ − ∞ < a < x ≤ b < +∞
a xα 2π

La distribución lognormal es el resultado de un número elevado de causas independientes


con efectos positivos que se componen de manera multiplicativa y donde cada una de estas
causas tienen un efecto despreciable frente al global. Esto se debe a que la aditividad de los
efectos conduce a una ley normal, en el caso de la ley lognormal, lo hace la proporcionalidad
de los efectos.

La distribución lognormal se caracteriza por las siguientes propiedades:

i Asigna a valores de la variable x < 0 la probabilidad 0 y de este modo se ajusta a las


tasas y probabilidades de fallo que de esta forma sólo pueden ser positivas.

ii Como depende de dos parámetros, µ y σ, según veremos, se ajusta bien a un gran


número de distribuciones empíricas.

iii Es idónea para parámetros que son a su vez producto de numerosas cantidades aleato-
rias.
A.13. DISTRIBUCIÓN LOGÍSTICA 123

iv La esperanza matemática o media en la distribución lognormal es mayor que su media-


na. De este modo da más importancia a los valores grandes de las tasas de fallo que una
distribución normal con los mismos percentiles del 5 % y 50 % tendiendo, por tanto, a
ser pesimista.

A.13. Distribución Logística


Definición A.13.1 Se dice que una variable aleatoria X sigue una distribución logística de
parámetros α y µ, Lo(α, µ), si su función de densidad biene dada mediante la expreción

µe−(α+µx)
p(x) = P (X = x) =
1 + e−(α+µx)2

siendo su función de distribución


1
F (x) =
1+ e−(a+bx)

Este tipo de distribuciones son usuales en los fenÓmenos que estudian el crecimiento temporal.

Así mismo, para obtener la probabilidad de un evento, mediante la distribución Logistica,


en un intervalo [a, b] ∈ R, tendriamos la expresión

µe−(α+µx)
Z b
p(x) = P (X = x) = dx, ∀ − ∞ < a < x ≤ b < +∞.
a 1 + e−(α+µx)2

A.14. Distribución Gamma


En primer lugar introducimos la función Gamma (Γ), que resulta ser una extensión a los
reales positivos de la función factorial definida sobre los números naturales.

Definición A.14.1 La función Gamma de Euler Γ : (0, +∞) −→ R+ se define mediante la


expresión
Z +∞
Γ(α) = e−x xα−1 dx ∀ x ∈ (0, +∞)
0

La siguiente proposición demuestra la validez de la definición dada.


Z ∞
Proposición A.14.1 La integral e−x xα−1 dx converge para x > 0.
0
124 APÉNDICE A. TEORÍA DE PROBABILIDADES
Z ∞ Z 1 Z ∞
−x α−1 −x α−1
Prueba e x dx = e x dx + e−x xα−1 dx Supongamos que α ≥ 1, en-
0 0 1
| {z } | {z } | {z }
I I1 I2
tonces I1 es convergente puesto que su integrando es una función continua, y por tanto,
integrable en [0, 1]. Si 0 ≤ α ≤ 1 ocurre que ∀ α > 0, 0 < xα−1 e−x < xα−1 y la integral
Z 1
xα−1 dx es convergente para 0 < α < 1
0

Por otra parte


e−x xα−1 xα+1
lı́m = lı́m
x→+∞ x−2 x→+∞ ex
Z ∞
y como x−2 dx es convergente, entonces I2 es convergente.
1

Proposición A.14.2 Parea todo α > 0, se tiene que Γ(α + 1) = αΓ(α).

Prueba Sean α y β dos números reales tales que 0 < α < β, integrando por partes
u = x , dv = e−x dx en la siguiente integral
α

Z t Z t
α −x x −s x −t
x e dx = s e −t e +x xα−1 e−x dx
s s

tomando límite cuando α → 0 y β → +∞ en ambos lados de la igualdad, obtenemos la


igualdad deseada.

Corolario A.14.1 Gamma es una extensión factorial. Más precisamente, para todo n ∈ N,
se tiene que Γ(n + 1) = n!

Prueba La prueba se hace por inducción. Si n = 1 entonces Γ(1) = 1 = 0!. Supongamos


ahora que la propiedad que cumple para k tambien se cumple para k + 1. Usando la
hipótesis inductiva tenemos

Γ(k + 1) = kΓ(k) = k[(k − 1)!] = k!

con lo cual el corolario queda demostrada.


A.14. DISTRIBUCIÓN GAMMA 125

Definición A.14.2 Dado α > 0, se define la distribución Gamma con parámetros α y 1,


denotada por Γ(α, 1) como la distribución absolutamente continua cuya función densidad es

1 −x α−1
p(x) = P (X = x) = e x I[0,1) (x).
Γ(α)

De acuerdo con la definición de la función Gamma es claro que p es una densidad ya que
Z +∞
p(x)dx = 1
−∞

Además, podriamos redefinirla como


 α
[0,1) (x), para x > 0,
 a e−ax xα−1 I
p(x) = P (X = x) = Γ(α)
0, para x ≥ 0.

Por lo que su función de distribución estaría definida mediante la expresión



0,
 para x ≤ 0.
F (x) = Z t



Γ(α) e−ax xα−1 I[0,1) (x), para x > 0,
0

Definición A.14.3 Dado α > 0 y β > 0 definiremos la distribución Gamma con parámetros
α y β que denotaremos por Γ(α, β), a la distribución de Y = Xβ donde X tiene distribución
Γ(α, 1). Como g(x) = β , De acuerdo a (A.1) y teniendo en cuenta que β > 0 tendremos
x

pY (y) = βpX (βx)


β −βy
= e (βy)α−1 I[0,∞) (βy)
Γ(α)
β α −βy
= e (βy)α−1 I[0,∞) (y).
Γ(α)

Tomando en cuenta que como Γ(1) = 0! = 1, la distribución Γ(1, β) tiene como densidad

p(y) = βe−βy I[0,∞) (y)

que es la distribución exponencial con parámetro β.


126 APÉNDICE A. TEORÍA DE PROBABILIDADES

A.15. Distribución Beta


Definamos primero la función Beta.

Definición A.15.1 Sean α > 0 y β > 0, se define la funcion Beta, B : (α, β) −→ R+


mediante la expresión
Z 1
B(α, β) = xα−1 (1 − x)β−1 dx, ∀ α, β ∈ R.
0

Γ(α)Γ(β)
Proposición A.15.1 B(α, β) = , ∀ α, β ∈ R.
Γ(α + β)

Prueba Consideremos el producto


Z +∞ Z +∞
Γ(α)Γ(β) = e−u uα−1 du e−v v β−1 dv
0 0

si hacemos u = x2 y v = y 2 , tendriamos que


Z +∞ Z +∞
−x2 2α−1 2
Γ(α)Γ(β) = 4 e x dx e−y y 2β−1 dy
0 0
Z +∞ Z +∞
−(x2 +y 2 )
= 4 e x2α−1 y 2β−1 dxdy
0 0

y mediante un cambio a coordenadas polares, donde x = rcos(θ) y y = rsen(θ)

Z +∞ Z π
2 2 +(ysen(θ))2 )
Γ(α)Γ(β) = 4 e−((rcos(θ)) (rcos(θ))2α−1 (ysen(θ))2β−1 drdθ
0 0
Z +∞ Z π
2 2
= 4 e−r r2(α+β)−1 dr (cos(θ))2α−1 (sen(θ))2β−1 dθ
0 0
| {z }| {z }
I1 I2

ahora, si hacemos r2 = t en I1 , tendriamos que


1 +∞ −t α+β−1
Z +∞ Z
−r2 2(α+β)−1
I1 = e r dr = e t dr
0 2 0
1
= Γ(α + β)
2
A.15. DISTRIBUCIÓN BETA 127

del mismo modo, haciendo cos(theta) = x, en I2 , tendriamos que


Z π Z π
2 2
I2 = (cos(θ))2α−1 (sen(θ))2β−1 dθ = xα−1 (1 − x))β−1 dx
0 0
1
= B(α, β)
2

así

Γ(α)Γ(β) = 4I1 I2
1 1
  
= 4 Γ(α + β) B(α, β)
2 2
= Γ(α + β)B(α, β)

por consiguiente
Γ(α)Γ(β)
B(α, β) =
Γ(α + β)
que es el resultado esperado.

Definición A.15.2 Se define la distribución beta con parámetros α y β, que denotaremos


por B(α, β), como la distribución absolutamente continua cuya función de densidad es:

Γ(α)Γ(β) α−1
p(x) = P (X = x) = x (1 − x)β−1 I(0,1) (x).
Γ(α + β)

Por lo que podríamos resscribirla como



 Γ(α)Γ(β) xα−1 (1 − x)β−1 I
(0,1) (x) si 0 < x < 1,
p(x) = P (X = x) = Γ(α+β)
0 para cualquier otro caso.

y se indicará como X −→ B(α, β)

La forma de la función de densidad toma formas muy diferentes para los distintos valores
de α y β, lo que nos permite seleccionar la forma de la función de densidad que más interese,
eligiendo adecuadamente los parámetros.
128 APÉNDICE A. TEORÍA DE PROBABILIDADES

Así mismo, la función de distribución Beta se defino mediante la espresión






0, si x ≤ 0,
Γ(α)Γ(β) α−1

 Z t
F (x) = B(α,β)
1
x (1 − x)β−1 I(0,1) (x)dx, si 0 < x < 1,


 0 Γ(α + β)
1 si x ≥ 0.


A.16. Distribución de Cauchy


Definición A.16.1 Se dice que una variable aleatoria X sigue una distribución de Cauchy
de parámetros σ y γ, y se denota por X −→ C(σ, γ), si su función de densidad viene dada
por la siguiente expresión:
σ 1
p(x) = P (X = x) = , ∀ − ∞ < x < +∞, γ>0
π σ 2 + (x − γ)2

Mientras que para obtener la probabilidad de un evento mediante la distribución de


Cauchy en un intervalo [a, b] ∈ R, se define la expresión
1
Z b
σ
p(x) = P (X = x) = dx, ∀ − ∞ < a < x ≤ b < +∞, σ>0
a π σ 2 + (x − γ)2

La distribución Cauchy es utilizada en teoría de probabilidades como distribución a priori


de leyes de probabilidad en modelos bayesianos. Modela también las duraciones de actividades
sobre las que no existe suficiente información en el análisis de métodos Pert de secuenciación
de actividades.

La distribución de Cauchy cumple con las siguientes propiedades.

i) Sea X −→ C(σ, γ), se tiene que E[X k ] no existe para k ≥ 1 y que existe para k < 1.

ii) Sea X −→ C(σ1 , γ1 ) e Y −→ C(σ1 , γ1 ) independientes, entonces X + Y −→ C(σ1 +


σ2 , γ1 + γ2 ).

iii) Se tiene que X −→ C(1, 0) si y sólo si 1


X −→ C(1, 0).

Una característica destacable de esta distribución es que carece de momentos, por lo que
no existen la media, varianza, asimetría y curtosis de esta distribución. Su función de densidad
es simétrica respecto al parámetro de situación γ.
A.17. DISTRIBUCIÓN EXPONENCIAL 129

A.17. Distribución Exponencial


Definición A.17.1 Sea X una v.a. continua que puede tomar valores x ≥ 0. Se dice que
X sigue una distribución exponencial de parámetro λ (y se nota X −→ eλ ) si su función de
densidad está dada por


λe−λ , si x ≥ 0
p(x) = P (X = x) =
0, para cualquier otro caso.

Del mismo modo, se define la función de distribución de acuerdo a la siguiente expresión



1 − λe−λ , si x ≥ 0
F (x) =
0, para cualquier otro caso.

La distribución exponencial con parámetro λ será denotada por E(λ).


Esta distribución aparece generalmente cuando se trata de estudiar la vida útil de un apárato
electónico bajo el supuesto de que este no se desgasta a lo largo del tiempo. Como ejemplo
suele citarse a veces la vida útil de una lámpara eléctrica. Sin embargo en este caso existe
un cierto desgaste propio de la lámpara y su distribución no es exactamente exponencial.
Por tal razón esta distribución es más adecuada para modelar la duración de los mecanismos
electrónicos, ya que estos no tienen prácticamente desgaste.

Para precisar el concepto de desgaste decimos que la distribución de X no tiene desgaste


cuando dado a > 0 y b > 0 se tiene

P (X ≥ a + b|X ≥ a) = P (X ≥ b)

Esto significa que la probabilidad de que llegue a durar hasta el tiempo a + b, dado que ha
llegado hasta el tiempo a, es igual a la probabilidad de que haya durado hasta el tiempo b. Es
decir el proceso "no tiene memoria del tiempo que estuvo funcionando"(no recuerda qué tan
viejo es) y por tanto, mientras funciona lo hace como si fuese nuevo.

Decimos por el contrario que hay desgaste si

P (X ≥ a + b|X ≥ a)

es una función decreciente de a.


130 APÉNDICE A. TEORÍA DE PROBABILIDADES

A.18. Distribución Ji-Cuadrado


Definición A.18.1 Se dice que una variable aleatoria X sigue una distribución X 2 con n
grados de libertad, se denota por Xn2 , si su función de densidad es
1 n
−1 − x2
p(x) = P (X = x) = a x 2 e , x ≥ 0.
2 Γ( a2 )
2

La distribución X 2 cumple la siguiebntes propiedades

i) Sean X1 , · · · , Xn variables aleatorias independientes e idénticamente distribuidas según


una N (0, 1), se tiene que ni=1 Xi2 −→ Xn2 .
P

ii) Guarda una estrecha relación con la distribución normal debido a que si X −→ N (0, 1),
entonces X 2 −→ Γ(1/2, 1/2) = X 2 (1).

iii) Si X sigue una distribución ji-Cuadrado con n grados de libertad, para valores de n

grandes (n > 100), entonces la variable Y = 2X sigue aproximadamente una distri-

bución normal de media 2n − 1 y desviación estándar 1.

A.19. Distribución t de Student


Definición A.19.1 Se dice que una variable aleatoria X sigue una distribución t de Student
T con n grado de libertad, si su funcion de densidad viene dada por expresión

Γ n+1 x2 n+1
p(x) = P (X = x)) = √ 2 n (1 + )− 2 , −∞ < x < +∞
nπΓ 2 n

La forma que presenta la función de densidad de la distribución t de Student, guar-


da ciertas similitudes con la función de densidad de la distribución normal estándar: forma
acampanada, simétrica y centrada en el origen; la única diferencia existente entre ambas dis-
tribuciones es que la función de densidad de la t de Student presenta unas colas más pesadas
(mayor dispersión) que la normal.

Del mismo modo, la distribución t de Student con 1 grado de libertad coincide con la
distribución de Cauchy estándar.
A.20. DISTRIBUCIÓN F DE SNEDECOR 131

Sean X e Y dos variables aleatorias independientes distribuidas según una distribución


N (0, 1) y Xn2 , respectivamente.La variable aleatoria
X
T =q
Y
n

La distribución t de Student queda completamente definida por medio de sus grados de


libertad, n, y se denota por tn . Surge cuando se plantea estudiar el cociente entre una variable
aleatoria con distribución normal estándar y la raíz cuadrada del cociente entre una variable
aleatoria con distribución ji-cuadrado y sus grados de libertad (n), siendo las dos variables
independientes. Esta distribución desempeña un papel muy importante en la inferencia esta-
dística asociada a la teoría de muestras pequeñas y es usada habitualmente en el contraste de
hipótesis para la media de una población o para comparar medias de dos poblaciones.

Esta distribución satisface la siguiente propiedad.

• La distribucion t de Student es simétrica con respecto al origen.

A.20. Distribución F de Snedecor


Sean X e Y dos variables aleatorias independientes distribuidas según una X 2 con n y
m grados de libertad respectivamente. La variable aleatoria
X
F = n
Y
m

sigue una distribución F de Snedecor con n y m grados de libertad que se denota por Fn,m .

Definición A.20.1 Se dice que una variable aleatoria X sigue una distribución F de Snedecor
si su función de densidad viene dada por la expresión
m n
m 2 n 2 Γ( m+n
2 ) m m+n
p(x) = P (X = x) = x 2 −1 (n + mx)− 2 , x ≥ 0.
Γ( 2 )Γ( 2 )
m n

La distribución F de Snedecor satisface las siguientes propiedades:

i) Si X −→ Fn,m entonces 1
X −→ Fm,n .

ii) Si X −→ tn entonces X 2 −→ F1,n .


Bibliografía

[1] Sabina J. C. (2013). Teoría de la Medida, Curso de Introducción. Universidad de La


Laguna, 29 de octubre de 2013 .

[2] Nogales A.G. (2008). Teoria de la Medida y de la Probabilidad. Manuales UEX, Univer-
sidad de Extremadura, 2008 .

[3] Athreya K. B. Measure Theory and Probability Teory. Soumendra N. Lahiri, Department
of Mathematics and Department of Statistics, Iowa State University.

[4] badajos (2015). Apuntes de Teoria de la Medida. Departamento de Matemática, Manuales


UEX, Universidad de Extremadura, 4 de enero de 2015 .

[5] Hoff P. D. (2013). Meansure and Probability. september 26, 2013 .

[6] Grabinsky G. (2012). Teoria de la Medida. Facultad de Ciencias, UNAM, Universidad


Nacional Autónoma de México, 2012 .

[7] Alegría P. (2007). Teoria de la Medida, Departamento de Matematica, Uiversidad del


Pais Vásco, Bilbao - España, Agosto de 2007 .

[8] Yohai V. J. (2008). Notas de Probabilidades y Estadística, 5 de Marzo de 2008 .

[9] Billingsley P. (1995). Probability and Measure, Departamento de Matematica, The Uni-
versity of Chicago, 1995 .

[10] Lerner N. (2014). A Course on Integration Theory, Institut de Mathématiques de Jussieu,


Université Pierre et Marie Curie (Paris VI), Springer Basel 2014 .

[11] Balanzario E. (2009). Sobre el Teorema del Limite Central, Departamento de Matematica,
Universidad Nacional Autónpma de México, Facultad de Fiencias, Sept. 2009 .

[12] Chimal R. (2001). Algunos Aspectos Teóricos de la Distribución Binomial, Departamen-


to de Matematica, Universidad Veracruzana, Facultad de Estadística e Ingeniería, Dic.
2001 .

132
BIBLIOGRAFÍA 133
Universidad Autónoma de Santo Domingo
Facultad de Ciencias
Escuela de Matemática
División de Postgrado y Educación Permanente

DERIVADA DE RADÓN-NIKODYM Y APROXIMACIÓN DE DISTRIBUCIONES DE


PROBABILIDADES CONTINUAS Y DISCRETAS

Tesis de Cuarto Nivel para optar por el Título de


Maestría en Matemática Pura

Sustentante con su calificación

________________________________________ (_____puntos)
Víctor Mercedes Batista Torres

Asesor

________________________________________________
Mtro. Juan Toribio Milane, MSc.

Jurados
______________________________ _________________________________
Mtro. Gerior Feliz, MSc. Mtro. José Jiménez, MSc.
Miembro Miembro
_______________________________________
Dr. Francisco Ramírez
Presidente

Fecha de Defensa: 1 de marzo de 2023

Dr. Neel L. Báez __ Mtro. Silverio Del Orbe_____


Director Escuela de Matemática Director de Postgrado y Educación Permanente

______________________________
Mtro. José Ferreira Capellán
Decano

View publication stats

También podría gustarte