Documentos de Académico
Documentos de Profesional
Documentos de Cultura
net/publication/371908510
CITATIONS READS
0 125
2 authors, including:
SEE PROFILE
All content following this page was uploaded by Juan Toribio Milane on 28 June 2023.
SUSTENTANTE:
ASESOR:
Mtro. Juan Toribio Milane
República Dominicana
Santiago De Los Caballeros
Marzo, 2023
Derivada de Radón-Nikodym y Aproximación de
Distribuciones de Probabilidades Continuas y Discretas
Índice general
Dedicatoria i
Agradecimientos iii
Resumen v
Abstrac vi
1. Introducción 1
1.1. Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Planteamiento del Problema . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3. Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.1. Generales: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2. Específicos: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3
4 ÍNDICE GENERAL
3. Aspectos Metodológicos 79
3.1. Tipo de Estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2. Diseño de Investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.3. Alcances y Límites de la Investigación . . . . . . . . . . . . . . . . . . . 79
4. Derivadas y Aproximaciones 80
4.1. Algunas Propiedades Importantes . . . . . . . . . . . . . . . . . . . . . 80
4.2. Distribución Normal con respecto a la Exponencial . . . . . . . . . . . 82
4.3. Distribución Exponencial con respecto a la Normal. . . . . . . . . . . . 84
4.4. Distribución Binomial, con respecto a la Geomética . . . . . . . . . . . 86
4.5. Distribución de Bernoulli, con respecto a la de Poissón. . . . . . . . . . 88
4.6. De la Suma de la Normal y de Poissón, con respecto a la Distribución
Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.7. De la Suma de la Normal y de Poissón, con respecto a la Suma de la de
Cauchy y Geomética . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.8. Aproximación de la Distribución Binomial mediante la Normal . . . . . 95
4.9. Aproximación de la Distribución Hipergeométrica mediante la Binomial. 100
4.10. Aproximación de la Distribución Binomial mediante la de Poissón. . . . 103
Apéndice 107
Bibliografía. 132
Dedicatoria
Dios: porque sin Él, nada es posible, por brindarme la oportunidad de iniciar y
terminar este gran proyecto en mi vida, y alcázar el título de Magister en Matemática
Pura, dotándome fuerzas a cada momento para que pueda seguir adelante, dándome su
amor incondicional, sabiduría y depositando en mi la perseverancia necesaria para salir
a flote en aquellos momentos difíciles donde la fuerza y el deseo de seguir parecían no
ser suficientes. Tuyo es este logro señor.
Mis padres, Daniel Batista y María Sotera Torres: por no perder nunca
la fe en mí, en que lograría terminar esta maestría. Confieso que en muchas ocasiones
sentí defraudarlos, llegando a pensar que al final no lo alcanzaría, pero por cosas del
inmenso amor que me manifiestan, frecuentemente escuchaba salir de los labios de mi
madre las siguientes preguntas: ¿cuándo te graduarás?, ¿para cuándo es la fecha de la
graduación?, ¿lograste terminar?, y así muchas más, mientras que mi padre me decía:
"ven a buscar el dinero del pasaje a Santo Domingo". El peso de todas esas preguntas
lo sentía sobre mí como una carga que no podía aguantar, porque igual de pesada era
la verguenza de quizás defraudarlos, entonces los miraba y en silencio me daba fuerzas
y con mis pensamientos les decía: "No se preocupen mis viejos, no me daré por ven-
cido, yo lo lograré". Sin su apoyo, no lo habría logrado, GRACIAS VIEJOS DEL ALMA.
Mis hijos, Ángel, Albert y Ashley: porque el tiempo que he perdido en de-
dicarles tiempo, escucharles, aconsejarles, en mostrarles lo tanto que significan para
mí, quiero devolvérselo con mi ejemplo de que todo se puede lograr, de que estudiar y
prepararse es lo que nosotros, los pobres, debemos hacer. Ahora, tendré tiempo para
ustedes. GRACIAS HIJOS MÍOS.
i
ii ÍNDICE GENERAL
Mis hermanos: porque siempre han confiado en mí, exaltando, según ellos, mi
capacidad e inteligencia, creyendo en mí, sin dudar ni un instante y dándome fuerzas
en mis flaquezas. GRACIAS QUERIDOS HERMANOS.
Los maestros: nadie dijo que sería facil lograr culminar un programa de Maestría
en Matemática Pura, sin embargo, todos los maestro dedicaron tiempo inmedible y sus
conocimientos, para lograr que un buen grupo pudiera llegar a la meta. De manera
muy especial presento mis respetos y agradecimientos a los maestros Juan Toribio
Milane, Carlos Feliz y Genaro Viñas, por confiar en mí y ser dignos modelos a
seguir en esta ardua tarea de educar. GRACIAS.
Mi asesor Juan Toribio Milane: por su increible disciplina, que lo hace merece-
dor de mi respeto y admiración, por su paciencia para conmigo y sus puntuales consejos
y recomendaciones en pro de alumbrar el oscuro y espinoso camino que parecía tender
al infinito. GRACIAS, MI REPETO, MAESTRO.
Santo Ángeles Núñez: Cuñado, Compadre, Consejero, Amigo, por su apoyo in-
condicional, entrega y muestras sinceras de afecto y preocupación por la posibilidad de
iii
iv ÍNDICE GENERAL
Dionis Genao: por darme luz de esperanza, cuando ya estaba casi decidido a
rendirme, subrayando mis fortalezas y mostrándome que aún podía salir adelante, pues
la meta aún estaba ahí, a mi espera. GRACIAS.
DS: por brindarme su apoyo, aun sin conocerme, depositando su valioso tiempo en
lograr que se cumpliesen los sueños de un desconocido. Fueron invaluables sus consejos
y aportes, espero algún día poder corresponderle de igual manera. GRACIAS.
Mis compañeros de Maestría: Gerónimo Thomas Núñez, Pedro Tifa, Juan Ro-
dolfo Holguín, Francisco del Rosario Sánchez, Wendy Liriano, Miguel Estrella, Fenelix
Aracena, Cándido Silverio, Juan Carlos López, Ronny Gerónimo, Francisco Evange-
lista, José Joel, Melquicede, José Miguel y demás compañeros que en todo este largo
camino aportaron su granito de arena para que este programa de Maestría lo pudiera
culminar con éxito. GRACIAS.
Resumen
v
Abstrac
vi
Capítulo 1
Introducción
1.1. Antecedentes
A pesar de lo sencillo que puede parecer el enfoque axiomático en el cálculo dife-
rencial, este no es muy utilizado a pesar de que el desarrollo de la estructura de las
distribuciones bajo los teoremas básicos del análisis funcional es particularmente intere-
sante, pues permite la combinación entre diferentes áreas de las matemáticas entre las
que se destacan el análisis de Fourier, las ecuaciones diferenciales parciales, la teoría
de la medida y por supuesto el análisis funcional. Por esta razón, en este proyecto de
investigación se hará una recopilación de conceptos básicos sobre la teoría de las distri-
buciones haciendo mayor énfasis en las propiedades de la ortogonalidad con respecto a
medidas de distribuciones de probabilidades.
1
2 CAPÍTULO 1. INTRODUCCIÓN
nociones de modo que las operaciones fundamentales del análisis se puedan realizar
siempre y sin hipótesis complicadas de validez, por tanto, de alguna manera se trata de
obtener una notación generalizada de diferenciación que permita derivar funciones (en
principio) que no lo son en sentido ordinario.
Para los matemáticos del siglo XVIII, no estaba muy claro el concepto de función,
y menos aún el de función diferenciable. Los matemáticos de este período, en lugar
de trabajar con una jerarquía bien establecida de funciones, lo hacían con una clase
no muy bien definida: las funciones continuas (que llamaremos a partir de ahora
F-continuas). Una función F-continua venía dada por una expresión analítica, enten-
diéndose como tal a cualquier combinación de constantes y variables construida a partir
de las operaciones matemáticas conocidas, algebraicas y trascendentes, incluyendo su-
mas infinitas, diferenciación e integración. Se admitía que tales funciones se podían
representar en el entorno de cada punto por una serie de potencias y, por tanto, en len-
guaje moderno, serían funciones localmente analíticas. Después venían las "funciones
discontinuas"(F-discontinuas) o "mecánicas", que aparecían definidas por expresiones
analíticas distintas en distintos intervalos. En cualquier caso, estos conceptos no esta-
ban expresados ni aceptados de una manera universal, sino que variaban de un autor a
otro.
∂ 2f ∂ 2f
= (1.1)
∂x2 ∂t2
(recuérdese que la noción moderna de derivada, como límite de un cociente, se
debe a Cauchy; en este período la noción de derivada parcial tenía interpretaciones
esencialmente geométricas). Euler llega a la misma solución que D’Alembert, pero con
interpretaciones esencialmente distintas. Para D’Alembert, las funciones arbitrarias ϕ
y ϕ deberían ser F -continuas, a fin de que se les pudiera aplicar las reglas del análisis co-
nocido. En una argumentación posterior (1761), D’Alembert usó el análogo geométrico
de la expresión:
f (z) + f (z + 2r) − 2f (z + r)
f ′′ (z) = (r > 0, infinitamente pequeño)
r2
obteniendo para la solución f (x, t) = Ψ(x + t) + ϕ(x − t) de la ecuación (1.1) la
expresión
∂ 2f ∂ 2f
̸
=
∂x2 ∂t2
2. Pero, además, basta alterar de modo infinitesimal las dos curvas en el punto B
para que la f ′ sea regular en ese punto y el radio de curvatura no tenga saltos; esta
alteración infinitesimal no alterara el movimiento de la cuerda. Este argumento
es mucho más interesante desde el punto de vista de las distribuciones, pues an-
ticipa el llamado método de las sucesiones para definir soluciones generalizadas
de ecuaciones diferenciales, que sería ámpliamente utilizado en el siglo XX. En
efecto, si en lugar de una alteración infinitesimal pensamos en una sucesión (fn )
que converja a f en alguna topología, el argumento de Euler toma la forma si-
guiente: si las fn son soluciones clásicas de la ecuación diferencial y convergen a
f , entonces f es solución generalizada de la misma ecuación diferencial.
1.1. ANTECEDENTES 5
Z α
∂ 2 f (x, t) Z α 2
∂ f (x, t)
2
M (x)dx = M (x)dx = (1.3)
0 ∂t 0 ∂x2
x=α
∂f (x, t) Z α
∂f (x, t) ′
M (x) − M (x)dx =
∂t x=0 0 ∂x
" # x=α
∂f (x, t) Z α
M (x) − f (x, t)M ′ (x) + f (x, t)M ′′ (x)dx
∂t x=0 0
Z α
∂ 2 f (x, t) Z α
M (x)dx = f (x, t)M ′′ (x)dx (1.4)
0 ∂t2 0
Z α
∂ 2 f (x, t) 2
Z α
M (x)dx = −k f (x, t)M (x)dx (1.6)
0 ∂t2 0
Z α
∂ 2 f (x, t)
s= M (x)dx (1.7)
0 ∂t2
la ecuación (1.6) se transforma en la
ds2
= −k 2 s (1.8)
dt2
Por tanto, la integración de la ecuación en derivadas parciales (1.1) se reduce a la
integración del par de ecuaciones diferenciales ordinarias (1.5) y (1.8), ligadas ambas
por (1.7), con lo cual las diferenciales de f respecto de x desaparecen, por lo que, en
palabras de Lagrange (textbfon ná point á craindre díntroduire par lá dans notre calcul
aucune loi de continuité entre les différentes valeu de f ). Después Lagrange procedió a
resolver (1.6) con unos extraños argumentos con integrales trigonométricas. La fórmula
(1.8) contiene todavía las derivadas de f respecto de t, pero Lagrange trata de convencer
al lector de que la dependencia respecto a t puede tratarse según las reglas usuales del
cálculo, pues la ley de continuidad se verifica en esta ocasión (es obvio que no es éste
el caso: la solución final presenta el mismo tipo de discontinuidades en x que en t).
El descubrimiento importante de Lagrange es que el uso de la integración por partes
permite trasladar el operador diferencial de la función incógnita a una cierta (función
test) adecuada M . Como veremos, ésta es la idea básica en el cálculo con distribuciones.
Naturalmente, con esta actitud Lagrange caía dentro de las críticas de DÁlembert.
Sin embargo, rechaza estas críticas con el siguiente razonamiento: DÁlembert había
calculado las segundas derivadas a partir de los valores de la función en los puntos
(z, z + r, z + 2r). Lagrange creía que debían tomarse los puntos (z, r, z, z + r), es decir,
tomar
f (z) + f (z + 2r) − 2f (z + r)
f ′′ (z) = (r > 0, infinitamente pequeño)
r2
1.1. ANTECEDENTES 7
De esta forma, Lagrange encontraba que las dos expresiones de (1.3) eran idénticas,
incluso en los puntos en los que el radio de curvatura tenían un salto (pero mantenién-
dose f de clase C 1 ). De esta forma, se restablecía la validez de la solución de Euler para
la ecuación de la cuerda vibrante. Este argumento de cambiar la definición de derivada,
anticipa las consideraciones de Riemann y muchos matemáticos posteriores.
∂ 2U ∂ 2U
− =0
∂x2 ∂y 2
8 CAPÍTULO 1. INTRODUCCIÓN
tenía las soluciones generalizadas f (x + y) + g(x − y) para todo par de funciones conti-
nuas f y g. Posteriormente probó que todas las soluciones generalizadas de la ecuación
de Laplace son soluciones ordinarias.
Pocos días después de escribir este artículo, Schwartz atacó el problema para ob-
tener una definición mejor que la solución generalizada. Fijó su atención en el hecho de
que la solución generalizada obtenida en la demostración del teorema actuaba como un
operador de convolución que transformaba una función ifinitamente diferenciable con
soporte compacto en una función C 1 . Esto le llevó a introducir un nuevo objeto, que
llamó operador de convolución: lo definió como un operador lineal continuo de D (es-
pacio de las funciones ifinitamente diferenciables con soporte compacto, con la noción
de convergencia secuencial idéntica a la de Sobolev) en E (espacio de las funciones de
clase C ∞ , con la convergencia uniforme sobre compactos de todas las derivadas), con
la propiedad de que
∀ φ, ψ ∈ D T (φ ∗ ψ) = (T φ) ∗ ψ
(la continuidad tomada en sentido secuencial).
Schwartz observó que toda función continua f podía identaficarse con el operador
φ→f ∗δ (φ ∈ D)
φ→δ·φ (φ ∈ D)
Schwartz desarrolló estos conceptos y varios teoremas sobre sus operadores de con-
volución durante una noche de octubre de 1944. En los próximos seis meses continuó
trabajando sobre el mismo tema, obteniendo nuevos teoremas. Alrededor de febrero de
1945 comenzó a desarrolar una teoría de transformadas de Fourier para estos operado-
res, pero se encontró con grandes dificultades. Intentó resolverlas durante varios meses.
Por fin, un día, probablemente en abril de 1945, de repente se dio cuenta que estos
problemas podían resolverse fácilmente si dfinía las funciones generalizadas no como
operadores, sino como funcionales sobre D, que llamá distribuciones. Según sus propias
afirmaciones, hubo dos hechos que le pudieron sugerir la definición real de distribución:
2. Sabía, por sus contactos con Cartan y el grupo Bourbaki, que las medidas, y en
especial la medida δ, podían representarse como funcionales.
Más tarde, Schwartz tuvo conocimiento a través de sus colegas de los trabajos pre-
vios sobre el tema. Sin embargo, para entonces había desarrollado tanto su teoría, que
no encontró en ellos nada nuevo que le inspirara nuevos conceptos o técnicas.
Debido a que dos medidas distintas de un mismo espacio métrico pueden ser ab-
solutamente continuas entre si y singulares con respecto a cierta función medible, este
enfoque axiomático es muy utilizado en el desarrollo de los Teoremas de Descomposición
de Lebesgue y de la derivada de Radón-Nikodym, el cual relacionaremos directamente
con los espacios probabilísticos sobre los cuales se manifiestan distribuciones continuas
y discretas (Binomial, Exponencial, Cauchy, Normal y de Poissón), tras la busqueda
de obtener la derivada de Radón-Nikodym y la aproximación de dichas distribuciones
a través del Teorema del Límite Central.
1.3. Justificación
La teoría de distribuciones constituyen un tema de amplio campo de aplicación
debido a que su enfoque axiomático esta extrechamente relacionado con la teoría de la
medida, el análisis de Fourier, las ecuaciones diferenciales parciales y el análisis fun-
cional, así como también en la estadística y el cálculo de probabilidades. No obstante,
las fuentes consultadas abordan las distribuciones de forma independiente para la re-
solución de problemas relacionados con el cálculo de la densidad de probabilidades en
espacios probabilísticos, mientras que en la teoría de la medida, es más frecuente su uso
en la aplicación del teorema de la descomposición de medidas de Lebesgue y la derivada
de Radón-Nikodym, por lo que centraremos de vital importancia en esta investigación
el cálculo de dicha derivada y la aplicación del Teorema del Límite Central para obtener
aproximaciones válidas de estas distribuciones continuas y discretas y las condiciones
y/o parámetros bajo las cuales es posible obtenerlas, sin dejar de lado el desarrollo de
las propiedades de cada una de estas medidas de distribución y las demostraciones de
cada uno de los Teoremas con los que se relaciona, asumiendo como un pilar principal
en esta investigación, el rigor matemático que sustentan, tanto en la Teoría de Proba-
bilidades como en la Teoría de la Medida.
1.4. Objetivos
En esta investigación nos proponemos los siguientes objetivos:
1.4.1. Generales:
- Obtener la derivada de Radón-Nikodym y la aproximación distribuciones de pro-
babilidades continuas y discretas.
1.4.2. Específicos:
- Derivar, según Radón-Nikodym, distribuciones de probabilidades continuas y dis-
cretas.
14 CAPÍTULO 1. INTRODUCCIÓN
- Identificar las condiciones bajo las cuales es posible obtener la derivada de Radón-
Nikodym de Distribuciones de probabilidades continuas y discretas.
Teoría de la Medida y
Probabilidades
i) A, B ∈ R ⇒ A\B ∈ R.
ii) A, B ∈ R ⇒ A ∪ B ∈ R.
si R cumple, ademas:
iii) X ∈ R.
15
16 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
i) Ω ∈ F.
ii) si A ∈ F, entonces Ac ∈ F.
Propiedad 2.1.1 Sea R una clase de partes de F cumpliendo las propieades ii) y
iv) A ∈ R ⇒ Ac ∈ R.
A1 ∪ · · · ∪ An ∈ R A1 ∩ · · · ∩ An ∈ R
Propiedad 2.1.3 Sea R una clase de subconjuntos de F que cumple las propiedades
i) y
ii’) A, B ∈ R & A ∩ B = ϕ ⇒ A ∪ B ∈ R.
Entonces R es un anillo. Por tanto i), ii’) caracterizan la propiedad de ser anillo.
Definición 2.1.3 Se dice que una clase A es un σ-anillo si cumple i) junto con:
ii”) ∪∞
n=1 En ∈ A para toda sucesión {En }n∈N en A. Es inmediato comprobar que un
σ-anillo en un anillo.
ii”’) ∪∞
n=1 En ∈ A para toda sucesión {En }n∈N en A de elementos disjuntos dos a dos.
2.1.2. Medida
La recta real ampliada R es R con la adición de dos nuevos elementos −∞, +∞
más las siguientes propiedades:
siempre que {En }n∈N sea una sucesión en D con ∪∞ n=1 En ∈ D cuyos elementos son
disjuntos dos a dos, es decir En ∩ Em = ϕ si n ̸= m.
Definición 2.1.6 Sean A una δ-álgebra y µ : A → [0, +∞] una función de conjunto.
Se dice que µ una medida si es completamente aditiva y µ(ϕ) = 0.
Definición 2.1.7 Sea µ una medida en F con dominio A. Se dice que µ es finita si
µ(F) < ∞. Se dice que µ es δ-finita si F = ∪∞
n=1 En donde µ(En ) < ∞ para cada n.
Prueba Como
1
{f > 0} = ∪n {f > }
n
existe n tal que {f > n1 } es no numerable. Para todo F ⊂ {f > n1 } finito
X card F
f> .
F n
Como pueden encontrarse partes F de cardinal tan grande como se desee resulta
X
f (x) = ∞.
x∈F
Ejemplo 2.1.5 Sobre cualquier espacio no vacío Ω, las familias P (Ω) = {A|A ⊆ Ω}
(el conjunto potencia) y {ϕ, Ω} poseen estructura de σ-álgebra sobre Ω.
En efecto, es fácil ver que las condiciones (σ1 ) y (σ2 ) se cumplen para ambas familias.
Ahora bien, la unión cualquiera de subconjuntos de Ω es un subconjunto mismo de
Ω, en particular esto sucede para uniones numerables; entonces la propiedad (σ3 ) es
válida para la familia P (Ω). Por otra parte, toda sucesión en la familia {Ω, ϕ} es en
realidad una sucesión finita, cuya unión es ϕ, o bien Ω, en cualquier caso, dicha unión
es elemento de {Ω, ϕ}.
2.1. TEORÍA DE LA MEDIDA 19
Ejemplo 2.1.6 Sea Ω el pequeño espacio {1, 2, 3, 4}. Y consideremos las familias A =
{ϕ, Ω, {2, 3, 4}, {1}}, B = {ϕ, Ω, {1}, {2}, {1, 2}, {3, 4}, {2, 3, 4}, {1, 3, 4}} y C = {ϕ, Ω,
{1, 3, 4}, {2}}. Mediante una inspección visual notamos que todas ellas poseen estructura
de σ-álgebra sobre el mismo espacio Ω. Sin embargo, las familias D = {{1}, {2}, ϕ} y
E = {{1}, {2}}, no son σ-álgebras sobre Ω.
Ejemplo 2.1.7 Por convención entenderemos como subconjunto contable, aquel sub-
conjunto (o espacio) de cardinalidad o a lo sumo infinito numerable. Sea Ω un espacio
no contable. Consideremos la familia
F = {A ⊆ Ω | A es contable o Ac es contable}.
Como ejemplo tenemos que Ω podría ser el conjunto R de los números reales, y un
elemento de F en tal caso es el conjunto N de los números naturales. Se tiene que F
posee estructura de σ-álgebra sobre Ω.
Las tres condiciones de un σ-álgebra son verificables.
⇒ A es contable o Ac es contable
⇒ Ac es contable o A es contable
⇒ Ac es contable o (Ac )c es contable,
entonces A ∈ F
con A = {f (x, y) | 0 ≤ x ≤ y ≤ 1}, es cerrada bajo uniones finitas (lo cual se sigue
de forma inmediata de la propia definición de G), sin embargo no es σ-álgebra. Por
ejemplo, los intervalos (1/2n, 1/(2n − 1)] pertenecen a G (de hecho pertenecen a A), sin
embargo, dado que son ajenos, su unión no puede ser expresada como una unión finita
de intervalos en A. Consideremos la nueva familia
( )
[
F= A | D ⊂ A, D es f inito
A∈D
entonces F es un σ-álgebra.
Proposición 2.1.2
X ∞
X
an = an
N n=1
Luego
µ(A1 + · · · + am ) ≤ µ(A1 ) + · · · + µ(Am ).
2.1. TEORÍA DE LA MEDIDA 21
Para la desigualdad contraria basta con suponer que los µ(Ai ) son todos finitos.
En ese caso, dado ϵ > 0 existen Fi ⊂ Ai finitos tales que:
ϵ X
µ(Ai ) − ≤ f.
m Fi
Así
X
µ(A1 ) + · · · + µ(am ) − ϵ ≤ f ≤ µ(A1 + · · · + am ).
F1 +···+Fm
X ∞
X
f ≤ µ(A1 ) + · · · + µ(am ) ≤ µ(An ).
F n=1
Con ello
∞
X
µ(∪An ) ≤ µ(An ).
n=1
A1 + · · · + Am ⊂ ∪An ,
Por lo que
es decir
∞
X
µ(An ) ≤ µ(∪An ).
n=1
Entonces
∞
X ∞
X ∞
X
αn = bn = cn
n=1 n=1 n=1
22 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
X ∞
X
αij = cn .
N2 n=1
En particular
∞
( ∞ ) ∞
( ∞ )
X X X X X
αij = αij = αij .
N2 i=1 j=1 j=1 i=1
A esta última identidad se le conoce como el teorema de Fubini para las series dobles.
Prueba
a) Es trivial.
2.1. TEORÍA DE LA MEDIDA 23
Prueba
Ejemplo 2.1.10 (σ-álgebra trivial o grosera) {ϕ, Ω} es la más pequeña σ-álgebra que
podemos considerar en Ω. Se llamará σ-álgebra grosera o σ-álgebra trivial.
ii) Sea (Ak )k∈N una secuencia creciente de Ω y A = ∪k∈N Ak , entonces µ(Ak ) ↑ µ(B)
+
en R .
iii) (Ak )k∈N una secuencia decreciente en Ω, tal que µ(A0 ) < +∞ y A = ∩k∈N Ak ,
+
entonces µ(Ak ) ↓ µ(B) en R .
Proposición 2.1.11 Sea (F, Ω, µ) un espacio de medida donde µ es una medida po-
+
sitiva, sean f, g : F → R funciones medibles, A, B ∈ Ω y α > 0 un número real.
Definimos
Z Z f (x)
cuando x ∈ A
f dµ = f · 1A dµ con fA (x) = (2.2)
A F | {z } 0
cuando x ∈
/ A.
fA
A ⊂ B =⇒
R R R R
i) 0 ⩽ f ⩽ g =⇒ F f dµ ⩽ F f dµ, A f dµ ⩽ B f dµ.
R R
ii) F αf dµ = α F f dµ.
Para verificar que es realmente una medida, consideramos una secuencia de sub-
conjuntos separados por pares (Ak )k∈N : si uno de ellos es infinito, (2.1) es obvio,
así como cuando todos son finitos con una unión finita. Si todos son finitos con
una unión infinita, (2.1) se deduce de las desigualdades
X X
card(∪0⩽k⩽N Ak ) = card(Ak ) = Ak
0⩽k⩽N 0⩽k
i. µ es dominante sobre ν.
ii. µ ≪ ν.
f dν ⇒ µ ≪ ν.
R
Por lo tanto, µ(A) = A
2.1. TEORÍA DE LA MEDIDA 27
Definición 2.1.12 Sea (Ω, F) un espacio medible y sean µ y ν dos medidas en (Ω, F).
Se dice que la medida µ está dominada por ν o absolutamente continua cor respecto a
ν y escrito como µ ≪ ν si:
a) ν es la medida de Lebesgue.
Ejemplo 2.1.20 Sea m una medida de lebesgue en (R, B(R)) y sea µ la distribución
normal estandar, es decir,
Z
1 x2
µ(A) ≡ √ e− 2 m(dx)
A 2π
Ejemplo 2.1.21 Sea Z+ ≡ {0, 1, 2, ...} denota el conjunto de todos los no negativos
enteros. Sea ν la medida de conteo en Ω = Z+ y sea µ la distribución de Poissón (λ)
para 0 < λ < ∞, es decir,
y
X e−λ λj
µ(A) =
j∈A j!
Tenga en cuenta que µ es singular con respecto a ν y ν es singular con respecto a µ, así
la notación de singularidad entre dos medidas µ y ν es simétrica, pero la de continuidad
absoluta no lo es. Tenga en cuenta también que si µ y ν son mutuamente singulares y
B satisface (2.5) , luego para todo A ∈ F,
Ejemplo 2.1.23 Sea µ la medida de Lebesgue en (R, B(R)) y ν sea definido como
ν(A) = # de elementos en A ∩ Z donde Z es el conjunto de enteros.
Entonces
ν(Zc ) = 0 y µ(Z).
Teorema 2.1.1 Sea (Ω, F) un espacio medible y sean µ1 y µ2 dos medidas δ-finitas en
(Ω, F).
donde µ1a y µ1s son medidas δ-finitas en (Ω, F) de tal manera que µ1a ≪ µ2 y
µ1a ⊥ µ2 .
Prueba
Por tanto f ∈ L2 (µ). Sea f = IA con A ∈ F, entonce (2.9) y (2.10) implican que,
Z
µ1 (A) = T (IA ) = gdµ.
A
Z Z
⇒ f (1 − g)dµ1 = f gdµ2 . (2.13)
0 = µ2 (A2 ).
Caso ii. Ahora supongamos que µ1 y µ2 son δ-finitos. Entonces existe una partición
contable Dn ≥ 1 ⊂ F de Ω tal que µ1 (Dn ) y µ2 (Dn ) son ambos finitos para todo
(n) (n)
n ≥ 1. Sea µ1 (γ) ≡ µ1 (γ ∩ Dn ) y µ2 (γ) ≡ µ2 (γ ∩ Dn ). Luego, aplicando el caso
(n) (n) (n) (n)
1 a µ1 y µ2 para todo n ≥ 1 se obtienen las medidas µ1a , µ1s y una función
hn tal que
(n) (n) (n)
µ1 (γ) ≡ µ1a (γ) + mu1s (γ) (2.15)
Z Z
(n) (n) (n) (n)
donde para A en F, µ1a (A) = hn dµ2 = hn IDn dµ2 y µ1s (γ) ⊥ µ2 . Enton-
A A
∞
X (n) (n) (n) (n)
ces µ1 (γ) = µ1 (γ) por lo que de µ1 ≡ µ1a (γ) + µ1s (γ) se obtiene que
n=1
µ2 (B) = 0, µ2 (B ′ ) = 0 y µs (B c ) = 0, µ′s (B ′c ) = 0.
Así,
µs (A ∩ Dc ) ≤ µs (A ∩ B c )
µ′s (A ∩ Dc ) ≤ µ′s (A ∩ B ′c ).
32 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
Por ejemplo, sea µ la medida de Lebesgue y sea ν la medida contable en [0, 1]. Entonces
Z
µ ≪ ν pero no existe una función h, F-numerable no negativa, tal que µ(A) = hdν,
A
por consiguiente,
Z para poder ver esto, en caso de ser posible, supongamosZ un h ∈
L1 (ν), µ(A) = hdν ∀ A ∈ F. Note que µ([0, 1]) = 1 implica que para hdν < ∞
A [0,1]
y por tanto B ≡ {x : h(x) > 0} es contable, pero siendo µ la medida de Lebesgue
µ(B) = Z0 y µ(B c ) = 1. ya que por definición h ≡ 0 en B c , esto implica que 1 =
µ(B c ) = hdν = 0, lo que lleva a una contradicción, sin embargo, si ν es δ-finito y
[0,1]
µ ≪ ν (µ no necesariamente δ-finito), entonces el teorema de Radon-Nikodym satisface,
es decir, existe una función de F no negativa, tal que
Z
µ(A) = hdν ∀ A ∈ F.
A
i. Si µ1 ≪ µ2 y µ2 ≪ µ3 , entonces µ1 ≪ µ3 y
dµ
iii. Si µ ≪ ν y dν
> 0 casi en todas partes para ν, entonces ν ≪ µ y
!−1
dµ dν
= casi en todas partes para µ.
dν dµ
iv. Sea {µn }n≥1 una secuencia de medidas y {αn }n≥1 una secuencia de números reales
∞
X
positivos, es decir, αn > 0 ∀ n ≥ 1. Se define µ = αn µn .
n=1
b) µ ⊥ ν si µn ⊥ ν ∀ n ≥ 1.
i. ν(ϕ) = 0.
∞
X
ii. Para cualquier {An }n≥1 ⊂ F con Ai ∩ Aj = ϕ para i ̸= j y con |ν(Ai )| < ∞,
i=1
∞
X
ν(A) = ν(Ai ). (2.18)
i=1
34 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
iii. Sea
( ∞
X
∥ ν ∥≡ sup |ν{Ai }| : {An }n≥1 ⊂ F, Ai ∩ Aj = ϕ
i=1
)
para i ̸= j, ∪n≥1 An = Ω . (2.19)
El ejemplo anterior muestra que la diferencia de dos medidas finitas es una medida
con signo finito. Se mostrará a continuación que cada medida con signo finito se puede
expresar como la diferencia de dos medidas finitas.
Proposición 2.1.13 Sea ν una medida con signo finito en (Ω, F). Sea
( ∞
X
|ν|(A) ≡ sup |ν{An }| : {An }n≥1 ⊂ F, Ai ∩ Aj = ϕ
n=1
)
para i ̸= j, ∪n≥1 An = Ω . (2.20)
Prueba: Que |ν|(Ω) < ∞ se desprende de la parte (iii) de la definición. Así es suficiente
para verificar que ν es contable aditivo. Sea {An }n≥1 una familia contable de
conjuntos disjuntos en F. Sea ∪n≥1 An . Por la definición de |ν| para todo ϵ > 0
y n ∈ N, existe una familia contable {Anj }j≥1 de conjuntos disjuntos en F con
∞
X ϵ
∪j≥1 Anj tal que |ν(Anj )| > |ν|(An ) − n . Por lo tanto,
j=i 2
∞ X
X ∞
|ν(Anj )| > |ν|(An ) − ϵ.
n=1 j=1
Tenga en cuenta que {An }n≥1,j≥1 es una familia contable de conjuntos disjuntos
en F tal que A = ∪n≥1 An = ∪n≥1 ∪j≥1 Anj . Se sigue de la definición de |ν| que
∞ X
X ∞
|ν|(A) ≥ |ν(Anj )| > |ν|(An ) − ϵ.
n=1 j=1
2.1. TEORÍA DE LA MEDIDA 35
Para obtener la desigualdad opuesta, sea {Bj }j≥1 una familia contable de con-
juntos disjuntos en F tal que ∪j≥1 Bj = A = ∪n≥1 An . Entonces, podemos hacer
Bj = Bj ∩ A = ∪n≥1 (Bj ∩ An ) y ν satisface (2.18),
∞
X
ν(Bj ) = ν(Bj ∩ An ) ∀ j ≥ 1.
n=1
Así
∞
X ∞ X
X ∞
|ν(Bj )| ≤ |ν(Bj ∩ An )|
j=1 j=1 n=1
∞ X
X ∞
= |ν(Bj ∩ An )|. (2.22)
n=1 j=1
Tenga en cuenta que para cada An , Bj ∩ An j≥1 es una familia contable de con-
juntos disjuntos en F tal que An = ∪j≥1 (Bj ∩ An ). Entonces desde (2.20), resulta
∞
X ∞
X
que |ν|(A) ≥ |ν(Bj ∩ An )| y entonces se desprende de esto que, |ν|(An ) ≥
j=1 n=1
∞ X
X ∞
|ν(Bj ∩ An )|.
n=1 j=1
∞
X ∞ X
X ∞
Desde (2.22) resulta que |ν|(An ) ≥ |ν(Bj ∩)|. Esto es cierto para cada
n=1 n=1 j=1
familia {Bj }j≥1 , de lo que sigue de (2.20), que
∞
X
|ν|(A) ≤ |ν|(Ai ) (2.23)
i=1
Definición 2.1.16 La medida |ν| definida por (2.20) se denomina medida de variación
total de la medida signada ν.
36 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
ν = ν + − ν −. (2.25)
donde h = h1 − h2 . Por lo tanto, cada medida con signo finito ν en (Ω, F) se puede
expresar como
Z
ν(A) = f dµ, A∈F (2.28)
A
ii. Una función de conjunto ν en un espacio medible (Ω, F es una medida con signo
finito si existe una medida finita µ en (Ω, F y una f ∈ L1 (Ω, F, µ) tal que para
toda A ∈ F,
Z
ν(A) = f dµ, A∈F
A
2.1. TEORÍA DE LA MEDIDA 37
Definición 2.1.18 Sea ν una medida con signo finito en un espacio medible (Ω, F. Un
conjunto A ∈ F se llama un conjunto positivo para ν si para cualquier B ⊂ A, B ∈ F ,
ν(B) ≥ 0. Un conjunto A ∈ F se llama un conjunto negativo para ν si para cualquier
B ⊂ A con B ∈ F , ν(B) ≤ 0.
Se sigue que h = 1 es decir, |ν| en Ω+ . Del mismo modo,h − 1 es decir |ν| en Ω− . Por
lo tanto, las medidas ν + y ν − , definidas en (2.24), se reducen a
1+h
Z
ν + (A) = d|ν|
A 2
Z
1+h Z
1+h
= d|ν| + d|ν|
A∩Ω+ 2 A∩Ω− 2
= |ν|(A ∩ Ω+ )
y de manera similar
ν − (A) = |ν|(A ∩ Ω− )
Tenga en cuenta que ν + y ν − son medidas finitas que son mutuamente singulares. Esta
particular descomposición de ν como
ν = ν+ − ν−
38 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
Teorema 2.1.4 Sea ν una medida con signo finito en un espacio medible (Ω, F) y sean
µ1 y µ2 dos medidas finitas en (Ω, F) de manera que ν = µ1 − µ2 . Luego existe una
medida finita λ tal que µ1 = ν + + λ y µ2 = ν − + λ con λ = 0 si µ1 y µ2 son mutuamente
singulares.
sea
donde λ1 y λ2 son medidas finitas. Ahora se desprende del Teorema 1.2 que α1 ν1 +α2 ν2 ∈
S. Por lo tanto, S es un espacio vectorial sobre R. Ahora se mostrará que ∥ν∥ ≡ |ν|(Ω)
es una norma en S y que (S, ∥ · ∥) es un espacio de Banach.
Definición 2.1.19 Para una medida con signo finito ν en un espacio medible (Ω, F)
la norma de variación total ν se define por ∥ν∥ ≡ |ν|(Ω)
2.1. TEORÍA DE LA MEDIDA 39
Proposición 2.1.14 Sea S ≡ {ν : ν es una medida con signo f init en (Ω, F)}.
Entonces ∥ν∥ ≡ |ν|(Ω), ν ∈ S es una norma en S.
Prueba: Sea {νn }n≥1 una sucesión de Cauchy en (S, ∥ · ∥). Note que para cualquier
A ∈ F, |νn (A) − νm (A)| ≤ |νn − νm |(A) ≤ ∥νn − νm ∥. Entonces, para cualquier
A ∈ F, {νn (A)}n≥1 es una sucesión de Cauchy en R y por tanto
Se mostrará que ν(·) es una medida con signo finito y ∥νn − ν∥ −→ 0 cuando
n −→ ∞. Sea {Ai }i≥1 ⊂ F, Ai ∩ Aj = ϕ, para i ̸= j, y A = ∪i≥1 Ai . Sea
xn ≡ {νn (Ai )}i≥1 , n ≥ 1 y sea x0 ≡ {ν(Ai )}i≥1 , n ≥ 1. Tenga en cuenta que
X
cada xn ∈ ℓ1 donde ℓ1 ≡ {x : x = {xi }i≥1 ∈ R, |xi | < ∞}. Para x ∈ ℓ1 sea
i≥1
∞
X X
∥x∥1 = |xi |. Luego ∥xn − xm ∥ = |xn (A) − xm (A)| ≤ |xn − xm |(A) ≤ |xn −
i=1 i=1
xm |(Ω) −→ 0 cuando n, m −→ ∞. Pero ℓ1 es completo bajo ∥·∥1 . Entonces existe
x∗ ∈ ℓ1 tal que |xn − x∗ |1 −→ 0. Desde xni ≡ νn (Ai ) −→ ν(Ai ) para todo i ≥ 1,
∞
X
se deduce que x∗ = ν(Ai ) para todo i ≥ 1 y que |ν(Ai )| < ∞. Ademas, para
i=1
∞
X X
todo n ≥ 1, νn (A) = νn (Ai ). Entonces |νn (Ai ) − ν(Ai )| −→ 0, νn (A) ≡
X X i=1 i=1
νn (Ai ) −→ ν(Ai ) cuando n −→ ∞. Pero νn (A) −→ ν(A). por lo tanto,
i=1 i=1
∞
X
ν(A) = ν(Ai ). También para cualquier partición contable {Ai }i≥1 ⊂ F en Ω,
i=1
∞
X ∞
X
|ν(Ai )| = lı́m |νn (Ai )| ≤ lı́m ∥νn ∥ < ∞.
n−→∞ n−→∞
i=1 i=1
Por lo tanto |ν(Ω)| < ∞ y por consiguiente, ν ∈ S. Finalmente,
∞
X
∥νn − ν∥ = sup{ |νn (Ai ) − ν(Ai )| : {Ai }i≥1 ⊂ F
i=1
es una partición separable de Ω}.
Así
Proposición 2.1.16 Sea µ una medida firada en un espacio medible (Ω, F, P ). Sea
µ = λ1 − λ2 donde λ1 y λ2 son medidas finitas. Sea f ∈ L1 (Ω, F, λ1 + λ2 ). Entonces
f ∈ L1 (Ω, F, |ν|) y
Z Z Z
f dµ = f dλ1 − f dλ2 . (2.30)
Por el teorema del valor medio, se deduce que si F es diferenciable y F ′ (·) está
limitada, entonces F es absolutamente continua. También tenga en cuenta que si F es
absolutamente continua implica que F es uniformemente continua.
es absolutamente continua.
Prueba: Primero
Z considere el "si parte". Supongamos que (2.31) se cumple.
Como |f |dm < ∞, para cualquier ϵ > 0, existe un δ > 0 tal que
[a,b]
Z
m(A) < δ ⇒ |f |dm < ϵ (2.32)
[a,b]
k
X
Asi, si Ij = (aj , bj ) ⊂ [a, b], j = 1, 2, · · · , k son tales que (bj − aj ) < δ
i=1
k
X Z
|F (bj ) − F (aj )| ≤ |F |dm < ϵ,
i=1 ∪kj=1 Ij
k
ya que m(∪kj=1 Ij ) <
X
(bj − aj ) < δ y (2.32) se mantiene. Por lo tanto, F es
i=1
absolutamente continua. Luego considere “solo si es parte”. No es difícil verificar
que si F es absolutamente continua, implica que F es de variación limitada en
cualquier intervalo finito [a, b] y tanto las variaciones positivas como negativas
de F en [a, b] son absolutamente continua también. Por lo tanto, es suficiente
establecer (2.31) asumiendo que F es absolutamente continua y no decreciente.
Sea µF la medida de Lebesgue-Stieltjes generada pora Fe como en la definición
(2.1.22). Ahora se mostrará que µF es absolutamente continua con respecto a La
medida de Lebesgue. Fijar ϵ > 0. Deje que δ > 0 sea elegido para que
k
X k
X
(aj , bj ) ⊂ [aj , bj ], j = 1, 2, · · · , k, (bj − aj ) < δ ⇒ |F (bj ) − F (aj )| < ϵ
j=1 j=1
2.1. TEORÍA DE LA MEDIDA 43
Así
!
∪kj=1 Ij
X
µF A ∩ ≤ µF Ij
i=1
k
X k
X
≤ µF (Ij ) = (F (bj ) − F (aj )) < ϵ
j=1 j=1
para todo k ∈ N.
Desde A ⊂ ∪j=1 Ij , por la propiedad de la continuidad monótona desde abajo de
µF (·), µF (A) = lı́mk−→∞ µF (A ∩ ∪kj=1 Ij ) ≤ ϵ. Esto es cierto para cualquier ϵ > 0,
se sigue que µF (A) = 0. Dado que F es continuo, µF ({a, b}) = 0 y por lo tanto
µF (a, b)c = 0. Por lo tanto, µF ≪ m, es decir, µF está dominado por m. Ahora,
según el teorema de Radod Nikodym, existeZ una función mensurable no negativa
f tal que A ∈ Mm implica que µF (A) = f dm y, en particular, para un
A∩[a,b]
a ≤ x ≤ b,
Z
µF ([a, x]) = F (x) − F (a) = f dm,
[a,x]
un intervalo [a, b] si para cada ϵ > 0, existe una δ > 0 tal que para cualquier colección
finita de intervalos Ij = (aj , bj ), j = 1, 2, ·, n, contenido en [a, b],
n
X n
X
(bj − aj ) < δ ⇒ (F (bj ) − F (aj )) < ϵ.
j=1 j=1
Prueba: Supongamos que µF ≪ m. Entonces por el teorema (2.1.1), existe una Fun-
ción medible no negativa h tal que
Z
µF (A) = hdm para todo A ∈ B(R)
A
■
2.1. TEORÍA DE LA MEDIDA 45
Recuerde que una medida µ en (Rk , B(Rk )) es una medida de radón si µ(A) < ∞
para cada conjunto de Borel acotado A. En lo siguiente, m(·) denota la medida de
Lebesgue en Rk .
por cada bola abierta A tal que x ∈ A y diam(A) ≡ sup{∥x − y∥ : x, y ∈ A}, el diámetro
de A, es menor que δ.
Teorema 2.1.8 Sea µ una medida de Radón en (Rk , B(Rk )). Entonces
ii) Sea µa (A) ≡ A Dµ(·)dm, A ∈ B(Rk ). Sea µs (·) la única medida en B(Rk ) tal que
R
Entonces
Es decir, para casi todas las x(m), para cada ϵ > 0, hay una det > 0 tal que
1 Z
f dm − f (x) < ϵ
m(A) A
para todas las bolas abiertas A tal que x ∈ A y diam(A) < δ.
Resulta que un resultado más fuerte se mantiene.
Teorema 2.1.9 Para casi todas las x(m), para cada ϵ > 0, hay una δ > 0 tal que
1 Z
|f − f (x)|dm < ϵ
m(A) A
para todas las bolas abiertas A tal que x ∈ Aydiam(A) < δ
es una función discreta absolutamente continua paso a paso. Tiene un salto de tamaño
pn en cada an y es plano entre an y an+1 , n = 1, 2, · · · . La medida de probabilidad
correspondiente es
X
P (A) = pi A∈F
i:ai ∈A
Ejemplo 2.2.3 Sea F una función discreta continua y supongamos que F es diferen-
ciable en el cálculo usual. Sea f la derivada de F .
Z x
F (x) = f (y)dy, f ∈ R.
−∞
R
Sea P la medida de probabilidad correspondiente a F . Entonces P (A) = A f dm para
todo A ∈ B donde m es la medida de Lebesgue en R y f es la función de probabilidad
discreta de P con respecto a la medida de Lebesgue.
La derivada de Radon-Nicodym es la suma de la derivada en el cálculo usual.
Densidad
Prueba
Pk
Donde gk (x) = n=1 f (x)1A (x). Ya que 0 ≤ gk (x) ↑ 1∪An (x)f (x) ≡ g(x), por lo que
Z Z
ν(∪An ) = lı́m gk dµ = lı́m gk dµ
k→∞ k→∞
k
Z X
= lı́m f (x)1An (x)dµ
k→∞
n=1
k Z
X ∞
X
= lı́m f dµ = ν(An )
k→∞
n=1 An n=1
50 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
Ahora explicamos lo que significa que una medida sea computablemente normable en
relación con otra. Sean µ y ν medidas de Borel. Considere el operador lineal Lµ :
L2 (µ + ν) → R será definido por
Z
Lµ (f ) = f dµ.
Este es un operador lineal acotado y es fácil ver que, µ, ν y f , se puede calcular el valor
Lµ (f ). Recordamos que para un operador lineal u que actúa en el espacio de Hilbert
L2 , la norma ∥u∥ está definida por
Proposición 2.2.1 Sea µ una medida computable y f : X → [0, +∞] una función
R
semi-computable a nivel de µ-capas, el número f dµ es semi-computable inferior.
Teorema 2.2.4 Sea ν una medida de probabilidad computable. Sea h : X → [0, +∞]
una función calculable L1 (ν) tal que hν = 1 denota la medida con densidad h. Luego
R
1. µ es computable.
Prueba. Según el teorema 2.2.2, podemos suponer sin pérdida de generalidad que h
es el representante computable a nivel de ν-capas de su clase de equivalencia.
1. Tenemos que demostrar que para los conjuntos abiertos efectivos U , los va-
lores µ(U ) son números reales semi-computables más bajos, uniformemente
R
en U . Por definición, µ(U ) = h1U dν y h1U es claramente semi-computable
inferior en ν-capas, lo que implica la semi-computabilidad inferior de µ(U )
por la Proposición 2.2.1.
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 51
Ahora, para cada i, φ(i) = i + 1 + ⌈log(ni )⌉. Sea A un conjunto de Borel tal
que ν(A) < 2φ(i) . Entonces
Z Z Z
µ(A) = h1A dν = h1A dν + h1A dν
{h⩾n} {h<n}
−i−1
≤ 2 + ni ν(A)
−i−1
< 2 + ni 2φ(i) ≤ 2−i .
para 0 < ω < 1. Siendo Xn y X variables de Random en ((0, 1), (B((0, 1)), m)
siendo m la medida de Lebesgue. Ademas Xn tiene una distribución µn , n ≥ 1
tiene distribución µ y Xn −→ X con probabilidad 1
52 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
Prueba Para cualquier función de distribuciones acumulativas F ,se tiene que F −1 (u) ≡
sup t : F (t) < u. Entonces para cualquier u ∈ (0, 1) y t ∈ R se puede probar que
F −1 (u) ≤ t ⇒ F (t) ≥ u ⇒ F −1 (u) ≤ t por lo que, si u es una variable de random
uniforme (0, 1)
P (F −1 (U ) ≤ t) = P (U ≤ F (t)) = F (t)
lo que implica que
lı́m
n→∞
inf Xn (ω) ≥ X(ω) para todo ω ∈ (0, 1).
y por consiguiente
lı́m sup Xn (ω) ≤ X(ω + )
n→∞
con lo que quedq demostrado que para todo 0 < ω < 1
X(ω) ≤ lı́m
n→∞
inf Xn (ω) ≤ lı́m sup Xn (ω) ≤ X(ω + )
n→∞
Dado que X(ω) es una función no decreciente en (0, 1) y tiene como máximo una
función numerable de discontinuidades y así
ϕX (t) = (eitX )
= E(cos(tX)) + iE(sen(tX))
Observación 2.2.1 Como las variables cos(tX) , sen(tX) son acotadas, las esperan-
zas de estas variables existen y son finitas.
Prueba Observando que eitX , eitY son variables aleatorias independientes se tiene
Teorema 2.2.6 Si µ∗k < ∞ entonces para todo i < k se tiene µ∗i < ∞.
Como
I|X|≤1 |X|i ≤ I|X|≤1
y
I|X|>1 |X|i ≤ I|X|>1 |X|k ≤ |X|k
así obtenemos
|X|i ≤ I|X|≤1 + |X|k .
(n)
ϕX (t) = in E(X n eitX ). (2.35)
Supongamos que µ∗n+1 < ∞, por el Teorema 2.2.6 resulta µ∗n < ∞ y luego la
fórmula (2.35) es cierta para n. Entonces, tenemos que
(n)
ϕX (t) = in E(xn eitX )
= in (E(X n cos(tX)) + i(E(X n cos(tX)). (2.36)
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 55
Sea g(x, t) = xn cos(tX). Luego g2 (x, t) = −xn+1 sen(tx) es continua y |g2 (X, t)| ≤
|X|n+1 . Como E(|X n+1 |) < ∞, por el Teorema 11.8 se tendrá que si h(t) =
E(X n cos(tX)), entonces
Donde
Y
z=q
u21 + u21
tiene distribución N (0, 1).
[g ∗ (1)]n = g ∗ (n)
n
= g∗ m
m !
n n n n
= g∗ + + + ··· +
|m m m {z m}
m−veces
n m
" #
= g∗ ,
m
m
58 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
Como g ∗ (1) es real con 0 ≤ g ∗ (1) ≤ 1 para demostrar (2.52) se deberá mostrar
que g ∗ (1)6 ̸= 0 y que g ∗ (1)6 ̸= 1.
Para esto, supongamos que g ∗ (1) = 0. Entonces para todo t ∈ R+
√ h it
ϕ∗ t = g ∗ (t) = g ∗ (1) = 0.
P (cos(X) = 1) = 1.
Y además
2
ϕ∗ (t) = g ∗ (t2 ) = e−ct para todo t ≥ 0.
Así, !
iu
sup |ϕn (t) − ϕ(t)| ⩽ sup 1 − e + P (Xn − X) > ϵ)
|t|⩽K |u|⩽Kϵ
Ya que para todo ϵ > 0, P (|Xn −X| > ϵ) −→ 0 cuando n −→ ∞, por consiguiente
Lema 2.2.1 Sea X una variable aleatoria con E(X) = 0 y V ar(X) = 1. Entonces
1
ωX (t) = 1 − t2 + σ 2 (t2 )
2
2 2
donde σ (t ) es una función tal que
σ 2 (t2 )
lı́m = 0. (2.53)
t→0 t2
Prueba Dado que el desarrollo de Taylor de grado 2 en t = 0 para ωX (t) viene
dado mediante la expresión
′ ′′ t2
ωX (t) = ωX (0) + ωX (0)t + ωX (0) + σ 2 (t2 )
2
se tiene que
′ ′′
ωX (0) = 1, ωX (0) = 0 y ωX (0) = −1
′ ′′ t2
ωX (t) = ωX (0) + ωX (0)t + ωX (0) + σ 2 (t2 )
2
t2
= 1 − (0)t + (−1) + σ(t2 )
2
1
= 1 − t2 + σ 2 (t2 )
2
donde σ(t2 ) satisface (2.53), quedando demostrado el lema.
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 61
y
x − np
Zn = √
npq
donde
p+q =1
entonces
Zn −→ N (0, 1) (2.54)
Prueba En primer lugar veamos que basta con probar el teorema suponiendo que
µ = 0 y σ 2 = 1. Teniendo en cuenta la independencia de las Xi y la definición de
Sn se tiene que
E(Sn ) = nµ
V ar(Sn ) = nσ 2
donde las variables Xi∗ son independientes idénticamente distribuida con E(Xi∗ ) =
0 y V ar(Xi∗ ) = 1. . Luego si probamos que el teorema vale para µ = 0 y σ 2 = 1
resulta válido para µ y σ 2 arbitrarios.
σ 2 (t2 )
lı́m =0 (2.56)
t→∞ t2
Como las variables Xi son independientes, podemos aplicar la Propiedad 2.2.2 de
las funciones características y se tiene que para todo n
n
!2
t2
ϕXi (t) = 1 − + σ 2 (t2 )
Y
ϕSn (t) =
i=1 2
Sn
Finalmente teniendo en cuenta que µ = 0 y σ 2 = 1, resulta Zn = √
n
. Luego por
la Propiedad 2.2.3 de las funciones características se obtiene
!
t
ϕZn (t) = ϕSn √
n
!2
t2 t2
= 1− + σ2 .
2n n
Por lo que, de acuerdo a (2.55), bastará ver que la sucesión de funciones ϕZn
satisface
!2
t2 2
2 t t2
lı́m 1− +σ = e− 2 . (2.57)
n→+∞ 2n n
Por tal razón, escribamos la sucesión características de ϕZn (t), del siguiente modo
" #!2
1 t2 t2
ϕZn (t) = 1 − + σ2 n .
n 2 n
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 63
t2
Por lo tanto, para mostrar (2.57) bastará mostrar que en nuestro caso L = 2
. De
forma equivalentemente, bastará con mostrar que
!
2 t2
lı́m σ n −→ 0
n→+∞ n
t2
y de observar que n
→ 0 cuando n → +∞, de acuerdo a (2.56) se tiene
!
t2
σ2 n
lı́m ! t2 = 0
n→+∞
t2
n
Para todo x ∈ R
n
Tj e2πijx ,
X
f (x) = (2.58)
j=0
Prueba Solo debemos sustituir la expresión Tj en la suma que define f (x). Así
n n
! !j n
!
n n p n j
2πijx 2πijx
pe2πix q n−j
X X X
f (x) = Tj e = q e =
j=0 j=0 j q j=0 j
Así, por el Teorema del Binomio de Newton
f (x) = (q + pe2πijx )n
Por consiguiente
Z +1 n
Z +1 X
2 2
f (x)e−2πijx dx = Tk e2πi(k−j)x dx
− 12 − 21 k=0
Por lo que dicho lema queda demostrado ya que todos los terminos de la suma
son iguales a cero, a exción de k = j.
Tal que
b
Dab (x) e−2πijx .
X
= (2.60)
j=a
Así, con el propósito de tener una expresión más cerrada para Dab (x), escribiremos
R = e−2πijx . Por lo que
b b−a+1 b−a+1 b−a+1
1 − Rb−a+1 R− 2 −R 2 R 2
Dab (x) = Rj = Ra = Ra
X
1 1 1
j=a i−R R− 2 − R 2 R 2
− b−a+1 b−a+1 b−a+1
aR
2 −R 2 R 2
= R 1 1 · 1 .
R− 2 − R 2 R2
Por lo tanto
sen(b − a + 1)πx −πix(a+b)
Dab (x) = ·e . (2.61)
sen(πx)
!
Lema 2.2.4 Sea Φx = arctg psen(2πx)
q+pcos(2πx)
. Entonces, se cumple que
n on
f (x) = 1 − 4pqsen2 (πx) 2
ei(nΦx )
66 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
n on
= (p + q)2 − 4pqsen2 (πx) 2
.
Además
#n
(q + pe2πix )n
"
q + pcos(2πx) + ipsen(2πx)
f (x) = |f (x)| n
= |f (x)|
|q + pe |
2πix |q + pe2πix |
" #n
q + pcos(2πx) psen(2πx)
= |f (x)| +i .
|q + pe2πix | |q + pe2πix |
Ahora, usando la expresión (2.61), podemos calcular la parte real de Dab (x)ei(nΦx ) ,
por lo que tendriamos
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 67
Z +1
2 sen[(b − a + 1)πx]
S= |f (x)|cos[(nΦx ) − (a + b)πx] · dx. (2.62)
− 12 sen(πx)
Entonces
sen(α + β) − sen(α − β)
ω = senα · cosβ = .
2
Por consiguiente
( ! ) ( ! )
1 1 1 1
ω = · sen b + 2πx − nΦx − · sen a − 2πx − nΦx
2 2 2 2
Del mismo modo, sean δ1 y δ2 números tales que
1 √ 1 √
b = np − δ1 npq y a = np + δ2 npq. (2.63)
2 2
Entonces
!
1 √
b+ 2πx − nΦx = δ1 npq2πx + n(2πx − nΦx ),
2
!
1 √
a− 2πx − nΦx = δ2 npq2πx + n(2πx − nΦx ),
2
de tal manera que podemos escribir
S = p1 + p2 (2.64)
Z +1 √
2 sen(δ Bn 2πx + Θx )
p= |f (x)| · dx. (2.65)
− 12 sen(πx)
Siendo
1
Ahora, sea λ un número real ta que 0 < λ < 2
. Y como el integrando en la
expresión (2.65) en una función par, entonces
68 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
P = J1 + J2 (2.67)
en donde
√
Z λ
sen(δ Bn 2πx + Θx )
J1 = |f (x)| · dx (2.68)
0 sen(πx)
y
1
√
Z
2 sen(δ Bn 2πx + Θx )
J2 = |f (x)| · dx. (2.69)
λ sen(πx)
1
log ρ ≤ −2pq(2x)2 para todo 0 ≤ x ≤ .
2
Así,
2 2
|f (x)| ≤ ρ2 ≤ e−2pq(2x) = e−2Bn (2x)
1
lo cual se cumple Para todo 0 ≤ x ≤ 2
2(πx)4
(πx) − ≤ sen2 (πx).
3
Así, de la expresíon (2.70), se tiene que
(πx)4
logρ ≤ −2pqsen2 (πx) ≤ −2pq(πx)2 + 2pq .
3
Por lo tanto h i
n −2pqn(πx)2 + 2pqn (πx)4
|f (x)| ≤ ρ ≤ e 3
.
1
Prueba Sean α = 4pqsen2 (πx) y ρ = |1 − α| 2 . Se cumple que
!
Z α
dt Z α
t2
−log(1 − α) = = 1+t+ dt.
o 1−t o 1−t
Si 0 ≤ α ≤ 21 , entonces
Z α
t2 Z α
2α3
0≤ dt ≤ 2 t2 dt = .
o 1−t o 3
Por lo que
α α2 α3
logρ = − − + . (2.71)
2 4 3
Ahora, si 0 ≤ x ≤ 41 , entonces
3
sen2 (πx) ≤ (πx)2 − (πx)4 .
10
70 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
Por lo que
3pq
−2pqsen2 (πx) ≥ −2pq(πx)2 + (πx)4 .
5
Así
α pq 3
− ≥ − (2πx)2 + (2πx)4 . (2.72)
2 2 80
Por otro lado, para todo 0 ≤ x ≤ 41 , se cumple que
1 1 7
sen4 (πx) + sen6 (πx) ≤ (πx)4
4 3 25
y como 4pq ≤ 1, entonces
1 1 7
(4pq)sen4 (πx) + (4pq)2 sen6 (πx) ≤ (πx)4
4 3 25
Ahora, multiplicando por −4pq se tiene
1 1 28
− (4pq)2 sen4 (πx) − (4pq)3 sen6 (πx) ≥ − pq(πx)4
4 3 25
Por consigiente
α2 α3 28
− − ≥− pq(2πx)4 (2.73)
4 3 300
Así, de las expresiónes (2.71), (2.72) y (2.73) se obtiene que
α α2 α3 pq 67
logρ ≥ − − − − ≥ − (2πx)2 − pq(2πx)4 .
2 4 3 2 1200
Y dado que Bn = pqn, si multiplicamos por n, el miembro derecho de la desigual-
dad, se tiene que
α α2 α3 npq 67
logρ ≥ − − − ≥− (2πx)2 − npq(2πx)4 .
2 4 3 2 1200
1
Por tanto, para todo 0 ≤ x ≤ 4
h i
− B2n (2πx)2 − B16n (2πx)4
|f (x)| ≥ e
Sea
√
3
λ= 1 (2.74)
2πBn 4
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 71
√
3
Entonces, si x ≤ λ, 2πx ≤ 1 y así
Bn4
Bn 9 3
(2πx)4 ≤ = .
24 24 8
Para todo 0 ≤ ξ 38 se tiene que eξ − 1 ≥ 32 ξ. Por tanto
h i h i
− B2n (2πx)2 − B16n (2πx)4 3 Bn
e |f (x)| − 1 ≤ e −1≤− · (2πx)4 .
2 24
Por consiguiente
h i
− B2n (2πx)2 3 Bn
e |f (x)| − 1 ≤ − · (2πx)4 .
2 24
h i
− B2n (2πx)2
n o 1
⇒ |f (x)| = e 1 + O[Bn (2πx)4 ] tal que O = .
16
Lo cual completa la prueba.
Por tanto
√
1
h i
Z
2 |f (x)| 1 3
Bn
dx ≤ √ e 2
.
λ1 x 3 Bn
Y ahora, por el Lema 2.2.6 se tiene que
h i
Z λ1
|f (x)| Z λ1
− B2n (2πx)2 + B24n (2πx)4 dx
dx ≤ e .
λ x λ x
Por lo que tomando el valor máximo del intervalo del integrando, se obtiene
√
h iZ
Z λ1
|f (x)| 3
− 32 Bn λ1 dx 3 π 3√
⇒ |J2 | ≤ dx ≤ e 8
≤ · log e− 2 Bn
λ x λ x 2 2
3 π 3√
· log e− 2 Bn
⇒ |J2 | ≤
2 2
Con lo que se concluye la demostración del Lema.
Tal que
Z λ
(πx)2
|∆| = |f (x)| dx.
0 6sen(πx)
x
Y como sen(πx)
es una función creciente, se tiene que
x λ
≤ para cada 0 ≤ x ≤ λ.
sen(πx) sen(πλ)
Por lo tanto
π2λ Z λ
|∆| ≤ x|f (x)|dx.
6sen(πλ) 0
Así, por el Lema 2.2.6 y la expresión (2.74), podríamos establecer que
h i h i h i
Bn
(2πx)2 Bn
(2πx)4 9 3
|f (x)|e 2
≤e 24
≤e 24
≤ .
2
Por lo que
h i
π2λ Z ∞ − Bn (2πx)2
|∆| ≤ xe 2 dx
4sen(πλ) 0
Z ∞
λ 2
≤ xe−x .dx
8Bn sen(πλ) 0
q
1 3
Entonces, como Bn ≥ 25, λ≤ 2π 5
. Por consiguiente
λ 0,0205
≤ 0,327 y |∆| ≤
sen(πλ) Bn
Y podemos resumir lo anterior escribiendo
Z λ √ " #
sen(δ Bn 2πx + Θx ) 0,0205
J1 = dx + O .
0 πx Bn
Así, por el Lema 2.2.8 se tiene que
Z λ h Bn i √ " #
− (2πx)2 sen(δ Bn 2πx + Θx ) 0,0205
J1 = e 2
dx + O + ∆.
0 πx Bn
Tal que
h i
Bn Z λ − Bn (2πx)2
|∆| ≤ (2πx)3 e 2 dx
8 0 h i
1 Z ∞ 3 − x23
≤ xe dx
16πBn 0
1
= .
8πBn
1
Esto termina la prueba debido a que 8π
≤ 0,04.
74 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
■
√
Lema 2.2.11 Sea Θx = n(2πx − Φx ). Sea λ = 3
1 . Si 0 ≤ x ≤ λ, entonces se
2πBn4
cumplen las siguientes expresiones.
" #
3Bn |p − q|
Φx = O (2πx)3 ,
16[1 − pq(2πλ)2 ]3
" #
1 3 Bn |p − q| 5
Φx = − Bn (p − q)(2πx) + O (2πx) .
6 12[1 − pq(2πλ)2 ]4
Se ve que
dΦx
= 2πp
dx 0
d2 Φx
= 0
dx2 0
d3 Φx
= (2π)3 pq(p − q).
dx3 0
x3 d3 Φx
Θx = −n
6 dx3 ξ
(2πx)3 x4 d4 Φx
Θx = −npq(p − q) −n .
3! 24 dx4 η
Tal que 0 ≤ ξ ≤ λ y 0 ≤ η ≤ λ.
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 75
Entonces
f0′ (p) = 4(2p − 1)[cos(2πx) + 2]sen2 (2πx).
Por lo que f0′ 1
2
= 0.
Sea f1 (x) = π[2cos(2πx)−1]sen(2πx). Puesto que f1′ (x) = 0 implica que cos(2πx) =
1
2
. Por lo tanto
1 1
2
− 4 9
f0 (p) ≤ f1 (x) ≤ 1 + =
2 8
Por lo que entonces
(2πx)3 |p − q| 9
|Θx | ≤ −npq · ·
6 [1 − pq(2πλ) ] 8
2 3
Lema 2.2.12 Supongamos que Bn ≥ 25. Sea J1 como el Lema 2.2.10. Sean
Z λ h Bn i √
λ − 2 (2Πx)2 sen(δ Bn 2πx)
J3 = e · dx
0
h πx i
Z λ
λ Bn − B2n (2πx)2 2
q
J4 = (p − q) e (2πx) cos(δ Bn 2πx)dx.
3 0
76 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
" !6 #
9Bn2 2πx
cos Θx =1+O |p − q| .
512 1 − 2pq(2πλ)2
Y, puesto que sen(ξ) = O(ξ), entonces por el Lema 2.2.11 implica que
" #
Bn Bn |p − q|
sen Θx = − (p − q)(2πx)3 + O (2πx)5 .
6 12[1 − pq(2πλ) ]
2 4
√
Ahora, escribiendo α = δ Bn 2πx, se nota que
Tal que
Ω = 1 − pq(2πλ)2 .
Y además
Z ∞ h Bn
− 2 (2Πx)2
Jk+1 = e (2πx)k dx para k = 4,5.
0
Por tanto
" # " # " #
|p − q| 9|p − q|2 0,0605
J= J3λ + J4λ +O √ 3 + O + O
4 2πBn2 Ω4 64πBn Ω6 Bn
1 3 17
Ω = 1 − pq(2πλ)2 ≥ 1 − · = .
4 5 20
2.2. DOS TEOREMAS IMPORTANTES, DE APROXIMACIÓN 77
Por consiguiente
!4
|p − q| |p − q| 1 20 |p − q|
√ 3 ≤ · √ ≤ × 0,0385
4 2πBn2 Ω4 Bn 20 2π 17 Bn
Ahora, sea
!−6
17 3
f0 (ξ) = ξ + ξ2 .
20 20
9|p − q|2 |p − q|
√ ≤ × 0,051
64 2πBn Ω 6 Bn
Por lo tanto
Z ∞ h Bn i
√
− 2 (2πx)2 dx 1 − 32 Bn
e (2πx)2 ≤ 1 e .
λ πx 3πBn2
78 CAPÍTULO 2. TEORÍA DE LA MEDIDA Y PROBABILIDADES
!3 √ !5
1 1 2 √ 1Z∞ − 12 x2 3 1 4
3
√
≤ 3Bn4 √ 1 xe dx = e− 2 Bn
.
2π Bn 3Bn4 2π Bn
■
Capítulo 3
Aspectos Metodológicos
79
Capítulo 4
Derivadas y Aproximaciones
i. Si µ1 ≪ µ2 y µ2 ≪ µ3 , entonces µ1 ≪ µ3 y
Sean f = dµ 1
dµ3
y g = dµ 2
dµ3
siendo µ1 , µ2 medidas positivas, entonces f ≥ 0 con
respecto a µ2 y g ≥ 0 con respecto a µ3 .
Si hacemos (fn )n∈N una sucesión creciente de funciones simples no negativas
que convergen a f , entonces para todo E ∈ Ω,
Z Z Z Z
lı́m fn dµ2 = lı́m fn dµ2 y lı́m fn gdµ3 = lı́m fn gdµ3
E E E E
80
4.1. ALGUNAS PROPIEDADES IMPORTANTES 81
R R
Así, tomando en cuenta que E fn dµ2 = E fn gdµ3
Z Z Z
=⇒ µ1 (E) = f dµ2 = lı́m fn dµ2 = lı́m fn dµ2
E Z E Z E Z
= lı́m fn gdµ3 = lı́m fn gdµ3 = f gdµ3
Z E E E
=⇒ µ1 (E) = f gdµ3
EZ
dµ1 dµ2
por lo que, como f = dµ3
yg= dµ3
, entonces
Z Z
=⇒ αµ1 (E) + βµ2 (E) = α f dµ3 + β gdµ3
Z E Z E
dµ
iii. Si µ ≪ ν y dν
> 0 casi en todas partes para ν, entonces ν ≪ µ y
!−1
dµ dν
= casi en todas partes para µ.
dν dµ
dµ
Sea f = dν
>0
dν dν dµ
=⇒ 1 = =
dν dµ dν
dµ
por lo que dν
es invertible y positiva.
dµ
Si hacemos g = dν
dµ
> 0 =⇒ g −1 = dν
>0
=⇒ f · g = 1
!
1
=⇒ f =
g
=⇒ f = (g)−1
!−1
dµ dν
=⇒ =
dν dµ
Dado que
Z
1 (x−γ)2
µ(A) = √ e− σ2 m(dx), tal que m es la medida de Lebesgue.
A 2πσ
Entonces
dµ 1 (x−γ)2
=√ e− σ 2
dx 2πσ
4.2. DISTRIBUCIÓN NORMAL CON RESPECTO A LA EXPONENCIAL 83
µ(A) ≪ ν(A)
dµ dµ dν
=
dx dν dx
Ahora, de acuerdo al Teorema 2.1.1 y la Definición 2.1.14, que establecen la derivada
de Radón-Nikodym, esta podríamos escribirla como
dµ
h= .
dν
Tal que h representa la derivada de Radón-Nikodym, así
!−1
dµ dµ dν
h= =
dν dx dx
Tomemos este resultado y usemoslo para un caso particular que nos sirva como
ejemplo.
dµ 1 (x−0)2
− +x
⇒h= =√ e (1)2 1 I(0,∞) (x)
dν 2π(1)
dµ 1 2
⇒h= = √ e−x +x I(0,∞) (x)
dν 2π
Entonces
dν 1 (x−γ)2
=√ e− σ2
dx 2πσ
Notemos que
Z
1 − βx Z
1 (x−γ)2
µ(A) = e I(0,∞) (x)m(dx) ≪ √ e− σ2 m(dx) = ν(A)
A β A 2πσ
µ(A) ≪ ν(A)
dµ dµ dν
=
dx dν dx
Ahora, de acuerdo al Teorema 2.1.1 y la Definición 2.1.14, que establecen la derivada
de Radón-Nikodym, esta podríamos escribirla como
dµ
h= .
dν
Tal que h representa la derivada de Radón-Nikodym, así
!−1
dµ dµ dν
h= =
dν dx dx
■
86 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES
Tomemos este resultado y usemoslo para un caso particular que nos sirva como
ejemplo.
√ 2
2π(1) (x−0) − x
⇒h= e (1)2 (1) I(0,∞) (x).
(1)
√ 2
⇒h= 2πex −x I(0,∞) (x).
n ∞
(ni )pi (1 − p)n−i IA (i) y ν(A) = pi (1 − p)i−1 IA (i).
X X
µ(A) =
i=0 i=0
Nótese que IA (i) es la medida indicadora y que bajo esta estan definidas tanto la
Distribución Binomial como la Geométrica.
Recordemos que
1,
si i ∈ A
IA (i) =
O,
si i ∈
/ A.
4.4. DISTRIBUCIÓN BINOMIAL, CON RESPECTO A LA GEOMÉTICA 87
dµ
= (ni )pi (1 − p)n−i
dx
Del mismo modo
dν
= pi (1 − p)i−1
dx
Notemos que
n ∞
(ni )pi (1 n−i
pi (1 − p)i−1 IA (i) = ν(A)
X X
µ(A) = µ(A) = − p) IA (i) ≪
i=0 i=0
µ(A) ≪ ν(A)
dµ
h= = (ni )(1 − p)n−2i+1
dν
!10−2i+1
dµ 1
h= = (10i ) 1 −
dν 4
!10−2i+1
dµ 3
h= = (10i )
dν 4
1
pi (1 − p)1−i IA (i)
X
µ(A) =
i=1
∞
λi
e−λ
X
ν(A) = · IA (i).
i=0 i!
Nótese nuevamente que IA (i) es la medida indicadora y que bajo esta estan defini-
das tanto la Distribución de Bernoulli como la Poisson.
Recordemos que
1,
si i ∈ A
IA (i) =
O,
si i ∈
/ A.
4.5. DISTRIBUCIÓN DE BERNOULLI, CON RESPECTO A LA DE POISSÓN. 89
dµ dµ dν
=
dx dν dx
!−1
dµ dµ dν
h= =
dν dx dx
Por tanto
!−1
i
!
dµ i 1−i −λ λ
h= = p (1 − p) e
dν i!
! !
λ i!
= pi (1 − p)1−i ∗ e i
λ
Por consiguiente
dµ i!eλ pi (1 − p)1−i
h= =
dν λi
■
90 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES
Esta condición nos permite asegurar que es posible inferir la derivada de Radón-
Nikodym de estas distribuciones tal que m representa la medida de Lebesgue e IA (i),
la medida indicadora.
Ahora, dado que una de las propiedades de las derivadas establece que
dµ1 dµ1 dν
=
dx dν dx
!−1
dµ1 dµ1 dν
h1 = =
dν dx dx
dµ2 dµ2 dν
=
dx dν dx
!−1
dµ2 dµ2 dν
h2 = = ∗
dν dx dx
Entonces
!−1 !−1
dµ dµ1 dµ2 dµ1 dν dµ2 dν
h = h1 + h2 = = + = +
dν dν dν dx dx dx dx
! !−1
dµ1 dµ2 dν
= +
dx dx dx
Así
! !−1
dµ dµ1 dµ2 dν
h= = +
dν dx dx dx
!−1
λi
!
1 (x−γ)2 1 σ2
= √ e− σ2 + e−λ · 2
2πσ i! πσ σ + (x − γ)2
i
! !
2 2
1 −
(x−γ)2
−λ λ σ + (x − γ)
= √ e σ2 + e π
2πσ i! σ
■
92 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES
∞
Z
1 σ2
p(1 − p)i−1 IA (i).
X
ν1 = m(dx) y ν2 =
A πσ σ 2 + (x − γ)2 i=0
dν1 1 σ2 dν2
= y = p(1 − p)i−1
dx πσ σ 2 + (x − γ)2 dx
Por lo que, de acuerdo al Teorema 2.1.1 y la Definición 2.1.14, la derivada de
Radón-Nikodym establece que
dµ = hdν.
dµ
h=
dν
Y tomando en cuenta la regla de la cadena, tendriamos que
dµ1 dµ1 dν
=
dx dν dx
!−1
dµ1 dµ1 dν
h1 = =
dν dx dx
Entonces
!−1 !−1
dµ dµ1 dµ2 dµ1 dν dµ2 dν
h = h1 + h2 = = + = +
dν dν dν dx dx dx dx
! !−1
dµ1 dµ2 dν
= +
dx dx dx
Así mismo, dado que una de las propiedades de las derivadas establece que
Entonces
dµ dµ1 dµ2
h = h1 + h2 = = +
dν dν dν
!−1 !−1
dµ1 dν1 dν2 dµ2 dν1 dν2
= + + +
dx dx dx dx dx dx
! !−1
dµ1 dµ2 dν1 dν2
= + +
dx dx dx dx
dµ1 dµ2
+
= dx dx .
dν1 dν2
+
dx dx
Por consiguiente
dµ
h =
dν
(x − γ)2
1 − λi
√ e σ2 + e−λ
2πσ i!
= 2 .
1 σ i−1
+ p(1 − p)
πσ σ 2 + (x − γ)2
Teorema 4.8.1 Sea 0 < p < 1, entonces para n grande la Distribución Binomial se
puede aproximar a la Distribución Normal con media µ = np y Varianza σ 2 = npq, es
decir
1 x2
lı́m P (X = x) = √
n→∞
√ e− 2 .
2π npq
Prueba Para esta prueba, usaremos la fórmula de Stirling para los factoriales que
aparecen el la Distribución Binomial.
!k
√ k τ
Fórmula de Stirling n! = 2πk e 12k ∀ 0 < τ < 1.
e
n n!
P (X = x) = px q n−x = px q n−x
x x!(n − x)!
√ n τ1
2πn ne e 12n
≈ √ x τ2
q n−x τ3 px q n−x ∀ 0 < τi < 1,
x n−x
2πx e
e 12x 2π(n − x) e
e 12(n−x)
∀ i = 1, 2, 3, ...
√ √ n n τ1
2π n e e 12n
≈ √ √ x τ2 q n−x τ3 px q n−x
x n−x
2π x e e 12x 2π(n − x) e e 12(n−x)
96 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES
n τ1
n
n1/2 e
e 12n
P (X = x) ≈ x τ2
q h
(n−x)n−x
i τ3 px q n−x
x1/2 xe e 12x 2π(n − x) en−x
e 12(n−x)
n τ1
n
n1/2 e
e 12n
≈ q h x n−x
i τ2 τ3 px q n−x
x1/2 2π(n − x) x (n−x)
x
e en−x e 12x e 12(n−x)
n τ1
1/2 n
n e
e 12n
≈ h i px q n−x
τ2 τ3
+ 12(n−x)
q
xx (n−x)n−x
h i
x1/2 2π(n − x) ex en−x
e 12x
h i
τ2 − 3τ
τ1 − 12x
nn+1/2 e 12n e 12(n−x)
≈ q i px q n−x
en xx (n−x)n−x
h
x1/2 2π(n − x) ex en−x
h i
τ1 τ2 τ3
− 12x − 12(n−x)
nn+1/2 e 12n
≈ q px q n−x .
2π(n − x)x x+1/2 (n − x)n−x
τ1 τ2 τ3
Ahora, haciendo λ = 12n
− 12x
− 12(n−x)
nn+1/2 eλ px q n−x
P (X = x) ≈ √ √
2π n − xxx+1/2 (n − x)n−x
nn+1/2 px+1/2−1/2 q n−x+1/2−1/2 eλ
≈ √
2π(n − x)1/2 xx+1/2 (n − x)n−x
nn+1/2 px+1/2−1/2 q n−x+1/2−1/2 eλ
≈ √
2πxx+1/2 (n − x)n−x+1/2
nn+1/2 px+1/2 q n−x+1/2 eλ n1/2
≈ √
2πp1/2 q 1/2 xx+1/2 (n − x)n−x+1/2 n1/2
nn+1/2+x−x px+1/2 q n−x+1/2 eλ n1/2
≈ √
2πnpqxx+1/2 (n − x)n−x+1/2
nn−x+1/2 nx+1/2 px+1/2 q n−x+1/2 eλ n1/2
≈ √
2πnpqxx+1/2 (n − x)n−x+1/2
!x+1/2 !n−x+1/2
eλ np nq
≈ √ · ·
2πnpq x n−x
!−(x+1/2) !−(n−x+1/2)
eλ x n−x
≈ √ · ·
2πnpq np nq
4.8. APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL MEDIANTE LA NORMAL97
Ahora, si hacemos
! !
x n−x
h = (x + 1/2) ln + (n − x + 1/2) ln .
np nq
eλ e−h
P (X = x) ≈ √ .
2πnpq
Y si hacemos
x − np
z= √
npq
y luego despejamos x, tendremos
√
x = np + npqz.
Por tanto
√ √
√ np + npqz √ n − (np + npqz)
h = (np + npqz + 1/2) ln + (n − (np + npqz) + 1/2) ln
np nq
√ √
√ np + npqz √ n − np − npqz
= (np + npqz + 1/2) ln + (n − np − npqz + 1/2) ln
np nq
√
√ q √ n − np − npqz
r
= (np + 1/2 + npqz) ln 1 + z + (n − np + 1/2 − npqz) ln
np nq
√
√ q √ n(1 − p) − npqz
r
= (np + 1/2 + npqz) ln 1 + z + (n(1 − p) + 1/2 − npqz) ln
np nq
√
√ q √ nq − npqz
r
= (np + 1/2 + npqz) ln 1 + z + (nq + 1/2 − npqz) ln
np nq
√ q √ p
r r
= (np + 1/2 + npqz) ln 1 + z + (nq + 1/2 − npqz) ln 1 − z .
np nq
98 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES
Teniendo por hipotesis que |z| es acotado y para n lo suficientemente grande, se tiene
que
q p
r r
z <1 z <1
np nq
y recordamos que
v2 v3 v4
ln(1 + v) = v − + − + ··· |v| < 1.
2 3 4
Así q
q
r
q
r
q z np
r
q z2q
ln 1 + z =z − + ··· = z − + ··· ,
np np 2 np 2np
q
p
r
p
r
p z nq
r
p z2p
ln 1 − z = −z − − · · · = −z − − ··· .
nq nq 2 nq 2nq
Ahora, si sustituimos esto en h
√ q √ p
r r
h = (np + 1/2 + npqz) ln 1 + z
+ (nq + 1/2 − npqz) ln 1 − z
np nq
2 z2p
√ q z q √ p
r r
≈ (np + 1/2 + npqz) z − + · · · + (nq + 1/2 − npqz) − z − − ···
np 2np nq 2nq
z2 1 z q p z2 q p z3 p q
r r r r
≈ +√ − − √ + + p −q + ···
2 n 2 p q 4 n p q 2 q p
4.8. APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL MEDIANTE LA NORMAL99
z2 1
h≈ + √ θ.
2 n
Tal que θ es una función que sigue acotada en el valor absoluto cuando n → ∞. por consi-
guiente
2
[ z2 + √1n θ] z2
lı́m e−h = lı́m e = e− 2 .
n→∞ n→∞
Y como
α ≤ z ≤ β.
Entonces
α ≤ z
x − np
α ≤ √
npq
√
α npq ≤ x − np
√
α npq + np ≤ x
√
npq
np α +1 ≤ x
np
q
r
np α +1 ≤ x.
np
1 1
≤ q .
x q
np α np +1
z ≤ β
x − np
√ ≤ β
npq
√
x − np ≤ β npq
√
x ≤ np + β npq
√
−x ≥ −np − β npq
√
n − x ≥ −n(1 − q) − β npq + n
√
n − x ≥ −n + nq − β npq + n
p
r
n − x ≥ nq 1 − β .
nq
100 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES
Luego tendremos
1 τ1 τ2 τ3
λ= − − o < τi < 1
12 n x n−x
1 1 1 1 1 1 1
|λ| < − − ≤ 1− − q .
12 n x n − x 12
q
q p
np α np + 1 q 1 − β nq
Por lo tanto
λ→0 cuando n → ∞.
Luego
lı́m eλ = 1.
n→∞
Por tanto
z2
eλ e−h e− 2
lı́m P (X = x) = lı́m √ = √
n→∞ n→∞ 2πnpq 2πnpq
z2
e− 2
= √ √
2π npq
z2
e− 2
= √ .
2πσ
Sea X una variable aleatoria con Distribución HipergeomÉtrica, si el tamaño del lote es lo
suficientemente grande, la Distribución X puede ser aproximada por la distribucion binomial,
es decir
M
P (X = i) ≈ (ni )pi (1 − p)n−i donde p = ,
N
para N grande.
4.9. APROXIMACIÓN DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA MEDIANTE LA BINOMIAL.
Para probar esto, primero debemos brobar que la Distribución Hipergeométrica esta
acotada, es decir,
i n−i −n
i n−i n
(ni ) p − q− < P (X = i) < (ni )pi (1 − p)n−i 1 − (4.1)
N N N
donde p= M
N
M N −M M! (N −M )!
i n−i i!(M −i)! · (n−i)![(N −M )−(n−i)]!
N
= N!
n i!(N −i)!
M! (N −M )!
i!(M −i)! · (n−i)!(N −M −n+i)!
= N!
i!(N −i)!
M! (N − M )! n!(N − n)!
= · ·
i!(M − i)! (n − i)!(N − M − n + i)! N!
n! M! (N − n)! (N − M )!
= · · ·
i!(n − i)! i!(M − i)! N! (N − M − n + i)!
Así
n (M − i + 1)(M − i + 2) · · · (M )(N − M − n + i + 1)(N − M − n + i + 2) · · · (N − M )
= i (N − n + 1)(N − n + 2) · · · (N )
Tendríamos que
Por lo tanto
n (M − i)i (N − M − n + i)n−i
P (X = i) > i Nn
n (M − i) (N − M − n + i)
i n−i
= i N n−i+i
n (M − i) (N − M − n + i)n−i
i
= i
·
Ni N n−i
i
n M i M n − i n−i
= i
− · 1 − −
N N N N
i n−i
i n−i
n
= i
p− q−
N N
102 CAPÍTULO 4. DERIVADAS Y APROXIMACIONES
Por consiguiente
i (N
− M )n−i
n M
P (X = i) < i (N − n)n
n M (N − M )
i n−i (N − n)−n
= i N i−i+n−n
N − n −n
i
n M N − M n−i
= i
· ·
N N N
i n−i −n
M M n
n
= i
· 1− · 1−
N N N
−n
n
n i n−i
= i
pq 1− .
N
−n
n
n i n−i
P (X = i) < i
pq 1− .
N
■
4.10. APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL MEDIANTE LA DE POISSÓN.103
Teorema 4.10.1 Sea x una variable aleatoria binomialmente distribuida con parámetros n
y p. Supongamos que cuando n → ∞ y p → 0, se tiene que np → α. Entonces
αi
lı́m P (X = i) = e−α
n→∞ i!
Que es la Distribución de Poissón con parámetro α
Entonces n
α
lı́m 1− = e−α .
n→∞ n
Por consiguiente
n −i
1 2 i−1
i
α α α
lı́m P (X = i) = lı́m 1−
1− ··· 1 − 1− 1−
n→∞ n→∞ i! n n n n n
αi 1 2 i−1
= lı́m 1− 1− ··· 1 − ×
n→∞ i! n n n
n −i
α α
× lı́m 1− lı́m 1−
n→∞ n n→∞ n
αi
= (1)e−α (1)
i!
αi
= e−α
i!
■
Capítulo 5
Conclusiones y Recomendaciones.
5.1. Conclusiones
En virtud de los objetivos planteados en esta tesis, a continuación se presentan las con-
clusiones a las que se ha arribado.
1) Las distribuciones de probabilidad son variable aleatoria que usualmente suelen escribir-
se como la denominada función de densidad en el caso de variables continuas y función
de masa de probabilidad en el caso de variables discretas, en tanto que lo que se conoce
como función de distribución representa las probabilidades acumuladas.
105
106 CAPÍTULO 5. CONCLUSIONES Y RECOMENDACIONES.
pacio de medida y ν una medida con signo sobre A. Se dice que ν es absolutamente
continua con respecto a µ, denotado ν ≪ µ si ν(E) = 0 siempre que µ(E) = 0, verificado
todo esto en el teorema (2.1.1) la sección (2.1.6).
7) Para aproximar una distribución a otra, junto al teorema del límite central, desarrolla-
mos en la sección (2.3), un conjunto de lemas y el teorema de DeMoivre-Laplace, por
ser más generalizado y permitir no solo aproximar una distribución continua o discreta,
a la distribución Normal, sino a lo de Poissón o la Geométrica, ver las pruebas en la
sección (2.3).
5.2. Recomendaciones
Se proponen como líneas de investigación las siguientes recomendaciones:
Teoría de Probabilidades
La función Pξ∗ (·), que a cada punto an (llamado punto de masa) le asocia su salto o peso,
pn = Pξ∗ (an ), llamamos función de densidad de masa asociada a la variable aleatoria ξ.
108
A.2. DISTRIBUCIÓN UNIFORME DISCRETA 109
- Binomial
- Poisson
- Hipergeométrica
- Geométrica [2cm]
Cuando esto ocurre se dice que X se distribuye como una variable aleatoria Uniforme
discreta. Esta es la distribución discreta más sencilla, la cual asigna la misma probabilidad a
cada una de las soluciones.
En tanto, la función de masa de probabilidad de una Distribución Uniforme Discreta se
define por la expresión
1
p(xi ) = P (X = xi ) = , ∀ i = 1, 2, · · · , n
n
mientras que la función Distribución Uniforme Discreta se define por
0, si x < x1
si x1 ≤ x < x2
1
n,
2, si x2 ≤ x < x3
n
F (x) = .. .. ..
., . .
n−1
n , si xn−1 ≤ x < xn
1 si x ≥ xn
Definición A.3.1 La v.a. X que representa el “número de éxitos obtenidos en los n ensayos”
se dice que sigue una distribución binomial de parámetros n y p, X −→ B(n, p), siendo n el
número de veces que se repite el experimento, p la probabilidad de éxito y tomando en cuenta
que X solo puede tomar los valores 0, 1, 2, · · · , n.
ii) Si tenemos dos variables aleatorias que se distribuyen según una Binomial con el mismo
parámetro ”p”, es decir, con la misma probabilidad de éxito, X −→ B(n, p) e Y −→
B(m, p) , entonces siempre se verifica
X + Y −→ B(n + m, p).
iii) Sea X una variable aleatoria e Y otra variable aleatoria que verifican que X −→
n , entonces se verifica
B(n, p) e Y −→ X
p
Y −→ B 1, .
n
Definición A.4.1 Sean N el número total de objetos de una población finita, de forma
que k de éstos son de un tipo y los N − k restantes de otro. Si se selecciona una mues-
tra de la población constituída por n objetos, la v.a. X que representa el número de objetos
del primer tipo en la muestra se dice que tiene distribución hipergeométrica de parámetros
N, n y k, X −→ H(N, n, k).
! !
k N −k k! (N − k)!
x n−x x!(k − x)! (n − x)!(N − k − n + x)!
p(x) = P (X = x) = = ,
N!
!
N
x n!(N − n)!
0, si x < máx{0, n − N + k}
k N − k
X⌈x⌉ x n−x
F (x) = , si máx{0, n − N + k} ≤ x < mı́n{n, k}
N
i=0
x
1 si x ≥ mı́n{n, k}
Esta distribución presenta la propiedad denominada "falta de memoria", que implica que
la probabilidad de tener que esperar un tiempo t no depende del tiempo que ya haya trans-
currido.
x−1
!
p = (x) = P (X = x) = p(1 − p)x−1 , ∀ x = 1, 2, · · · , n
0
En el caso de que los sucesos ocurran a intervalos regulares de tiempo, esta variable
proporciona el tiempo total hasta que ocurren r éxitos, por lo que también se denomina "dis-
tribución binomial de tiempo de espera".
El evento {X = x}, o sea el evento definido como "la cantidad de experimentos necesarios
para alcanzar r éxitos es x", puede escribirse como una intersección de dos eventos
Los dos eventos del lado derecho de la última ecuación son independientes, por lo que, usando
114 APÉNDICE A. TEORÍA DE PROBABILIDADES
p(x) = P (X = x
= P (Yx−1 = r − 1)P (Zk = 1)
x−1
!
= k r−1 (1 − k)x−r k
r−1
x−1
!
= k r−1 (1 − k)x−r
r−1
k+x−1
!
p = (x) = P (X = x) = pk (1 − p)x , ∀ x = 1, 2, · · · , n
x
iii) El promedio de ocurrencias del suceso en cada unidad temporal o espacial, representado
por λ, permanece constante.
Una distribución de poisson es una distribución discreta de gran utilidad sobre todo en
procesos biológicos, donde X suele representar el número de eventos independientes que ocu-
rren a velocidad constante en un intervalo de tiempo o en un espacio.
Por lo que, si X es una variable aleatoria discreta, se dice que se distribuye como una
distribución de Poisson,
X −→ P (λ)
Así, si λ > 0 en una distribución poisson, su función de masa se define por la expresión
e−λ λx
p(x) = P (X = x) = , con x = 0, 1, 2, 3, · · ·
x!
Fξ (x + ∆x) − Fξ (x)
;
∆x
116 APÉNDICE A. TEORÍA DE PROBABILIDADES
Fξ (x + ∆x) − Fξ (x)
lı́m = Fξ′ (x) = fξ (x),
∆x−→0 ∆x
Definición A.8.2 sea X una variable aleatoria de tipo continuo, y si existe una función f (x)
tal que verifica:
Definición A.8.3 Sea una variable aleatoria X de tipo continuo que toma un número infi-
nito de valores sobre la recta real y cuya función de densidad es f (x). se define la función
de distribución acumulativa de la variable aleatoria X, que notaremos por F (x), como la
probabilidad de que la variable aleatoria continua X tome valores menores o iguales a x, es
decir: Z x
F (x) = P (X ≤ x) = f (x)dx
−∞
La función de distribución de una variable aleatoria continua es una función que verifica
las siguientes propiedades:
i) F (−∞) = 0
ii) F (+∞) = 1
dF (x)
= f (x)
dx
como la ab f (x)dx representa gráficamente el área encerrada bajo la curva f (x) y los
R
P (a ≥ X ≥ b) = F (b) − F (a)
- Uniforme - Cauchy
- Normal
- Exponencial
- Longnormal
- Ji-cuadrado
- Logistica
- t de student
- Gamma
- Beta - F de Snedecor
Para una distribución Uniforme Continua se verifica que su función de densidad viene
dada por la expresión:
1
, si a ≤ x ≤ b
p(x) = b − a
0,
para cualquier otro caso.
118 APÉNDICE A. TEORÍA DE PROBABILIDADES
Esta distribución de caracteriza porque los valores se distribuyen formando una campana
de Gauss, en torno a un valor central que coincide con el valor medio de la distribución:
Definición A.10.1 Se dice que una v.a. X tiene una distribución normal de parámetros µ y
σ, X −→ N (µ, σ), si su función de densidad tiene la siguiente forma:
1 (x−µ)2
f (x) = √ e− 2σ2
σ 2π
1
Z b (x−µ)2
p(x) = P (X = x) = √ e− 2σ2 dx ∀ − ∞ < a < x ≤ b < +∞
a α 2π
i) Es contínua en todo R.
f (x − µ) = f (x + µ), ∀ x ∈ R.
por lo que
1
K=R x2
+∞
−∞ e− 2 dx
Sea Z +∞
x2
I= e− 2 dx
−∞
Para el cálculo de esta integral podemos obtener I 2 como integral doble a traves de un
cambio de variable a cordenadas polares.
Supongamos que
Z +∞ Z +∞
y2
x2
I2 = e− 2 dx e− 2 dy
−∞ −∞
Z +∞ Z +∞ 2 y2
− x2
= e e− 2 dxdy
−∞ −∞
Z +∞ Z +∞
x2 +y 2
= e− 2 dxdy
−∞ −∞
x(ρ, ϕ) = x = ρcos(ϕ)
y(ρ, ϕ) = y = ρsen(ϕ)
es evidente que
x2 + y 2 = ρ2
Esta transformación del cambio de variable, la cual representaremos mediante la expresión
T (ρ, ϕ) = (x(ρ, ϕ), y(ρ, ϕ)), con ρ ≥ 0 y 0 ≤ ϕ ≤ 2π tiene matriz diferencial
! !
xρ xϕ cos(ϕ) −ρsen(ϕ)
DT (ρ, ϕ) = =
yρ yϕ sen(ϕ) ρcos(ϕ)
y si calculamos su Jacobiano, tendriamos que
!
cos(ϕ) −ρsen(ϕ)
J(ρ, ϕ) = det(DT (ρ, ϕ)) = det
sen(ϕ) ρcos(ϕ)
= ρcos2 (ϕ) + ρsen2 (ϕ)
= ρ(cos2 (ϕ) + sen2 (ϕ))
= ρ
A.11. DISTRIBUCIÓN NORMAL TIPIFICADA O ESTANDARIZADA 121
por consiguiente |DT (ρ, ϕ)| = ρ y aplicando la fórmula de cambio de variables en integrales
múltiples resulta
Z +∞ Z +∞
x2 +y 2
−
I 2
= e 2 dxdy
−∞ −∞
Z +∞ Z 2π
ρ2
= e− 2 ρdϕdρ
0 0
Z +∞ ρ2
= 2π e− 2 ρdϕ
0
ρ2 ∞
= 2π(−e− 2 ) 0
= 2π
y por tanto
√
I= 2π
así, finalmente se tiene que
1 x2
p(x) = P (X = x) = √ e− 2 .
2π
Del mismo modo, para obtener la probabilidad de un evento, mediante la distribución Normal
Tipificada sujeta a un intervalo de evaluación [a, b] ∈ R, tendriamos que aplicar la expresión
1
Z b
x2
p(x) = P (X = x) = √ e− 2 dx ∀ − ∞ < a < x ≤ b < +∞
a 2π
i) Es simétrica respecto a x = 0.
Así
X −µ
F (X = x) = FZ (A.1)
σ
La función de distribución de la normal tipficada está tabulada de forma que, para trabajar
con una v.a. normal arbitraria, la transformaremos siempre en una N (0, 1).
Del mismo modo, para obtener la probabilidad de una distribición lognormal sujeta a un
intervalo de evaluación [a, b] ∈ R, mediante la expresión
1
Z b
1 2
p(x) = P (X = x) = √ e− 2α2 (ln(x)−µ) dx, ∀ − ∞ < a < x ≤ b < +∞
a xα 2π
iii Es idónea para parámetros que son a su vez producto de numerosas cantidades aleato-
rias.
A.13. DISTRIBUCIÓN LOGÍSTICA 123
µe−(α+µx)
p(x) = P (X = x) =
1 + e−(α+µx)2
Este tipo de distribuciones son usuales en los fenÓmenos que estudian el crecimiento temporal.
µe−(α+µx)
Z b
p(x) = P (X = x) = dx, ∀ − ∞ < a < x ≤ b < +∞.
a 1 + e−(α+µx)2
Prueba Sean α y β dos números reales tales que 0 < α < β, integrando por partes
u = x , dv = e−x dx en la siguiente integral
α
Z t Z t
α −x x −s x −t
x e dx = s e −t e +x xα−1 e−x dx
s s
Corolario A.14.1 Gamma es una extensión factorial. Más precisamente, para todo n ∈ N,
se tiene que Γ(n + 1) = n!
■
A.14. DISTRIBUCIÓN GAMMA 125
1 −x α−1
p(x) = P (X = x) = e x I[0,1) (x).
Γ(α)
De acuerdo con la definición de la función Gamma es claro que p es una densidad ya que
Z +∞
p(x)dx = 1
−∞
Definición A.14.3 Dado α > 0 y β > 0 definiremos la distribución Gamma con parámetros
α y β que denotaremos por Γ(α, β), a la distribución de Y = Xβ donde X tiene distribución
Γ(α, 1). Como g(x) = β , De acuerdo a (A.1) y teniendo en cuenta que β > 0 tendremos
x
Tomando en cuenta que como Γ(1) = 0! = 1, la distribución Γ(1, β) tiene como densidad
Γ(α)Γ(β)
Proposición A.15.1 B(α, β) = , ∀ α, β ∈ R.
Γ(α + β)
Z +∞ Z π
2 2 +(ysen(θ))2 )
Γ(α)Γ(β) = 4 e−((rcos(θ)) (rcos(θ))2α−1 (ysen(θ))2β−1 drdθ
0 0
Z +∞ Z π
2 2
= 4 e−r r2(α+β)−1 dr (cos(θ))2α−1 (sen(θ))2β−1 dθ
0 0
| {z }| {z }
I1 I2
así
Γ(α)Γ(β) = 4I1 I2
1 1
= 4 Γ(α + β) B(α, β)
2 2
= Γ(α + β)B(α, β)
por consiguiente
Γ(α)Γ(β)
B(α, β) =
Γ(α + β)
que es el resultado esperado.
Γ(α)Γ(β) α−1
p(x) = P (X = x) = x (1 − x)β−1 I(0,1) (x).
Γ(α + β)
La forma de la función de densidad toma formas muy diferentes para los distintos valores
de α y β, lo que nos permite seleccionar la forma de la función de densidad que más interese,
eligiendo adecuadamente los parámetros.
128 APÉNDICE A. TEORÍA DE PROBABILIDADES
i) Sea X −→ C(σ, γ), se tiene que E[X k ] no existe para k ≥ 1 y que existe para k < 1.
Una característica destacable de esta distribución es que carece de momentos, por lo que
no existen la media, varianza, asimetría y curtosis de esta distribución. Su función de densidad
es simétrica respecto al parámetro de situación γ.
A.17. DISTRIBUCIÓN EXPONENCIAL 129
λe−λ , si x ≥ 0
p(x) = P (X = x) =
0, para cualquier otro caso.
P (X ≥ a + b|X ≥ a) = P (X ≥ b)
Esto significa que la probabilidad de que llegue a durar hasta el tiempo a + b, dado que ha
llegado hasta el tiempo a, es igual a la probabilidad de que haya durado hasta el tiempo b. Es
decir el proceso "no tiene memoria del tiempo que estuvo funcionando"(no recuerda qué tan
viejo es) y por tanto, mientras funciona lo hace como si fuese nuevo.
P (X ≥ a + b|X ≥ a)
ii) Guarda una estrecha relación con la distribución normal debido a que si X −→ N (0, 1),
entonces X 2 −→ Γ(1/2, 1/2) = X 2 (1).
iii) Si X sigue una distribución ji-Cuadrado con n grados de libertad, para valores de n
√
grandes (n > 100), entonces la variable Y = 2X sigue aproximadamente una distri-
√
bución normal de media 2n − 1 y desviación estándar 1.
Γ n+1 x2 n+1
p(x) = P (X = x)) = √ 2 n (1 + )− 2 , −∞ < x < +∞
nπΓ 2 n
Del mismo modo, la distribución t de Student con 1 grado de libertad coincide con la
distribución de Cauchy estándar.
A.20. DISTRIBUCIÓN F DE SNEDECOR 131
sigue una distribución F de Snedecor con n y m grados de libertad que se denota por Fn,m .
Definición A.20.1 Se dice que una variable aleatoria X sigue una distribución F de Snedecor
si su función de densidad viene dada por la expresión
m n
m 2 n 2 Γ( m+n
2 ) m m+n
p(x) = P (X = x) = x 2 −1 (n + mx)− 2 , x ≥ 0.
Γ( 2 )Γ( 2 )
m n
i) Si X −→ Fn,m entonces 1
X −→ Fm,n .
[2] Nogales A.G. (2008). Teoria de la Medida y de la Probabilidad. Manuales UEX, Univer-
sidad de Extremadura, 2008 .
[3] Athreya K. B. Measure Theory and Probability Teory. Soumendra N. Lahiri, Department
of Mathematics and Department of Statistics, Iowa State University.
[9] Billingsley P. (1995). Probability and Measure, Departamento de Matematica, The Uni-
versity of Chicago, 1995 .
[11] Balanzario E. (2009). Sobre el Teorema del Limite Central, Departamento de Matematica,
Universidad Nacional Autónpma de México, Facultad de Fiencias, Sept. 2009 .
132
BIBLIOGRAFÍA 133
Universidad Autónoma de Santo Domingo
Facultad de Ciencias
Escuela de Matemática
División de Postgrado y Educación Permanente
________________________________________ (_____puntos)
Víctor Mercedes Batista Torres
Asesor
________________________________________________
Mtro. Juan Toribio Milane, MSc.
Jurados
______________________________ _________________________________
Mtro. Gerior Feliz, MSc. Mtro. José Jiménez, MSc.
Miembro Miembro
_______________________________________
Dr. Francisco Ramírez
Presidente
______________________________
Mtro. José Ferreira Capellán
Decano