0% encontró este documento útil (0 votos)
93 vistas41 páginas

Libro Apuntes de Teoría de La Probabilidad

Este documento presenta los conceptos básicos de la teoría de la probabilidad en tres temas. El Tema 1 introduce conceptos clave como espacio muestral, sucesos, axiomas de la probabilidad y tipos de espacios muestrales. El Tema 2 define la noción de variable aleatoria, funciones de distribución y tipos de variables aleatorias. El Tema 3 describe medidas características como la esperanza matemática y momentos para variables aleatorias.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
93 vistas41 páginas

Libro Apuntes de Teoría de La Probabilidad

Este documento presenta los conceptos básicos de la teoría de la probabilidad en tres temas. El Tema 1 introduce conceptos clave como espacio muestral, sucesos, axiomas de la probabilidad y tipos de espacios muestrales. El Tema 2 define la noción de variable aleatoria, funciones de distribución y tipos de variables aleatorias. El Tema 3 describe medidas características como la esperanza matemática y momentos para variables aleatorias.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

TEORÍA DE LA PROBABILIDAD:

Conceptos básicos, variable aleatoria y medidas


características
(Libro de apuntes)

Margarita E. Romero Rodríguez


Mª Carolina Rodríguez Donate
Margarita E. Romero Rodríguez (mromero@[Link])
Mª Carolina Rodríguez Donate (cdonate@[Link])

Esta obra está bajo una licencia Reconocimiento-No comercial-Compartir bajo la misma
licencia 3.0 Internacional de Creative Commons. Para ver una copia de esta licencia,
visite:
[Link]
Nota de las autoras

Estos apuntes se corresponden con el contenido de las clases del módulo II que impartimos en la
asignatura de Estadística I en los Grados de Economía y Administración y Dirección de Empresas
y deben utilizarse conjuntamente con el manual de la asignatura: “Conceptos básicos de
estadística para ciencias sociales” de J. J. Cáceres Hernández (Delta Publicaciones). Los tres
temas desarrollados en este libro de apuntes se corresponden con los temas 8, 9 y 10,
respectivamente, del programa de la asignatura.

Los ejemplos planteados se corresponden con los mismos ejemplos del manual, que se realizarán
completamente en clase.
ÍNDICE

Tema 1. Conceptos básicos de teoría de la probabilidad 1


1.1. Espacio muestral. Sucesos.……………………………..……..................... 1
1.2. Axiomas de la probabilidad.…...……………………………………..…… 3
1.3. Espacios muestrales discretos………………………………….………….. 4
1.4. Espacios muestrales continuos…………………...…………..………...….. 5
1.5. Probabilidad condicionada….……………….………………..…………... 7
1.6. Sucesos independientes.….……………….…………………….……........ 8

Tema 2. Variable aleatoria real 10


2.1. Concepto de variable aleatoria……………………………………..…..…. 11
2.2. Probabilidad inducida por una variable aleatoria……………………….… 13
2.3. Función de distribución de una variable aleatoria.……………………...… 15
2.4. Variable aleatoria discreta……………………………………………….... 16
2.5. Variable aleatoria continua………………………………………………... 18
2.6. Distribuciones marginales…………………………………………………. 20
2.7. Distribuciones condicionadas……………………………………………... 24

Tema 3. Medidas características de variables aleatorias 26


3.1. Esperanza matemática de una función de una variable aleatoria…….…… 26
3.2. Momentos respecto al origen y momentos centrales…………………..….. 27
3.3. Función generatriz de momentos respecto al origen………………………. 28
3.4. Medidas características de la distribución de una variable aleatoria……… 29
3.5. Independencia de variables aleatorias…………………………………….. 33

0
Romero, M.E. y M.C. Rodríguez (2014) Tema 1. Conceptos básicos
___________________________________________________________________________
Tema 1. Conceptos básicos de teoría de la probabilidad

El objetivo de la teoría de la probabilidad es analizar experimentos aleatorios.

1.1. Espacio muestral. Sucesos

* Un experimento aleatorio es un experimento u operación cuyo resultado no se puede


predecir de forma exacta (de ahí el calificativo de aleatorio).

Ejemplo: lanzar un dado

* El espacio muestral asociado a un experimento aleatorio (Ω) es el conjunto de todos los


posibles resultados de ese experimento aleatorio.

Ejemplo:   1,2,3,4,5,6

Hay dos tipos de espacios muestrales:

- espacio muestral discreto: es aquel formado por un número finito o infinito


numerable de elementos.

- espacio muestral continuo: es aquel formado por un número infinito no numerable


de elementos.

Véase ejemplo 8.1 del libro “Conceptos Básicos de Estadística para Ciencias Sociales”.

El espacio muestral asociado a un experimento aleatorio puede especificarse de varias formas


dependiendo de lo que queramos observar del experimento. Dado que el objetivo es evaluar
probabilidades de ocurrencia de enunciados sobre los resultados del experimento aleatorio,
hay formas de expresarlo que facilitan más que otras el cálculo de la probabilidad.

Los elementos del espacio muestral (sucesos) pueden ser múltiplos de 1,2,…,n dependiendo
del número de características que se desea analizar.

* Un suceso es cualquier afirmación o enunciado sobre los resultados del experimento


aleatorio, es decir, cualquier subconjunto del espacio muestral. En definitiva, los sucesos son
los elementos del espacio muestral y pueden ser de dos tipos:

- sucesos elementales: son los formados por un solo elemento que no se puede
descomponer en elementos más sencillos.

Ejemplo: A  1

- sucesos compuestos: son los formados por varios sucesos elementales.

Ejemplo: B  1,2

1
Romero, M.E. y M.C. Rodríguez (2014) Tema 1. Conceptos básicos
___________________________________________________________________________
Operaciones con sucesos:

1. Suceso contenido en otro ( A  B ): Un suceso A está contenido en otro B si todos los


elementos de A pertenecen también a B.

2. Igualdad de sucesos ( A  B ): dos sucesos A y B son iguales si ambos están formados por
los mismos elementos. En este caso, A  B y B  A .

3. Unión de sucesos ( A  B ): el suceso unión de A y B está formado por todos los elementos
de A y todos los elementos de B. Por tanto, si ocurre el suceso A  B , entonces ocurrirá A o
bien ocurrirá B o ambos.

4. Intersección de sucesos ( A  B ): el suceso intersección de A y B está formado por todos


los elementos que pertenecen simultáneamente a A y B. Por tanto, si ocurre el suceso A  B ,
entonces ocurrirá A y también ocurrirá B.

5. Suceso complementario ( A ): el suceso complementario de A ( A ) es aquél que está


formado por todos los elementos del espacio muestral que no pertencen a A. Por tanto,
A  A   , lo que significa que si ocurre A, entonces no podrá ocurrir A .

6. Diferencia de sucesos ( A  B ): el suceso A  B está formado por todos los elementos de A


que no pertenecen a B.

7. Suceso seguro (): es aquél que siempre ocurre, por ello, coincide con el espacio muestral.

8. Suceso imposible (  ): es el que no ocurre nunca porque no tiene ningún elemento.

9. Sucesos incompatibles: dos sucesos A y B son incompatibles cuando A  B   , es decir,


cuando no tienen elementos comunes, por tanto, si uno ocurre el otro no podrá ocurrir. Todos
los sucesos complementarios son incompatibles.

* Conjunto de las partes de  (P()): es el conjunto de todas las particiones que admite el
espacio muestral asociado a un experimento aleatorio. Engloba, por tanto, todos los
subconjuntos de , esto es:

P()   , sucesos de 1 elemento, sucesos de 2 elementos,..., 

Cuando se desea modelar un experimento aleatorio puede que no interese calcular las
probabilidades de todas las partes de  sino sólo las de determinados sucesos, a ese conjunto
de sucesos se le identifica con la letra A y recibe el nombre de colección de subconjuntos de
. Los conjuntos A y P() pueden no coincidir, pero suponemos que coinciden.

2
Romero, M.E. y M.C. Rodríguez (2014) Tema 1. Conceptos básicos
___________________________________________________________________________
1.2. Axiomas de la probabilidad

Trabajaremos con dos tipos de espacios:

- Espacio probabilizable: (Ω, A)


- Espacio probabilístico: (Ω, A, P)

Pasamos del espacio (Ω, A) al espacio (Ω, A, P) cuando sobre el primero definimos una
medida de probabilidad, P, que permita calcular la probabilidad de ocurrencia de cualquier
elemento de A, es decir:

( , A ) 

P
( , A , P )
 

Espacio Espacio
probabilizable probabilístico

Axiomática de Kolmogorov

Kolmogorov definió matemáticamente una función de probabilidad que cumplía


determinados axiomas. Dichos axiomas están inspirados en las propiedades de la frecuencia
relativa de un suceso.

La función de probabilidad de Kolmogorov, P, es una aplicación de A en el intervalo [0,1],


es decir:

P : A → [0,1]  R
A → P(A)  R A  A

Los axiomas de la función de probabilidad1 son:

1. P(A)  0 A  A
2. P ( )  1
3.  sucesión de sucesos A n nN  A / Ai  A j  ; i  j se cumple que:

  
P  A n    P(A n )
 n 1  n 1

Las consecuencias de los axiomas son:

1. P()  0
2. P(A)  1 A  A
3. P( A)  1  P(A) A  A
4. A  B  P(A)  P(B) A, B  A
5. P(A  B)  P(A)  P(B)  P(A  B) A, B  A

1
A partir de ahora denotaremos la probabilidad P como P.

3
Romero, M.E. y M.C. Rodríguez (2014) Tema 1. Conceptos básicos
___________________________________________________________________________
1.3. Espacios muestrales discretos

Recordar que un espacio muestral es discreto si está formado por un número finito o infinito
numerable de sucesos. La idea fundamental que está detrás de los espacios muestrales
discretos es que la probabilidad de ocurrencia de un suceso se puede obtener a partir de las
probabilidades de ocurrencia de los sucesos elementales que lo componen. Veamos cómo:

* Teorema 1:

Sea el espacio probabilístico (Ω, A, P) y sea el espacio muestral, Ω, formado por los
siguientes sucesos elementales:

n
  1  2  n    i 
i 1

donde i   j   i  j , i  1,  , n ; j  1,  , n . Sea, además, el suceso B definido de la


siguiente manera:

k
B  1  2  k    i ; k  n ; B  A
i 1

Si se desea calcular la probabilidad de ocurrencia de dicho suceso, entonces:

k
P(B)   Pi  P1  P2     Pk 
i 1

* Teorema 2 (caso de equiprobabilidad: todos los elementos tienen igual probabilidad)

Sea el espacio probabilístico (Ω, A, P) y sea el espacio muestral, Ω, formado por los
siguientes sucesos elementales:

n
  1  2  n    i  , i   j   i  j
i 1

Donde:
Pi   P j  
1
; i  j
n

Sea, además, el suceso B definido de la siguiente manera:

k
B  1  2  k    i ; k  n ; B  A
i 1

Si se desea calcular la probabilidad de ocurrencia de dicho suceso, entonces:


k
P(B)   Pi  
n (B) k
  Regla de Laplace
i 1 n () n

4
Romero, M.E. y M.C. Rodríguez (2014) Tema 1. Conceptos básicos
___________________________________________________________________________

Por tanto, en el caso de que los resultados del experimento sean equiprobables la probabilidad
de ocurrencia de un suceso puede calcularse mediante la denominada regla de Laplace, que
permite calcular la probabilidad del suceso como el cociente entre el número de casos
favorables (número de elementos que pertenecen al suceso cuya probabilidad se desea
calcular) y el número de casos posibles (número de elementos del espacio muestral).

Véase ejemplo 8.4 del libro “Conceptos Básicos de Estadística para Ciencias Sociales”.

1.4. Espacios muestrales continuos

Recordar que un espacio muestral es continuo si está formado por un conjunto infinito no
numerable de sucesos, que en el caso unidimensional se corresponde con los intervalos de la
recta real, sus uniones e intersecciones y en el caso bidimensional, con los semiplanos de R ,
2

sus uniones e intersecciones.

A diferencia de los espacios muestrales discretos, en un espacio muestral continuo no se


puede calcular la probabilidad de un suceso a partir de las probabilidades de los sucesos
elementales que lo componen, puesto que en un espacio muestral continuo no se puede
asignar una probabilidad positiva a cada uno de los sucesos elementales que contiene ya que,
entonces, dicha asignación sería inconsistente con los axiomas de la función de probabilidad.
Consideraremos, por tanto, que la probabilidad de cada suceso elemental es aproximadamente
cero, lo que no quiere decir que sea un suceso imposible.

Como consecuencia de ello, es preciso encontrar otra forma de calcular probabilidades en


espacios muestrales continuos. Para hacerlo, deben considerarse dos casos, dependiendo de si
los elementos que componen el espacio muestral tienen la misma verosimilitud o no.

Elementos con la misma verosimilitud

La verosimilitud es un valor asociado a cada resultado del experimento aleatorio que permite
identificar conjuntos de resultados más probables que otros, no obstante, la verosimilitud de
un resultado no es la probabilidad de dicho resultado. En este sentido, la probabilidad de un
suceso, definido por un intervalo, será mayor cuando el intervalo está formado por los
resultados más verosímiles que cuando está formado por los menos verosímiles.

Ejemplo: Sean los sucesos A y B:

A  1  x  3 B  4  x  6

Dado que ambos sucesos están definidos por intervalos que tienen la misma longitud, si los
sucesos elementales que pertenecen al suceso B fuesen más verosímiles que los sucesos
elementales de A, entonces, se verificaría que P( B)  P( A ) .
Se dice que los elementos de un espacio muestral continuo son verosímiles (tienen la misma
verosimilitud) si la probabilidad de que el resultado del experimento pertenezca a un intervalo
es proporcional a la longitud del intervalo, es decir:

5
Romero, M.E. y M.C. Rodríguez (2014) Tema 1. Conceptos básicos
___________________________________________________________________________
Dado un espacio probabilístico (Ω, A, P) y un espacio muestral, Ω, definido de la siguiente
forma:

  x  R / a  x  b a, b  R , a  b

Si se define el suceso B:

B  x R / c  x  d c, d  R , c  a; d  b

y se supone que todos los sucesos elementales son verosímiles, entonces, la probabilidad de B
se obtiene de la siguiente manera:

LB d  c
P(B)  
L b  a

Esto significa que si dos sucesos están definidos por intervalos de la misma longitud y todos
los sucesos elementales que los componen son verosímiles, las probabilidades de ambos
sucesos coincidirán.

Ejemplo: A  1  x  3 B  4  x  6

Si todos los sucesos elementales son verosímiles, como L A  L B , se verifica:

P ( A )  P ( B)

Elementos con distinta verosimilitud

Cuando los sucesos elementales no tienen la misma verosimilitud, la longitud no es suficiente


para calcular la probabilidad de un suceso y hay que buscar otro elemento que indique la
verosimilitud de cada resultado, ese elemento es la denominada función de verosimilitud.

La función de verosimilitud es una función que asigna a cada punto del espacio muestral un
valor tal que la probabilidad de que ocurra un suceso, definido por un intervalo, es igual al
área encerrada por dicha función en el intervalo que define el suceso, esto es:

Dado un espacio probabilístico (Ω, A, P) y un espacio muestral, Ω, definido de la siguiente


forma:

  x  R / a  x  b a, b  R , a  b

Si se define el suceso B:

B  x R / c  x  d c, d  R , c  a; d  b

La probabilidad de ocurrencia de dicho suceso se calcula de la siguiente manera:

d
P(B)   f ( x )dx
c

6
Romero, M.E. y M.C. Rodríguez (2014) Tema 1. Conceptos básicos
___________________________________________________________________________

Propiedades de la función de verosimilitud:


1. f (x)  0 x  a, b  
b
2. 
a
f ( x )dx  1
3. Integrable de Riemann: P(A  B)  P(A)  P(B) , A, B  A / A  B  

1.5. Probabilidad condicionada

La probabilidad de que ocurra el suceso A sabiendo que ha ocurrido el suceso B se obtiene de


la siguiente manera:
P(A  B)
PA B 
P(B)

La probabilidad condicionada cumple todos los axiomas de una función de probabilidad.


Además, si los sucesos elementales son equiprobables, dicha probabilidad se puede calcular
aplicando la regla de Laplace:

casos favorables n (A  B)
P(A  B) n () n (A  B)
PA B 
casos posibles
  
P(B) casos favorables n (B) n (B)
casos posibles n ()

Véase ejemplo 8.6 del libro “Conceptos Básicos de Estadística para Ciencias Sociales”.

Teorema del producto

Sea (Ω, A, P), A , B  A, P(A)  0, P(B)  0 .

P(A  B)
PA B   P(A  B)  P(B)  PA B
P(B)
P(A  B)
PB A    P(A  B)  P(A)  PB A 
P( A )

Se puede generalizar a tres sucesos:

P(A  B  C)  P(A  B)  PC A  B  P(A)  PB A  PC A  B

7
Romero, M.E. y M.C. Rodríguez (2014) Tema 1. Conceptos básicos
___________________________________________________________________________
1.6. Sucesos independientes

* Definición de 2 sucesos independientes:

A y B independientes  P(A  B)  P(A)  P(B) con P(A )  0, P(B)  0

*Teorema 1:
PA B  P(A) , con P(B)  0

A y B independientes  
PB A   P(B) , con P(A)  0

Es decir, la ocurrencia de un suceso no afecta a la probabilidad de ocurrencia del otro.

*Teorema 2:

a) Si A y B son independientes  A y B son no incompatibles (pueden ocurrir


simultáneamente)

Demostración:

Recordar que:

A y B independientes  P(A  B)  P(A)  P(B)

A y B incompatibles  P(A  B)  0

Luego, si A y B son independientes, entonces P(A  B)  P(A )  P(B)  0 . Por tanto, no son
incompatibles.

b) Si A y B incompatibles  A y B dependientes (como no pueden ocurrir simultáneamente,


la ocurrencia de uno sí afecta a la probabilidad de ocurrencia del otro)

Demostración:

Si A y B son incompatibles, entonces P(A  B)  0  P(A)  P(B) . Por tanto son dependientes.

*Teorema 3:

A y B independientes
 
A y B independientes  A y B independientes 
A y B independientes
 

8
Romero, M.E. y M.C. Rodríguez (2014) Tema 1. Conceptos básicos
___________________________________________________________________________
* Definición de conjunto de sucesos independientes

Sea el espacio probabilístico (Ω, A, P) y sean los sucesos A1 , A 2 ,A n  A. Se dice que
A1, A2 ,, An  es un conjunto de sucesos independientes si y sólo si para toda subcolección
finita Am ,, Ak , 1  m  k  n , se verifica:

k
P(Am   A k )   P(Ai )
im

Caso particular: Conjunto de 3 sucesos independientes

P(A  B)  P(A)  P(B)


 P ( A  C)  P ( A )  P ( C)
A, B, C independientes  
P(B  C)  P(B)  P(C)
P(A  B  C)  P(A)  P(B)  P(C)

* Teorema 4:

Cualquier subcolección de una colección de sucesos independientes es también


independiente, pero el recíproco no es cierto.

Caso particular para 3 sucesos:

A y B independientes
A, B, C independientes  A y C independientes , pero el recíproco no es cierto.
B y C independientes 
 

A y B independientes
 
Además, si P(A  B  C)  P(A)  P(B)  P(C) no implica que A y C independientes
B y C independientes 
 

9
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

Tema 2. Variable aleatoria real


Normalmente, los resultados de un experimento aleatorio se expresan tal y como se observan:

Ejem: Si se lanza una moneda, el espacio muestral se suele expresar de la siguiente manera:   cara, cruz y los sucesos elementales
que lo componen se pueden recoger de la siguiente forma:

1  cara , 2  cruz

Pero, en muchos casos, resulta conveniente transformar esos resultados en números reales, con la finalidad de utilizar el cálculo matemático:

Ejem:

1  cara  1
2  cruz  2

Esta transformación se realiza a través de una variable aleatoria.

Una variable aleatoria permite pasar de un espacio probabilizable a otro, es decir:

- Variable aleatoria unidimensinal: ( , A )  ( R , B )


- Variable aleatoria bidimensinal: ( , A )  ( R 2 , B 2 )

Siendo R el conjunto de los números reales y B la σ-álgebra de Borell en R que es el conjunto de todos los subconjuntos que se pueden formar
con los números reales.

10
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

2.1. Concepto de variable aleatoria

Concepto de variable aleatoria

Una variable aleatoria unidimensional X (o bidimensional (X,Y)) es una función real (aplicación
matemática) definida sobre Ω que transforma los sucesos de A en subconjuntos de B (o B 2 ), es
decir, transforma sucesos en números reales, de tal manera que se conserven las
probabilidades de ocurrencia de los sucesos transformados.

Caso unidimensional Caso bidimensional

X: Ω  R ( X, Y ) :   R 2

    X ( )  x  R    (X, Y)()  X(), Y()  (x, y)  R 2

X ( )  x , X 1 ( x )   XY ( )  ( x , y) , XY 1 ( x, y)  
PX (x)  P() PXY (x, y)  P( )

Ejem:

X:Ω  R
1  c  1
 2  e  2

Entonces:

PX (1)  Pc 
1
2
PX (2)  Pe 
1
2

11
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

Rango de una variable aleatoria

El rango de una variable aleatoria unidimensional X (o bidimensional


(X,Y)) es el conjunto de valores que puede tomar dicha variable, es
decir, es el conjunto de valores reales que son imagen mediante la
aplicación X (o XY) de algún elemento de Ω.

Caso unidimensional Caso bidimensional

R X  x  R /    : X()  x R XY  (x, y)  R /    : (X, Y)( )  (x, y)


2

Véase ejemplo 9.1 del libro “Conceptos Básicos de Estadística Véase ejemplo 9.2 del libro “Conceptos Básicos de Estadística
para Ciencias Sociales” para Ciencias Sociales”

12
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

2.2. Probabilidad inducida por una variable aleatoria

Recordar que en el campo de los sucesos:

( , A ) 

P
( , A , P )
 

Espacio Espacio
probabilizable probabilístico

P es una medida de probabilidad que permite calcular las probabilidades


de ocurrencia de los elementos de A. Dicha medida es una función de
probabilidad y, por tanto, cumple determinados axiomas.

Ahora en el campo de los números reales:

Caso unidimensional Caso bidimensional

( R ,B ) 
PX
( R , B ,PX ) ( R 2 ,B2 ) 
PXY
( R 2 , B 2 , P XY )
   

Espacio Espacio Espacio Espacio


probabilizable probabilístico probabilizable probabilístico

PX es la probabilidad inducida por una variable aleatoria PXY es la probabilidad inducida por una variable aleatoria
unidimensional, es decir, es una función de probabilidad que bidimensional, es decir, es una función de probabilidad que
permite calcular las probabilidades de ocurrencia de los permite calcular las probabilidades de ocurrencia de los
subconjuntos de B, de tal manera que coincidan con las de los subconjuntos de B 2 , de tal manera que coincidan con las de los
sucesos de los que son imagen. sucesos de los que son imagen.

13
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

 
PX (B)  P X 1 (B)  P(A)  
PXY (B)  P XY 1 (B)  P(A)

Propiedades de PX Propiedades de PXY

1. PX (B)  0 B  B 1. PXY (B)  0 B  B 2

2. PX (R)  1 2. PXY ( R )  1
2

     
3. PX   Bi    PX (Bi ), Bi iN  B / Bi  B j   i  j 3. PXY   Bi    PXY (Bi ), Bi iN  B 2 / Bi  B j   i  j
 i1  i1  i 1  i 1

Estas propiedades son análogas a las de la probabilidad en sucesos

14
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

2.3. Función de distribución de una variable aleatoria

La función de distribución de una variable aleatoria unidimensional X (o


bidimensional (X,Y)) es una aplicación de R (o R ) en el intervalo
2

[0,1] definida como:

Caso unidimensional Caso bidimensional

FX (x)  P(X  x) FXY (x, y)  P(X  x, Y  y)

Propiedades: Ver propiedades por el libro.

1) Monótona no decreciente
2) Acotada entre 0 y 1
3) Continua por la derecha

FX (x) se puede utilizar para calcular probabilidades: FXY (x, y) se puede utilizar para calcular probabilidades asociadas
a recintos rectangulares:
P(a  x  b)  FX (b)  FX (a )
P(a  x  b, c  x  d)  FXY (b, d)  FXY (b, c)  FXY (a, d)  FXY (a, c)

15
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

2.4. Variable aleatoria discreta

Variable aleatoria discreta

Una variable aleatoria discreta X (o (X,Y)) es aquella cuyo rango es un


conjunto finito o infinito numerable de puntos de R (o R ).
2

Función de probabilidad de una variable aleatoria discreta

Es una función que indica la probabilidad de ocurrencia de cada uno de


los puntos del rango de la variable (sólo existe para variables discretas).

Caso unidimensional Caso bidimensional

PX (x)  P(X  x)  x  R PXY (x, y)  P(X  x, Y  y)  (x, y)  R


2

PX (x) cumple las siguientes propiedades: PXY ( x, y) cumple las siguientes propiedades:

1) PX (x)  0  x  R 1) PXY (x, y)  0  (x, y)  R


2

2) P
xR X
X (x)  1 2) P XY ( x, y)  1
( x , y )R XY

Por tanto, todos los puntos que no pertenecen al rango de la variable aleatoria tendrán probabilidad nula.

16
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

Función de distribución de una variable aleatoria discreta

Caso unidimensional Caso bidimensional

FX (x)  P(X  x)  P X
x i R X / x i  x
(x i ) FXY ( x, y)  P(X  x, Y  y)  P XY (x , y j )
( x i , y j )R XY / x i  x , y j  y
i

Gráficamente, es una función en escalera que va saltando en los


puntos que pertenecen al rango de la variable. La magnitud del
salto en un punto es la probabilidad en ese punto.

FX (x) se puede utilizar para calcular probabilidades


correspondientes a intervalos en los que toma valores una variable
aleatoria unidimensional discreta:

P(a  x  b)  FX (b)  FX (a )
P(a  x  b)  FX (b)  FX (a )  PX (a )
P(a  x  b)  FX (b)  FX (a )  PX (a )  PX (b)
P(a  x  b)  FX (b)  FX (a )  PX (b)

Véanse ejemplos 9.5 y 9.7 del libro “Conceptos Básicos de


Estadística para Ciencias Sociales”

17
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

2.5. Variable aleatoria continua

Variable aleatoria continua

Una variable aleatoria continua X (o (X,Y)) es aquella cuyo rango es un conjunto


infinito no numerable de puntos de R (o R ).
2

Función de distribución-función de densidad de una variable aleatoria continua

Caso unidimensional Caso bidimensional

t t1 t2
FX ( t )  P(X  x )   f X ( x ) dx  t R FXY ( t 1 , t 2 )  P(X  t 1 , Y  t 2 )    f XY ( x, y) dx dy  (t1 , t 2 )  R 2

    
función de función de densidad
distribución

f XY (x, y) cumple las siguientes propiedades:


f X ( x ) cumple las siguientes propiedades:
1) f X,Y (x, y)  0  (x, y)  R
2

1) f X (x)  0  x  R

2)  f X ( x ) dx  1
2)  
R Y R X/Y
f XY ( x, y) dx dy  1 ó  
RX RY / X
f XY ( x, y) dy dx  1
xR x

3) Es integrable de Riemann (ver libro)


3) Es integrable de Riemann (ver libro)

18
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

Si se desea calcular las siguientes probabilidades: Si se desea calcular las siguientes probabilidades:

P (a  x  b )  P ( a  x  b)  P ( a  x  b )  P ( a  x  b )  P( x  a , b , y  c, d )  
b d

b a f
c
XY ( x , y) dy dx
 FX (b)  FX (a )   f X ( x ) dx
a
La función de densidad conjunta se puede obtener a partir de la función
Véase ejemplo 9.9 del libro “Conceptos Básicos de Estadística de distribución conjunta de la siguiente manera:
para Ciencias Sociales”
 2 FXY (x, y)  2 FXY ( x, y)
f XY ( x, y)  
x y y x

Toda la información relativa a una variable aleatoria, ya sea discreta o continua, viene recogida en su distribución de probabilidad o
distribución, a secas. La distribución de una variable aleatoria viene caracterizada por las siguientes funciones:

función de probabilidad

- Variable aleatoria discreta: función de distribución
función generatriz de momentos

función de densidad

- Variable aleatoria continua: función de distribución
función generatriz de momentos

Es decir, las funciones anteriores recogen toda la información relativa a una variable aleatoria.

19
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

2.6. Distribuciones marginales

CASO DISCRETO

Supongamos una variable aleatoria bidimensional discreta (X,Y), es decir, aquélla


cuyo rango es un conjunto finito o infinito numerable de puntos de R . Se
2

denomina tabla de probabilidad conjunta de dicha variable a la siguiente:

X\Y y1  yj  ys PX ( x )
x1 p1,1  p1, j  p1,s p X1
      
xi p i ,1  p i, j  pi,s p Xi
      
xr p r ,1  pr, j  p r ,s p Xr
PY ( y) p Y1  p Yj  p Ys 1

Función de probabilidad conjunta

pij  P(X  x i , Y  y j )  PXY (x i , y j )

Propiedades:

1) p ij  0 ij

2) p ij 1

20
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

Funciones de probabilidad marginales

Función de probabilidad marginal de X (sumar por filas) Función de probabilidad marginal de Y (sumar por columnas)

PX ( x i )  PX i   p ij PY ( y j )  PYj   p ij
j i

Propiedades: Propiedades:

1) PX (x i )  0  x i R 1) PY ( y j )  0  y j  R

2) P
x i R X
X (x i )  1 2) P Y (y j )  1
y jR Y

Funciones de distribución marginales

Función de distribución marginal de X Función de distribución marginal de Y

FX (x)  P(X  x)  P X
x i R X / x i  x
(x i ) FY ( y)  P(Y  y)  P Y
y jR Y / y j  y
(y j )

Véase ejemplo 9.11 del libro “Conceptos Básicos de Estadística para Ciencias Sociales”

21
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

CASO CONTINUO

Supongamos una variable aleatoria bidimensional continua (X,Y), es decir, aquélla


cuyo rango es un conjunto infinito no numerable de puntos de R (recintos del plano).
2

Función de densidad conjunta

f XY (x, y)

Propiedades:

1) f X,Y (x, y)  0  (x, y)  R


2

2)  
R Y R X/Y
f XY ( x, y) dx dy  1 ó  
R X R Y/X
f XY ( x, y) dy dx  1

Funciones de densidad marginales

Función de densidad marginal de X Función de densidad marginal de Y

f X (x)   f XY ( x, y) dy f Y ( y)   f XY ( x, y) dx
RY / X RX / Y

Propiedades: Propiedades:

1) f X (x)  0  x R 1) f Y ( y)  0  y  R
2) 
xR x
f X ( x ) dx  1 2) 
yR Y
f Y ( y) dy  1

22
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

Funciones de distribución marginales

Función de distribución marginal de X Función de distribución marginal de Y

t t
FX ( t )  P(X  t )   f X ( x ) dx FY ( t )  P(Y  t )   f Y ( y) dy
 

A partir de la distribución conjunta siempre se pueden obtener las distribuciones marginales, sin embargo, a partir de las distribuciones
marginales sólo es posible obtener la distribución conjunta si las variables son independientes.

Véase ejemplo 9.12 del libro “Conceptos Básicos de Estadística para Ciencias Sociales”

23
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

2.7. Distribuciones condicionadas

CASO DISCRETO

Función de probabilidad de X condicionada a Y  y j Función de probabilidad de Y condicionada a X  x i

    P(X  x i , Y  y j ) p ij Y  yj  P(X  x i , Y  y j ) p ij
P X  x i   P X  xi    P   P Y  y j   
 Y  yj   Y  yj  PY  y j  p Yj  X  xi   X  xi  PX  x i  p Xi

Propiedades: Propiedades:


1) P X

 xi   0 1) P Y  y j   0
 Y  y j   X  xi 

   P Y  y j   1
2)  P X
x i R X / Y  y j 
Y  y j
 xi   1

2)
y jR Y / X  x i 
X  x i 

Nota: las funciones de distribución condicionadas se obtienen a partir de las funciones de probabilidad condicionadas de manera análoga a la
obtención de las funciones de distribución marginales a partir de las funciones de probabilidad marginales.

Véase ejemplo 9.13 del libro “Conceptos Básicos de Estadística para Ciencias Sociales”

24
Romero, M.E. y M.C. Rodríguez (2014) Tema 2. Variable aleatoria real
____________________________________________________________________________________________________________________

CASO CONTINUO

Función de densidad de X condicionada a Y  y j Función de densidad de Y condicionada a X  x i

fX x   f XY (x, y) fY y  f XY (x, y)


Y y f Y ( y) Xx f X (x)

Propiedades: Propiedades:

1) f X x   0 1) f Y y   0
Y y Xx

2)  fX x  dx  1 2) 
yR Y / X  x
fY y  dy  1
xR X / Y  y Y y Xx

Función de distribución de X condicionada a Y  y j Función de distribución de Y condicionada a X  x i

x  dx y dy
x y
FX / Y y (x)   f X FY / X  x ( y)   f Y
 Y y  Xx

Véase ejemplo 9.14 del libro “Conceptos Básicos de Estadística para Ciencias Sociales”

25
Romero, M.E. y M.C. Rodríguez (2014) Tema 3. Medidas características
___________________________________________________________________________

Tema 3. Medidas características de variables aleatorias


La mayoría de las medidas características de una variable aleatoria se expresan como función
de momentos que, a su vez, son funciones de los valores de dicha variable. Para poder
presentar los distintos momentos de una variable aleatoria es preciso definir primero el
operador esperanza matemática.

3.1. Esperanza matemática de una función de una variable aleatoria

Caso unidimensional

Sea X una variable aleatoria unidimensional y sea H(X) una función de dicha variable, se
define la esperanza matemática de H(X) como:

  H( x ) PX ( x ) v. al. discreta
xR X

H(X)  

xR X H( x ) f X ( x ) dx v. al. continua

Se trata de un promedio ponderado de los valores de la función, donde la ponderación se


corresponde con la probabilidad de cada punto del rango si la variable es discreta o con la
verosimilitud de cada uno si la variable es continua

Propiedades:

1. k   k

2. k  H(X)  k  H(X)

3. H(X)  G(X)  H(X)  G(X)

4. a  H(X)  b  G(X)  a  H(X)  b  G(X)

Véase ejemplo 10.1 del libro “Conceptos Básicos de Estadística para Ciencias Sociales”

Caso bidimensional

Sea (X,Y) una variable aleatoria bidimensional y sea H(X,Y) una función de dicha variable,
se define la esperanza matemática de H(X,Y) como:

  H( x, y) PXY ( x, y) v. al. discreta


( x ,y )R XY

H(X, Y)  
 ( x ,y )R XY H( x, y) f XY ( x, y) dx dy  R X R Y / X H( x, y) f XY ( x, y) dy dx ó

R y R X / Y H( x, y) f XY ( x, y) dx dy v. al. continua

26
Romero, M.E. y M.C. Rodríguez (2014) Tema 3. Medidas características
___________________________________________________________________________

Propiedad:

a  H(X)  b  G(Y)  a  H(X)  b  G(Y)

Véase ejemplo 10.2 del libro “Conceptos Básicos de Estadística para Ciencias Sociales”

3.2. Momentos respecto al origen y momentos centrales

Caso unidimensional

Momentos respecto al origen

  x k PX ( x ) v. al. discreta
xR X
  
mk   Xk  

xR X x f X ( x ) dx v. al. continua
k

Los casos particulares más conocidos son la media o momento respecto al origen de orden 1:

m1  X  X

y el momento de orden 2:

m2   X2 
Momentos centrales o respecto a la media

  ( x   X ) k PX ( x ) v. al. discreta
xR X
  
 k   (X   X )  
k


xR X ( x   X ) f X ( x ) dx v. al. continua
k

Los casos particulares más conocidos son el momento central de orden 1:

1  0

y la varianza o momento de orden 2:

 2  (X   X ) 2    X2

27
Romero, M.E. y M.C. Rodríguez (2014) Tema 3. Medidas características
___________________________________________________________________________

Caso bidimensional

Momentos respecto al origen

  x i y j PXY ( x, y) v. al. discreta


( x ,y )R XY
  
m ij   X i Y j  

 ( x ,y )R XY x y f XY ( x, y) dx dy v. al. continua
i j

Los casos particulares más conocidos son:

   
m10   X , m01  Y , m 20  E X 2 , m02  E Y 2 , m11  EXY

Momentos centrales o respecto a las medias

  (X   X ) i (Y   Y ) j PXY ( x, y) v. al. discreta


( x ,y )R XY
ij  (X   X ) i (Y   Y ) j  


 ( x , y )R XY (X   X ) (Y   Y ) f XY ( x, y) dx v. al. continua
i j

Los casos particulares más conocidos son:

20   X2 , 02   Y2 , 11   XY

3.3. Función generatriz de momentos respecto al origen

Esta función, si existe, caracteriza la distribución de la variable aleatoria y es única.

Caso unidimensional

  e tx PX ( x ) v. al. discreta
xR X
m X ( t )   e tX  


xR X e f X ( x ) dx v. al. continua
tx

Como su propio nombre indica esta función permite generar momentos respecto al origen a
través de la siguiente expresión:

 k m X (t)
mk 
t
t0

28
Romero, M.E. y M.C. Rodríguez (2014) Tema 3. Medidas características
___________________________________________________________________________

Caso bidimensional

  e t1X t 2Y PXY ( x, y) v. al. discreta


( x , y )R XY

m XY ( t 1 , t 2 )   e t1X  t 2Y  


 ( x ,y )R XY e
t1X  t 2 Y
f XY ( x, y) dx dy v. al. continua

A partir de la función anterior, el momento respecto al origen de órdenes (i,j) se puede


obtener de la siguiente manera:

 i j m XY ( t 1 , t 2 )
m ij 
 i t1  j t 2
( t 1 , t 2 )  (0,0)

3.4. Medidas características de la distribución de una variable aleatoria

Caso unidimensional

Medidas de posición

Las medidas de posición resumen o sintetizan la información contenida en la distribución de


la variable.

* Media o valor esperado (es una medida de posición central)

  x PX ( x ) v. al. discreta
xR X

X   

xR X x f X ( x ) dx v. al. continua
* Moda

Si la variable es discreta la moda es el valor más probable y si es continua, la moda es el valor


más verosímil, es decir:

- Mo X  x 0 si P(X  x 0 )  máx P(X  x ) para X discreta


- Mo X  x 0 si f X ( x 0 )  máx f X ( x ) para X continua

* Mediana (es una medida de posición central)

Es el valor de la variable que divide su distribución en dos partes equiprobables.

 Si X es continua, como su función de distribución es continua en todo punto real, se


puede garantizar que la mediana es el valor de la variable en el que la función de
distribución vale exactamente 1/2, es decir:

Me X  x 0 si FX ( x 0 )  1 / 2

29
Romero, M.E. y M.C. Rodríguez (2014) Tema 3. Medidas características
___________________________________________________________________________

 Si X es discreta, como su función de distribución no es continua en todo punto real, es


decir, es discontinua a saltos, es posible que no exista ningún valor de ella en el que la
función de distribución valga exactamente 1/2, por eso, para el caso discreto la
mediana se define como el menor valor de la variable en el que la función de
distribución es mayor o igual que 1/2, esto es:

MeX  min x  R X / FX (x)  1 / 2

* Cuantiles (son medidas de posición no necesariamente centrales)

Los cuantiles son valores de la variable que dividen su distribución en partes equiprobables.
En función del número de partes, podemos hablar de cuartiles (4 partes), deciles (10 partes) y
percentiles (100 partes):

o Cuartiles: C1  t 0.25 , C 2  t 0.5 , C3  t 0.75


o Deciles: D1  t 0.1 ,... , D 9  t 0.9
o Percentiles: P1  t 0.01 ,... , P99  t 0.99

Siendo Me X  C 2  D5  P50

Para hallar el cuantil de orden k, t k ,se procede de la siguiente manera:

 X discreta: t k  min x  R X / FX (x)  k


 X continua: t k  x / FX (x)  k

Medidas de dispersión

Las medidas de dispersión miden la representatividad de las medidas de posición central, es


decir, indican si éstas son o no buenos resúmenes de la información contenida en la
distribución de la variable.

* Varianza

La varianza es el momento central de orden 2, es decir:

 X2   2  (X   X ) 2 

Pero, también se puede calcular en función de los momentos respecto al origen:

 X2  m2  m12  X2   X2  X2   X2

Cuanto mayor es el valor de la varianza, mayor será la dispersión en torno a la media y, por
tanto, menor será la representatividad de ésta.

30
Romero, M.E. y M.C. Rodríguez (2014) Tema 3. Medidas características
___________________________________________________________________________

* Desviación típica o estándar

 X    X2

Se denomina variable tipificada o estandarizada a la siguiente:

X  X
ZX 
X

Esta variable se utiliza para comparar valores de variables que vienen expresadas en distintas
unidades y se caracteriza por tener media nula y varianza unitaria.

Nota: Ver las medidas de asimetría y apuntamiento por el libro.

Caso bidimensional

Las medidas características de una variable aleatoria bidimensional (X,Y) aportan


información sobre las medidas características de cada una de las variables unidimensionales
que la componen y también sobre el grado y el tipo de relación que existe entre ellas, que
constituye su valor añadido respecto a aquéllas.

* Covarianza

La covarianza es el momento central de órdenes (1,1):

 XY  11  (X   X ) (Y   Y )

Pero, también se puede calcular en función de los momentos respecto al origen:

 XY  m11  m10 m01  XY  XY  XY  X Y

El signo de la covarianza determina el sentido dominante de la relación lineal entre X e Y


(recordar cómo se explicó el signo de la covarianza en variables estadísticas). La covarianza
puede ser positiva, en cuyo caso, se dice que las variables tienden a covariar en el mismo
sentido, negativa, lo que indica que las variables tienden a covariar en sentidos opuestos o ser
nula, que significa que no existe relación lineal entre las variables.

La unidad de medida de la covarianza es el producto de las unidades de medida de ambas


variables, por tanto, le afectan los cambios en las unidades de medida de éstas y, como
consecuencia de ello, la magnitud de la covarianza puede no ser fiable para medir la
intensidad de la relación lineal entre las variables.

* Coeficiente de correlación lineal

 XY

X Y

31
Romero, M.E. y M.C. Rodríguez (2014) Tema 3. Medidas características
___________________________________________________________________________

El signo del coeficiente de correlación lineal coincide con el de la covarianza y su magnitud sí


es fiable para medir la intensidad de la relación lineal entre las variables, ya que, carece de
unidad de medida (adimensional).

Sus principales características son:

1)  1    1
2)   1 si todos los valores de la variable bidimensional están sobre una recta
de pendiente no nula, es decir:

P(Y  a  b X )  1

- Si b  0    1 (relación lineal perfecta positiva o directa)


- Si b  0    1 (relación lineal perfecta negativa o inversa)
3)  XY  0    0  no existe relación lineal (las variables están incorreladas)
4) Si X es constante ó Y es constante,  no estará definido, pero por convenio se
acepta que en este caso   0 .
5) El coeficiente de correlación de dos variables coincide con el de sus respectivas
variables tipificadas.

* Esperanza matemática condicionada (líneas de regresión)

Al igual que en el caso de variables estadísticas existen dos tipos de variables aleatorias
condicionadas:

 Tipo X :X ,..., X  ”s” vbles. unid. con rangos R X ,..., R X


Y  yj Y  y1 Y  yS Y  y1 Y  yS

 Tipo Y :Y ,..., Y  ”r” vbles. unid. con rangos R Y ,..., R Y


X  xi X  x1 X  xr X  x1 Xx r

Cada una de estas variables tiene su propia media que, a nivel genérico, para cada uno de los
tipos, se puede expresar de la siguiente manera:

  x PX  x / Y  y  v. al. discreta


xR X / Y  y

 X  
 Y  y X
Y y

 R X / Y  y x f X Y y ( x ) v. al. continua

  y PY  y / X  x  v. al. discreta


yR Y / X  x
Y Xx
  Y
Xx



 R Y / X  x y f Y Xx ( y) v. al. continua

32
Romero, M.E. y M.C. Rodríguez (2014) Tema 3. Medidas características
___________________________________________________________________________

X puede ser constante o ser una función de Y, pero nunca de X. Además, si Y toma cada
Y y

uno de los valores de su rango ( y1 ,..., yS ) y se calculan todas las medias  X , la línea que
Yy j

las une se denomina línea de regresión de X sobre Y y se representa de la siguiente manera:

X  L 2 (Y)
Y y

Esta línea, al depender de Y, es también una variable aleatoria.

De manera análoga,  Y puede ser constante o ser una función de X, pero nunca de Y.
Xx

Además, si X toma cada uno de los valores de su rango (x1 ,..., x r ) y se calculan todas las
medias  Y , la línea que las une se denomina línea de regresión de Y sobre X y se
Xx r

representa de la siguiente manera:

Y  L1 (X)
Xx

que también es una variable aleatoria.

Si al menos una de las líneas de regresión es constante, la covarianza y el coeficiente de


correlación serán nulos, indicando así que no existe relación lineal entre las variables, pero el
recíproco no es cierto.

Véanse ejemplos 10.9 y 10.10 del libro “Conceptos Básicos de Estadística para Ciencias
Sociales”

3.5. Independencia de variables aleatorias

* Concepto de variables aleatorias independientes

Definición 1 (válida para variables discretas y continuas):

X e Y independientes  FXY (x, y)  FX (x) FY ( y) (x, y)  R


2

Definición 2:

X e Y independientes  P(a  x  b, c  y  d)  P(a  x  b)  P(c  x  d )

Siendo a , b, c, d ctes. a  b, c  d

Definición 3 (válida para variables discretas):

X e Y independientes  PXY (x, y)  PX (x) PY ( y) (x, y)  R


2

33
Romero, M.E. y M.C. Rodríguez (2014) Tema 3. Medidas características
___________________________________________________________________________

Definición 4 (válida para variables continuas):

X e Y independientes  f XY (x, y)  f X (x) f Y ( y) (x, y)  R


2

Definición 5 (válida para variables discretas y continuas):

X e Y independientes  mXY (t1 , t 2 )  mX (t1 ) mY (t 2 )

*Teorema 1:

Si X e Y son independientes, entonces:

FX (x)  FX (x); FY ( y)  FY ( y)
Y y X x

PX (x)  PX (x); PY ( y)  PY ( y)
Y y X x

fX (x)  f X (x); f Y ( y)  f Y ( y)
Y y Xx

Es decir, las distribuciones condicionadas coinciden con las distribuciones marginales. En


consecuencia, los rangos de las variables del tipo Y/X coinciden con el rango de Y y los
rangos de las variables del tipo X/Y coinciden con el rango de X, y por tanto, el recinto es
rectangular.

*Teorema 2:

Si X e Y independientes  H(X) y G (Y) son independientes

*Teorema 3:

Si X e Y independientes  H(X)  G(X)  H(X)  G(X)

*Teorema 4:

a) Si X e Y independientes (no  relación de ningún tipo)    0 (no  relación lineal)


pero el recíproco no es cierto

   X es cte.
 X
b) X e Y independientes   Y y , pero el recíproco no es cierto.
Y   Y es cte.
 Xx

* Concepto de colección de variables aleatorias independientes

Se dice que X1 ,..., X n  es una colección de variables aleatorias independientes sí y solo sí:

34
Romero, M.E. y M.C. Rodríguez (2014) Tema 3. Medidas características
___________________________________________________________________________

n
FX1 ,...,Xn (x1 ,..., x n )   FXi (x i ) (x1 ,..., x n )  R
n

i 1

*Teorema 5:

Cualquier subcolección de una colección de variables aleatorias independientes es también


independiente, pero el recíproco no es cierto:

X1 ,..., Xn  independientes  Xi ,..., X p  independientes 1 i  p  n

*Teorema 6:

n
Sea una colección de variables aleatorias, X1 ,..., X n  , y sea la variable aleatoria Y   X i ,
i 1
entonces:

n
X1 ,..., Xn  independientes  m Y (t )   m X (t ) i
i 1

*Teorema 7:

Sea una colección de variables aleatorias, X1 ,..., X n  , y sean las constantes a1 ,..., a n de tal
n
manera que Xi  i y  X2 i   i2 . Sea, además, la variable aleatoria Y   a i X i , entonces:
i 1

n
X1 ,..., Xn  independientes   Y2   a i2  i2
i 1

* Concepto de variables aleatorias independientes e idénticamente distribuidas (iid)

Se dice que X1 ,..., X n  son variables aleatorias iid si se verifica:

n
1) FX1 ,...,Xn (x1 ,..., x n )   FXi (x i ) (x1 ,..., x n )  R
n

i 1

2) FX1 (x)  FX2 (x)  ...  FXn (x) x  R

35
Bibliografía

Cáceres, JJ (2007) Conceptos Básicos de Estadística para Ciencias Sociales, Delta.


Cáceres, JJ, LJ López Martín, FJ Martín Álvarez, G Martín Rodríguez, ME Romero
Rodríguez (2003) Conceptos, Tablas y Fórmulas de Estadística. Campus.
Cáceres, JJ; LJ López (2000) Teoría de la probabilidad. Conceptos y Problemas. Campus.
Casas, JM (2000) Estadística I, Probabilidad y Distribuciones, Centro de Estudios Ramón
Areces.
Casas, JM y J Santos (1995) Introducción a la estadística para economía y administración de
empresas, Centro de Estudios Ramón Areces.
Casas, JM y J Santos (1999) Introducción a la Estadística para Administración y Dirección de
Empresas, Editorial Centro de Estudios Ramón Areces.
Martín-Pliego, FJ (2004) Introducción a la estadística económica y empresarial, Thompson.
Martín-Pliego, FJ, L Ruiz-Maya (2006) Fundamentos de Probabilidad, Thompson.

36
Esta obra está bajo una licencia Reconocimiento-No comercial-Compartir bajo la misma
licencia 3.0 Internacional de Creative Commons. Para ver una copia de esta licencia, visite:
[Link]

37

También podría gustarte