Está en la página 1de 5

Apuntes de Métodos estadı́sticos de la Ingenierı́a

Mathieu Kessler
Departamento de Matemática Aplicada y Estadı́stica
Universidad Politécnica de Cartagena
mathieu.kessler@upct.es

Ésta es una versión preliminar, comentarios bienvenidos, 2005


Todos los gráficos de estos apuntes han sido realizados con el programa
estadı́stico freeware R, (http://cran.r-project.org)
TEMA IV

Variable Aleatoria II

Nota: En este tema, se presentan de manera concisa unos pocos resultados que nos
serán útiles cuando trabajemos con más de una variable.

IV.1. Introducción
Es frecuente que haya más de una variable aleatoria de interés asociada a un
experimento aleatorio. Supongamos por ejemplo que consideramos n variables X1 ,
X2 , . . . Xn , formaremos el vector aleatorio X = (X1 , X2 , . . . , Xn ). Diremos que X
es una variable aleatoria multidimensional. Para el caso particular en que n = 2,
hablaremos de variable aleatoria bidimensional.
Describir la distribución de una v.a. multidimensional consiste en asignar una
probabilidad a sucesos conjuntos, es decir sucesos que involucren X1 , X2 , . . ., Xn .
Para simplificar nos limitamos a ilustrar el caso de una v.a bidimensional X = (X, Y ).
Si tanto X como Y son variables discretas, basta con describir la probabilidad
de los sucesos (X = x) ∩ (Y = y). Lo realizaremos a través de la función puntual de
probabilidad conjunta de X e Y :
La función puntual de probabilidad conjunta de (X, Y ) asocia a cualquier par de
valores (x, y) la probabilidad del suceso ((X = x) ∩ (Y = y)). La denotamos
fXY (x, y) = P ((X = x) ∩ (Y = y)) .
Los valores que toma una función puntual de probabilidad conjunta se pueden
presentar en una tabla:
X Y
0 0.03 0.1 0.15 0.2
1 0.05 0.06 0.1 0.1
2 0.21 0 0 0
Deducimos en particular de esta tabla que la probabilidad que X tome el valor
0 y a la vez Y tome el valor 140 es igual a 140. Por otra parte si conocemos la
60 Mathieu Kessler: Métodos Estadı́sticos

distribución conjunta de (X, Y ) a través de una tabla como la anterior, podemos


calcular la distribución de X o de Y por separado: éstas se llaman las distribuciones
marginales. En efecto, para calcular P(X = 0) por ejemplo, basta con utilizar

P(X = 0) = P(X = 0 ∩ Y = 120) + P(X = 0 ∩ Y = 130)


+ P(X = 0 ∩ Y = 140) + P(X = 0 ∩ Y = 150) = 0,48.

La suma de los valores de la función puntual de probabilidad conjunta debe sumar


1.
En cambio, si tanto X como Y son v.a continuas, describiremos su distribución
conjunta utilizando una función de densidad:
Definición.La función de densidad conjunta de (X, Y ) es una función fXY que
permite calcular la probabilidad de cualquier suceso de la forma (a ≤ X ≤ b) ∩ (c ≤
Y ≤ d) a través de la fórmula:
Z Z
P ((a ≤ X ≤ b) ∩ (c ≤ Y ≤ d)) = fXY (x, y)dxdy.
x∈[a,b] y∈[c,d]

Consideremos por ejemplo un experimento que consista en producir dos compo-


nentes de dos tipos, y denotamos por X e Y el tiempo de vida en miles de horas del
primer y segundo componente respectivamente. Modelizamos su distribución con-
junta a través de la función de densidad siguiente
 −x −2y
2e e si x > 0 y y > 0,
fXY (x, y) =
0 en otro caso.
Para calcular la probabilidad de que ambos componentes duren menos de 1000
horas, por ejemplo,
Z 1 Z 1
P((X < 1000) ∩ (Y ≤ 1000)) = fXY (x, y)dxdy
−∞ −∞
Z 1Z 1
= 2e−x e−2y dxdy = (1 − e−1 )(1 − e−2 ) ' 0,54.
0 0

IV.2. Variables independientes


En el tema 2 hemos definido el concepto de sucesos independientes. Introducimos
ahora el concepto de variables aleatorias independientes:
Definición.Dos variables X e Y son independientes si cualquier suceso asociado
con X es independiente de cualquier suceso asociado con Y . Es decir que

P(a ≤ X ≤ b) ∩ (c ≤ Y ≤ d) = P(a ≤ X ≤ b)P(c ≤ Y ≤ d).

En particular, deducimos que si X e Y son independientes, podemos describir


completamente su distribución conjunta si conocemos sus dos distribuciones marginales.
La noción de variables independientes se generaliza a más de dos variables de
manera natural: X1 , X2 , . . ., Xn son v.a independientes si los sucesos asociados son
independientes.
IV.3 Suma de variables aleatorias 61

IV.3. Suma de variables aleatorias


Hay muchas situaciones en las que la cantidad que nos interesa se puede escribir
como la suma de varias variables: el tiempo total que se necesita para realizar una
tarea que consiste en varias subtareas, por ejemplo, o la longitud de una ppieza for-
mada por la unión de dos partes. Es decir, si X e Y son dos v.a, es de interés estudiar
la distribución de X + Y . Empezamos por resultados generales sobre esperanza y
varianza, para los cuales no necesitamos especificar la distribución de X y de Y .

IV.3.1. Esperanza y varianza de sumas de v.a


Las dos propiedades siguientes son intuitivamente razonables.

Si X e Y son dos v.a.

E[X + Y ] = E[X] + E[Y ].

Si además X e Y son independientes

var(X + Y ) = var(X) + var(Y ).

A esta última relación se le da en algunos contextos ( en calibración por ejemplo) el


nombre de “ley de propagación de los errores”.

IV.3.2. Reproductividad de algunas distribuciones


Para algunos casos concretos de modelos para las distribuciones de X e Y pode-
mos incluso describir la distribución de X + Y .

IV.3.2.1. Reproductividad de la Normal


2 ), Y ∼
Si X e Y son dos v.a. independientes que cumplen X ∼ N (µX , σX
2
N (µY , σY ), tenemos
2
(X + Y ) ∼ N (µX + µY , σX + σY2 ).

IV.3.2.2. Reproductividad de la distribución de Poisson


Si X e Y son dos v.a. independientes de Poisson que cumplen X ∼ P(λX ),
Y ∼ P(λY ), tenemos
(X + Y ) ∼ P(λX + λY ).

También podría gustarte