Está en la página 1de 5

Variables aleatorias

Supongamos tener un espacio muestral S. Introducimos una función X€ la


cual asocia con cada punto de S un número real X, eso es , construimos
una correspondencia entre los puntos muestrales E1,… de S, los puntos de
S y los números reales x1,… La correspondencia no necesita ser binívoca,
es decir a varios puntos de S le hacemos corresponder un número real x.
X : S →R
Ejemplo: Si estamos lanzando una moneda, S = {C, S} y C →1 Esta
S →0
forma de definir la función puede interpretarse como “número de caras”
en un intento. Las 6 caras de un dado pueden transformarse en los
números reales: 1, 2, 3, 4, 5, 6. La función X€ que efectúa este cambio del
espacio de eventos al nuevo, se llama función aleatoria o más
comúnmente, variable aleatoria. Es decir, una variable aleatoria es una
función de valores reales definida en S.
Definición: Una variable aleatoria es discreta si su recorrido está formado
por un número
finito o infinito numerable de puntos.
Una variable aleatoria es continua si su recorrido está formado
por un número
infinito no numerable de puntos.
Ejemplo:
1. Variables aleatorias discretas
- El resultado obtenido al arrojar un dado
- El número de piezas defectuosas obtenidas en una muestra de 200
unidades de un proceso productivo
2. Variables aleatorias continuas
- El tiempo que tardan en realizar el recorrido habitual los camiones
recolectores en una mina
- La resistencia a la rotura de distintas piezas de un motor.
f (x ) f(x)

0,5 0,5
0,4 0,4
0,3 0,3
0,2 0,2
0,1 0,1
0 x 0 x
0 1 2 3 0 1 2 3

Histograma de probabilidad Diagrama de barras

Funciones de probabilidades continua y discreta

Variables aleatorias discretas

Sea S un espacio muestral finito o infinito numerable. Consideremos la


variable aleatoria X cuyos valores son los números reales x1,… Podemos
hallar la probabilidad que la variable aleatoria (v. a.) X tome un valor
particular. P {X = x i} = p(x i); p(x i) se llama función de cuantía de la v.
a. X. Teniendo en cuenta las propiedades de la probabilidad, la función de
cuantía debe cumplir:

f(x) ≥ 0 para toda x y ∑f(x) =1


sobre x

Además: P(a ≤ X ≤ b) = a≤∑ ∑p(xi )


p(xi ) ; P(a < X ≤ b) =
x ≤b i a<xi ≤b

A veces puede interesarnos los valores de la variable que sean menores o


iguales que xi, entonces definimos : F(xi ) = P(X ≤ xi ) = x∑ p(xi )
≤x
, F(x i) se
i

llama función de distribución


F(x) cumple las siguientes propiedades:
F(−∞ ) = 0 F(∞) = 1 0 ≤ F(xi ) ≤ 1
P(a < X ≤b) =F(b) −F(a)
Presentar una variable aleatoria con su función de cuantía es dar la
distribución de probabilidad de X

S= { []⋅ ,[ ⋅ ] ,[  ] ,[ : ] ,: [ :⋅ ] ,: [ ] }
Ejemplo:

Se arroja un dado. la variable aleatoria X:”número de

la cara” con su función de cuantía es:


X p
S: → R→ R
1 → 1 → 16
2 → 2 → 16
5
P(2 ≤ X ≤ 6) =
3 →3 → 16 6
2 2
P(2 < X ≤ 6) = F(6) − F(2) =1− =
3 →3 → 16 6 3
F(0) = 0 F(6) =1 0 ≤ F(x) ≤1
4 →4 → 16
5 →5 → 16
6 → 6 → 16

Variables aleatorias continuas

Sea S un espacio muestral infinito. La variable aleatoria que asocia a cada


punto muestral un número real es una v. a. continua y sus valores están
representados por intervalos de la recta real. A cada intervalo se puede
asociar una probabilidad.
Definimos la probabilidad para un intervalo x; x+dx en términos de área:
P(x ≤ X ≤ x + dx) = f(x)dx f(x) es función de densidad, por ser una
probabilidad debe cumplir: ∞

f(x) ≥ 0 para todas las x dentro del dominio de f y que, ∫f(x)dx =1


−∞
b

Además: P(a ≤ x ≤ b)  ∫f(x)dx


a
dx
Para variables
a continuas, la probabilidad en un punto es cero, ya que
P(X=a)= ∫f(x)dx =0
Una consecuencia
a inmediata de que en el caso continuo las probabilidades
asociadas con puntos individuales son siempre cero es que, si nos
referimos a la probabilidad asociada con el intervalo entre a y b, no
importa si los puntos extremos están incluidos. Es decir,
P(a ≤ x ≤ b) = P(a ≤ x < b) = P(a < x ≤ b) = P(a < x < b)
Función de distribución

Podemos tener interés en los valores de X menor o igual a x i, introducimos


entonces: F(x). En esta forma, si una variable aleatoria con valores x tiene
la densidad de probabilidad f, los valores de su función de distribución
están dados por:
xi
F(xi ) = P(X ≤ xi ) = ∫ f(x)dx F(−∞ ) = 0 F(∞) = 1
−∞ ,
F(x) es una función monótona no decreciente
Función de distribución
probabilidad acumulativa

1 Mean,Scale
0,1
0,8

0,6

0,4

0,2

0
-5 -3 -1 1 3 5
x

A partir del cálculo elemental, el resultado fundamental en puntos de


discontinuidad de f(x).
b b a
dF(x)
= f(x) P(a ≤ X ≤ b) = ∫ f(x)dx = ∫ f(x)dx − ∫ f(x)dx = F(b) −F(a)
dx a −∞ −∞
Ejemplo: Si una variable aleatoria tiene la densidad de probabilidad
f(x)

 2e−2x para x >0


f(x) =
0 para x ≤ 0

x
0 1 2
Encuéntrese la función de distribución y utilícese para determinar la
probabilidad de que la variable aleatoria tome un valor menor o igual que
1.
Solución
Efectuando las integraciones necesarias, se obtiene:
0
 parax ≤ 0
F(x) = x 2e−2t dt =1− e−2x

 0 ∫ parax >0
y la sustitución de x = 1 arroja el resultado:

F(1) = 1 − e 2 = 0.865
Obsérvese que la función de distribución de este ejemplo es no decreciente,
que F(−∞) =0 y que F(∞) =1. En realidad, de la definición se deduce que
estas propiedades las comparten todas las funciones de distribución.

Valores esperados

La esperanza de una variable aleatoria X, se escribe E(X), es definida por:



E(X ) = ∫ xf(x)dx Para el caso continuo y
−∞
E(X ) = ∑xp(x) Para el caso discreto
x
Trabajamos con variable continua. Sea y una segunda variable aleatoria
con función de densidad h(y) tal que: y = g(x), entonces:
∞ ∞
E(y) = ∫ yh(y)dy = E[ g(x)] = ∫ g(x)h[ g(x)]d[ g(x)] , sin embargo se puede
−∞ −∞
demostrar que:

E[ g(x)] = ∫g(x)f(x)dx
−∞
La demostración, más sencilla, es para el caso discreto:
Sean x1, …,xn v. a. con probabilidades p(x1),…,p(xn), entonces:
n
E(X ) = ∑ xip(xi ) ahora, sea la relacióny = g(x) queremosdemostrar que:
i=1
n
E(Y ) = E[ g(x)] = ∑ g(xi )p(xi )
i=1

Por definición,
m
E(Y ) = ∑yih(yi ) donde y tiene los valores y1,...,ym con probabilid
ades h(y1),...h(ym)
i=1
Si la relación entre Y y X es biunívoca (m=n):
m n n n
E(Y ) = ∑yih(yi ) = ∑yiP(Y = yi ) =∑g(xi )P(Y = yi ) =∑g(xi )P( g(x) = g(xi )) =
i=1 i=1 i=1 i=1
n n
= ∑g(xi )P(X = xi ) = ∑g(xi )p(xi )
i=1 i=1
Para que exista E[g(x)], la integral o la suma deben ser absolutamente
convergentes, es decir:
∑g(xi )p(xi ) < ∞ ó ∫ g(x) f(x)dx < ∞
i x
Esto ocurre en la mayoría de las funciones g(x) y f(x) qie se encuentran en
Estadística. Esta condición se satisface cuando f(x) se anula fuera d un
intervalo finito o cuando la suma contiene un número finito de términos
Existen algunas funciones g(x) cuyas esperanzas, si existen, dan
aracterísticas muy importantes:

Si g(x) = x ⇒E(X ) = ∫ xf(x)dx = µ es la media poblaciona
l de x
−∞

Si g(x) = xk ⇒ E(X ) = ∫x
k
f(x)dx = µk es el momento de orden k respecto al origen
−∞

Si g(x) = ( x − µ) k ⇒ E(x − µ)k = ∫ ( x − µ)
k
f(x)dx es el momento e orden k respecto
−∞
a la media.

En particular, si k=2, se obtiene la varianza de X.



Si g(x) = e ⇒ E(e ) = ∫e
θx θx θx
f(x)dx =Mx (θ) , llamada función generatriz de
−∞
momentos de X