Está en la página 1de 78

Universidad de Alcalá

M. Concepción Alonso Rodríguez

U.D. de Matemáticas, MCAR Página 1

Universidad de Alcalá

El resultado de un experimento aleatorio puede ser descrito en ocasiones


como una cantidad numérica.
En estos casos aparece la noción de variable aleatoria (X). Se puede ver
como una función que asigna a cada suceso un número.

Ej: X= Número de caras al lanzar una moneda dos veces


Ej: X= Tiempo que tarda una persona en realizar una tarea
Ej: X= Disminución del peso de una persona con una dieta
Ej: X= 1 si una pieza es defectuosa en un proceso de fabricación y X=0 si no lo es.
Ej: X= número de delitos cometidos en un barrio un fin de semana
Ej: X= longitud de una pieza en un proceso de fabricación

Representamos las variables aleatorias con letras mayúsculas (X,Y, Z, ...)


o bien por letras griegas (ξ, , …), y sus valores numéricos con minúsculas
(x1, x2, x3,…, y1, y2,…,z1, z2,…)

U.D. de Matemáticas, MCAR Página 2


Universidad de Alcalá

Las variables aleatorias pueden ser discretas o continuas (al igual que las
variables estadísticas cuantitativas estudiadas anteriormente en el curso).

Variable aleatoria discreta: tienen un número finito o infinito numerable de


valores puntuales posibles

Ej: X = Número de ordenadores que cogen la wifi entre los 15 de una clase

Ej: X = Número de defectos de pintura por m2 de un robot que pinta coches

Variable aleatoria continua: pueden tomar cualquier valor de un intervalo de


números reales

Ej: X = Tiempo entre dos autobuses en una parada

Ej: X = Peso de una pieza

U.D. de Matemáticas, MCAR Página 3

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 4


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 5

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 6


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 7

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 8


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 9

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 10


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 11

Universidad de Alcalá

Ejemplo:
X= Número de personas por día que solicitan tratamientos innecesarios en el
servicio de urgencias de un pequeño hospital
X=x 0 1 2 3 4 5
P(x) 0.01 0.1 0.3 0.4 0.1 ?

P(X = 5) P(X = 5) = 0.09


P(X < 2) P(X < 2) = 0.11
P(X 2) P(X 2) = 0.41
P(X > 3) P(X > 3) = 0.19
P(X 3) P(X 3) = 0.59
P(1 X< 4) P(1 X< 4) = 0.8

U.D. de Matemáticas, MCAR Página 12


Universidad de Alcalá

Distribución de probabilidad

Llamaremos distribución de probabilidad al conjunto de valores que toma la


variable aleatoria ξ junto con sus respectivas probabilidades.

Se verifica que P(ξ = xi ) = 1 También se denota P(ξ = xi) = pi


i

ξ=xi x1 x2 x3 ... xk

P(ξ = xi) P(ξ = x1) P(ξ = x2) P(ξ = x3) ... P(ξ = xk)

Podemos hacer una representación pi


gráfica en un diagrama de barras como
el siguiente

x1 x2 ... xi ... xk
U.D. de Matemáticas, MCAR Página 13

Universidad de Alcalá

Dada una variable aleatoria discreta ξ, denominaremos función de


distribución a la función acumulativa: F(xk)
F(xi)
F ( x ) = P (ξ ≤ x) = P (ξ = xi ) F(xi-1)
xi ≤ x F(x2)
F(x1)
P (ξ > x ) = 1 − P (ξ ≤ x ) = 1 − F ( x )
x1 x2 ... xi-1 xi ... xk
P ( x1 < ξ ≤ x2 ) = P (ξ ≤ x2 ) − P (ξ ≤ x1 ) = F ( x2 ) − F ( x1 )

U.D. de Matemáticas, MCAR Página 14


Universidad de Alcalá

Si la Variable X es discreta: F(xk)


Prob( X k ) = F(k) F(xi)
F(xi-1)
Prob( h X k )= F(k) - F(h-1) F(x2)
Prob( X > k ) = 1 - F(k) F(x1)
Prob( X = k ) = F(k) - F(k-1)
x1 x2 ... xi-1 xi ... xk
Prob( X < k ) = F(k-1)
U.D. de Matemáticas, MCAR Página 15

Universidad de Alcalá

Una Variable aleatoria X es continua si el conjunto de valores que


toma es un intervalo o más de uno de la recta real.

Función de densidad (Variables Continuas): f(x)


Definición
Es una función no negativa de integral 1
(f(x)>0 y el área bajo la curva es la unidad).
Se puede ver como la generalización del
histograma con frecuencias relativas
para variables continuas.
Sus valores no representan probabilidades.
En variables continuas P(X=x) = 0
Ejemplo:
¿Probabilidad de que una persona pese exactamente
65,981321875963 kg?
U.D. de Matemáticas, MCAR Página 16
Universidad de Alcalá

Las distribuciones de probabilidad son idealizaciones de los polígonos de


frecuencias. En el caso de una variable estadística continua se considera el
histograma de frecuencias relativas, y se comprueba que al aumentar el
número de datos y el número de clases el histograma tiende a estabilizarse
llegando a convertirse su perfil en la gráfica de una función.

Así como en el histograma la frecuencia viene dada por el área, en la


función de densidad la probabilidad viene dada por el área bajo la curva,
por lo que:
• El área encerrada bajo la totalidad de la curva es 1.
• Para obtener la probabilidad ≤ ≤ obtenemos la proporción de
área que hay bajo la curva desde hasta .
• La probabilidad de sucesos puntuales es 0, P(X=a) = 0

U.D. de Matemáticas, MCAR Página 17

Universidad de Alcalá

¿Para qué sirve la función de densidad?


Muchos procesos aleatorios vienen descritos por variables de forma
que son conocidas las probabilidades en intervalos.

La integral definida de la función de densidad en dichos intervalos


coincide con la probabilidad de los mismos.

Es decir, identificamos la probabilidad de un intervalo con el área


bajo la función de densidad.
b
= f ( x) dx = P (a ≤ X ≤ b)
f ( x) a

a b
U.D. de Matemáticas, MCAR Página 18
Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 19

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 20


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 21

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 22


Universidad de Alcalá

≤ ≤ = − =

U.D. de Matemáticas, MCAR Página 23

Universidad de Alcalá

Distribución de Probabilidad = ≤ =
−∞

Función de distribución

= > = −
Función de fiabilidad (Reliability)

P (X=x) = 0 0 F(x) 1

Para cualquier x1 y x2,


≤ ≤ = < ≤ =
≤ < = < <

P ( X a ) = F(a)
P ( a < X b ) = F(b) - F(a)
P ( X > a ) = 1 - F(a)

U.D. de Matemáticas, MCAR Página 24


Universidad de Alcalá

Características de las variables aleatorias

Valor esperado
Se representa mediante E [X] ó
Es el equivalente a la media de las variables estadísticas

µ= = ⋅ µ = E( X ) =
−∞
xf ( x)dx
Varianza
Se representa mediante VAR [X] o 2
Es el equivalente a la varianza de las variables estadísticas
Se llama desviación típica, , a la raíz cuadrada positiva de la
varianza

V ( X ) = E ( X - µ )2 σ +
U.D. de Matemáticas, MCAR Página 25

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 26


Universidad de Alcalá

xi P( xi ) caso discreto
µ = E[ X ] = +∞
x f ( x) dx caso continuo
−∞

( xi − µ ) 2 P( xi ) caso discreto
σ = Var[ X ] = E ( X − µ )
2 2
= +∞
( x − µ ) 2 f ( x) dx caso continuo
−∞

Fórmula alternativa para la varianza:

− ( E [ X ])
2
σ = Var[ X ] = E X
2 2

xi 2 P ( xi ) caso discreto
E X 2
= +∞
x 2 f ( x) dx caso continuo
−∞

U.D. de Matemáticas, MCAR Página 27

Universidad de Alcalá

Ejemplo:
X= Número de personas por día que solicitan tratamientos
innecesarios en el servicio de urgencias de un pequeño hospital

X=x 0 1 2 3 4 5
P(X=x)=P(x) 0.01 0.1 0.3 0.4 0.1 0.09

E[X] = 0 · 0.01 + 1 · 0.1 + 2 · 0.3 + 3 · 0.4 + 4 · 0.1 + 5 · 0.09 = 2.75

E[X2] = 02 0.01 + 12 · 0.1 + 22 · 0.3 + 32 · 0.4 + 42 · 0.1 + 52 · 0.09 = 8.75

Var[X] = E[X2] – (E[X])2 =8.75 - 2.752 = 1.1875

U.D. de Matemáticas, MCAR Página 28


Universidad de Alcalá

Ejemplo:
Sea X una variable aleatoria continua cuya función de densidad de
probabilidad está dada por:

∞ − −
µ= = = = = = − = =
−∞ − −

+∞ 2 x2
σ = Var[ X ] = E ( X − µ )
2 2
= ( x − µ ) f ( x) dx = ( x − 1, 25)
2
dx =
2
−∞ −1 3
2
1 x5 x3 x4
= + 1,5625 − 2,5 = 0, 6375 σ = 0, 7984
3 5 3 4 1

U.D. de Matemáticas, MCAR Página 29

Universidad de Alcalá

Algunos resultados sobre valores esperados y varianzas

Si X e Y son variables aleatorias y k es una constante


entonces:

E(k) = k
E(k X) = k E(X)
E(X+Y) = E(X) + E(Y)
V(X) = E[ (X - µ)2 ] = E(X2) - µ2

U.D. de Matemáticas, MCAR Página 30


Universidad de Alcalá

Moda
Para una variable aleatoria discreta la moda se define como el valor de
la variable que toma la máxima probabilidad.
La moda de una variable aleatoria continua es el valor de la variable
que toma el máximo de la función de densidad.
f ( Mo ) = máxf ( x ); f ′ ( Mo ) = 0 f ′′ ( Mo ) ≤ 0
pueden existir varias modas
Mediana
Para una variable aleatoria discreta la mediana se define como el valor
de la variable tal que la probabilidad de los valores menores o iguales
es de 0,5, por tanto F ( Me) = P(ξ ≤ Me) = 1 / 2
Cuantiles de orden α
Se define el cuantil de orden α como el valor de la variable que deja el
100 α % de la probabilidad por debajo de él, por tanto
F(Cα ) = P(ξ ≤ Cα ) = α
U.D. de Matemáticas, MCAR Página 31

Universidad de Alcalá

Operador esperanza matemática


Dado un experimento aleatorio S, y su espacio de probabilidad, ξ variable
aleatoria definida sobre él, y g función real, definimos el operador
esperanza como:
E g (ξ ) = g ( xi ).P {ξ = xi } si E g (ξ ) = g ( xi ) ⋅ P {ξ = xi } < ∞
i i

si E g (ξ ) = g ( x) · f ( x) dx < ∞
−∞

µξ = E (ξ ) σ ξ2 = E (ξ − µξ ) 2
Momentos:

mr = E(ξ − c)r µ r = E (ξ − µξ ) r α r = E (ξ r )
Centrado en c Centrado en Centrado en cero
U.D. de Matemáticas, MCAR Página 32
Universidad de Alcalá

Momentos:

mr = E(ξ − c)r µ r = E (ξ − µξ ) r α r = E (ξ r )
k k
µK = (−α1 )i α k −i
i =0 i

&RHILFLHQWHGH$VLPHWU¯D µ  σ  
µ
&RHILFLHQWHGH$SXQWDPLHQWRR&XUWRVLV   − 
σ

U.D. de Matemáticas, MCAR Página 33

Universidad de Alcalá

Formas:
&$!  &$  &$ 

&&!  Curtosis positiva (leptocúrtica)

&&  Curtosis = 0 (mesocúrtica)

Curtosis negativa (platicúrtica)


&& 

Curtosis
U.D. de Matemáticas, MCAR Página 34
Universidad de Alcalá

Variables aleatorias que aparecen con frecuencia en las Ciencias Experimentales.


Experimentos dicotómicos.
Bernoulli
Contar éxitos en experimentos dicotómicos repetidos un número fijado
de veces de forma independiente:
Binomial
Experimentos donde los resultados son equiprobables.
Uniforme
Contar sucesos en un tiempo o en un espacio determinados:
Poisson (sucesos raros)
Contar pruebas hasta obtener un número de éxitos determinado en
experimentos dicotómicos repetidos un número fijado de veces:
Binomial Negativa
Contar éxitos en experimentos dicotómicos repetidos un número fijado
de veces, pero sin reposición:
Hipergeométrica

U.D. de Matemáticas, MCAR Página 35

Universidad de Alcalá

7
6 8
5 9
4 10
3 11
2 12

U.D. de Matemáticas, MCAR Página 36


Universidad de Alcalá

Ejemplo: Al lanzar dos dados la suma de ambos puede asumir 11


valores diferentes en 36 puntos muestrales

En este caso vemos que la distribución de p(x) obtenida es simétrica.

Para el caso de 1 solo dado, donde todos los valores tienen la misma probabilidad de
salir (1/6), obtendríamos una Distribución Uniforme

U.D. de Matemáticas, MCAR Página 37

Universidad de Alcalá

Distribución de Bernoulli B(p)


Se obtiene una distribución de Bernoulli si al realizar el experimento sólo
existen dos posibles resultados que llamamos éxito y fracaso.
Se asigna a la variable aleatoria los siguientes valores:
X = 1 (éxito, con probabilidad p)
X = 0 (fracaso, con probabilidad q=1-p)
Observación: p+q=1
Lanzar una moneda y que salga cara.
p=1/2
Elegir una pieza en un proceso de fabricación y que esté defectuosa.
p=1/1000 = probabilidad de pieza defectuosa.
Aplicar un tratamiento a un enfermo y que éste se cure.
p=95%, probabilidad de que el individuo se cure

En experimentos donde el resultado es dicotómico, la variable queda


perfectamente determinada conociendo el parámetro p (probabilidad de éxito).

U.D. de Matemáticas, MCAR Página 38


Universidad de Alcalá

El “éxito” generalmente se define como la constatación de la característica que


nos interesa investigar objeto del estudio

X B( p) P ( X = x) = p x (1 − p )1− x x=0, 1
Ejemplo de distribución de Bernoulli.

Se ha observado que en 2000 accidentes de tráfico con impacto frontal, cuyos


conductores no tenían cinturón de seguridad, 300 individuos quedaron con
secuelas. Descríbase el experimento usando conceptos de variable aleatoria.

Solución:
La noción frecuentista de probabilidad nos permite aproximar la probabilidad
de tener secuelas en este tipo de accidentes mediante 300/2000 = 0,15 =15%
X=“tener secuelas tras accidente frontal sin cinturón” es variable de Bernoulli
X=1 tiene probabilidad p 0,15
X=0 tiene probabilidad q 0,85

U.D. de Matemáticas, MCAR Página 39

Universidad de Alcalá

X B( p) P ( X = x) = p x (1 − p)1− x x=0 , 1
1
Evidentemente: P( X = x) = P( X = 0) + P ( X = 1) = p + q = 1
x =0

Esperanza y varianza de la distribución de Bernoulli:


(>;@ = µ = [ 3ᤡ; = [ ᤢ=  ⋅ 3ᤡ; =  ᤢ+  ⋅ 3ᤡ; = ᤢ= S
[ =


9DUᤡ; ᤢ= ( > ; @ −ᤡ( > ; @ ᤢ=  
[  3ᤡ; = [ ᤢ
− S
[ =

=  ⋅ 3ᤡ; =  ᤢ
+  ⋅ 3ᤡ; = ᤢ
− S  = S − S  = Sᤡ − S ᤢ= ST

U.D. de Matemáticas, MCAR Página 40


Universidad de Alcalá

Ejemplo de distribución de Bernoulli.

Se ha observado que en 2000 accidentes de tráfico con impacto frontal, cuyos


conductores sí tenían cinturón de seguridad, 10 individuos quedaron con
secuelas. Descríbase el experimento usando conceptos de variable aleatoria.

Solución:
La noción frecuentista de probabilidad nos permite aproximar la
probabilidad de quedar con secuelas en este tipo de accidentes por
10/2000 = 0,005 = 0,5%

X=“tener secuelas tras accidente usando cinturón” es variable de Bernoulli


X=1 tiene probabilidad p 0,005
X=0 tiene probabilidad q 0,995

U.D. de Matemáticas, MCAR Página 41

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 42


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 43

Universidad de Alcalá

Distribución Binomial B(n,p)


Un portador de tuberculosis tiene un 10% de posibilidades de transmitir la
enfermedad a alguien que no haya estado previamente expuesto a ella y con el
que entre en contacto directo. Durante el transcurso de un día, un portador entra
en contacto con diez de tales individuos. ¿Cuál es la probabilidad de que
exactamente dos contraigan la enfermedad?

¿Qué tiene de particular este experimento?


Se puede considerar a cada individuo de los 10 como una prueba idéntica de
las n (10).
El resultado de cada prueba puede clasificarse como "éxito" (contraer la
enfermedad) o “fracaso” (no contraer la enfermedad).
Las pruebas son independientes en el sentido de que el resultado de una
prueba no tiene efecto sobre el resultado de cualquier otra, y la probabilidad
de éxito p continúa siendo la misma de una prueba a otra: p = 0,1
La variable de interés es el número de éxitos en n pruebas (número de
personas que contraen la enfermedad).

U.D. de Matemáticas, MCAR Página 44


Universidad de Alcalá

Con reemplazamiento

U.D. de Matemáticas, MCAR Página 45

Universidad de Alcalá

AAA ...(k A ...(n-k con k éxitos y n-k fracasos, la probabilidad es pr·qn-r

ξ = número de éxitos que ocurren (veces que ocurre el suceso A )


al realizar n pruebas independientes.

Cuando n→ tiende a ser simétrica (distribución normal).


U.D. de Matemáticas, MCAR Página 46
Universidad de Alcalá

Para determinar si una distribución es Binomial es conveniente


aplicar las siguientes reglas:

1. El experimento está compuesto por n pruebas sucesivas e


independientes.

2. El resultado de cada prueba puede clasificarse de éxito o de


fracaso con probabilidad p de éxito constante para cada prueba.

3. La variable en estudio es el número de éxitos.

U.D. de Matemáticas, MCAR Página 47

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 48


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 49

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 50


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 51

Universidad de Alcalá

Distribución uniforme
Se da una distribución uniforme cuando el resultado de un experimento aleatoria
puede ser un conjunto finito de n posibles resultados, todos ellos igualmente
probables.

3ᤡξ = U ᤢ= si r = 1, 2, ... , n
Q
Sólo depende de n. Su media y su varianza son, respectivamente:
Q + Q  −
µ=  σ =


 
Ejemplo de distribución de uniforme.

“La puntuación obtenida en el lanzamiento de un dado” X es una


distribución uniforme, ya que cada resultado ocurre con probabilidad
1/6. Por lo tanto, tenemos P [ X = r ] = 1/6 ; r = 1, 2, 3, 4, 5, 6.

U.D. de Matemáticas, MCAR Página 52


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 53

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 54


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 55

Universidad de Alcalá

Distribución de Poisson P(λ)


H −λ λ [
3ᤡ; = [ ᤢ= [ =  λ > 
[

! " →#

U.D. de Matemáticas, MCAR Página 56


Universidad de Alcalá

La distribución de Poisson se obtiene como aproximación de una


distribución Binomial con la misma media, para ‘n grande’ (n > 30) y ‘p
pequeño’ (p < 0,1). Queda caracterizada por un único parámetro λ = n p
(que es a su vez su media y varianza).

λ = 0,5 λ=1 λ =2 λ=5

Distribución de Poisson para varios valores de λ.

U.D. de Matemáticas, MCAR Página 57

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 58


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 59

Universidad de Alcalá


−  [
3ᤡ< ≥ ᤢ= H = 
[ = [ 

U.D. de Matemáticas, MCAR Página 60


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 61

Universidad de Alcalá

ξ = número de pruebas que ocurren hasta que sucede el primer éxito (suceso A ).
ξ = número de fracasos que ocurren hasta que sucede el primer éxito (suceso A ).
U.D. de Matemáticas, MCAR Página 62
Universidad de Alcalá

Distribución Geométrica (p)

Repitiendo un experimento de
Bernoulli hasta conseguir el
primer éxito.

ξ = número de pruebas que ocurren hasta que sucede el primer éxito (suceso A ).

U −
*ᤡS ᤢ→ 3ᤡ; = U ᤢᤡ
= − S ᤢ S U =   
ξ = número de fracasos que ocurren hasta que sucede el primer éxito (suceso A ).

*ᤡS ᤢ→ 3ᤡ< = U ᤢᤡ
= − S ᤢ
U
S U =   
Ambas son equivalentes.
U.D. de Matemáticas, MCAR Página 63

Universidad de Alcalá

Propiedades de la distribución Geométrica (p)


*ᤡS ᤢ→ 3ᤡ; = U ᤢᤡ U −
= − S ᤢ S U =   (>;@ =
S

*ᤡS ᤢ→ 3ᤡ< = U ᤢᤡ
= − S ᤢ S  U =   
− S T
(><@ = =
U

S S

− S T
9DUᤡ; ᤢ= 9DUᤡ< ᤢ= =
S S

U.D. de Matemáticas, MCAR Página 64


Universidad de Alcalá

BN(k,p)
N
(ᤡξ ᤢ=
S

Nᤡ − S ᤢ
k σ ᤡξ ᤢ=
S

U − U −N
3ᤡ: = U ᤢ= S Nᤡ − S ᤢ  U = NN + N +  
N −

$ % % & !
'( % ) % ! " % *
+ % , - % & !
'( % ) %
U.D. de Matemáticas, MCAR Página 65

Universidad de Alcalá

BN(k,p)
− S T
(ᤡξ ᤢ= N = N
S S
Nᤡ − S ᤢ
σ ᤡξ ᤢ=
k S

U + N − N
3ᤡ: = U ᤢ= S ᤡ − S ᤢ
U
 U =   
U

& ! '(
% ) %

U.D. de Matemáticas, MCAR Página 66


Universidad de Alcalá

Supongamos una población N, de la que se


extrae una muestra sin remplazamiento de
H (N, n, p) tamaño n. Además suponemos que todos
los individuos de la población, y por tanto de
la muestra, son de dos tipos mutuamente
excluyentes (A, ). Denominamos p a la
proporción de individuos de tipo A en la
población.
La variale aleatoria ξ = “Número de individuos de tipo A en la muestra
de tamaño n” sigue una distribución Hipergeométrica.
1 1! 1 
Q 
U Q −U
VL
3 {ξ = U } =
 
1 S   
" #$!! " Q Q
Q P£[ᤡ Q − 1 ! ᤢ≤ U ≤ P¯QᤡQ 1 ᤢ
UHVWR

( ᤡξ ᤢ= Q yS 1 −Q
σ ᤡξ ᤢ= Q yS yT
1 −
U.D. de Matemáticas, MCAR Página 67

Universidad de Alcalá

Son variables aleatorias asociadas a experimentos en los cuales la variable medida


puede tomar cualquier valor en un intervalo: mediciones biométricas, intervalos de
tiempo, áreas, etc.

Experimentos donde los resultados son equiprobables.


Uniforme
Longitud de los intervalos que transcurren entre dos sucesos de Poisson.
Exponencial
Distribuciones de probabilidad frecuentes en fiabilidad:
Gamma, k-Erlang, Weibull
Distribución frecuente en planificación y gestión de proyectos:
Beta
Distribución de probabilidad de variable continua que con más frecuencia
aparece aproximada en fenómenos reales
Normal
Distribuciones de probabilidad asociadas a la normal:
X2 (chi cuadrado), T- student y F-Snedecor

U.D. de Matemáticas, MCAR Página 68


Universidad de Alcalá

Distribución Uniforme [a,b]


Las probabilidades son las mismas para f(x)
todos los posibles resultados, desde el
mínimo a hasta el máximo b.
 VL [ <D 1/(b-a)

I ᤡ[ ᤢ= VL D ≤[ ≤E
E −D
 VL [ >E a b
 VL [ <D
[ −D F(x)
)ᤡ[ ᤢ= VL D ≤[ ≤E
E −D
 VL [ >E 1
D +E
La media de la distribución es µ=

ᤡE − D ᤢ a b
y su varianza σ = 


Ejemplo:
Resultado de un generador de números aleatorios entre 0 y 1.

U.D. de Matemáticas, MCAR Página 69

Universidad de Alcalá

f (x)
Distribución Exponencial (λ) 1

0,8
Media
1
2
f (x) 5
 [ < 0,6
Iᤡ[ ᤢ=
λ H −λ[ ≤[ ≤∞
0,4

0,2

Con λ > 0 y e = 2,718281828 0


0 5 10 15 20

 [ < F (x)
=
)ᤡ[ ᤢ −λ [
1 Media

− H ≤[ ≤∞ 0,8
1
2
5
0,6

0,4

∞ ∞ 0,2

(ᤡξ ᤢ G[ = [ λH −λ[ G[ =
= [ Iᤡ[ ᤢ 0

λ
0 5 10 15 20

 

U.D. de Matemáticas, MCAR Página 70


Universidad de Alcalá

Distribución Exponencial (λ): = λ H −λ [


Iᤡ[ ᤢ VL [ > 
∞ ∞
 
9 ᤡξ ᤢ= ᤡ [ − µ ᤢIᤡ [ ᤢ
G [ = ᤡ[ − ᤢλ H −λ
G[ =
! ! λ λ
σ = 
λ α n = n! λ n
µ
Coeficiente de Asimetría = = más apuntada que la normal
σ
µ
Coeficiente de Apuntamiento = −  =  es leptocúrtica.
σ
∞ ∞

R( x ) = 1 − F ( x ) = P ξ > x = f ( t ) dt = λe − λt dt =− e − λt x
= e − λx si x > 0
x x

P{a < ξ ≤ b} = F (b) − F (a) = e − λa − e − λb


λ

P ξ ≤ µξ = P ξ ≤ 1
λ =F 1
λ = 1− e λ = 1 − e −1 = 0. 63212
α

( α ) =α − =α −α
[ξ ]
λ
α = =
λ −α
U.D. de Matemáticas, MCAR Página 71

Universidad de Alcalá

Mediana de una variable exponencial de media 1/

−α . / 0 1
α = = [ξ ] = = =
λ −α
.
λ −. λ

(X 0,001) Exponencial Distribución


25 Media
40
20

15 Mediana = 27,73

10 50%
5

0
0 20 40 60 80 100 120 140 160 180 200

U.D. de Matemáticas, MCAR Página 72


Universidad de Alcalá

Relación entre la distribución de Poisson (λ) y Exponencial (λ):

Diferencia: a la distribución de Poisson le interesa el número de


ocurrencias, mientras que a la exponencial le interesa el tiempo
(distancia, área, volumen) transcurrido entre las ocurrencias.

Ejemplo:

Poisson: el número de personas en la cola del banco


Exponencial: el tiempo entre llegadas a la taquilla

U.D. de Matemáticas, MCAR Página 73

Universidad de Alcalá

Relación entre la distribución de Poisson (λ) y Exponencial (λ):


(λ ) $ % (λ )
Sea Nt = “nº de llegadas a un sistema en un tiempo (0,t]”.
(o bien nº de sucesos que ocurren en (0,t]).

Nt Ρ(λt ) ; λ = tasa media de llegadas por u. t.


X es la v. a. “Tiempo entre la ocurrencia de dos sucesos consecutivos”.
(∼ tiempo entre dos llegadas consecutivas o tiempo hasta la próxima llegada).

(λt )
Veamos que X sigue una Exp(λ) 0
P{X > t} = P{N t = 0} = e −λt = e −λt = R (t ) = 1 − F (t ) ≈ exp(λ )
0!
Luego la probabilidad de que no ocurra ningún suceso de (t) en un tiempo t fijo es igual a la
de que el tiempo hasta la próxima llegada sea una distribución Exp(λ).

← Ρ (λ )
Exp ( λ ) Exp ( λ )
← → ← →
0 t
U.D. de Matemáticas, MCAR Página 74
Universidad de Alcalá

Ejemplo:
La tasa de llegadas de trabajos por u. t. a un centro de computación es λ =
0,1 por segundo, y el nº de trabajos que llegan por u. t. es una v. a.
Poisson (λ). El tiempo entre llegadas es una v. a. X ∼ Exp(λ).

La probabilidad de que en un intervalo de 10 segundos no llegue ningún


trabajo es:

{ > .} = . −.
= −. ⋅ .
= −
=. 1
.

()
.

Ρ (λ ) = Ρ (. ⋅ . ) = Ρ ( )2 { = .} = −
= −
=. 1
.3

U.D. de Matemáticas, MCAR Página 75

Universidad de Alcalá

Propiedad Markoviana o pérdida de memoria de la distribución


Exponencial (λ)
El tiempo que en la actualidad lleva funcionando un dispositivo no influye
para nada en la duración que se espera que tenga el objeto. “El sistema
no recuerda que en t unidades de tiempo no se ha producido ningún
suceso” (el dispositivo no se desgasta, tiene tasa de fallos constante).

{ ξ> +
ξ> }= {ξ > } siendo t > 0, h > 0

{ ξ< +
ξ> }= {ξ < }
La función exponencial es la única distribución continua que tiene esta
propiedad.

U.D. de Matemáticas, MCAR Página 76


Universidad de Alcalá

Distribución Erlang (p = forma, λ = escala)


Erlang Distribución
. <. 2 Forma,Escala
1,2
1,6 2,0,5
= λ − −λ 2,2
.≤ ≤∞ 1,2
f 2,4

− 3
10,2
0,8 (x)
0,4

Con λ > 0 y e = 2,718281828 0


0 1 2 3 4 5 6 7 8 9 10

S S F (x)
(ᤡξ ᤢ
= \ 9ᤡξ ᤢ
=
λ λ 1 Forma,Escala
1,2
0,8 2,0,5
2,2
0,6 2,4
Erlang (p = forma, λ = escala)= 0,4
10,2

Gamma (p = forma, λ = escala), 0,2


donde p es entero
0
0 1 2 3 4 5 6 7 8 9 10

U.D. de Matemáticas, MCAR Página 77

Universidad de Alcalá

Distribución Gamma γ (p = forma, λ = escala)



Γ = − −
>. Se verifica Γ = − Γ − si p > 1
.
Gamma Distribución
∀ ∈ +
Γ( )=( − )3 Γ( )= Π 1 Forma,Escala
1,1
0,8 3,1

<.
5,1
. 0,6 f (x)
= λ − −λ 0,4

.≤ ≤∞ 0,2
Γ 0
0 1 2 3 4 5 6 7 8 9 10
Solo toma valores positivos
probabilidad acumulativa

Con λ > 0 y e = 2,718281828


1 Forma,Escala
1,1
0,8 3,1
S S 5,1
(ᤡξ ᤢ
= \ 9ᤡξ ᤢ
= 0,6

λ λ 0,4 F (x)

( ) ( +( − ))
0,2
+
σξ = λ α = 0
λ 0 1 2 3 4 5 6 7 8 9 10
U.D. de Matemáticas, MCAR Página 78
Universidad de Alcalá

Distribución Gamma γ (p = forma, λ = escala)


4 - 5 , = Asimetría hacia la derecha

4 - 5% =

γ ( p, λ ) es reproductiva en p, pero no lo es en λ.
Esto es, si ξ1 es una variable aleatoria γ ( p1, λ ) y ξ2 una variable aleatoria γ
( p2, λ ) independientes entre sí, entonces la variable aleatoria ξ1 + ξ2 sigue
una distribución γ (p1+p2, λ ).

Distribuciones particulares de ella:


Exponencial, Erlang y Chi-cuadrado. Muy versátil, dependiendo del
γ (1, λ) γ (p, λ) γ (n/2, 1/2) valor de los parámetros adopta
formas muy distintas
entero
U.D. de Matemáticas, MCAR Página 79

Universidad de Alcalá

Distribución Beta (α = forma, β = forma)


Es 0 en todos los reales salvo en el
intervalo [0,1] donde está definida por:
β
Γ α β α −
α β
Γ α Γβ
α! β!
α
(ᤡξ ᤢ=
α + β
αβ
9ᤡξ ᤢ
=
ᤡα + β ᤢ
ᤡα + β  + ᤢ


La distribución Beta coincide con


la distribución uniforme en el
intervalo [0, 1] cuando ambos
parámetros son la unidad.
U.D. de Matemáticas, MCAR Página 80
Universidad de Alcalá

! "# $
También recibe el nombre de
GAUSS-LAPLACE.

• Aparece de manera natural:


– Errores de medida.
– Distancia de frenado.
– Altura, peso, propensión al crimen…
– Aproxima distribuciones Binomiales con n grande (n>30) y ‘p ni
pequeño’ (np>5) ‘ni grande’ (nq>5).

• N ( , ) está caracterizada por dos parámetros: La media, , y la


desviación típica, .
1 x−µ
2

1 −
2 σ
• Su función de densidad es: f ( x) = e , x∈
σ 2π

Departamento de Matemáticas, MCAR Página 81

Universidad de Alcalá

! "# $
N( , ): Interpretación
geométrica N(-3 , 1) N(0 , 1) N(3 , 1)

• Se puede interpretar la media


como un factor de traslación.

• Y la desviación típica como


un factor de escala, grado de
dispersión,…

N(0 , 1)
N(0 , 2)
N(0 , 4)

Son puntos de inflexión


Departamento de Matemáticas, MCAR Página 82
Universidad de Alcalá

! "# $
N( , ): Interpretación probabilista
• Las probabilidades representan
áreas bajo la gráfica de la
función de densidad
68.26%

• Entre la media y una desviación


típica tenemos siempre la misma
probabilidad:
aproximadamente 68%

• Entre la media y dos 95.44%


desviaciones típicas
aproximadamente 95%

Departamento de Matemáticas, MCAR Página 83

Universidad de Alcalá

! "# $
P (Z a)

Departamento de Matemáticas, MCAR Página 84


Universidad de Alcalá

! "# $
Algunas características
• La función de densidad tiene forma acampanada y es simétrica con respecto a su media,
mesocúrtica y unimodal.
– Media, mediana y moda coinciden.
• Los puntos de inflexión de la función de densidad están a distancia de .
Es decir, son - y + .
• Probabilidad normal: si tomamos intervalos centrados en , y cuyos extremos están…
– a distancia , tenemos probabilidad 68.26% 68%
– a distancia 2 , tenemos probabilidad 95.44% 95%
– a distancia 2’5 tenemos probabilidad 98.76% 99%
– a distancia 3 tenemos probabilidad 99.73%

• Como es una variable continua P (X x ) = P ( X < x ) ya que P ( X = x ) = 0

• Todas las distribuciones normales N( , ), pueden ponerse mediante una traslación , y


un cambio de escala , como N(0,1). Esta distribución especial se llama normal tipificada
o estandarizada y se suele representar con la letra Z.
– La técnica de tipificación es útil para comparar individuos diferentes obtenidos de
sendas poblaciones normales.

U.D. de Matemáticas, MCAR Página 85

Universidad de Alcalá

! "# $
Tipificación:
• Dada una variable de media y desviación típica , se denomina valor
tipificado o estandarizado, z, de una observación x, a la distancia (con
signo) con respecto a la media, medido en desviaciones típicas, es
decir
x−µ
z=
σ
• En el caso de variable X normal, la interpretación es clara: Asigna a
todo valor de N( , ), un valor de N(0,1) que deja exactamente la
misma probabilidad por debajo.

X −µ
Si X N (µ ,σ ) Z= N (0 ,1)
σ
• Nos permite así comparar entre dos valores de dos distribuciones
normales diferentes, para saber cuál de los dos es más extremo.

Departamento de Matemáticas, MCAR Página 86


Universidad de Alcalá

! "# $
Ejemplo:
Se quiere dar una beca a uno de dos estudiantes de sistemas educativos
diferentes. Se asignará al que tenga mejor expediente académico.
El estudiante A tiene una calificación de 8 en un sistema donde la calificación
de los alumnos se comporta como N(6,1).
El estudiante B tiene una calificación de 80 en un sistema donde la
calificación de los alumnos se comporta como N(70,10).
Solución:
No se puede comparar directamente 8 puntos de A frente a los 80 de B, pero
como ambas poblaciones se comportan de modo normal, podemos tipificar y
observar las puntuaciones sobre una distribución de referencia N(0,1).

xA − µ A 8−6
zA = = =2
σA 1
x − µ B 80 − 70
zB = B = =1
σB 10

Como ZA > ZB, se puede decir que el porcentaje de compañeros del mismo
sistema de estudios que ha superado en calificación al estudiante A es mayor
que el que ha superado B. Luego en principio A es mejor candidato para la beca.
U.D. de Matemáticas, MCAR Página 87

Universidad de Alcalá

! "# $
Observación:
Las distribuciones iniciales
tienen distinta media y
distinta desviación típica.
No se pueden comparar
directamente.

xA − µ A 8−6
zA = = =2
σA 1
x − µ B 80 − 70
zB = B = =1
σB 10

U.D. de Matemáticas, MCAR Página 88


Universidad de Alcalá

! "# $
Suma y diferencia de dos variables normales independientes:

Sea ξ1 una variable aleatoria N(µ1, σ1) y ξ2 una variable aleatoria N(µ2, σ2)
independientes entre sí. La variable aleatoria ξ1 ± ξ2 sigue una distribución,
también normal, de media µ1 ± µ2 y desviación típica σ  + σ  
es decir, ξ es N ( µ1 ± µ2; σ + σ )
!

Se dice que la normal es reproductiva en su media y varianza, pero no en σ.

Además si ξ es una v.a. N(µ, σ), entonces kξ es una v.a. N ( kµ ; kσ),


donde k es una constante.

Departamento de Matemáticas, MCAR Página 89

Universidad de Alcalá

! "# $
Al ser ξ una variable discreta sólo toma un conjunto finito o infinito
numerable de valores puntuales, por ejemplo puede tomar valores:
0 1 2 3 ... a ... . Al considerar que ξ tiene un tratamiento continuo nos
encontramos con el inconveniente de que P(ξ=a) = 0; es necesario, por
ello, hacer una corrección de continuidad que es considerar que ξ toma
en a la probabilidad que toma en el intervalo (a - 0.5, a + 0.5) (corrección
de medio punto por debajo y por arriba).

Veamos algunos casos:

Binomial Normal
P(ξ = a) P(a - 0,5 ≤ ξ ≤ a +0,5)
P(ξ ≤ a) P(ξ ≤ a + 0,5)
P(ξ ≥ a) P(ξ ≥ a – 0,5)
P(ξ < a) P(ξ < a – 0,5)
P(ξ > a) P(ξ > a + 0,5)
P(a ≤ ξ ≤ b) P(a-0,5 ≤ ξ ≤ b+0,5)
P(a < ξ < b) P(a + 0,5 < ξ < b - 0,5)

Departamento de Matemáticas, MCAR Página 90


Universidad de Alcalá

! "# $
ξ con distribución normal N(µ ; σ) se desvíe de la media, en valor
absoluto, en menos de una cantidad múltiplo de la desviación típica:

P( ξ − µ < kσ ) = P( µ − kσ < ξ < µ + kσ )

Departamento de Matemáticas, MCAR Página 91

Universidad de Alcalá

Para hacer inferencias estadísticas veremos que la distribución


normal aparece de forma muy frecuente y necesaria.
Dependiendo del problema, podemos encontrar otras
distribuciones asociadas:
X2 (chi cuadrado)
t- student
F-Snedecor
Estas distribuciones resultan directamente de operar con distribuciones
normales. Aparecen como distribuciones de ciertos estadísticos.
Veamos algunas propiedades que tienen (superficialmente).
Sobre todo nos interesa saber qué valores de dichas distribuciones son
“atípicos”.
Significación, p-valores,…

U.D. de Matemáticas, MCAR Página 92


Universidad de Alcalá

!
Chi-cuadrado: χ 2
n
2
1

γ (n/2, 1/2)
2
• Es una Gamma 2
2
3
• Tiene un sólo parámetro denominado 2
grados de libertad. 4
2
5
• La función de densidad es asimétrica
2
positiva. Sólo tienen densidad los 6
valores positivos.

• La función de densidad se hace más


simétrica incluso casi gausiana 2
cuando aumenta el número de grados 10
de libertad. 2
15
2
• Normalmente consideraremos 20
anómalos aquellos valores de la
variable de la “cola de la derecha”.

• Al ser continua P(X2n=x)=0


U.D. de Matemáticas, MCAR Página 93

ξ N (0,1) ξ 2 = χ 12 = γ ( 12 , 12 ) Universidad de Alcalá

Chi-cuadrado: n ≈ γ ( n / 2,1 / 2)
χ 2

• Sean ξ1, ξ2,..., ξn n variables aleatorias N(0,1) independientes entre sí.


Entonces la variable aleatoria Χ2n = ξ12 + ξ22 + ... + ξn2 recibe el nombre
de chi-cuadrado de Pearson con n grados de libertad.

( ) − −
"# >.
ξ = =
=
χ Γ
ξ = =
. "
ξ . ξ = χ =γ ( )

Esta distribución es útil en inferencias sobre la varianza de una población normal,


en la bondad de ajuste y para contrastar la independencia entre caracteres.

U.D. de Matemáticas, MCAR Página 94


Universidad de Alcalá

!
T de student: tn
Debida a W. S. Gosset (en 1908)
Tiene un parámetro denominado
grados de libertad.

Cuando aumentan los grados de


libertad, más se acerca a N(0,1).

0H 0R (ᤡξ ᤢ=  VL Q > 
Es simétrica con respecto al cero.
Q
9DUᤡξ ᤢ= VLQ > 
Se consideran valores anómalos Q −
los que se alejan de cero (positivos
o negativos).
$ "#" = + >

Al ser continua P(tn=x)=0

Si n=1 la variable no existe la esperanza matemática


U.D. de Matemáticas, MCAR Página 95

Universidad de Alcalá

!
T de student: tn
Sean ξ1, ξ2,..., ξn y ξ n+1 variables aleatorias N(0,σ) independientes entre sí.
Entonces la variable aleatoria
ξ
ξ σ %
= = =
ξ# χ
(ξ # ) #= σ
#=

sigue una distribución T de Student siendo z ∼ N(0,1)

+
Γ −
+

Función de densidad: = + "# ∈ −∞ ∞


Γ π
Esta distribución es útil para realizar inferencias sobre la media de una población
normal y para comparar las medias de dos poblaciones normales,
especialmente cuando los tamaños muestrales sean pequeños.
U.D. de Matemáticas, MCAR Página 96
Universidad de Alcalá

F de Snedecor:
n1 , n 2

Tiene dos parámetros denominados


grados de libertad.

Sólo toma valores positivos. Es


asimétrica.

Normalmente se consideran valores


anómalos los de la cola de la derecha.

Q Q ᤡQ! + Q − ᤢ
(ᤡζ ᤢ= 9ᤡζ ᤢ=
Q − ! Q − ᤢ
Qᤡ ᤡQ − ᤢ

U.D. de Matemáticas, MCAR Página 97

Universidad de Alcalá

!
F de Snedecor:
n1 , n 2
Sean X1,..., Xn1, Y1,..., Yn2 las variables aleatorias N(0,1) independientes.
La variable aleatoria
#
sigue una distribución F (Fisher)
ξ= #=
de Snedecor con g. l.
'&
&= + −
Γ χ

Su función de densidad es: = +


"# >.
Γ Γ +
Propiedades:
. "
a) ξ ~ Fn1,n2 entonces 1 / ξ ~ Fn2,n1
b) Sea ξ ~Tn. Entonces ξ2 ~F1,n
Esta distribución es útil para comparar las varianzas de dos poblaciones normales,
así como para situaciones donde se utilice la técnica del análisis de la varianza
U.D. de Matemáticas, MCAR Página 98
Universidad de Alcalá

TEOREMA DE TCHEBYCHEV: (Desigualdad)

ξ YDFRQσ ξ > 


3 ξ −µ < . σ ≥ − ∀. > 
.
3 {µ −. σ <ξ < µ +. σ }

o bien

{
3 ξ −µ <.σ ≤ } .


∀. > 

U.D. de Matemáticas, MCAR Página 99

Universidad de Alcalá

TEOREMA DE TCHEBYCHEV: (Desigualdad)

ξ YDFRQσ ξ > 

U.D. de Matemáticas, MCAR Página 100


Universidad de Alcalá

! % &!
¿Por qué es importante la distribución normal?

Las propiedades que tiene la distribución normal son interesantes,


pero todavía no hemos hablado de por qué es una distribución
especialmente importante.

La razón es que aunque una variable aleatoria no posea distribución


normal, ciertos estadísticos/estimadores calculados sobre muestras
elegidas al azar sí que poseen una distribución normal.

Es decir, tengan las distribución que tengan nuestros datos, los


‘objetos’ que resumen la información de una muestra, posiblemente
tengan distribución normal (o asociada).

U.D. de Matemáticas, MCAR Página 101

Universidad de Alcalá

! % &!
Veamos aparecer la distribución normal

Como ilustración se muestra una


variable que presenta valores
distribuidos más o menos
uniformemente sobre el intervalo
150-190 (ejemplo: alturas).

Como es de esperar la media es


cercana a 170. El histograma no
se parece en nada a una
distribución normal con la misma
media y desviación típica.

U.D. de Matemáticas, MCAR Página 102


Universidad de Alcalá

! % &!
A continuación se eligen aleatoriamente
Muestra
grupos de 10 observaciones de las
anteriores y se calcula el promedio. 1ª 2ª 3ª
185 190 179

Para cada grupo de 10 se obtiene una 174 169 163


nueva medición, que se va a llamar 167 170 167
media muestral. 160 159 152
172 179 178
Se observa que las nuevas cantidades 183 175 183
están más o menos cerca de la media de
la variable original. 188 159 155
178 152 165

Se repite el proceso un número elevado 152 185 185


de veces. En la siguiente transparencia 175 152 152
se estudia la distribución de la nueva
variable.

173 169 168 …


U.D. de Matemáticas, MCAR Página 103

Universidad de Alcalá

! % &!
• La distribución de las medias muestrales
sí que tiene distribución aproximadamente
normal.

• La media de esta nueva variable (media


muestral) es muy parecida a la de la
variable original.

• Las observaciones de la nueva variable


están menos dispersas. Obsérvese el
rango. Pero no sólo eso. La desviación
típica es aproximadamente la ‘raíz de 10’
veces más pequeña. Llamamos error
estándar a la desviación típica de esta
nueva variable.

• Nada de lo anterior es casualidad.

Departamento de Matemáticas, MCAR Página 104


Universidad de Alcalá

! % &!
• Dada una variable aleatoria cualquiera, si extraemos muestras de
tamaño n, y calculamos los promedios muestrales, entonces:

– dichos promedios tienen distribución


aproximadamente normal;

– La media de los promedios muestrales


es la misma que la de la variable original.

– La desviación típica de los promedios disminuye en un factor “raíz de n”


(error estándar).

– Las aproximaciones anteriores se hacen exactas cuando n tiende a infinito.

• Este teorema justifica la importancia de la distribución normal.

– Sea lo que sea lo que midamos, cuando se promedie sobre una muestra
grande (n>30) nos va a aparecer de manera natural la distribución normal.

Departamento de Matemáticas, MCAR Página 105

Universidad de Alcalá

' ! ( ! !

• Como ilustración mostramos


una variable que presenta
valores distribuidos de forma
muy asimétrica. Claramente
no normal.

• Saquemos muestras de
diferentes tamaños, y
usemos la media de cada
muestra para estimar la
media de la población.

Departamento de Matemáticas, MCAR Página 106


Universidad de Alcalá

' ! ( ! !

• Cada muestra ofrece un


resultado diferente: La media
muestral es variable aleatoria.

• Su distribución es más
parecida a la normal que la
original.

• También está menos dispersa.


A su dispersión (‘desv. típica
del estimador media
muestral’… ¿os gusta el
nombre largo?) se le suele
denominar error típico o error
estándar.

Departamento de Matemáticas, MCAR Página 107

Universidad de Alcalá

' ! ( ! !

• Al aumentar el
tamaño, n, de la
muestra:

– La normalidad de las
estimaciones mejora

– El error típico
disminuye.

Departamento de Matemáticas, MCAR Página 108


Universidad de Alcalá

' ! ( ! !

• Puedo ‘garantizar’
medias muestrales tan
cercanas como quiera a
la verdadera media, sin
más que tomar ‘n
bastante grande’

• Se utiliza esta propiedad


para dimensionar el
tamaño de una muestra
antes de empezar una
investigación.

Tema 6 Distribuciones de Probabilidad más notables )*+

Departamento de Matemáticas, MCAR Página 109

Universidad de Alcalá

'

Sea (X1, X2, ..., Xn) v.a.i.i.d, se verifica que la media muestral
( ; + ( ; ! +  + ( ;
( ; =
; +  + ; Q Q
; =  tiene
Q 9DU ; +9DU ; ! +  +9DU ;
9DU ; =
Q!

Si todas las variables aleatorias (X1, X2, ..., Xn) son independientes y
tienen la misma media y varianza con

µ = E[Xi] ∀ i =1, ..., n y σ2 = Var[Xi] ∀ i=1, ..., n

se verifica que la media muestral


( ; = µ
;  +  + ; Q
; = tiene
Q σ
9DU ; =
Q
U.D. de Matemáticas, MCAR Página 110
Universidad de Alcalá

'

Ejemplo:

U.D. de Matemáticas, MCAR Página 111

Universidad de Alcalá

! % &!
Si (X1, X2, ..., Xn) son independientes y ; L ≈ 1ᤡµσ ᤢ ∀ i =1, ..., n
σ
se verifica que la media muestral ; ≈ 1ᤡµ ᤢ
Q
Teorema Central del Límite
Sea (X1, X2, ..., Xn) una secuencia de variables aleatorias independientes y con
la misma media µ y varianza σ2 finita. Entonces se verifica:

σ
; ≈ 1ᤡµ ᤢ y ;  +  + ; Q ≈ 1ᤡQ µσ Q ᤢ
Q
Por tanto
; −µ ;  +  + ; Q − Q µ
≈ 1ᤡᤢ y ≈ 1ᤡᤢ
σ
Q σ Q

U.D. de Matemáticas, MCAR Página 112


Universidad de Alcalá

, % -
M. Concepción Alonso Rodríguez

U.D. de Matemáticas, MCAR Página 113

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 114


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 115

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 116


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 117

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 118


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 119

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 120


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 121

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 122


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 123

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 124


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 125

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 126


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 127

Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 128


Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 129

Universidad de Alcalá

!
La covarianza (X,Y) es una medida de asociación lineal entre las
variables X e Y. Producto cruzado de las desviaciones (x- x) (y- y) para
cada punto de datos.

U.D. de Matemáticas, MCAR Página 130


Universidad de Alcalá

"
#
$
%

U.D. de Matemáticas, MCAR Página 131

Universidad de Alcalá

!
La Covarianza (X,Y) de dos variables aleatorias X e Y, se denota por
Cov(X,Y) y se define como:
467 ' = $[ −µ ' − µ' ]
$( )=µ 2 $ (' ) = µ'
Propiedades:
467 ' 9 $ ' ( µ µ8
Si X y Y son dos variables aleatorias independientes, entonces: Cov(X,Y)=0
El contrario no es cierto
Var ( X ± Y ) = Var (X) + Var(Y) ± 2 Cov (X,Y)

E(aX + bY) = aE(X) + bE(Y) (con a y b dos constantes):


Var(aX + b) = a2Var(X)
Var(aX± bY) = a2Var(X) + b2Var(Y) ± 2abCov(X,Y)

Si X y Y son independientes, entonces: Var (aX+bY) = a2Var(X) + b2Var(Y)


U.D. de Matemáticas, MCAR Página 132
Universidad de Alcalá

!
La Correlación (X,Y) de dos variables aleatorias X e Y, es una medida
de asociación que expresa el grado de dependencia lineal entre
ambas, se define como:

'
ρ ' =
σ σ(
Propiedades:
-1 1

! "
# $" %

Y=a+bX ⇔ (X,Y) = 1 (b>0) ó (X,Y) = -1 (b<0)

U.D. de Matemáticas, MCAR Página 133

Universidad de Alcalá

!
& &
X2
&
# r = 0.9 r = -0.9
! " %

'# # X2
" #
r = 0.5 r = -0.5
# %

X2
Independencia

r=0
X1
U.D. de Matemáticas, MCAR Página 134
Universidad de Alcalá

!
&

Si la correlación es 1, todas las observaciones se encuentran


alineadas en una recta.

' ( ) ( '* + , - ).%


U.D. de Matemáticas, MCAR Página 135

Universidad de Alcalá

Algunos resultados sobre


valores esperados y varianzas

Si X e Y son variable aleatorias y k es una constante entonces:


E(k X)= k E(X)
V(k X)= k2 V(X)
E(X+Y)= E(X) + E(Y)
Además si X e Y son independientes:
V(X + Y) = V(X - Y) = V(X) + V(Y)

U.D. de Matemáticas, MCAR Página 136


Universidad de Alcalá

Cuidado con la confusión entre correlación y causalidad

Que dos fenómenos estén correlacionados no implica que uno


sea causa del otro. Es frecuente que una correlación fuerte
indique que las dos variables dependen de una tercera que no ha
sido considerada. Este tercer elemento se llama “factor de
confusión”. Por ejemplo, puede ser que una fuerte correlación
exprese una verdadera causalidad, como por ejemplo, en el
número de cigarrillos que se fuma al día y la aparición de cáncer
de pulmón. Pero no es la estadística la que demuestra la
causalidad, ella sólo permite detectarla.

U.D. de Matemáticas, MCAR Página 137

Universidad de Alcalá

! !

U.D. de Matemáticas, MCAR Página 138


Universidad de Alcalá

! !

U.D. de Matemáticas, MCAR Página 139

Universidad de Alcalá

! !

U.D. de Matemáticas, MCAR Página 140


Universidad de Alcalá

! !

Esperanza:

U.D. de Matemáticas, MCAR Página 141

Universidad de Alcalá

! !

Vector de Medias y Matriz de Varianzas:

es simétrica

U.D. de Matemáticas, MCAR Página 142


Universidad de Alcalá

! !

Independencia:
Las variables aleatorias (X1, X2, ..., Xn) son independientes
si y sólo si

Una muestra aleatoria simple (X1, X2, ..., Xn) (m.a.s.) está constituida
por variables aleatorias que tienen la misma distribución y son
independientes

U.D. de Matemáticas, MCAR Página 143

Universidad de Alcalá

! !

Modelo normal multivariante:

La variable aleatoria X = (X1, X2, ..., Xn) se dice que sigue una distribución
normal n-dimensional (no singular) con vector de medias µ = µ µ
y matriz de covarianzas , y se escribe ≡ µΣ
si su función de densidad viene dada por:

= % − − µ Σ− −µ ∈
π
:
:
Σ

Las distribuciones marginales de X son también normales.

# ≡ µ# σ #
Las distribuciones condicionadas de una normal multivariante son
también distribuciones normales.

U.D. de Matemáticas, MCAR Página 144


Universidad de Alcalá

!
Modelo normal bivariante: ; µ definida positiva
µ σ σ σ ρσ σ σ
= 2 µ= 2 = = 2 ρ= 2
µ σ σ ρσ σ σ σ σ
función de densidad
−ρ

− −µ Σ)
−µ σ σσ
= −
=
−ρ −ρ
π
σσ σ
σ σ σ
= = σ σ −σ = σ σ − =σ σ −ρ
σ σ σσ

− −µ −µ −µ −µ
+ − ρ
−ρ σ σ σ σ
=
πσ σ −ρ
U.D. de Matemáticas, MCAR Página 145

Universidad de Alcalá

!
− −µ −µ −µ −µ
+ − ρ
−ρ σ σ σ σ
=
πσ σ −ρ µ = .2 µ = .2 σ = 2 σ = ρ = 0,2

plot3d( (1/(2*Pi*sqrt(1-0.2^2)))*exp((-1/(2*(1-0.2^2)))*(x^2+y^2-2*0.2*x*y)),
x=-4..4,y=-4..4,color=x, axes=boxed);

U.D. de Matemáticas, MCAR Página 146


Universidad de Alcalá

!
− −µ −µ −µ −µ
+ − ρ
−ρ σ σ σ σ
=
πσ σ −ρ µ = .2 µ = .2 σ = 2 σ =

ρ = 0,8
ρ = - 0,8

plot3d( (1/(2*Pi*sqrt(1-0.8^2)))*exp((-1/(2*(1-0.8^2)))*(x^2+y^2-
2*0.8*x*y)),x=-4..4,y=-4..4,color=x, axes=boxed);

U.D. de Matemáticas, MCAR Página 147

Universidad de Alcalá

!
− −µ −µ −µ −µ
+ − ρ
−ρ σ σ σ σ
=
πσ σ −ρ µ = 2 µ = 2σ = 2σ =

ρ = 0,2 ρ = 0,8

plot3d(1/(6*Pi*sqrt(1-0.04)) > plot3d(1/(6*Pi*sqrt(1-0.64))


*exp((-(0.5)/(1-0.04)) *( (x-2)^2 - *exp((-(0.5)/(1-0.64)) *( (x-2)^2 -
0.4*(x-2)*(y-5)/3 +(y-5)^2/9 )),x=- 1.6*(x-2)*(y-5)/3 +(y-5)^2/9 )),x=-
1..5,y=-4..14,color=x); 1..5,y=-4..14,color=x);
U.D. de Matemáticas, MCAR Página 148
Universidad de Alcalá

U.D. de Matemáticas, MCAR Página 149

Universidad de Alcalá

!
Normal bivariante

f(x1,x2)
x2
c2 y1 y2
c√λ1
e1 e2 c√λ2
x2 x1
µ

x1
f ( x1 , x2 ) = c 2 ⇔ ( x − µ )' −1
(x − µ) = c2
λ 1, λ 2 autovalores de
e1 , e2 autovectores de

U.D. de Matemáticas, MCAR Página 150


Universidad de Alcalá

!
Distribuciones no normales,
aunque parecidas a la normal.

1 2 2 1 2
− x (1 + y ) − y
2 2
1e
2 2
π 1+y

2
x

2
2+2y
1 2e
2 2
π (1 + y )

U.D. de Matemáticas, MCAR Página 151

Universidad de Alcalá

!
Curvas de nivel de distintas normales bivariantes:

U.D. de Matemáticas, MCAR Página 152


Universidad de Alcalá

! !
Normales multivariantes:

U.D. de Matemáticas, MCAR Página 153

Universidad de Alcalá

! !

U.D. de Matemáticas, MCAR Página 154


Universidad de Alcalá

! !

U.D. de Matemáticas, MCAR Página 155

Universidad de Alcalá

! !

U.D. de Matemáticas, MCAR Página 156

También podría gustarte