Está en la página 1de 21

RESUMEN

Franklin Ucho.

Universidad Politécnica Salesiana, Carrera de Mecatronica.


Asignatura: Probabilidad y Estadística, Cuenca – Ecuador, Fecha de entrega:
19/07/2019

CAPITULO 4
ESPERANZA MATEMATICA
Media de una variable aleatoria.
El valor esperado de una variable aleatoria X describe el lugar donde se centra la
distribución de probabilidad, en donde X tiende a ser una variable aleatoria con
distribución de probabilidad f (x).

Si es Si es
Los siguientes teoremas se cumplen si X es una variable aleatoria con distribución de
probabilidad f (x) y el valor esperado de la variable aleatoria g( x ) es:

discreta continua

Si es Si es
Si X y Y como variables aleatorias con distribución de probabilidad conjunta

discreta
f ( x , y ) . El valor esperado de la variable aleatoria g ( X , Y ) es:
continua

Si es Si es
discreta 1 continua
Un inspector de calidad muestrea un lote que contiene 7 componentes; el lote contiene
4 componentes buenos y 3 defectuosos. El inspector toma una muestra de 3
componentes. Encuentre el valor esperado del número de componentes buenos en esta
muestra.
Datos :
x=0 , 1 ,2 , 3.(# Componentes buenos de la muestra). N=10.(# Total de la
población) k =3(# Éxitos de la Población). n=x. (# De la muestra0).
Obtenemos la distribución hipergeométrica:
3 10−3
f ( x )=
( x )( 5−x )

(73 )
1 12 18 4 12
μ= E ( X )=( O ) ( ) + ( 1 ) ( ) + ( 2 ) ( )+ (3 ) ( )= =1.7
35 35 35 35 7
Y
Encuentre ( X ) para la función de densidad:

x ( 1+ 3 y 2)
{
f ( x , y )= 4
, 0< x< 2 ,0< y< 1,
0 , en cualquier otro caso .
}
1 2
Y y ( 1+3 y 2 )
E ( )
X
=∫ ∫
0 0 4
dxdy

1
Y y+ 3 y 3
E ( )
X
=∫
0 2
dy

Y 5
E ( )=
X 8
Varianza y covarianza de variables aleatorias.
Se caracteriza la variabilidad en la distribución., como ejemplo se tiene el histograma
de dos distribuciones de probabilidad discretas con la misma media pero varían en sus
observaciones alrededor de la media.
La varianza de la variable aleatoria se lo representa como Var(X).
Se llama desviación de una observación respecto a su media, a la cantidad x – μ, las
cuales se elevan al cuadrado.
La varianza de una variable aleatoria X es:

σ 2=Var ( x )=E ( X 2 )−μ2


Ejemplo:

2
Sea X la variable aleatoria, el número de partes defectuosas de una
máquina, cuando se muestran y se prueban tres de una línea de
producción.
Distribución de probabilidad de X:
x 0 1 2 3
F( 0.5 0.3 0.1 0.0
x) 1 8 0 1
μ= (O )( 0.51 ) + ( 1 ) ( 0.38 ) + ( 2 )( 0.10 )+ ( 3 )( 0.01 )=0.61
12
E ( X 2) =( O )( 0.51 )+ ( 1 ) ( 0.38 ) + ( 4 ) ( 0.10 ) + ( 9 ) ( 0.01 )= =0.87
7
σ 2=0.87−( 0.61 )2
σ 2=0.4979
Se puede usar la fórmula alternativa para hallar σ 2. (Simplifica las
ecuaciones)
La varianza de una variable aleatoria X es:

σ 2=E ( X 2 ) −μ 2
El concepto de varianza de una variable aleatoria X se incluye también variables
aleatorias con X. La variable aleatoria g(x), la varianza se denotara con los teoremas:

Si es Si es
discreta
Ejemplo: continua
Calcule la varianza de g ( x )=2 x +3, donde X es una variable aleatoria con distribución
de probabilidad:
x 0 1 2 3
f(x 1/4 1/8 1/2 1/8
)
Primero se encuentra la media variable aleatoria de 2X+3.
μ2 X +3=E(2 X+ 3)
3
μ2 X +3= ∑ (2 X +3)f ( x)
X =0

μ2 X +3=6

3
Después el Teorema:
2
{
μ2 X +3=E [ ( 2 X +3 )−μ 2 X +3 ] }
2
μ2 X +3=E { [ ( 2 X + 3−6 ) ] }
μ2 X +3=E ( 4( X )2 −12 X+ 9 )
3
μ2 X +3= ∑ ( 4 x 2−12 x +9) f ( x)
X =0

μ2 X +3=4
La covarianza entre dos variables aleatorias es una asociación entre ambas, en donde las
variables grandes de X a menudo se dan valores igual de grandes de Y, al igual para valores
pequeños de x como de y.
Si X =μX positiva, tendrá como resultado Y =μY positiva, al igual si negativa a menudo será
negativa.
El signo de covarianza indica si la relación entre dos variables aleatorias dependientes es
positiva o negativa.
Si X y Y son estadísticamente independientes, se puede mostrar que la covarianza es 0, el cual
si sucede quizá tenga una relación no lineal, en donde no necesariamente son independientes.

En donde la covarianza de dos variables aleatorias X y Y con medidas μ x y μ y :

σ XY =E ( XY ) −μ x μ y

El coeficiente de correlación X y Y en donde ρ XY es independiente de las unidades X y Y:


σ XY
ρ XY =
σ X σY
El cual satisface la desigualdad −1 ≤ ρXY ≤1, el cual toma un valor de 0 cuando σXY =0.
Y =a+bX , ρXY =1 si b>0 y ρXY =1 si b<0.
En donde si a y b son constantes:
E ( aX +b )=aE ( X )+ b
∞ ∞ ∞
E ( aX +b )= ∫ ( ax +b ) f ( x ) dx=a ∫ xf ( x ) dx+ b ∫ f (x )dx
−∞ −∞ −∞

Medias y varianzas de combinaciones lineales de variables aleatorias.


Corolarios:
Al hacer a=0, se da que E( b)=b, al hacer b=0, se da que E( aX)=aE( X ).
La suma o resta de dos o más funciones de una variable aleatoria X, son las mismas
operaciones de los valores esperados de las funciones.

E [ g(X ) ±h (X ) ] =E [ g(X ) ] ± E [ h( X) ]
Sean X y Y dos variables aleatorias independientes, entonces:
E ( XY ) E (X ) E (Y )
4
Sean X y Y dos variables aleatorias independientes. Entonces: σ XY −0 .
2
Si a y b son constantes, entonces: σ aX + b =a2 σ 2 x =a2 σ 2
2
Al hacer a=1, se da que: σ X +b =σ 2 x =σ 2
2
Al hacer b=1, se da que σ aX =a2 σ 2x =a 2 σ 2
Teorema de Chebyshev
Es la probabilidad de cualquier variable aleatoria X tome un valor dentro de k desviaciones
1
estándar de la media es 1− , es decir:
k2
1
p ( μ−kσ < X < μ+ kσ ) ≥1−
k2
Ejemplo:

Una variable aleatoria X tiene una media μ=8, una varianza σ 2=9, y distribución de
probabilidad desconocida. Encuentre:
a) P(−4< X <20).
15
P (−4 < X <20 )=P[8− ( 4 )( 3 ) < X < 8+( 4)(3)]≥
16 .
b) P(| X−8|≥ 6).
P (|X −8|≥ 6 ) =1−P (|x−8|<6 ) =1−P(−6< X−8<6).
1
P (|X −8|≥ 6 ) =1−P[8− ( 2 )( 3 ) < X <8+( 2)(3)]≤ .
4
Hay que recordar que el teorema proporciona un valor como límite inferior, es decir la
probabilidad de una variable aleatoria que cae dentro de dos desviaciones estándar de la media
3
no puede ser menor que , el teorema tiene un uso que se restringe a situaciones donde e
4
desconoce la forma de la distribución.

CAPITULO 5
DISTRIBUCIONES DE PROBABILIDAD DISCRETA
Introducción.
Las variables aleatorias discretas se representan usando una sola formula, ya que se
pueden describir esencialmente con la misma distribución de probabilidad.
Una cantidad de distribuciones describe varios fenómenos aleatorios de la vida real.
Ejemplo:
En un estudio respecto a la eficacia de un nuevo fármaco, el número de pacientes
curados entre todos los pacientes que usaron tal medicamento, se torna en una
distribución binomial.

5
Cuando se prueba una muestra de artículos seleccionados de un lote de producción, el
número de artículos defectuosos en una muestra, se puede modelarse como una variable
aleatoria hipergeometrica.
El número de glóbulos blancos de una cantidad fija de una muestra de sangre de un
individuo es comúnmente aleatorio y se podría describir como una distribución de
Poisson.
Distribución uniforme discreta.
La distribución discreta es aquella donde la variable aleatoria toma cada uno de sus
valores con su probabilidad idéntica. Si la variable aleatoria X toma los valores
x 1 , x 2 , … , xk . Con idénticas probabilidades.
La distribución uniforme discreta está dada por:
En donde la notación f (x , k ) en vez de , f (x) y la distribución uniforme dependen del
parámetro k.
1
f ( x ; k )= , x=x 1 , x 2 , . .. , x k
k
Ejemplo:
Cuando se lanza un dado legal, cada elemento del espacio muestral S = {1, 2, 3, 4, 5,
6} ocurre con probabilidad de 1/6. Cuál es la distribución uniforme:
En donde la representación gráfica de la distribución uniforme mediante un
histograma:

:
Media y varianza.

La media y la varianza de la distribución uniforme discreta f(x; k) son:

k
1
• μ= ∑ x i,
k i+1
k
2 1 2
• σ = ∑ ( x i−μ )
k i=1

Distribución binomial y multinomial:

6
Un experimento a menudo consiste a pruebas repetidas, cada una con dos resultados
posibles, los cuales se pueden marcar como éxito y fracaso.

Proceso de Bernoulli, es una aplicación más evidente a medida que salen de una línea
de ensamble, donde cada prueba o experimento puede indicar si un artículo esta
defectuoso o no.
El proceso de Bernoulli debe tener las siguientes propiedades:

Ejemplo:
Considere el conjunto de experimentos de Bernoulli donde, de un proceso de ensamble, se

1. El fin del experimento contiene n ensayos que se


repiten.

2 Cada ensayo tiene un resultado: Exito o fracaso.

3. La probabilidad de un exito, se denota como p, se


mantiene constante de un ensayo a otro.

4. Los ensayos que se repiten son independientes.

clasifican 3 artículos al azar, se inspeccionan y se clasifican como defectuosos o no


defectuosos. Un artículo defectuoso se designa como un éxito. Tomar a los artículos de
forma independiente de un proceso que supondremos produce 25% de artículos
defectuosos. El número de éxitos es una variable aleatoria X que toma valores integrales
de cero a 3. Los ocho resultados posibles y los correspondientes de X son:
Resultad X
o
NNN 0
NDN 1
NND 1
DNN 1
NDD 2
DND 2
DDN 2
DDD 3

( 34 )( 14 )( 34 )= 649
P ( NDN )=P ( N ) P ( D ) P ( N ) =

Variable aleatoria Binomial. Es el numero X de éxitos en n experimentos de Bernoulli.


Distribución Binomial. Se lo llama también como la distribución de probabilidad de esta
variable aleatoria discreta, en donde os valores se encontraran como b(x; n, p), ya que
depende del número de ensayos y de la probabilidad de éxito en un ensayo dado.
Cuyo objetico es encontrar una fórmula que de la probabilidad de x éxitos n ensayos para
un experimento binomial:

7
1. Se considera la probabilidad de x exitos y n-x fracasos
en un orden especifico.

2 Ensayos independientes, se puede multiplicar todas las


probabilidades que corresponden a los difernetes
resultados

3. Cada exito ocurre con probabilidad p y cada fracaso con


probabilidad q=1-p.

Ejemplo:
La probabilidad en la que cierta clase de componente a una prueba de choque es 3/4.
Encuentre la probabilidad de que sobrevivan exactamente 2 de los siguientes 4
componentes que se prueben:
2 2
3 4 3 1
( ) ( )( ) ( )
b 2; 4 ,
4
=
2 4 4
2
3 4! 3
2 ! 2 ! )( 4 )
b ( 2; 4 , )=( 2
4

3 27
b ( 2; 4 , )=
4 128
La distribución binomial se de acuerdo a los b+1 términos en la expansión binomial de
( q+ p )2 que corresponden a los diferentes valores de b(x; n, p) para x=0, 1, 2 , . . . ,n. Es
decir
n n
( q+ p )2= n q n + n pqn−1 + n p2 qn−2 +. . .+
() () () p ()
0 1 2 n

( q+ p )2=b ( 0 ; n , p ) +b ( 1; n , p ) +b ( 2 ; n , p )+ .. .+b (n ; n , p)

8
Como p+q=1 se observa que:
n

∑ b ( x ; n , p )=1
x=0

Ejemplo: La probabilidad de que un paciente se recupere de una rara enfermedad


sanguínea es 0..4. Si se sabe que 15 personas contraen tal enfermedad, ¿Cuál es la
probabilidad de que: a) sobrevivan al menos 10, b) sobrevivan 3 a 8, y c) sobrevivan
exactamente 5?
X tiende a ser el número de personas que sobreviven.
a)
9
P ( x ≥ 10 )=1−P ( X < 10 )=1− ∑ b ( x ;15 , 0.4 )=1−0.9662=0.0338
X =0
b)
8 8 2
P ( 3≤ x ≤ 8 )= ∑ b ( x ; 15 , 0.4 )=∑ b ( x ; 15 , 0.4 )−∑ b( x ; 15 , 0.4)
X=3 x=0 x=0
P ( 3≤ x ≤ 8 )=0.9050−0.0271
P ( 3≤ x ≤ 8 )=0.8779
c)
5 4
P ( x=5 )=b (5 ; 15 ,0.4 )= ∑ b ( x ; 15 , 0.4 ) −∑ b ( x ;15 ,0.4 )
X =0 x=0
P ( x=5 )=0.4032−0.2173
P ( x=5 )=0.1859

La media y varianza de la distribución binomial b(x; n, p) son:


μ=nq y σ 2=nqp.
La distribución binomial se de acuerdo a los b+1 términos en la expansión binomial de
( q+ p )2 que corresponden
Ejemplo:
Se conjetura que hay impurezas en 30% de total de pozos de agua potable de cierta
comunidad rural. Para obtener algún conocimiento del problema, se determina que
debería realizarse algún tipo de prueba. Es muy costoso probar todos los pozos del área,
por lo que se eligieron mas de tres pozos tengan impurezas
a) Utilizando la distribución binomial, ¿Cuál es la probabilidad de que
exactamente 3 pozos tengan impurezas considerando que la conjetura es
correcta?
3 3
b ( 3 ; 10 , 0.3 )=P ( X =3 )= ∑ b ( x ; 10 , 0.3 )−∑ b( x ; 10 , 0.3)
X =0 x=2

b ( 3 ; 10 , 0.3 )=0.6496−0.3828=0.2668
a) ¿Cuál es la probabilidad de que más de 3 pozos tengan impurezas?
P ( X >3 ) =1−0.6496

9
P ( X >3 ) =0.3504
Experimentos Mutinomiales cuando cada prueba tiene más de dos resultados posibles,
la conversión del experimento binomial.
Ejemplo:
Extraer una carta de una baraja con reemplazo también es un experimento multinomial
si los 4 palos son los resultados de interés.

Si la prueba tiene alguno de los k resultados posibles E1 , E2 ,. . . , E K , con


probabilidades pk, la cual ocurrirá x k

x 1+ x2 +. . .+ x k =n
En donde, p1 + p2 + . . . + pk = 1,en donde el resultado de cada ensayo debe ser uno
de los k resultados posibles.

Forma general para probabilidades multinomiales


Una prueba nos puede conducir a los k resultados E1, E2, . . . Ek con probabilidades p1,
p2, . . . pk, por lo que la distribución aleatoria X1, X2, . . . Xk, que es numero de
ocurrencias paraE1, E2, . . . Ek en n pruebas independientes.
k

∑ x i=n
i=1

∑ pi =1
i=1

Distribución hipergeometrica
La forma en la que se realiza el muestreo nos facilita la diferencia entre la distribución
binomial de la sección y la distribución hipergeometrica.
La distribución binomial requiere la independencia de las pruebas de distribución
binomial y hipergeometrica.
- En la distribución binomial se requiere la independencia entre las pruebas.
- La distribución hipergeometrica o requiere de independencia, además se basa en
el muestreo que se realiza sin remplazo.

10
Experimento hipergeometrico, donde se ingresan x exitos de los k
articuloscosiderados como exito y n-x como fracaso, de los N-k
articulos que se consideran fracasos, cuandos e meustra la aleatroia de
tamaño nse selecciona los N articulosÑ

1. Seleccionar una muetsra de tamaño n sin remplazo de N


articulos.

2. Los k de los N articulos se pueden clasificar como exitos y N-k


comof racasos.

Variable aleatoria hipergeometrica. Son los valores x con éxito de un experimento


hipergeometrico.
Distribución hipergeometrica. Distribuye la probabilidad de la variable
hipergeometrica, y sus valores están dados como h(x; N, n, k), los cuales dependen de
los números de éxitos de k en conjunto N de los n artículos.
La distribución de probabilidad de variable aleatoria hipergeometrica X, donde de N se
selecciona los éxitos de una muestra aleatoria de tamaño n, que salen de N artículos,
donde k se denomina con éxito y N-k fracaso seria:
k N −k
h ( x ; N , n , k 0 )=
( x )( n−k )
,
N
(n)
max {0 , n−(N −k ) } ≤ x ≤min ⁡{n , k }
Ejemplo:
Lotes de 40 componentes cada uno se denomina aceptables si no contiene más de tres
defectos.
El procedimiento consiste en seleccionar 5 componentes al azar y rechazar el lote si se
encuentre un componente defectuoso ¿Cuál es la probabilidad de que se encuentre
exactamente 1 defectuoso en la muestra, si hay3 defectuosos en todo el lote?
Al usar la distribución hipergeometrica con n=5, N=40, k=3 y x=1, se encuentra que la
probabilidad de tener un defectuoso es:
3 37
h ( 1 ; 40 , 5 ,3 )=
( 1 )( 4 )

( 405)
h ( 1 ; 40 , 5 ,3 )=0.3011

11
La media y la varianza de distribución hipergeometrica h(x; N, n, k) son:
-
nk
μ=
N
-
N −n k k
σ 2=
N −1
.n.
N
1−
N( )
Ejemplo:
¿Cuál es la probabilidad de que una mesera se rehúsa servir bebidas alcohólicas a sólo dos
menores si ella verifica al azar las identificaciones de 5 estudiantes de entre 9 estudiantes, de los
cuales 4 no tienen la edad legal para beber?
4 5
h ( 2 ; 9 ,5 , 4 )=
( 2 )( 3 )

( 95 )
10
h ( 2 ; 9 ,5 , 4 )=
21
De un lote de 10 proyectiles, se seleccionan 4 al azar y se lanzan. Si el lote contiene tres
proyectiles defectuosos que no explotarán, ¿Cuál es la probabilidad de que, a) los 4 exploten, b)
a lo más 2 fallen?
a) los 4 exploten:
7 4
h ( 4 ; 10 , 4 , 7 )=
( 4 )( 5 ) 1
=
(4) 6
10

a) a lo más 2 fallen:
2

∑ h ( x ; 10 , 4 , 3 ) = 29
30
x=0

Experimentos binomiales negativos


En esta parte no se encuentran las probabilidades de x éxitos en n pruebas, donde n es fija, la
parte que importa aquí es que ocurra el k-esimo éxito en la x-esima prueba.
Ejemplo:
La probabilidad de que una persona, que vive en cierta ciudad, tenga un perro, se estima en
0.3. Encuentre la probabilidad de que la décima persona entrevistada al azar en esta ciudad sea
la quinta que tiene un perro.

b ( 10 ; 5,0.3 )= 9 ( 0.3 )5 ( 0.7 )5 b ( 10 ; 5,0.3 )=0.0515


()
4

12
Si k=1, se da una distribución de probabilidad para el número de pruebas que se requieren para
un solo éxito.
Al probar independientes repetidas nos tiende a dar un éxito con probabilidad p.
También se obtiene el fracaso con probabilidad q=1-p.

g ( x ; p )= pq x−1 , x=1 , 2 ,3 , . ..
La media varianza de una variable aleatoria que sigue una distribución geométrica es:
1 2 1− p
μ= ,σ = 2
p p
Distribución de Poisson

Distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia


media, la probabilidad que ocurra un determinado número de eventos durante cierto periodo de
tiempo.
La distribución de Poisson se aplica a varios fenómenos discretos de la naturaleza (esto es,
aquellos fenómenos que ocurren 0, 1, 2, 3,... veces durante un periodo definido de tiempo o en
un área determinada) cuando la probabilidad de ocurrencia del fenómeno es constante en el
tiempo o el espacio.
La variable aleatoria de Poisson tiene un numero X de resultados que ocurren durante tal
experimento.

El número medio de resultados se calcula de μ= λ t , en donde t es el tiempo, la distancia, el


área o el volumen específicos de interés.
Propiedades:
1. El resultado ocurrido en un intervalo o regio especifica es individual del número que
ocurre en cualquier otro intervalo o región del espacio.
2. La probabilidad dentro de un intervalo muy corto es proporcional a la longitud del
intervalo o el porte de la región, depende del número de resultados que están fuera de este
intervalo.
3. La probabilidad de que ocurra más de un resultado en un específico intervalo muy corto
es insignificante.
Distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia
media, la probabilidad que ocurra un determinado número de eventos durante cierto periodo de
tiempo.

Ejemplo:
El número promedio de camiones-tanque que llega cada día a cierta ciudad portuaria es 10.
Las instalaciones en el puerto pueden manejar a lo más 15 camiones-tanque por día. ¿Cuál es la
probabilidad de que en un día dado los camiones se tengan que regresar?
15
P ( X >15 ) =1−P ( X ≤15 ) =1− ∑ p ( x ; 10 )=1−0.9513=0.0487
X =0

Conforme la medida se hace más grande las distribuciones se vuelven cada vez más simétrica.

13
Hay que tomar en cuenta la independencia de pruebas de Bernoulli en el caso binomial se
adapta a la propiedad 2 del proceso de Poisson.
Si n es grande y p es cercana a 0, se puede usar la distribución de Poisson, con μ=np en donde
nos sirve para aproximar probabilidades binomiales.
Si p es cercana a 1, también se puede usar la distribución de Poisson para aproximar
probabilidades binomiales, por medio el intercambio de lo que se definido como fracaso y éxito,
para así cambiar p a un valor cercano a 0.
Ejemplo:
En ciertas instalaciones industriales los accidentes ocurren con muy poca frecuencia. Se sabe
que la probabilidad de un accidente en cualquier día dado es 0.005 y los accidentes son
independientes entre sí.
a) ¿Cuál es la probabilidad de que en cualquier periodo dado de 400 días habrá un accidente
en un día?
b) ¿Cuál es la probabilidad de que haya a lo más tres días con un accidente?
Si X una variable aleatoria binomial con n=400 y p=0.005. Así np=2. Con la aproximación de
Poisson.
a)

P ( X=1 ) =e−2 21=0.271


b)
3

∑ e−2 2π
p ( X ≤3 )= X =0 =0.857
x!

CAPITULO 6
Distribución de probabilidad continúa
Tiene una función de densidad que es plana, por lo que su probabilidad tiene a ser uniforme
dentro de un intervalo cerrado [A, B].

14
1
f ( x ; A , B)=
{ B− A
, A≤ X ≤B,
0 , en cualquier otro caso }
La distribución de la densidad forma un cuadrado de base B – A y altura constante. El
resultado será una distribución rectangular:

La distribución de la densidad forma un cuadrado de base B – A y altura constante. El


resultado será una distribución.
Ejemplo:
Suponiendo que una sala de conferencias grande se puede reservar para una cierta compañía
por no más de cuatro horas, Sin embargo, el uso de la sala de conferencias es tal que muy a
menudo tiene conferencias largas y cortas. De hecho, se puede suponer que la duración X de la
conferencia tiene una distribución uniforme en el intervalo [0, 4].
a) ¿Cuál es la función de densidad de la probabilidad?

1
f ( x )=
{ 4
,0≤ x≤4,
0 , en cualquier otro caso . }
b) ¿Cuál es la probabilidad de que cualquier conferencia dad dure al menos 3 horas?
4
P [ X ≥ 3 ]=∫
3
( 14 ) dx
1
P [ X ≥ 3 ]=
4
La media y la varianza de la distribución uniforme está dada como:
2
A+ B ( B− A )
μ= , y σ2=
2 12
Distribución normal
Variable aleatoria normal: Es una variable aleatoria continua X con una distribución con
forma de campana, en donde la ecuación matemática de la variable normal depende de los dos
parámetros μ (Su media) y σ (Su desviación estándar).

Se tiene a las siguientes curvas normales tienen la misma media


con diferentes desviaciones estándar. Hay que tener presente que
el área bajo la curva de probabilidad debe ser igual a 1, En donde

15
mientras más variable sea el conjunto de observaciones, pues más baja y más ancha será la
curva.

En la siguiente figura trata, respecto a las dos mismas


anteriores curvas con diferentes desviaciones estándar,
las cuales están completamente centradas
simétricamente sobre el eje horizontal.
La curva con la mayor desviación estándar es la más
baja y se extiende más lejos.
El mismo caso se da cuanto más variable sea el
conjunto de observaciones más baja y ancha será la
curva.

El grafico siguiente proyecta la traza de dos curvas


normales que tienen distintas medias y distintas
desviaciones estándar.
Por lo que se centran en posiciones diferentes respecto a su
eje horizontal en donde están proyectado los valores
diferentes de σ .

Propiedades de la curva normal:


1. En x=μ la curva es un máximo, en el punto sobre el eje horizontal. (Moda).
2. A través de la curva media μ la curva se tiende simétrica alrededor del eje vertical.
3. La curva también tiene puntos de inflexión en x=μ ± σ cuando es cóncava hacia arriba y si
μ−σ < μ+σ es cóncava hacia abajo.
4. Con forme nos vallamos alejando de la media en cualquier dirección horizontal más se
aproximara la curva normal.
5. El área total bajo la curva y sobre el eje horizontal es igual a 1.

Áreas bajo la curva normal:


En una curva de cualquier distribución continua de
probabilidad o función de densidad se construyen con dos
ordenadas en un área bajo la curva x = x1 y x2 = x2 sea
igual a la probabilidad de que la variable aleatoria X tome
un valor entre x = x1 y x = 2.

Distribución normal
El área bajo la curva con respecto a las dos ordenadas
también depende de valores μ y σ .

16
El área más sombreada bajo la curva representa la variable aleatoria que representa la
distribución A, donde P(x1 <X <x2).
X esta dada por la región sombreada en donde representa a la variable aleatoria que describe la
distribución de B, por lo que P(x1 < X < x2)
Sus probabilidades que los asocian cada distribución será diferente para los valores dados en
X.
Se puede introducir una variable ahora sobre Z para así poder transformar todas las
observaciones de cualquier variable aleatoria normal X a un conjunto nuevo de observaciones
de una variable aleatoria normal Z con media 0 y varianza 1 mediante la siguiente formula:
X−μ
Z=
σ
Distribución normal estándar.
Se lo llama así a la distribución de una variable aleatoria normal con media 0 y varianza 1.

Todos los valores de X se extienden entre x1 y


x2, por lo que también tiene valores Z que se
extienden entre x=x1 y x=x2.
Por lo cual se nombraría como el área bajo la
curva Z entre las ordenadas transformadas Z=z1 y
Z=z2.
Ejemplo:

Dada una distribución normal estándar, encuentre el área bajo la curva que yace:
a) a la derecha de Z=1.84 y
b) entre z=-1.97 y z=0.86.

a) a la derecha de Z=1.84
El área a la derecha de z=1.84 es igual a 1 menos el área en la tabla A.3 a la izquierda de
z=1.84; a saber, 1-0.9671=0.0329.

P(Z>k)=0.3015

17
c) entre z=-1.97 y z=0.86.
El área a la derecha de z=-1.97 de la tabla A.3 encontramos que el área que se desea es
0.8051-0.0244=0.07807.

P(k<z<-0.18 =0.4197.

Aplicaciones de la distribución normal


En un proceso industrial el diámetro de un cojinete de bolas es una parte componente
importante. El comprador establece que la especificaciones en el diámetro sean 3.0 ± 0.01cm.
La implicación es que no se aceptara ninguna parte que quede fuera de estas especiaciones. Se
sabe que en el proceso e diámetro de un cojinete tiene una distribución normal con media 3.0 y
desviación estándar σ=0.005. En promedio ¿Cuántos cojinetes fabricados se descartaran?
Hay que tener en cuenta que los valores dados corresponden a los limites especificados
x1=2.99 y x2=3.01. Los valores correspondientes son:
2.99−3.0 3.01−3.0
z 1= =−2. 0 y z 2= =+2. 0
0.005 0.005
P= (2.99< X <3.01 )=P(−2.0<Z <2.0).
P= ( Z ←2.0 ) + P ( Z >2.0 )=2 ( 0.0228 ) =0.0456.
En una ciudad se estima que la temperatura máxima en el mes de junio sigue una distribución
normal, con media 23° y desviación típica 5°. Calcular el número de días del mes en los que se
espera alcanzar máximas entre 21° y 27°.

P ( 21< X ≤27 )−P ( 21−23


5
<Z ≤
27−23
5 )
−¿

¿ P (−0.4< Z ≤ 0.8 ) =P ( Z ≤ 0.8 ) −[ 1−P( Z ≤ 0.4) ]


¿ 0.7881−( 1−0.6554 ) =0.4425 ( 30 )=13
La distribución binomial se aproxima correspondientemente por la normal en problemas
prácticos siempre y cuando se trabaja la función de distribución acumulada
La media y la varianza de la distribución gamma son:

μ=∝ β , y σ 2=∝ β 2

18
La media y la varianza de la distribución exponencial son:

μ= β , y σ 2=β 2
En el momento de las aplicaciones de las distribuciones exponencial y gamma se tiene en
cuenta que parámetro β es el tiempo medio entre eventos, también se le denomina como tiempo
medio entre fallas.

Distribución de Erlang
Relación con la distribución exponencial:
Una v.a. exponencial mide (tiempo, longitud, etc) hasta que se da el primer conteo de un
proceso de Poisson.
Una v.a. de Erlang mide la distancia hasta que ocurran r conteos en un proceso de Poisson.
La v.a. X se define como la longitud del intervalo hasta que suceden r ocuccrencias en un
proceso Poisson con media γ >0 tiene una distribución de Erlang, la distribución de
probabilidad es:

γ r x y−1 e γx
f x=
( ) , Para x >0 y r +1,2 …
( r −1 ) !
Ejemplo:
Las fallas de un sistema en un procesamiento CPU de los sistemas de laptops grandes se
modelan con frecuencia como un proceso de Poisson. Las fallas se deben al desgaste y otros
factores, el número promedio de fallas por hora es de 0.0001. Sea que X tienda ala tiempo de 4
fallas en un sistema. Determinar la probabilidad de que X exceda 40000 horas.
X=40000 horas
fallas
γ =0.0001
hora
r=4fallas.

γ r x y−1 e γx
P ( X > 40000 )= ∫ =0.433
40000 ( r −1 ) !
Media y varianza
La media y varianza se da si X es una v.a. de Erlang con parámetros γ y r, entonces la
media y la varianza de x son:
r
μ= E ( X )=
γ
r
σ 2=V ( X )=
γ2
En el momento de las aplicaciones de las distribuciones exponencial y gamma se tiene en
cuenta que parámetro β es el tiempo medio entre eventos, también se le denomina como tiempo
medio entre fallas.

19
Distribución chi cuadrada
Este modelo implica de gran uso en estadística inferencial, la cual e obtiene de la distribución
Gamma con ∝=v /2, β=2
En algunos de los valores de la distribución ji-cuadrado se encuentran tabulados para ciertos
valores de V y para valores típicos de ∝ con la definición:
2
Definición: X ∝

X 2∝ Es un valor de X 2 por lo que el area derecha es igual a ∝ :P ( X 2 ≥ X 2∝) =∝

La Media y varianza para la


V
distribución Ji - cuadrado se obtiene directamente de la distribución Gamma con ∝= , β=2
2
Si X es una variable aleatoria continúa con distribución Ji – cuadrado, entonces:

Media μ=E ( X ) =v , Varianzaσ 2=V ( X )=2 v


Distribución logarítmica normal
Tiene una amplia variedad de aplicaciones, en donde la distribución tiende a ampliarse
siempre y cuando solo una transformación logarítmica natural tiene como resultado una
distribución normal.
La media y la varianza de la distribución logarítmica normal son:
2 2 2

μ=e μ+ σ /2 y σ 2=e 2 μ+ σ (e σ −1)


Históricamente las plantas que exhiben su reacción de contaminantes producidas por ellas
mismas tienen un comportamiento que tiende a ser igual a una distribución logarítmica normal.

20
Distribución de Weibull
Este teorema se utiliza en problemas relacionados con fallas de materiales y estudios de
confiabilidad.

Media ( 1β )
μ= E ( X )=∝−1 / β T 1+

Varianza [(
σ 2=V ( X )=∝−2 / β T 1+
2
β ) ( ( )) ]
− T 1+
1
β

21

También podría gustarte