Está en la página 1de 9

Probabilidades

Distribuciones Discretas
Prueba de Bernulli: es un experimento que acepta solo 2 resultados (Exito, Fallo), si:

P → es la probabiliad de exito
1−P → es la probabilidad de fracaso
x n− x
P ( X=x ) =p ( 1− p ) una prueba y 2 eventos

x , variable aleatoria Node exito s x= {0 , 1 }= { fracaso , exito }


'' ''

n , numero de muestra

Distribución Binomial: en base a la prueba de Bernulli, un experimento se pude repetir ( nx) veces, por tanto:
P ( X=x ) =b ( x ; n ; p )= ( nx) p ( 1− p )
x n−x
N pruebas 2 eventos

P, probabilidad puntual, x No de éxitos (x=0,1,2,…..n), p probabilidad de éxito, n cantidad de muestra


Con tablas F(X<=x)
n

x=0 x
()
P ( X=x ) =B ( x , n , p ) =∑ n ∗p x ( 1− p ) desde el 0 en adelante
n− x

Interpretación: a lo sumo-a lo mucho (<=); por lo menos (>=)

1 ¿ P ( X ≤ x )=B ( x , n , p )
2 ¿ P ( X ≥ x )=1− p ( X< x )=1−B ( x−1 , n , p )
3 ¿ P ( X=x )=B ( x ,n , p )−B ( x−1 , n , p )
Distribución Geométrica: Son las repeticiones independientes hasta conseguir el 1re éxito es donde “n” no
está definido:
x−1
P ( X=x ) =g ( x , p )= p ( 1− p ) ; x=1 ,2 , 3 , … … .
1 1− p
experanza matematica : E ( x ) = ; Varianza:V ( x )= 2
p p
Siendo n, numero de intentos totales. Para calcular la probabilidad de un evento x, hay que tener muy muy en
cuenta si x=número de intentos hasta “acertar” (x=1,2,3,…n) si x=número de “fallos” hasta “acertar” (x=1,2,3,
…..n-1)
Distribución Hipergeométrica: sirve para experimentos sin reemplazo, “muestra sin reemplazo de n
elementos de la población original” sin regresar la muestra a la población

los “x” éxitos se eligen( ax) formas “a” es el total de éxitos


los n-x fracasos “( ) formas” y los “n” objetos ( ) formas
N −a N
n−x n
P ( X=x ) =h ( x ; n ; a ; N ) =
( x ) ( n−x )
a N −a

; x=0 ,1 , 2 ,3 , … . n
(n)
N

( ax), el numero de combinaciones posibles al seleccionar x elementos de un total de a


N, tamaño de población, n, tamaño de muestra, a, No individuos o cantidad de elementos deseados, x, valor
que toma la variable
n∗a N −n
experanza matematica : E ( x ) = ; Varianza :V ( x )=
N n−1
Distribución de Poisson: Se aplica cuando la variable aleatoria es el número de eventos independientes (los
eventos no se afectan entre si) con un promedio dado λ en una región establecido en un intervalo, tiempo
establecido o dado:
−λ x
e ∗λ
P ( X=x ) =f ( x , λ )= x=0 ,1 , 2 ,3 … …
x!
x, es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento
suceda precisamente x veces)
λ , es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno
durante un intervalo dado.

experanza matematica : E ( x ) =λ ; Varianza :V ( x )= λ


Distribución Binomial Negativa (Pascal): se llama así a las repeticiones independientes de un experimento
donde cada ensayo produce un Éxito o Fracaso hasta conseguir el “r” éxitos:

P ( X=x ) =nb ( x , r , p )= ( x+r−1


r−1
)∗p ( 1−p ) x=0 , 1, 2 , 3 , … …
r x

X+r=n= No de pruebas x hasta la aparición de r éxitos


r r∗1− p
experanza matematica : E ( x ) = ; Varianza:V ( x )=
p p
2

Distribución Multinomial: es una generalización de binomial


n! x x x
f ( x 1 , x 2 , x3 , … . , x k ) = ∗P ∗P 2 ∗… … P k
1 2 k

x 1 !∗x2 !∗x3 !∗… …∗x k ! 1

x=0 , 1 , 2, 3 … … . n
N pruebas y N eventos

 Solo hay dos posibles resultados: éxitos y fracasos


 Hay n ensayos independientes
 Cada ensayo resulta en alguno de los k posibles resultados mutuamente excluyente
 Sea xi que representa el número de ocurrencias del resultado i
experanza matematica : E ( x ) =n∗p ; Varianza :V ( x )=n∗p (1− p)
Distribuciones Continuas
Distribución Normal

( )
2
−1 x−μ

1 2 σ
( α ) P ( X =x )=f ( x ; μ ; σ )= ∗e
√ 2∗π∗σ
El area total limitada por la curva ( α ) y el eje x es 1; el área bajo la curva entre dos ordenados x=a y x=b
donde a<b, representa la probabilidad de que x este entre un intervalo a y b
Estandarizar las variables:
μ=0 ; σ=1 ; x=Z
2
−Z
1
f ( Z ; 0; 1 ) = e 2

√2 π
Por tanto, la función de densidad acumulada fda de Z es P(Z<z) y se denota como el área bajo la curva.
x −μ
Z=
σ
√n
Distribución Ji-cuadrada
Si S2 es la varianza de una muestra aleatoria de tamaño n, tomada una población normal con varianza σ2
entonces la variable aleatoria:

2 ( n−1 )∗S2
χ= v=n−1 grado de libertad
σ2
Distribución t-student
Si Z es una variable normal estándar y V una variable Ji cuadrada con v grados de libertad, entonces la
variable aleatoria T:
Z x−μ
t= →t= con v grados de libertad

√ V S
v √n
Distribución F de Fisher
Si U y V son variables aleatorias que tienen distribucion Ji cuadrada con v1 y v2 grados de libertad, entonces:
U
v1
F=
V
v2
Estadística Descriptiva
n

Media:
∑ xi
x= i=1
n
n

Varianza:
∑ ( x i−x )2
S2= i=1 → desviacion standard S=√ S2
n−1
2 suma de cuadrados
Cuadrado medio: S =CM =
grados de livertad
2 2
media muestral : x ; media poblacional : μ ; varianza muestral :S ; varianza poblacional :σ
Varianza de una variable que es una función de otras

y=f ( x 1 , x 2 , x 3 ,… .. , x n ) → S y =
2
∑ γi ( )
∂y 2 2
S
∂ x i xi
∑ γi
γ i=1 sin tamaño de muestra ; γ i=n−1 con tamaño de muestra

Intervalos de confianza-inferencia

 Las distribuciones normal y T de student sirven para hacer inferencias sobre las medias.
 La distribución Ji-cuadrada es para inferencias sobre varianzas.
 La distribución F se empleará para comparar varianzas.

Parámetro Límite Inferior Límite superior


μ t α ∗S t α ∗S
Muestra <30 x− 2
x+ 2
; con n−1
√n √n
μ Z α ∗S Z α ∗S
Muestra ≥30 x− 2
x− 2

√n √n
2 2
σ ( n−1 )∗S ( n−1 )∗S 2
χ 2α χ 2α
,n−1 ,n−1
2 2

√ √
ρ ^ρ (1− ^ρ ) ρ^ ( 1− ^ρ )
^ρ −Z α ∗ ^ρ + Z α ∗
2
n 2
n


μ1−μ2 1 1
( x 1−x 2 ) +t α , n +n −2∗S p∗ +

2
1 2
1 1
( x 1−x 2 )−t α ,n + n −2∗S p∗ +
n1 n 2 √ 2
1 2 n1 n2


2 2
( n1 −1 )∗S1 + ( n2−1 )∗S 2
S p=
n1+ n2−2
2 2 2
σ1 S1 S1
2 2
∗F α 2
∗F α
σ2 S2 1− ,n2−1 ,n1−1
2 S2 1− ,n2−1 ,n1−1
2

1
F α =
1− , n2−1 , n1−1
2

,n2−1 ,n1−1
2
√ √
ρ 1− ρ 2 ρ^ 1 ( 1− ^ρ1) ρ^ 2 ( 1−^ρ2 ) ^ρ1 ( 1−^ρ1 ) ρ^ 2 ( 1−^ρ2 )
( ρ^ 1 − ^ρ2 )−Z α ∗ n1
+
n2
( ρ^ 1 − ^ρ2 ) +Z α ∗ n1
+
n2
2 2

Tamaño de muestra
2 2
t ∗S
( α
2
, n−1 )
n= 2
; E=error que se quiere
E
2
4∗S
n= 2
para n>30
E
2
Z α ∗^ρ ( 1− ^ρ )
( 2) x defectos
n= ; ρ= →
E
2
n cantidad , articulos , partes , etc ( buenos +defectos )

Prueba de Hipótesis estadística


Prueba de hipótesis para un parámetro

Hipótesis Estadístico de prueba Criterio de rechazo


H 0 : μ=μ 0 x−μ0
t o=
H A : μ ≠ μ0 S |t o|>t α ;n−1
H A : μ> μ 0
√n 2
t o >t α ; n−1
H A : μ< μ 0 t o ←t α;n−1
2 2
H 0 :σ =σ 0 ( n−1 )∗S2
χ 2=
2
H A :σ ≠ σ 0
2
σ2 2
χo> χ α
2
o χ o< χ
2 2
α
;n−1 1− ;n−1
2 2
2 2 2 2
H A :σ > σ 0 χ o > χ α ;n−1
2 2 2 2
H A :σ < σ 0 χ o < χ 1−α ; n−1
H 0 : ρ= ρ0 x−x∗ρ0
Z 0=
H A : ρ ≠ ρ0
√n∗ρ ( 1−ρ ) o 0
|Z o|> Z α
2
H A : ρ> ρ0 Z o> Z α
H A : ρ< ρ0 t o ←Z α

Prueba de hipótesis para dos parámetros

Hipótesis Estadístico de prueba Criterio de rechazo


H 0 : μ1=μ2 x1 −x2
t o=

√ |t o|>t α ,n + n −2
H A : μ1 ≠ μ 2 1 1
Sp + 2 1 2

n1 n 2
H A : μ1 > μ2 t o >t α ,n +n −2
1 2

H A : μ1 < μ2 t o ←t α , n +n −2
1 2

2 2
( n1−1 ) S1 + ( n2−1 ) S 2
SP
n1+ n2−2
H 0 : μ1=μ2 x 1−x 2
t o=


H A : μ1 ≠ μ 2 2
S1 S2
2 |t o|>t α ,v
+ 2
H A : μ1 > μ2 n1 n2 t o >t α ,v

( )
2 2 2
H A : μ1 < μ2 S 1 S2
+
n1 n2
v= −2

( ) ( )
2 2 2 2
S1 S2 t o ←t α, v
n1 n2
+
n1 +1 n2 +1

2 2 2
H 0 :σ =σ 0 S1
F 0=
2 2
H A :σ ≠ σ 0 S2
2 F 0> F α o F0< F α
;n1−1 ;n2−1 1− ; n1−1 ;n2−1
2 2
1
2
H A :σ > σ 0
2
F 1−α ;n −1 ;n −1= F 0> Fα ;n −1 ;n −1
1 2
F α ;n −1 ;n −1 1 2

2 2
H A :σ < σ 0
2 1
F 0< F1−α ;n −1 ;n −1
1 2

H 0 : ρ= ρ0 ^ρ1− ρ^ 2
Z 0=


H A : ρ ≠ ρ0 |Z o|> Z α
H A : ρ> ρ0
ρ^ ( 1− ^ρ )
1 1

n1 n 2 ( ) Z o> Z α
2

H A : ρ< ρ0 x +x t o ←Z α
^ρ = 1 2
n1 +n2

Análisis de Varianza con un Solo Factor


i=1 , 2 ,3 , … … , k tratamientos ; j=1 , 2 , … … . ,n i observcaiones en cada tratamiento
Y i .=suma de las observaciones del tratamiento i
Y i . =Media de las observaciones deli−esimo tratamiento
Y ..=Sumatotal de las N=n1+ n2+ … .+nk mediciones
Y ..=Media global o promedio de todas lasobservaciones
ni

ni ∑ Y ij k
Y ..
ni k
Y i . =∑ Y ij ; Y i . = ; Y ..=∑ ∑ Y ij ;Y ..= ; i=1 , 2 , … ..k ; N =∑ ni
j=1

j=1 ni i=1 j=1 N i=1

ANOVA: objetivo de igualdad de tratamientos


H 0 : μ1=μ2=…=μ k =μ o H 0 : τ 1=τ 2=…=τ k =0

H A : μi ≠ μ j para algun i≠ jo H A : τ i ≠ 0 para algun i


Suma total de cuadrados:
ni ni
k k
Y 2..
S CT =∑ ∑ ( Y ij −Y .. )2=∑ ∑ Y 2ij −
i=1 j=1 i=1 j=1 N
k ni
S CT =∑ ∑ [ ( Y ij −Y i . ) + ( Y i .−Y .. ) ]
2

i=1 j=1

Desarrollando cuadrados se tiene:


k k ni
S CT =∑ n i ( Y i . −Y .. ) + ∑ ∑ ( Y ij−Y i. )2
2

i=1 i=1 j=1

S CT =S C TRAT + S C E

S CT =suma de cuadrados de tratamiento+ suma de cuadrados del error

Grados de libertad total: N−1=( k −1 ) +(N −k )

S CTRAT
Cuadrado medio de tratamiento: C M TRAT =
k −1
SCE
Cuadrado medio del error: C M E=
N−k
Bajo el supuesto de la hipótesis H0: estadístico de prueba
C M TRAT ( k−1 ) grados de libertad
F 0= con
C ME ( N−k ) grados de libertad
se rechaza H 0 si F 0> Fα , k−1, N −k
ANOVA para el DCA (diseño completamente al azar)

FV SC GL CM Fo
Tratamiento S CTRAT k-1 C M TRAT C M TRAT
Error S CE N-k CME C ME
Total S CT N-1

Cuando se rechaza la Hipótesis nula


Comparación o Pruebas de rango múltiples
Método LSD (diferencia mínima significativa)

|Y i . −Y j .|>t α ; N−k
(2 ) √ C ME
( n1 + n1 )=LSD significativo
i j

sin i=n j=. . .. . . .=n → LSD =t α


2
; N−k √ 2∗C M E
n

Método de Tukey

C ME
|Y i . −Y j .|>q α ; (k , N −k )∗
ni √
=T α significativo

ni =observacion por tratamiento ; q α ; (k , N −k )=estudiantizado

Método de Duncan
SY =i.
√ C ME
n AR
; n AR= k

∑ n1
i=1
k

donde : ni=n j=. . . .. . .=n=n AR

R P=r α ; ( P ; L ) SY ; p=2 ,3 ,… … k ; L=grados de libertad del error


i.

r α ; ( P ; L )=significancia de Duncan

|Y mayor −Y menor|> R P=r α ; (P ;L ) S Y i.


significativo

Análisis de Varianza con Dos Factores


a=nivel del factor A ; b=nivel del factor B ; n=numero de replicas
a b n
Suma de observaciones: Y . .. =∑ ∑ ∑ Y ijk
i=1 j=1 k=1

Y ...
Media global: Y . .. =
a∗b∗n
b n
Y i. .
Total, del nivel i del factor A: Y i .. =∑ ∑ Y ijk media del nivel idel factor A :Y i . .=
j=1 k=1 b∗n
a n
Y . j.
Total, del nivel i del factor B: Y . j . =∑ ∑ Y ijk media del nivel j del factor B :Y . j . =
i=1 k=1 a∗n
n
Y ij .
Total, del nivel i y j para la interacción AB: Y ij .=∑ Y ijk ; media de interaccion AB :Y i j. =
k=1 n
Suma de cuadrados:
S CT =S C A +S C B +S C AB + S C E
a b n 2
Y .. .
S CT =∑ ∑ ∑ Y
2
i jk − ; donde : N=a∗b∗n
i=1 j=1 k=1 N
a 2 2
Y i . . Y .. .
S C A =∑ −
i=1 b∗n N
b 2 2
Y . j. Y . ..
S C B= ∑ −
j=1 a∗n N
a b 2 2
Y ij. Y . ..
S C AB =∑ ∑ − −S C A −S C B
i=1 j=1 n N
Cuadrado medio:
SCA S CB S C AB S CE
C M A= ; C M B= ; C M AB= ; C M E=
a−1 b−1 ( a−1 ) ( b−1 ) ab ( n−1 3 )
ANOVA
FV SC GL CM Fo
Efecto A S CA a-1 CM A CMA / CME
Efecto B S CB b-1 CM B CMB / CME
Efecto AB S CA B (a-1)(b-1) CM AB CMAB / CME
Error S CE ab(n-1) CM E
Total S CT abn-1

También podría gustarte