Está en la página 1de 17

Experimento estadístico

concepto que se utiliza para describir cualquier proceso mediante el cual se generan
varias observaciones al azar
Variable aleatoria
Una variable aleatoria es una función que asocia un número real con cada elemento
del espacio muestral.
Se utiliza una letra mayúscula por ejemplo X , para denotar una variable aleatoria y su
correspondiente letra minúscula x en este caso, para uno de sus valores.
Variable aleatoria discreta
La variable aleatoria tiene un conjunto de resultados posibles que se puede contar.
Variable aleatoria continua
La variable aleatoria puede tomar valores en una escala continua.
Espacio muestral discreto
Si un espacio muestral contiene un número finito de posibilidades, o una serie
interminable con tantos elementos como números enteros existen.
Espacio muestral continuo
Si un espacio muestral contiene un número infinito de posibilidades, igual al número
de puntos en un segmento de recta.
Distribución discreta de probabilidad
El conjunto de pares ordenados (x , f ( x )) es una función de probabilidad de la variable
aleatoria discreta X si, para cada resultado x posible se cumple:
1. f ( x ) ≥0

2. ∑ f (x )=1

3. P ( X=x )=f ( x )

Función de distribución acumulativa discreta


Para una variable aleatoria discreta X con distribución de probabilidad f (x) se define
la función de distribución acumulativa F ( x) como:

F ( x )=P ( X ≤ x ) =∑ f ( t ) ;−∞ < x <∞


t≤ x

Distribución continua de probabilidad


Una variable aleatoria continua tiene una probabilidad 0 de adoptar exactamente
cualquiera de sus valores. En consecuencia, su distribución de probabilidad no se
puede presentar en forma tabular.
La función f ( x) es una función de densidad de probabilidad (fdp) para la variable
aleatoria continua X , definida en el conjunto de números reales, si
1. f ( x ) ≥0 ; ∀ x ∈ R

2. ∫ f ( x)dx=1
−∞

3. P ( a< X < b )=∫ f ( x )dx


a

Función de distribución acumulativa continua


Para una variable aleatoria continua X con distribución de probabilidad f (x) se define
la función de distribución acumulativa F ( x) como:
x
F ( x )=P ( X ≤ x ) =∫ f (t)dt ;−∞< x <∞
−∞

Media de una variable aleatoria


Sea X una variable aleatoria con distribución de probabilidad f ( x). La media o valor
esperado de X es:

1. μ= E ( x )=∑ xf ( x) ; si X es discreta.

2. μ= E ( x )= ∫ xf ( x ) dx ; si X es continua.
−∞

Varianza de una variable aleatoria


Sea X una variable aleatoria con distribución de probabilidad f ( x) y media μ. La
varianza de X es:

1. σ =E [ ( X−μ ) ]=∑ ( x−u ) f ( x ) ; si X es discreta.


2 2 2

2. σ =E [ ( X−μ ) ]=∫ ( x−μ ) f (x) dx ; si X es continua.


2 2 2

−∞

Donde x−μ es la desviación de una observación respecto a la media.


Alternativamente el cálculo de la varianza de una variable aleatoria se simplifica a:

σ 2=E ( X 2 ) −μ 2
Demostración:
σ =∑ ( x−μ ) f ( x )
2 2

σ 2=∑ ( x 2−2 xμ+ μ2 ) f ( x)


x

σ 2=∑ x 2 f ( x )−2 μ ∑ xf ( x )+ μ 2 ∑ f ( x )
x x x

Como:

μ=∑ xf ( x )
x

1=∑ f ( x )
x

σ =∑ x f ( x )−2 μ + μ
2 2 2 2

σ =E ( X ) −μ
2 2 2


σ =∫ ( x −μ ) f (x) dx
2 2

−∞


σ =∫ ( x −2 xμ+ μ ) f (x)dx
2 2 2

−∞

∞ ∞ ∞
σ =∫ x f (x )dx−2 μ ∫ xf (x) dx + μ ∫ f ( x)dx
2 2 2

−∞ −∞ −∞

Como:

μ= ∫ xf (x )dx
−∞


1= ∫ f (x) dx
−∞


σ =∫ x f (x ) dx−2 μ + μ
2 2 2 2

−∞

σ =E ( X ) −μ
2 2 2

Distribuciones de probabilidad discreta


Distribución binomial
Un experimento de Bernoulli puede tener como resultado un éxito con probabilidad p
y un fracaso con probabilidad q = 1 – p. Entonces, la distribución de probabilidad de la
variable aleatoria binomial X, el número de éxitos en n ensayos independientes, es
()
b ( x ; n , p ) = n p q ; x=1,2,3 , … ,n
x
x n−x

La distribución binomial deriva su nombre del hecho de que los n + 1 términos en la


expansión binomial de ( q+ p )n corresponden a los diversos valores de b ( x ; n , p ) para
x=1,2,3 , … , n. Es decir,
n

0() () 1 2 ()
( q+ p ) = n q n + n p qn−1 + n p2 q n−2 +…+ n pn
n ()
( q+ p )n=b ( 0 ; n , p ) +b ( 1 ; n , p ) +b ( 2 ; n , p ) +…+b ( n ; n , p )
Dado que p+q=1, vemos que
n

∑ b ( x ;n , p )=1
x=0

una condición que se debe cumplir para cualquier distribución de probabilidad


Media:
μ=np
Varianza:

σ 2=npq
Distribución Hipergeométrica
El número X de éxitos de un experimento hipergeométrico se denomina variable
aleatoria hipergeométrica. En consecuencia, la distribución de probabilidad de la
variable hipergeométrica se conoce como distribución hipergeométrica, y sus valores
se denotan con h ( x ; N , n , k ) , ya que dependen del número de éxitos k en el conjunto
N del que seleccionamos n artículos sin reemplazo.

La distribución de probabilidad de la variable aleatoria hipergeométrica X, el número


de éxitos en una muestra aleatoria de tamaño n que se selecciona de N artículos, en
los que k se denomina éxito y N – k fracaso, es

h ( x ; N , n , k )=
( x )( n−x )
k N −k
;max {0 ,n−( N−k ) } ≤ x ≤min ⁡{n , k }
(n)
N

El rango de x puede determinarse mediante los tres coeficientes binomiales en la


definición, donde x y n−x no son más que k y N−k respectivamente y ambos no
pueden ser menores que 0. Por lo general, cuando tanto k (el número de éxitos) como
N−k (el número de fracasos) son mayores que el tamaño de la muestra n , el rango de
una variable aleatoria hipergeométrica será x=1,2,3 , … , n.
Media:
nk
μ=
N
Varianza

σ 2= (
nk N −n
N N −1
1−
k
N )( )
RELACIÓN CON LA DISTRIBUCIÓN BINOMIAL
Como se esperaría, si n es pequeña comparada con N, la naturaleza de los N artículos
cambia muy poco en cada prueba. Así, cuando n es pequeña en comparación con N, se
puede utilizar una distribución binomial para aproximar la distribución
hipergeométrica. De hecho, por regla general la aproximación es buena cuando n/N ≤
0.05. Por lo tanto, la cantidad k/N desempeña el papel del parámetro binomial p y,
como consecuencia, la distribución binomial se podría considerar una versión de
población grande de la distribución hipergeométrica.
Media:
nk
μ=np=
N
Varianza

σ 2=npq=
nk
N
1−(k
N )
Distribución de Poisson
La distribución de probabilidad de la variable aleatoria de Poisson X , la cual representa
el número de resultados que ocurren en un intervalo de tiempo dado o región
específicos t , es:

e−λt ( λt ) x
p ( x ; λt )= ; x=0,1,2 , …
x!
donde λ es el número promedio de resultados por unidad de tiempo, distancia, área o
volumen y e=2.71828 …
El proceso de Poisson tiene las siguientes propiedades:
1. El número de resultados que ocurren en un intervalo o región específica es
independiente del número que ocurre en cualquier otro intervalo de tiempo o región
del espacio disjunto. De esta forma vemos que el proceso de Poisson no tiene
memoria.
2. La probabilidad de que ocurra un solo resultado durante un intervalo de tiempo muy
corto o en una región pequeña es proporcional a la longitud del intervalo o al tamaño
de la región, y no depende del número de resultados que ocurren fuera de este
intervalo de tiempo o región.
3. La probabilidad de que ocurra más de un resultado en tal intervalo de tiempo corto
o que caiga en tal región pequeña es insignificante.
Media:
μ= λt
Varianza:
2
σ =λt
Distribución gamma
La función gamma se define como:

Γ ( α )=∫ x
α−1 − x
e dx ;α > 0
0

La variable aleatoria continua X tiene una distribución gamma, con parámetros α y β ,


si su función de densidad está dada por:

{
1 α −1 −x/ β
x e ; x >0
f ( x ; α , β )= β Γ ( α )
α

0 ;en otro caso

Donde α >0 y β >0.


Media:
μ=αβ
Varianza:

σ 2=α β 2

Distribución exponencial
La variable aleatoria continua X tiene una distribución exponencial, con parámetro β ,
si su función de densidad está dada por:

{
1 −x/ β
e ; x >0
f ( x ; β )= β
0; en otro caso

Donde β >0.
Media:
μ= β
Varianza:
2 2
σ =β
β es el tiempo promedio entre eventos

Distribución Normal
Densidad de la variable aleatoria normal X
2
− ( x− μ)
1 2σ
2

f ( x )= e ;−∞< x <∞
√ 2 πσ
Media:
E ( X ) =μ

Varianza

Var ( X )=σ 2

Es posible transformar todas las observaciones de cualquier variable aleatoria normal


X en un nuevo conjunto de observaciones de una variable aleatoria normal Z con
media 0 y varianza 1. Esto se puede realizar mediante la transformación:
X−μ
Z=
σ
La distribución de una variable aleatoria normal con media 0 y varianza 1 se llama
distribución normal estándar.

La distribución normal tiene la propiedad reproductiva si X 1 , X 2 , … , X n son variables


aleatorias independientes que tienen distribuciones normales con medias μ1 , μ 2 , … , μn
y varianzas σ 21 , σ 22 , … , σ 2n respectivamente, entonces la variable aleatoria
Y =a1 X 1+ a2 X 2 +…+ an X n

tiene una distribución normal con media y varianza iguales a:


μY =a1 μ1 +a 2 μ2 +…+ an μ n
2 2 2 2 2 2 2
σ Y =a1 σ 1 +a 2 σ 2 + …+ an σ n

Aproximación normal a la binomial


La distribución normal a menudo es una buena aproximación a una distribución
discreta cuando la última adquiere una forma de campana simétrica. Desde un punto
de vista teórico, algunas distribuciones convergen a la normal a medida que sus
parámetros se aproximan a ciertos límites.
Si X es una variable aleatoria binomial con media μ=np y varianza σ 2=npq , entonces
la forma limitante de la distribución de
X−np
Z= ; n → ∞ ⟹ N ( 0,1 )
√npq
Resulta que la distribución normal con μ=np y σ 2=np(1− p) no sólo ofrece una
aproximación muy precisa a la distribución binomial cuando n es grande y p no está
extremadamente cerca de 0 o de 1, sino que también brinda una aproximación
bastante buena aun cuando n es pequeña y p está razonablemente cerca de 0.5.
Distribución t
En muchos escenarios experimentales el conocimiento de σ no es ciertamente más
razonable que el conocimiento de la media de la población μ. A menudo, de hecho,
una estimación de σ debe ser proporcionada por la misma información muestral que
produce el promedio muestral x . Como resultado, un estadístico natural a considerar
para tratar con las inferencias sobre μ es
X−μ
T=
S/ √ n
Dado que S es el análogo de la muestra para σ . Si el tamaño de la muestra es pequeño,
los valores de S2 fluctúan de forma considerable de una muestra a otra y la
distribución de T se desvía de forma apreciable de la de una distribución normal
estándar.
Si el tamaño de la muestra es suficientemente grande n ≥ 30, la distribución de T no
difiere mucho de la normal estándar. Sin embargo, para n ≤ 30 es útil tratar con la
distribución exacta de T .
Z
T=
√Y /ν
Donde:
X−μ
Z=
σ /√n
tiene una distribución normal estándar.

( n−1 ) S 2
Y= 2
σ
tiene una distribución Chi-Cuadrado con ν=n−1 grados de libertad.
Sea Z una variable aleatoria normal estándar y Y una variable aleatoria chi-cuadrado
con ν grados de libertad. Si Z y Y son independientes, entonces la distribución de la
Z
variable aleatoria T = esta dada por la función de densidad
√Y /ν

( )
Γ [ ( ν+1 ) /2 ] − ( ν+1) /2
t2
h ( t )= 1+ ;−∞< t< ∞
Γ ( ν /2 ) √ πν ν
La distribución t se usa ampliamente en problemas relacionados con inferencias acerca
de la media de la población o en problemas que implican muestras comparativas (es
decir, en casos donde se trata de determinar si las medias de dos muestras son muy
X−μ
diferentes) el uso de la distribución t para el estadístico T = requiere que
S/ √ n
X 1 , X 2 , … , X n sean normales. El uso de la distribución t y la consideración del tamaño
de la muestra no se relacionan con el teorema del limite central. El uso de la
distribución normal estándar en vez de T para n ≥ 30 sólo implica, en este caso que S
es un estimador suficientemente bueno de σ .

Distribución Chi-Cuadrado
Es un caso especial de la distribución gamma y se obtiene con α =ν /2 y β=2, donde ν
es un entero positivo denominado como grados de libertad.
La variable aleatoria continua X tiene una distribución chi-cuadrado, con ν grados de
libertad, si su función de densidad está dada por:

{
1 ν/ 2−1 − x/2
x e ; x> 0
f ( x ; ν )= 2 ν/ 2
Γ ( ν /2 )
0 ;en otro caso

Media:
μ=ν

Varianza:
2
σ =2 ν
Demostración (pg. 217)

La distribución Chi-Cuadrado tiene la propiedad reproductiva si X 1 , X 2 , … , X n son


variables aleatorias mutuamente independientes que tienen distribuciones chi-
cuadrado con ν1 , ν 2 , … , ν n grados de libertad respectivamente, entonces la variable
aleatoria
Y = X 1 + X 2 +…+ X n

tiene una distribución chi cuadrado con ν=ν 1 + ν 2+ …+ν n grados de libertad.

Además, la distribución chi-cuadrada tiene relación con la distribución normal si


X 1 , X 2 , … , X n son variables aleatorias independientes que tienen distribuciones
normales idénticas con media μ y varianza σ 2, entonces la variable aleatoria

( )
n 2
X i−μ
Y =∑
i=1 σ
Tiene una distribución chi-cuadrado con n grados de libertad ( ν=n).
Distribución F
Sean U y V dos variables aleatorias independientes que tienen distribuciones chi-
cuadrada con ν1 y ν 2 grados de libertad, respectivamente. Entonces, la distribución de
U /ν 1
la variable aleatoria F= es dada por la función de densidad
V / ν2

{ ( )
ν 1/ 2
ν1
Γ [ ( ν 1+ ν 2 ) / 2 ]
ν2 f
( ν1 /2 )−1

h ( f )= ; f >0

( )
Γ ( ν 1 /2 ) Γ ( ν 2 /2 ) ν1 f ( ν 1+ν 2) /2
1+
ν2
0;f ≤ 0

La distribución F tiene una amplia aplicación en la comparación de varianzas


muestrales y también es aplicable en problemas que implican dos o más muestras.

Distribuciones muestrales
Media muestral:

n
Xi
X =∑
i=1 n

El termino media muestral se aplica tanto al estadístico X como a su valor calculado x .


Varianza muestral:
2
n
( X i−X )
S =∑
2

i =1 n−1

[ (∑ ) ]
n n 2
1
n∑ Xi−
2 2
S= Xi
n ( n−1 ) i=1 i=1

La distribución de probabilidad de un estadístico se denomina distribución muestral y


esta depende de la distribución de la población, el tamaño de las muestras y del
método de selección de las muestras.
La distribución muestral de X con tamaño muestral n es la distribución que resulta
cuando un experimento se lleva a cabo una y otra vez (siempre con una muestra de
tamaño n ) y resultan los diversos valores de X . Por lo tanto, esta distribución muestral
describe la variabilidad de los promedios muestrales alrededor de la media de la
población μ.
Cada observación X i (i=1,2, … , n) de la muestra aleatoria tendrá la misma distribución
normal que la población de donde se tomó. Entonces por la propiedad reproductiva de
n
Xi
la distribución normal se establece: X =∑
i=1 n

1
X = ( X 1+ X 2+ …+ X n )
n
Media:
1
μ X = ( μ+ μ+ …+ μ )
n
1
μ X = ( nμ )
n
μ X =μ

Varianza:
1 2 2
2
σ X= 2
( σ +σ + …+ σ 2 )
n
1
σ 2X = 2
( n σ2)
n
2
2 σ
σ X=
n
Teorema del límite central
Si se toman muestras de una población con distribución desconocida ya sea finita o
infinita la distribución muestral de X aún será aproximadamente normal.
Si X es la media de una muestra aleatoria de tamaño n, tomada de una población con
media μ y varianza σ 2, entonces la forma límite de la distribución de
X−μ x X −μ
Z= =
σx σ
√n
a medida que n → ∞, es la distribución normal estándar N (0,1).
La aproximación normal para X por lo general será buena si:

 n ≥ 30, siempre y cuando la distribución de la población no sea muy asimétrica.


 n ≤ 30, siempre y cuando la distribución de la población no sea muy diferente
de una distribución normal
 La población es normal, la distribución muestral de X seguirá siendo una
distribución normal exacta, sin importar qué tan pequeño sea el tamaño de las
muestras.
Distribución muestral de la diferencia de medias de dos muestras independientes
Si se extraen al azar muestras independientes de tamaños n1 y n2 de dos poblaciones,
discretas o continuas, con medias μ1 y μ2 y varianzas σ 21 y σ 22, respectivamente,
entonces la distribución muestral de las diferencias de las medias X 1 −X 2, tiene una
distribución aproximadamente normal, con media y varianza dadas por
μ X −X =E ( X 1−X 2 ) =E ( X 1 ) −E ( X 2 )=μ 1−μ2
1 2

μ X −X =μ1−μ 2
1 2

2 2 2
σ X − X =Var ( X 1−X 2) =Var ( X 1 ) +Var ( X 2 ) =σ X + σ X
1 2 1 2

σ 21 σ 21
σ 2X − X = +
1 2
n1 n2

σ X −X =
1
σ 21 σ 21
+
n1 n 2
2

Donde:
μ1=Media de la población 1
2
σ 1=Varianza de la población1
μ2=Media de la población 2
2
σ 2=Varianza de la población2
X 1 =Mediade lamuestra aleatoria de tamaño n 1

X 2 =Mediade lamuestra aleatoriade tamaño n2

Entonces la aproximación a la distribución normal estándar N ( 0,1 ) es:

( X 1−X 2 )−μ X −X ( X 1−X 2 )−( μ1−μ 2 )


Z= 1 2
=


σ X −X
1 2 σ 21 σ 21
+
n 1 n2

La aproximación normal para X 1 −X 2 por lo general será buena si:

 n1 y n2 son mayores o iguales que 30 cuando las distribuciones subyacentes son


similares a la distribución normal.
 n1 y n2 son menores que 30 cuando las distribuciones subyacentes no son tan
diferentes a la distribución normal.

Si ambas poblaciones tienen una distribución normal, la distribución de X 1 −X 2 seguirá


siendo una distribución normal, sin importar el tamaño de las muestras.
VARIANZAS DESCONOCIDAS (MUESTRAS PEQUEÑAS)
En el caso en que se desconoce la varianza se usa la distribución muestral de la
variable T. Sin embargo, el uso de la distribución t se basa en la premisa de que el
muestreo es de una distribución normal.
Siempre que la forma de la distribución se aproxime a la distribución normal, se puede
utilizar la distribución t para calcular intervalos de confianza cuando se desconoce σ 2 y
se puede esperar buenos resultados.
Si las varianzas no se conocen y las dos distribuciones implicadas son
aproximadamente normales, la distribución t resulta implicada como en el caso de una
sola muestra. Si no se está dispuesto a suponer normalidad, muestras grandes
permitirán usar S1 y S2 en lugar de σ 1 y σ 2. (Pg. 286)

Ante lo expuesto anteriormente el estadístico utilizado con mayor frecuencia es:

( X 1− X 2 )−( μ 1−μ2 )
T '=


2 2
S1 S2
+
n1 n2

Que tiene una distribución t con ν grados de libertad.

( )
2
S21 S22
+
n1 n2
ν=

( ) ( )
2 2
S21 S 22
( 1 ) n
n −1 + ( 2 ) n
n −1
1 2

Si ν no es un número entero, se redondea al número entero menor más cercano.

VARIANZAS DESCONOCIDAS E IGUALES

Sean Y 1 y Y 2 dos variables aleatorias con distribución chi-cuadrado con ν1 =n1−1 y


ν 2=n2−1 grados de libertad respectivamente.

( n1 −1 ) S 21
Y 1=
σ2

( n 2−1 ) S 22
Y 2=
σ2
Por la propiedad reproductiva de la distribución chi-cuadrado:

( n 1−1 ) S 21 ( n2−1 ) S22 ( n1−1 ) S21 + ( n2−1 ) S 22


Y= 2
+ 2
= 2
σ σ σ
La variable aleatoria Y (Estimador agrupado de la varianza) tiene una distribución chi-
cuadrado con ν=n1 +n2 −2 grados de libertad.
Entonces la variable aleatoria T tiene una distribución t con ν=n1 +n2 −2 grados de
libertad.
Z
T=
√Y /ν
( X 1−X 2 ) −( μ1−μ2 )

√ σ 2 σ2
+
n1 n 2


T=
( n1−1 ) S21 + ( n 2−1 ) S 22
σ2
n1 +n 2−2

( X 1− X 2 )−( μ 1−μ2 )
T=

√(
2 2
1 1 ( n1−1 ) S1 + ( n 2−1 ) S 2
+
n1 n2 )
n1 +n 2−2

Para simplificar la expresión se representa el estimador agrupado con S2p

2 ( n1−1 ) S 21+ ( n2−1 ) S22


S= p
n1 +n2−2

( X 1− X 2 )−( μ 1−μ2 )
T=

(√ n1 + n1 ) S
1 2
2
p

Distribución de la varianza muestral

Si S2 es la varianza de una muestra de tamaño n que se toma de una población normal


que tiene varianza σ 2, entonces el estadístico
2
( n−1 ) S 2 n ( X i−X )
=∑
2
χ=
σ
2
i=1 n−1

Tiene una distribución chi-cuadrado con ν=n−1 grados de libertad.


Grados de libertad:
Cuando no se conoce μ y se considera la distribución de
2
n
( X i−X )
∑ n−1
i=1
Hay un grado de libertad o se pierde un grado de libertad al estimar μ. En otras
palabras, en la muestra aleatoria de la distribución normal hay n grados de libertad o
partes de información independientes. Cuando los datos (valores en la muestra) se
utilizan para calcular la media hay un grado menos de libertad en la información que se
utiliza para estimar σ 2.
Demostración:
Función de varianza muestral
2
n
( x i− X )
S =∑
2

i =1 n−1
2
( n−1 ) S 2 n ( xi −X )
=∑
σ2 i=1 σ2
Considerando:
n n

∑ ( xi −μ ) =∑ [ ( xi −X ) +( X −μ ) ]
2 2

i=1 i=1

n n

∑ ( xi −μ )2=∑ [ ( xi −X )2 +2 ( x i−X ) ( X −μ ) +( X −μ )2 ]
i=1 i=1

n n

∑ ( xi −μ ) =∑ [ ( xi −X ) +2 ( x i−X ) ( X −μ ) +( X −μ )
2 2 2
]
i=1 i=1

Considerando las propiedades de la sumatoria:


n n n n n

∑ ( A i ± B i )= ∑ A i ± ∑ B i ∑ c Ai =c ∑ A i
i=1 i=1 i=1 i=1 i=1
n n

∑ ( Ai− A)=0 ∑ c=nc


i=1 i=1

n n n n

∑ ( xi −μ )2=∑ ( x i− X )2 + ∑ 2 ( x i−X ) ( X −μ ) +∑ ( X −μ )2
i=1 i=1 i=1 i=1

n n n

∑ ( xi −μ ) =∑ ( x i− X ) +2 ( X−μ ) ∑ ( x i− X ) +n ( X −μ )
2 2 2

i=1 i=1 i=1

n n

∑ ( xi −μ ) =∑ ( x i− X )2 +n ( X −μ )2
2

i=1 i=1

2 2
n
( x i−μ ) n
( x i− X ) n ( X −μ )2
∑ σ2
=∑
σ2
+
σ2
i=1 i=1

2
n
( x i−μ ) ( n−1 ) S2 ( X−μ )2
∑ σ2
=
σ2
+ 2
σ /n
i=1
Por la propiedad aditiva de la distribución Chi-Cuadrado.
m
χ 2g= χ 21 + χ 22 +…+ χ 2m ; g=∑ gi
i=1

2
n
( X−μ )2
( x i−μ )
Entonces si las variables aleatorias ∑ y 2 tienen una distribución Chi-
i=1 σ2 σ /n
cuadrado con n grados de libertad ( χ n ) y 1 grado de libertad ( χ 1) respectivamente la
2 2

( n−1 ) S 2
variable aleatoria 2 tiene una distribución Chi-Cuadrado con n−1 grados de
σ
libertad ( χ n−1) .
2

Distribución para la relación de varianzas


2 2
Si S1 y S2 son varianzas de muestras aleatorias independientes de tamaño n1 y n2
2 2 S 21 /σ 21
tomadas de poblaciones normales con varianzas σ 1 y σ 2 entonces la relación 2 2
S 2 /σ 2
tiene una distribución F con ν1 =n1−1 y ν 2=n2−1 grados de libertad.

Distribución para la proporción


Sea X el número de éxitos en n ensayos, por el teorema de limite central, para n
suficientemente grande ^
P= X /n esta distribuida de forma casi normal.
^p −μ ^p
Z=
σ ^p

Media:

μ ^P=E ( ^
P ) =E
X
n
=
np
p ( )
μ ^P= p

Varianza:

2
σ ^P=Var ( P
n n2 ( )
^ ) =Var X = 1 Var ( X )= npq
n2
p(1−p)
σ 2^P=
n
Entonces la distribución será:
^p −p
Z=

√ p (1− p)
n

También podría gustarte