Está en la página 1de 34

285

Modelos Estocásticos Discretos


Función
Variable Qué Distribución de
Media Varianza Generadora
Aleatoria X representa Probabilidades
Momentos

resultados de un
Uniforme experimento con
X  U(1,N) igual probabilidad
S = {1; 2; 3; ... ; N}

número de
sucesos que
Binomial
X  b(x; n, p)
ocurren en el np np(1 – p)
Experimento
Binomial S = {0; 1; 2; 3; ... ; n}
número de
repeticiones que
Geométrica se requieren en el
X  g(x; 1, p) experimento, para
que el primer S = {1; 2; 3; ... } para (1 – p)et < 1
suceso ocurra
286

Modelos Estocásticos Discretos


Función
Variable Qué Distribución de
Media Varianza Generadora
Aleatoria X representa Probabilidades
Momentos
número de
Binomial repeticiones que se
(pet )r [1 – (1 – p)et] –r
requieren en el
Negativa experimento, para
X  bn(x; r, p) que el r-ésimo para (1 – p) e t < 1
suceso ocurra S = {r; r + 1; ... }
número de
elementos que
aparecen en la
Hipergeométrica
muestra, que
X  h(x; a, N, n) tienen la
característica de S = {0; 1; 2; ... ; k} ;
interés con k = min{a ; n}

número de eventos
Poisson
 
por unidad de
X  po(x; ) tiempo, espacio,
volumen, etc. S = {0; 1; 2; ... }
385

Modelos Estocásticos Continuos


Función
Variable
Densidad Media Varianza Generadora de
Aleatoria X
Momentos

Uniforme
X ~ U(a,b)
S = {xR | a < x < b}

Normal
 2
X ~ N(,2)
S=R

Normal
Estándar 0 1
X ~ N(0,1) S=R
386

Modelos Estocásticos Continuos


Función
Variable
Densidad Media Varianza Generadora de
Aleatoria X
Momentos

Gamma
ab ab2
X ~ G(a,b)
S = {xR | x > 0}

Exponencial
b b2
X ~ G(1,b)

Ji – Cuadrado
X ~ G(n/2,2) –
se denota por
n 2n
c2(n) S = {xR | x > 0}
387

Modelos Estocásticos Continuos


Función
Variable
Densidad Media Varianza Generadora de
Aleatoria X
Momentos

Erlang
nb nb
X ~ G(n,b)
S = {xR | x > 0}

Beta
X ~ B(a,b) S = {xR | 0 < x <1};
a,bR+

Weibull
X ~ W(a,b) S = {xR | x > 0, a, bR+}
576

Intervalos de Confianza
Parámetro Supuestos Distribución Intervalo

• X cualquier población 𝑥ҧ − 𝜇 𝜎 𝜎
Teorema del
 • 2 conocido ~𝑁(0,1) 𝑥ҧ − 𝑧𝛼/2 < 𝜇 < 𝑥ҧ + 𝑧𝛼/2
Límite Central 𝜎Τ 𝑛 𝑛 𝑛
• n  30
• X población normal 𝑥ҧ − 𝜇 𝑠 𝑠
 • 2 desconocido ~𝑇(𝑛−1) 𝑥ҧ − 𝑡𝛼;(𝑛−1) < 𝜇 < 𝑥ҧ + 𝑡𝛼;(𝑛−1)
𝑠Τ 𝑛 2 𝑛 2 𝑛
• n < 30
Parámetros de • X población normal 𝑥ҧ − 𝜇 𝜎 𝜎
Poblaciones  • 2 conocido ~𝑁(0,1) 𝑥ҧ − 𝑧𝛼/2 < 𝜇 < 𝑥ҧ + 𝑧𝛼/2
𝜎Τ 𝑛 𝑛 𝑛
Normales • n grande o pequeño
• X población normal (𝑛 − 1)𝑠 2 (𝑛 − 1)𝑠 2
(𝑛 − 1)𝑠 2
2 • 2 desconocido ~𝜒 2(𝑛 − 1) 2 < 𝜎 2 <
2
𝜎2 𝜒𝛼/2;(𝑛−1) 𝜒1−𝛼/2;(𝑛−1)
• n grande o pequeño
• X cualquier población 𝑥ҧ − 𝜇 𝑠 𝑠
 • 2 desconocido ~𝑁(0,1) 𝑥ҧ − 𝑧𝛼/2 < 𝜇 < 𝑥ҧ + 𝑧𝛼/2
𝑠Τ 𝑛 𝑛 𝑛
• n  30
Muestras
Grandes
• X cualquier población 𝑝ො − 𝑝 𝑝(1
ො − 𝑝)ො 𝑝(1
ො − 𝑝)ො
p ~𝑁(0,1) 𝑝ො − 𝑧𝛼/2 < 𝑝 < 𝑝ො + 𝑧𝛼/2
• n  30 𝑝(1
ො − 𝑝)/𝑛
ො 𝑛 𝑛
607

Pruebas de Hipótesis para 


Teorema del Límite Central
• X cualquier población
Supuestos • 2 conocido
• n  30
Hipótesis Nula H0:  = 0
H1:   0
Hipótesis Alterna H1:   0
H1:   0
𝑥ҧ − 𝜇0
Estadístico de Prueba 𝑧= ~𝑁(0,1)
𝜎Τ 𝑛
Región Crítica - Instancia Pre-experimental |𝑧| > za/2
Con (1 - a)100% de confianza, H0 debe ser 𝑧 > za
rechazada a favor de H1 si 𝑧 < -za
2P(Z > |z|)  0.05
Valor p - Instancia Post-experimental
P(Z > z)  0.05
H0 debe ser rechazada a favor de H1 si
P(Z < z)  0.05
608

…viene Pruebas de Hipótesis para 


Parámetros de Poblaciones Normales
• X población normal
Supuestos • 2 desconocido
• n < 30
Hipótesis Nula H0:  = 0
H1:   0
Hipótesis Alterna H1:   0
H1:   0
𝑥ҧ − 𝜇0
Estadístico de Prueba 𝑡= ~𝑇(𝑛−1)
𝑠Τ 𝑛
Región Crítica - Instancia Pre-experimental |𝑡| > ta/2, (n – 1)
Con (1 - a)100% de confianza, H0 debe ser 𝑡 > ta, (n – 1)
rechazada a favor de H1 si 𝑡 < -ta, (n – 1)
2P(T > |t|)  0.05
Valor p - Instancia Post-experimental
P(T > t)  0.05
H0 debe ser rechazada a favor de H1 si
P(T < t)  0.05
609

…viene Pruebas de Hipótesis para 


Parámetros de Poblaciones Normales
• X población normal
Supuestos • 2 conocido
• n grande o pequeño
Hipótesis Nula H0:  = 0
H1:   0
Hipótesis Alterna H1:   0
H1:   0
𝑥ҧ − 𝜇0
Estadístico de Prueba 𝑧= ~𝑁(0,1)
𝜎Τ 𝑛
Región Crítica - Instancia Pre-experimental |𝑧| > za/2
Con (1 - a)100% de confianza, H0 debe ser 𝑧 > za
rechazada a favor de H1 si 𝑧 < -za
2P(Z > |z|)  0.05
Valor p - Instancia Post-experimental
P(Z > z)  0.05
H0 debe ser rechazada a favor de H1 si
P(Z < z)  0.05
610

…viene Pruebas de Hipótesis para 


Muestras Grandes
• X cualquier población
Supuestos • 2 desconocido
• n  30
Hipótesis Nula H0:  = 0
H1:   0
Hipótesis Alterna H1:   0
H1:   0
𝑥ҧ − 𝜇0
Estadístico de Prueba 𝑧= ~𝑁(0,1)
𝑠Τ 𝑛
Región Crítica - Instancia Pre-experimental |𝑧| > za/2
Con (1 - a)100% de confianza, H0 debe ser 𝑧 > za
rechazada a favor de H1 si 𝑧 < -za
2P(Z > |z|)  0.05
Valor p - Instancia Post-experimental
P(Z > z)  0.05
H0 debe ser rechazada a favor de H1 si
P(Z < z)  0.05
620

Pruebas de Hipótesis para 2


Parámetros de Poblaciones Normales
• X población normal
Supuestos • 2 desconocido
• n grande o pequeño
Hipótesis Nula H0: 2 = 𝜎02
H1: 2  𝜎02
Hipótesis Alterna H1: 2  𝜎02
H1: 2  𝜎02
2
(𝑛 − 1)𝑠 2 2
Estadístico de Prueba 𝜒 = 2 ~𝜒(𝑛−1)
𝜎0
Región Crítica - Instancia Pre-experimental
2
𝜒 2 > 𝜒𝛼/2;(𝑛−1) ó 𝜒 2  𝜒1−𝛼/2;(𝑛−1)
2
2
Con (1 - a)100% de confianza, H0 debe ser 𝜒 2 > 𝜒𝛼;(𝑛−1)
rechazada a favor de H1 si 𝜒 2  𝜒1−𝛼;(𝑛−1)
2

2P(𝜒 2 > 𝜒 2 )  0.05


Valor p - Instancia Post-experimental
P(𝜒 2 > 𝜒 2 )  0.05
H0 debe ser rechazada a favor de H1 si
P(𝜒 2  𝜒 2 )  0.05
626

Pruebas de Hipótesis para p


Muestras Grandes
• X cualquier población
Supuestos
• n  30
Hipótesis Nula H 0 : p = p0
H1: p  p0
Hipótesis Alterna H1: p  p0
H1: p  p0
𝑝Ƹ − 𝑝0
Estadístico de Prueba 𝑧= ~𝑁(0,1)
𝑝(1
Ƹ − 𝑝)/𝑛Ƹ
Región Crítica - Instancia Pre-experimental |𝑧| > za/2
Con (1 - a)100% de confianza, H0 debe ser 𝑧 > za
rechazada a favor de H1 si 𝑧 < -za
2P(Z > |z|)  0.05
Valor p - Instancia Post-experimental
P(Z > z)  0.05
H0 debe ser rechazada a favor de H1 si
P(Z < z)  0.05
632

Inferencias relativas a Diferencias de Medias


Teorema del Límite Central
• X1, X2 cualquier población, independientes
Supuestos • 𝜎12 ; 𝜎22 conocido
• n1  30; n2  30
Hipótesis Nula H0: 1 - 2 = 
H1: 1 - 2  
Hipótesis Alterna H1: 1 - 2  
H1: 1 - 2  
𝑥ҧ1 − 𝑥ҧ2 − 𝛿
𝑧= ~𝑁(0,1)
Estadístico de Prueba 𝜎12 𝜎22
+
𝑛1 𝑛2
Región Crítica - Instancia Pre-experimental |z| > za/2
Con (1 - a)100% de confianza, H0 debe ser z > za
rechazada a favor de H1 si z < -za
2P(Z > |z|)  0.05
Valor p - Instancia Post-experimental
H0 debe ser rechazada a favor de H1 si
P(Z > z)  0.05
P(Z < z)  0.05
𝜎12 𝜎22 𝜎2 𝜎2
Intervalo de Confianza 𝑥ҧ1 − 𝑥ҧ 2 − 𝑧𝛼 + < (𝜇1 − 𝜇2 ) < 𝑥ҧ1 − 𝑥ҧ 2 + 𝑧𝛼 1 + 2
2 𝑛1 𝑛2 2 𝑛1 𝑛2
633

…viene Inferencias relativas a Diferencias de Medias


Muestras Grandes
• X1, X2 cualquier población, independientes
Supuestos • 𝜎12 ; 𝜎22 desconocido
• n1  30; n2  30
Hipótesis Nula H0: 1 - 2 = 
H1: 1 - 2  
Hipótesis Alterna H1: 1 - 2  
H1: 1 - 2  
𝑥ҧ1 − 𝑥ҧ2 − 𝛿
𝑧= ~𝑁(0,1)
Estadístico de Prueba 𝑠12 𝑠22
𝑛1 + 𝑛2
Región Crítica - Instancia Pre-experimental |z| > za/2
Con (1 - a)100% de confianza, H0 debe ser z > za
rechazada a favor de H1 si z < -za
2P(Z > |z|)  0.05
Valor p - Instancia Post-experimental
H0 debe ser rechazada a favor de H1 si
P(Z > z)  0.05
P(Z < z)  0.05
𝑠12 𝑠22 𝑠12 𝑠22
Intervalo de Confianza 𝑥ҧ1 − 𝑥ҧ 2 − 𝑧𝛼 + < (𝜇1 − 𝜇2 ) < 𝑥ҧ1 − 𝑥ҧ 2 + 𝑧𝛼 +
2 𝑛1 𝑛2 2 𝑛1 𝑛2
634

…viene Inferencias relativas a Diferencias de Medias


Para Poblaciones Normales con VARIANZAS DESCONOCIDAS e IGUALES
• X1, X2 población normal, independientes
Supuestos • 𝜎12 ; 𝜎22 desconocido e igual
• Los tamaños de muestra son n1 y n2
Hipótesis Nula H0: 1 - 2 = 
H1: 1 - 2  
Hipótesis Alterna H1: 1 - 2  
H1: 1 - 2  
𝑥1ҧ − 𝑥ҧ2 − 𝛿
𝑡= ~𝑇(𝑛1+𝑛2−2)
1 1
𝑠𝑝𝑙 𝑛 + 𝑛
Estadístico de Prueba 1 2

2 𝑛1 − 1 𝑠1 + 𝑛2 − 1 𝑠22
2
𝑠𝑝𝑙 =
𝑛1 + 𝑛2 − 2
Región Crítica - Instancia Pre-experimental |t| > t 𝛼/2 ;(n1+n2 −2)
Con (1 - a)100% de confianza, H0 debe ser t > t 𝛼 ;(n1+n2−2)
rechazada a favor de H1 si t < −t 𝛼 ;(n1+n2−2)
2P(T > |t|)  0.05
Valor p - Instancia Post-experimental
P(T > t)  0.05
H0 debe ser rechazada a favor de H1 si
P(T < t)  0.05

1 1 1 1
Intervalo de Confianza 𝑥ҧ1 − 𝑥ҧ 2 − 𝑡𝛼 𝑠𝑝𝑙 + < (𝜇1 − 𝜇2 ) < 𝑥ҧ1 − 𝑥ҧ 2 + 𝑡𝛼 𝑠𝑝𝑙 +
2 𝑛1 𝑛2 2 𝑛1 𝑛2
635

…viene Inferencias relativas a Diferencias de Medias


Para Poblaciones Normales con VARIANZAS DESCONOCIDAS y DESIGUALES
• X1, X2 población normal, independientes
Supuestos • 𝜎12 ; 𝜎22 desconocido y desigual
• Los tamaños de muestra son n1 y n2
Hipótesis Nula H0: 1 - 2 = 
H1: 1 - 2  
Hipótesis Alterna H1: 1 - 2  
H1: 1 - 2  
2
𝑠12 𝑠22
𝑡=
𝑥1ҧ − 𝑥ҧ2 − 𝛿
~𝑇(𝜈) 𝑛1 + 𝑛2
𝜈= 2 2
Estadístico de Prueba 𝑠12 𝑠22 𝑠12 𝑠22
𝑛1 + 𝑛2 𝑛1 𝑛2
+
𝑛1 − 1 𝑛2 − 1
Región Crítica - Instancia Pre-experimental |t| > t 𝛼/2 ;(ν)
Con (1 - a)100% de confianza, H0 debe ser t > t 𝛼 ;(ν)
rechazada a favor de H1 si t < −t 𝛼 ;(ν)
2P(T > |t|)  0.05
Valor p - Instancia Post-experimental
P(T > t)  0.05
H0 debe ser rechazada a favor de H1 si
P(T < t)  0.05

𝑠12 𝑠22 𝑠12 𝑠22


Intervalo de Confianza 𝑥ҧ1 − 𝑥ҧ 2 − 𝑡𝛼 + < (𝜇1 − 𝜇2 ) < 𝑥ҧ1 − 𝑥ҧ 2 + 𝑡𝛼 +
2 𝑛1 𝑛2 2 𝑛1 𝑛2
648

…viene Inferencias relacionadas con las Varianzas


de dos Poblaciones Normales
Para Poblaciones Normales
• X1, X2 población normal, independientes
Supuestos • 𝜎12 ; 𝜎22 desconocido
• n1; n2 grande o pequeño
Hipótesis Nula H0: 𝜎12 = 𝜎22
H1: 𝜎12  𝜎22
Hipótesis Alterna H1: 𝜎12 > 𝜎22
H1: 𝜎12 < 𝜎22
2
𝑠𝑀
𝑓 = 2 ~𝐹(𝑛𝑀 −1;𝑛𝑚 −1) 𝑠12 𝑠22
Estadístico de Prueba 𝑠𝑚 𝑓 = 2 ~𝐹(𝑛1 −1;𝑛2 −1) 𝑓 = 2 ~𝐹(𝑛2 −1;𝑛1 −1)
2
𝑠𝑀 = 𝑚𝑎𝑥 𝑠12 ; 𝑠22 𝑠2 𝑠1
2 = 𝑚𝑖𝑛 𝑠 2 ; 𝑠 2
𝑠𝑚 1 2
Región Crítica - Instancia Pre-
experimental
Con (1 - a)100% de confianza, H0
f > F𝛼 ;(𝑛𝑀 −1;𝑛𝑚 −1) f > F𝛼 ;(𝑛1−1;𝑛2 −1) f > F𝛼 ;(𝑛2−1;𝑛1 −1)
debe ser rechazada a favor de H1 si
Valor p - Instancia Post-
experimental
H0 debe ser rechazada a favor de H1
P(F > f)  0.05
si
657

…viene Media de la Diferencia para Muestras


Correlacionadas: La Prueba T Pareada
Media de la Diferencia (Prueba T Pareada)
• X1, X2 población normal, correlacionadas
Supuestos •  desconocido
• n < 30
Hipótesis Nula H0: D = 
H1: D  
Hipótesis Alterna H1: D  
H1: D  
𝐷ഥ−𝛿
Estadístico de Prueba 𝑡= ~𝑇(𝑛−1)
𝑠𝐷 / 𝑛
Región Crítica - Instancia Pre-experimental |t| > t 𝛼/2 ;(n−1)
Con (1 - a)100% de confianza, H0 debe ser t > t 𝛼 ;(𝑛−1)
rechazada a favor de H1 si t < −t 𝛼 ;(𝑛−1)
2P(T > |t|)  0.05
Valor p - Instancia Post-experimental
P(T > t)  0.05
H0 debe ser rechazada a favor de H1 si
P(T < t)  0.05
𝑠 𝑠
Intervalo de Confianza ഥ − 𝑡 𝛼 𝐷 < 𝜇𝐷 < 𝐷
𝐷 ഥ + 𝑡𝛼 𝐷
2 𝑛 2 𝑛
665

…viene Inferencias relativas a dos proporciones


Muestras Grandes
• X1, X2 cualquier población, independientes
Supuestos
• n1  30; n2  30
Hipótesis Nula H0: p1 = p2
H1 : p 1  p 2
Hipótesis Alterna H1 : p 1 > p 2
H1: p1 < p2
𝑝Ƹ1 − 𝑝Ƹ 2
𝑧= ~𝑁(0,1) 𝑋1 + 𝑋2
Estadístico de Prueba 1 1 𝑝Ƹ =
𝑝Ƹ 1 − 𝑝Ƹ 𝑛 + 𝑛 𝑛1 + 𝑛2
1 2
Región Crítica - Instancia Pre- |z| > za/2
experimental
Con (1 - a)100% de confianza, H0 debe
z > za
ser rechazada a favor de H1 si z < -za
2P(Z > |z|)  0.05
Valor p - Instancia Post-experimental
H0 debe ser rechazada a favor de H1 si
P(Z > z)  0.05
P(Z < z)  0.05
1 1 1 1
Intervalo de Confianza 𝑝Ƹ1 − 𝑝Ƹ2 − 𝑧𝛼 𝑝Ƹ 1 − 𝑝Ƹ + < (𝑝1 − 𝑝2 ) < 𝑝Ƹ1 − 𝑝Ƹ2 + 𝑧𝛼 𝑝Ƹ 1 − 𝑝Ƹ +
2 𝑛1 𝑛2 2 𝑛1 𝑛2
672

Tabla de Contingencia
• Arreglo rectangular que contiene r filas por c columnas, el
cual trata de determinar si dos variables generalmente
categóricas A y B son estocásticamente independientes.
Donde la variable A se denomina Factor A y toma o tiene r
niveles y la variable B se denomina Factor B y toma o tiene
c niveles.
Factor B
Factor A
Nivel 1 Nivel 2 ... Nivel c
Nivel 1 n11 n12 ... n1c
Nivel 2 n21 n22 ... n2c
. .
. .
. .
Nivel r nr1 nr2 ... nrc
673

…viene Tabla de Contingencia


• Si en total n observaciones son consideradas en el estudio,
tendríamos que:

n = n11 + n12 + … + n1c + n21 + n22 + … + nr1 + nr2 + … + nrc

• Y podríamos decir que pij puede ser estimada por:


n ij
p̂ij =
n
• donde pij representa la probabilidad de que una
observación se encuentre en el nivel i del Factor A y al
mismo tiempo en el nivel j del Factor B.
674

…viene Tabla de Contingencia


• Podríamos construir una estimación de la Distribución
Conjunta de A y B, así como las Marginales de la siguiente
manera:

Factor B
Factor A Marginal Factor A
Nivel 1 Nivel 2 ... Nivel c
Nivel 1 𝑝Ƹ11 𝑝Ƹ12 ... 𝑝Ƹ1𝑐 𝑝Ƹ11 + 𝑝Ƹ12 + ⋯ + 𝑝Ƹ1𝑐
Nivel 2 𝑝Ƹ21 𝑝Ƹ22 ... 𝑝Ƹ2𝑐 𝑝Ƹ21 + 𝑝Ƹ22 + ⋯ + 𝑝Ƹ2𝑐
. . . . . .
. . . . . .
. . . . . .
Nivel r 𝑝Ƹ𝑟1 𝑝Ƹ𝑟2 ... 𝑝Ƹ𝑟𝑐 𝑝Ƹ𝑟1 + 𝑝Ƹ𝑟2 + ⋯ + 𝑝Ƹ𝑟𝑐
Marginal Ƹ + 𝑝Ƹ21 + ⋯
𝑝11 Ƹ + 𝑝Ƹ22 + ⋯
𝑝12 Ƹ + 𝑝Ƹ2𝑐 + ⋯
𝑝1𝑐
... 1
Factor B + 𝑝Ƹ𝑟1 + 𝑝Ƹ𝑟2 + 𝑝Ƹ𝑟𝑐
675

…viene Tabla de Contingencia


• ¿Cómo resolvemos estadísticamente el problema de la
Independencia entre dos Variables Categóricas?
• A través de una Tabla de Contingencia, en la que se muestre,
cada una de las r  c celdas y dentro de ellas el
correspondiente valor nij, i = 1; 2; … ; r, j = 1; 2; … ; c; así
como las sumas de los valores en las celdas vertical y
horizontalmente consideradas.
676

…viene Tabla de Contingencia


• Las sumas de los valores en las celdas vertical y
horizontalmente, pueden representarse como:
c r
ni. =  nij n. j = nij
j=1 i=1
• Quedando la Tabla de Contingencia de la siguiente manera:
Factor B
Factor A ni.
Nivel 1 Nivel 2 ... Nivel c
Nivel 1 n11 n12 ... n1c n1.
Nivel 2 n21 n22 ... n2c n2.
. . .
. . .
. . .
Nivel r nr1 nr2 ... nrc nr.
n.j n.1 n.2 ... n.c n
677

…viene Tabla de Contingencia


• Bajo este esquema teórico, se plantea el siguiente Contraste
de Hipótesis:

H0: El Factor A es Estocásticamente Independiente


del Factor B
vs.
H1: Los Factores A y B no son
estocásticamente independientes
678

…viene Tabla de Contingencia


• Si la Hipótesis Nula fuese verdadera, debería cumplirse que:
pij = pi ∙ pj ;
para i = 1; 2 , …; r ; y, para j = 1; 2; … ; c

• Donde:
pi = ni. / n ; y ,
pj = n.j / n
679

…viene Tabla de Contingencia


• Consecuentemente,
nij = npij
• Bajo el supuesto de que H0 es verdadera la Variable Aleatoria nij
se espera tenga:
Eij = E(nij) = npij
 n i.   n.j  n i.n.j
= n  pi  pj = n     =
 n  n  n
• Por tanto, se espera leer Eij si es que la Hipótesis Nula es
verdadera, mas lo que se lee es el valor nij, valor que de
cumplirse el supuesto de independencia de los Factores A y B,
debe ser cercano a Eij.
680

…viene Tabla de Contingencia


• Por lo que con (1 – a)100% de confianza, H0 debe ser
rechazada en favor de H1 si el Estadístico de Prueba

• es mayor que el percentil (1 – a)100 de la Distribución c2


que tiene (r - 1)(c - 1) grados de libertad; este percentil es
denotado por:

• En instancia post-experimental, H0 debe ser rechazada en


favor de H1 si:
P(𝜒 2 > 𝜒 2 )  0.05
681

…viene Tabla de Contingencia


• Nota: Para aplicar esta Prueba de Independencia es
necesario que en cada celda de una Tabla de Contingencia
existan observaciones y es más, se sugiere que exista un
mínimo de estas, que se recomienda sea cinco.
690

Bondad de Ajuste
• Procedimiento que permite determinar, con cierto nivel de
confianza, si es que la muestra con la que trabajamos
posibilita afirmar, que ha sido tomada de una u otra
población específica.
691

El Método Ji-Cuadrado de Pearson


para Bondad de Ajuste
• El Método Ji-Cuadrado de Pearson para Bondad de Ajuste
supone:
• En una Muestra Aleatoria XT = (X1 X2 … Xn) cada resultado Xi
puede ser clasificado en una de las k Categorías o Regiones en
las que se particiona el Soporte S de la Población X de la que
se toma la Muestra Aleatoria X.
• A estas Regiones o Categorías las llamaremos A1, A2, … , Ak,
donde la probabilidad de que XiAj, i = 1, 2, … , n ; j = 1, 2, … ,
k viene determinada por un modelo probabilístico que se
postula en la Hipótesis Nula del Contraste relativo a Bondad
de Ajuste.
• La aplicación de esta aproximación requiere que n sea grande.
692

…viene El
Método Ji-Cuadrado de Pearson
para Bondad de Ajuste
• El Contraste de Hipótesis para Bondad de Ajuste lucirá
como se presenta a continuación:

H0: La Muestra X ha sido tomada de una Población X


que tiene distribución F0
vs.
H1: No es verdad que la Distribución de la Población X
de la que se ha tomado la Muestra es F0
693

…viene El
Método Ji-Cuadrado de Pearson
para Bondad de Ajuste
• Con (1 - a)100% de confianza, la Hipótesis Nula H0 debe ser
rechazada si:
k
(n j − E j )2
χ =
2 2
 χ (α; k – p–1)
j=1 Ej
• Donde:
• n: es el tamaño de la muestra
• k: número de regiones en que se particiona el Soporte de X
• p: número de parámetros que se estén estimando bajo el modelo
dado (Hipótesis Nula)
• nj: número de valores observados en la región j-ésima (valor
observado)
• Ej = npi (valor calculado)
• pi = P(XAj) bajo el supuesto que H0 es verdadera
694

…viene El
Método Ji-Cuadrado de Pearson
para Bondad de Ajuste
• En instancia post-experimental, H0 debe ser rechazada en
favor de H1 si:
P(𝜒 2  𝜒 2 )  0.05

• Cuando el número de regiones k, (k  6), la variable


aleatoria Ji-Cuadrado es aproximada por una Ji-Cuadrado
con (k – 1) grados de libertad, sin tomar en cuenta el
número de parámetros involucrados en la estimación.
• El número mínimo de Regiones en que se puede particionar
el Soporte del Modelo Estocástico propuesto es tres.
• Asegúrese de que toda Región contenga observaciones y
que, el número de ellas por celda, no sea menor a cinco.