Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ASIGNATURA:
Estadística Inferencial para ingenieros
FOLLETO DE CLASE
PREPARADO POR:
Juan F. Féliz Peña
INDICE
Contenidos: Página
1. Definiciones de población. 4
2. Definiciones de muestra. 4
4. Muestra aleatoria. 5
6. Distribuciones muestrales. 6
16. Distribución F. 12
INDICE
Contenidos: Página
18. Diseño de muestreo. 13
18.1 Determinación del tamaño de la muestra. 13
INDICE
Contenidos: Página
34. Prueba de hipótesis para dos varianzas. 40
Población.
1. Estadísticamente el término se aplica a conjuntos o colecciones de objetos,
reales o conceptuales, y principalmente a conjuntos de números, mediciones u
observaciones.
Muestra.
1. Es un subconjunto de observaciones seleccionadas de una población.
Parámetro y estadígrafo.
=
– –
S=
= P=
Muestra aleatoria.
Distribuciones muestrales.
E( ) = E( ) – E( ) = 1 – 2 = .
8
Z=
por P y
Si n 30, entonces
Z=
P = P1 – P2
Z= Si n1 n2, entonces n es el
promedio de n1 y n2.
n=
Z=
=
10
Distribución T-Student.
Una variable aleatoria seguirá una distribución T-student cuando:
1. La variable aleatoria es continua.
2. La distribución de la población es aproximadamente Normal.
3. Se desconoce el valor de la desviación estándar poblacional () y el tamaño
de la muestra es pequeño (n 30).
4. Una distribución T-student estará definida si se conocen , n y S.
Aplicaciones de la Distribución T:
t= = n – 1.
t=
11
= n1 + n2 – 2.
=
2 =
= n – 1.
Distibución F.
Se utiliza cuando se desean comparar las varianzas de dos poblaciones
diferentes o las de dos muestras procedentes de la misma población.
Características:
1. Es asimétrica hacia la derecha.
2. Su rango va desde cero hasta +.
Aplicaciones de la distribución F:
F=
1 = n1 – 1 ; 2 = n2 – 1.
13
Diseño de muestreo.
Es el plan que se llevará a cabo para escoger la muestra, de tal forma que exista
un convencimiento bien fundado de que la muestra sea representativa. Para
evaluar un diseño de muestreo se toman en cuenta dos criterios que son: la
fiabilidad y la efectividad. La fiabilidad está ligada al error de muestreo y la
efectividad al costo del muestreo. Un diseño de muestreo se considera efectivo
si se obtiene el mismo grado de fiabilidad al menor costo.
= -E =+E
14
Premuestreo. Es una muestra piloto que se elige antes del muestreo verdadero
y su finalidad es determinar la variabilidad de los datos. El premuestreo tiene
una variabilidad arbitraria. El tamaño de la premuestra se denota por n’.
Cuando se desconoce el valor de la proporción o P se asume un 50%
como el valor de o P sin necesidad de asumir un premuestreo.
n
n
n
15
n≥
n≥
n≥
Estimación de parámetros.
Una estimación de parámetro es una aproximación del parámetro que se efectúa
a través de un estadígrafo. Existen dos tipos de estimaciones:
1. Estimación puntual. Es un número único que puede ser considerado como un
valor sensible del parámetro ().
16
-Z/2 Z Z/2
La amplitud de un intervalo de confianza queda definida por la
confiabilidad.
≤≤
≤≤
≤ ≤
=
18
≤ ≤
= n1 + n2 – 2.
=
P– ≤≤P+
P – ≤ ≤ P +
(S – )2 ≤ ≤ (S + )2
a b.
2
Dividiendo por (n – 1) * S2
Elevando a la (-1)
–
–
≥ ≥ Reorganizando
–
≤ ≤
20
≤ ≤
Contraste de Hipótesis
Hipótesis estadística.
1. Es una aseveración o conjetura con respecto a una o más poblaciones.
2. Es toda afirmación sobre uno o más parámetros de una población que deberá
ser confirmada a través de los resultados muestrales. Antes de conocer el
resultado muestral, la hipótesis deberá ser formulada para que la misma no
tenga influencia del muestreo (no esté viciada).
Caso 1:
H0: ≤ W.
H1: W.
Caso 2:
H0: ≥ W.
H1: W
Caso 3:
H0: W.
H1: W.
Caso 1;
H0 : W.
H1 : W.
Caso 2:
H0 : W.
H1 : W.
23
Caso 3:
H0 : = W.
H0 : W.
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z Z R. H0.
Si t t R. H0.
2) Criterio del valor crítico teórico.
Si C R. H0.
C = + Z * C = + t *
3) Criterio de la probabilidad extrema.
Si R. H0.
= P( A)
25
Caso 2:
H0: ≥ W.
H1: W.
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z -Z R. H0.
Si t -t R. H0.
2) Criterio del valor crítico teórico.
Si C R. H0.
C = – Z * C = – t *
3) Criterio de la probabilidad extrema.
Si R. H0.
= P( A)
Caso 3:
H0: = W.
H1: W.
26
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z -Z/2 o Z Z/2 R. H0.
Si t -t/2 o t t/2 R. H0.
2) Criterio del valor crítico teórico.
Si C1 o C2 R. H0.
C1 = – Z/2 * C1 = – t/2 *
C2 = + Z/2 * C2 = + t/2 *
3) Criterio de la probabilidad extrema.
Si R. H0.
Para : = P( A)
Para : = P( A)
Z= = =
t= = =n–1
27
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z Z R. H0.
2) Criterio del valor crítico teórico.
Si P C R. H0.
C = + Z *
3) Criterio de la probabilidad extrema.
Si R. H0.
= P(P A)
Caso 2:
H0: ≥ W.
H1: W.
28
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z -Z R. H0.
2) Criterio del valor crítico teórico.
Si P C R. H0.
C = – Z *
3) Criterio de la probabilidad extrema.
Si R. H0.
= P(P A)
Caso 3:
H0 : = W.
H1 : W.
29
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z -Z/2 o Z Z/2 R. H0.
2) Criterio del valor crítico teórico.
Si P C1 o P C2 R. H0.
C1 = – Z/2 *
C2 = + Z/2 *
3) Cirterio de la probabilidad extrema.
Si R. H0.
Para P : = P(P A)
Para P : = P(P A)
Z= =
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z Z R. H0.
Si 2 R. H0.
2) Criterio del valor crítico teórico.
Si S2 C R. H0.
C = (0 + Z * )2
C=
Caso 2:
H0: 2 ≥ W.
H1: 2 W.
31
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z -Z R. H0.
Si 2 R. H0.
2) Criterio del valor crítico teórico.
Si S2 C R. H0.
C = (0 – Z * )2
C=
Caso 3:
H0: 2 = W.
H1: 2 W.
C2 = (0 + Z/2 * )2 C2 =
Z= S =
2 = =n–1
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z Z R. H0.
Si t t R. H0.
2) Criterio del valor crítico teórico.
Si C R. H0.
C = + Z * C = + t *
3) Criterio de la probabilidad extrema.
Si R. H0.
= P( A)
Caso 2:
H0: ≥ W.
H1: W.
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z -Z R. H0.
Si t -t R. H0.
2) Criterio del valor crítico teórico.
Si C R. H0.
C = – Z * C = – t *
34
Caso 3:
H0: = W.
H1: W.
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z -Z/2 o Z Z/2 R. H0.
Si t -t/2 o t t/2 R. H0.
2) Criterio del valor crítico teórico.
Si C1 o C2 R. H0.
C1 = – Z/2 * C1 = – t/2 *
C2 = + Z/2 * C2 = + t/2 *
3) Criterio de la probabilidad extrema.
Si R. H0.
Para : = P( A)
Para : = P( A)
Z= =
35
t=
= n1 + n2 – 2.
=
Criterio de decisión:
1) Criterio de la variable estandarizada.
Si t t R. H0.
Caso 2:
H0: ≥ W.
H1: W.
Criterio de decisión:
1) Criterio de la variable estandarizada.
Si t -t R. H0.
Caso 3:
H0: = W.
H1: W.
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si t -t/2 o t t/2 R. H0.
37
t= Sd =
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z Z R. H0.
2) Criterio del valor crítico teórico.
Si P C R. H0.
C = + Z *
3) Criterio de la probabilidad extrema.
Si R. H0.
= P(P A)
38
Caso 2:
H0: ≥ W.
H1: W.
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z -Z R. H0.
2) Criterio del valor crítico teórico.
Si P C R. H0.
C = – Z *
3) Criterio de la probabilidad extrema.
Si R. H0.
= P(P A)
Caso 3:
H0: = W.
H1: W.
39
Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z -Z/2 o Z Z/2 R. H0.
2) Criterio del valor crítico teórico.
Si P C1 o P C2 R. H0.
C1 = – Z/2 *
C2 = + Z/2 *
3) Cirterio de la probabilidad extrema.
Si R. H0.
Z= Para 0 =
Para = 0 =
=
40
Criterio de decisión:
Si F
R. H0.
F=
Caso 2:
H0:
H1:
41
Criterio de decisión:
Si F
R. H0.
F=
Caso 3:
H0:
H1:
Criterio de decisión:
F
R. H0.
F=
Caso 1:
H0 : W.
H1 : W.
42
Criterio de decisión:
Si X k R. H0.
K es el entero menor tal que B(k, n, ) .
Caso 2:
H0 : W.
H1: W.
Criterio de decisión:
Si X k R. H0.
K es el entero mayor tal que B(k, n, ) .
Caso 3:
H0 : W.
H1 : W.
43
Criterio de decisión
Si X k o X k R. H0.
Para X k: B(k, n, ) /2.
Para X k: 1 – B(k, n, ) /2.
1) Caso unilateral:
n≥
2) Caso bilateral.
n≥
44
Dado un nivel de significación () una prueba se considera más potente que otra
cuando el valor de 1– es mayor.
Caso 1:
H0: W.
H1: W.
P( C/1).
= P( > C/0).
45
Caso 2:
H0: W.
H1: W.
P( C/1).
= P( C/0).
Caso 3:
H0: W.
H1: W.
P(C1 ≤ C2/1).
= P( C1/0) + = IP( > C2/0).
46
Bondad de ajuste.
Es un análisis que consiste en demostrar si un conjunto de observaciones
(datos) sigue una determinada distribución de probabilidad teórica. En este
análisis se comparará entre las frecuencias observadas (oi) o valores reales
obtenidos en el conjunto y las frecuencias esperadas (ei) o valores teóricos que
se obtienen a través de la distribución bajo estudio. Mientras mayor es la
diferencia entre las frecuencias observadas y las frecuencias esperadas más
débil es el ajuste de los datos a dicha distribución de probabilidad teórica.
Criterio de decisión:
Si 2 R. H0.
2 =
(, = k – m).
Donde:
k: número de términos de la sumatoria de Chi-cuadrada.
m: número de parámetros que son necesarios estimar a través de los datos
reales para calcular las frecuencias esperadas.
47
Criterio de decisión:
Si 2 R. H0.
= (r-1) * (c-1).
2 =
Prueba de homogeneidad.
Se supone que cada uno de los individuos de las I poblaciones pertenece
exactamente a una de las J categorías. Una muestra de ni individuos se toma
de la i-ésima población; sea n = ∑ni
nij = número de individuos de la i-ésima muestra que cae en la categoría J.
i número total de individuos entre la n
n.j = ∑nij = muestreada que cae en la categoría J.
i=1
Las nij se registran en una tabla de contingencia mutua con I filas y J columnas.
La suma de las nij de la i-ésima fila es ni, mientras que la suma de entradas de
las j-ésima columna es n.j.
Sea
= Proporción de individuos de la población i que cae en la categoría j.
Así, para la proporción 1, las proporciones J son 11, 12, …, 1j (que suma 1) y
análogamente para otras poblaciones. La hipótesis nula de homogeneidad
expresa que la proporción de individuos de la categoría j es la misma para cada
población y que esto es cierto para toda categoría J.
49
Criterio de decisión:
Si 2 R. H0.
= (r–1) (C–1).
2 =
50
Para aplicar una prueba adecuada de esta hipótesis en prueba de gran tamaño,
se necesitan muestras aleatorias independientes de tamaño n1, n2, ..., nk de las k
poblaciones; entonces, si los números correspondientes de éxito son x1, x2, ...,
xk, la prueba se fundamenta en el hecho de que:
Criterio de decisión:
Si 2 R. H0.
= k – 1.
2 =
51
BIBLIOGRAFIA
Bonini, Charles P. y Spurr, William A. (1978). Toma de Decisiones en
Administración Mediante Métodos Estadísticos.
Editorial Limusa. Primera edición.
Walpole, Ronald E.; Myers, Raymond H.; Myers, Sharon L. y Ye, Keying (2012).
Probabilidad y Estadística para ingenieros.
Pearson. Novena Edición.