Está en la página 1de 53

PONTIFICIA UNIVERSIDAD CATÓLICA MADRE Y MAESTRA

FACULTAD DE CIENCIAS E INGENIERÍA


ESCUELA DE INGENIERÍA INDUSTRIAL

ASIGNATURA:
Estadística Inferencial para ingenieros

FOLLETO DE CLASE

PREPARADO POR:
Juan F. Féliz Peña

Santiago de los Caballeros


República Dominicana
2023
1

INDICE

Contenidos: Página
1. Definiciones de población. 4

2. Definiciones de muestra. 4

3. Conceptos de parámetro y estadístico. 4


3.1 Parámetro. 4
3.2 Estadístico. 5

4. Muestra aleatoria. 5

5. Teorema de límite central (TLC). 6

6. Distribuciones muestrales. 6

7. Distribución muestral para una media (Distribución 7


normal).

8. Distribución muestral para dos medias (Distribución 7


normal).

9. Distribución muestral para una proporción (Distribución 8


normal).

10. Distribución muestral para dos proporciones 9


(Distribución normal).

11. Distribución muestral para una varianza (Distribución 9


normal).

12. Distribución T (T-student). 10

13. Aplicaciones de la distribución T. 10


11.1 Distribución muestral para una media. 10
11.2 Distribución muestral para dos medias. 10

14. Distribución Chi cuadrada. 11

15. Aplicaciones de la distribución Chi cuadrada. 12


15.1 Distribución muestral para una varianza. 12

16. Distribución F. 12

17. Aplicaciones de la distribución F. 12


17.1 Distribución muestral para dos varianzas. 12
2

INDICE

Contenidos: Página
18. Diseño de muestreo. 13
18.1 Determinación del tamaño de la muestra. 13

19. Estimación de parámetros. 15


16.1 Propiedades de un buen estimador. 16

20. Intervalo de confianza para una media 17

21. Intervalo de confianza para dos medias 17

22. Intervalo de confianza para una proporción 18

23. Intervalo de confianza para dos proporciones 19

24. Intervalo de confianza para la varianza (Distribución 19


Normal y Chi cuadrada).

25. Intervalo de confianza para la razón entre dos 20


varianzas (Distribución F).

26. Contraste de hipótesis. 20


26.1. Hipótesis estadística. 20
26.2. Elementos de una prueba estadística. 20
26.3. Hipótesis nula. 20
26.4. Hipótesis alternativa. 21
26.5. Decisión de la hipótesis estadística. 21

27. Valor crítico teórico. 22

28. Procedimiento de solución de un contraste de hipótesis. 22

29. Prueba de hipótesis para una media. 24

30. Prueba de hipótesis para una proporción. 27

31. Prueba de hipótesis para una varianza. 29

32. Prueba de hipótesis para dos medias. 32

33. Prueba de hipótesis para dos proporciones. 37


3

INDICE

Contenidos: Página
34. Prueba de hipótesis para dos varianzas. 40

35. Prueba de hipótesis para una proporción cuando el 41


tamaño de la muestra es pequeño.

36. Cálculo del tamaño de la muestra cuando se conoce 43


el valor de beta ().

37. Curva característica de operaciones y función de 44


Potencia.

38. Bondad de ajuste. 46

39. Prueba de independencia. 47

40. Prueba de homogeneidad. 48

41. Prueba de hipótesis para varias proporciones 50


4

Población.
1. Estadísticamente el término se aplica a conjuntos o colecciones de objetos,
reales o conceptuales, y principalmente a conjuntos de números, mediciones u
observaciones.

2. Una población estadística es un conjunto de todas las mediciones (o registros


de algún rasgo de calidad) correspondientes a cada unidad en toda la población
de unidades, acerca de la cual se busca información.

3. Se refiere a la recolección de mediciones de todos los elementos del universo


con respecto al cual se quieren obtener conclusiones o tomar decisiones.

Muestra.
1. Es un subconjunto de observaciones seleccionadas de una población.

2. Una muestra de una población estadística es el subconjunto de mediciones que


realmente se recolectan en el curso de una investigación.

Población Muestreo (probabilístico)


Finita Infinita Con reemplazo Sin reemplazo

Parámetro y estadígrafo.

Parámetro. Toda la información que proviene de la Población; se identifican


con letras griegas. Se denota por .
5

Estadígrafo o estadístico. Es cualquier cantidad cuyo valor puede ser


calculado a partir de datos muestrales. Se identifican con letras latinas. Se
denota por .

Parámetros: Estadígrafos o estadísticos:


Media poblacional Media muestral

 =

Desviación estándar poblacional Desviación estándar muestral

–  –
 S=

Proporción poblacional Proporción muestral

= P=

Muestra aleatoria.

I. Un conjunto de observaciones X1, X2, ..., Xn constituye una muestra aleatoria


de tamaño n a partir de una población finita de tamaño N, si sus valores se
eligen de modo que cada subconjunto de n de los N elementos de la población
tiene la misma probabilidad de ser elegido.

II. Un conjunto de observaciones X1, X2, …, Xn constituye una muestra aleatoria


de tamaño n a partir de una población infinita f(x) si:
1. Cada Xi es una variable aleatoria cuya distribución está dada por f(x).
2. Estas n variables aleatorias son independientes.
6

Teorema del límite central.

Independientemente de la forma de distribución de la población, si de ella se


extraen muestras grandes y para cada una de ellas se calcula un estadígrafo; la
distribución de probabilidad que sigue ese estadístico es aproximadamente
normal. Se define como muestra grande n  30.

Distribuciones muestrales.

En la mayoría de los métodos que se estudiarán en este curso de estadística, se


supondrá que se está trabajando con una clase particular de muestra
denominada muestra aleatoria. El énfasis en muestras aleatorias se debe a que
permiten generalizaciones válidas o lógicas de los datos muestrales. El
concepto de distribución muestral, o sea la distribución de un estadístico
calculada con base en el concepto de muestra aleatoria, es fundamental para
toda la inferencia estadística.

Si de una población de tamaño N se seleccionan K muestras aleatorias y para


cada muestra se calcula un estadígrafo, a la distribución que sigue el estadígrafo
se le conoce como distribución muestral.
7

Distribución muestral para una media.


Si es la media de una muestra aleatoria de tamaño n extraída de una

población que tiene media  y varianza 2, entonces Z = es el valor

de una variable aleatoria cuya función de distribución se aproxima a la


distribución normal estándar cuando n  .

Z= Para muestra (n) grande y  conocido o no.


Para muestra (n) pequeña y  conocido.

= o Para población infinita o muestreo con reemplazo.

= * o * Para población finita y muestreo sin reemplazo.

Distribución muestral de suma y diferencia de medias o distribución


muestral para dos medias.
Se emplea cuando se desea comparar las medias de dos poblaciones diferentes
o las de dos muestras diferentes procedentes de la misma población. Sean 1 y
2 las medias de dos poblaciones y 1 y 2 sus desviaciones estándar, si n1 y n2
son dos muestras seleccionadas aleatoriamente de cada una de las
poblaciones; la distribución muestral para el estadígrafo – viene dada por:

E( ) = E( ) – E( ) = 1 – 2 = .
8

Z=

Distribución muestral para una proporción.


Si P es la proporción de una muestra aleatoria de tamaño n extraída de una
población que tiene proporción . Si los n ensayos satisfacen las condiciones
fundamentales de la distribución Binomial, se sabe que la media y la desviación
estándar del número de éxito están dadas por n*p y por ; si se
dividen ambas expresiones entre n, se encuentra que la media y la desviación
estándar de la proporción de éxito, es decir la proporción muestral están dadas

por P y

Si n  30, entonces

Z=

p = Para población infinita o


muestreo con reemplazo.

p = * Para población finita y muestreo


sin reemplazo.
9

Distribución muestral de suma y diferencia de proporciones o


distribución muestral para dos proporciones.
Se emplea para comparar las proporciones de dos poblaciones diferentes o las de dos
muestras diferentes procedentes de la misma población. Sean y las

proporciones de dos poblaciones y y sus varianzas, si y

son dos muestras seleccionadas aleatoriamente de cada una de las


poblaciones. La distribución muestral para el estadígrafo P1 – P2 viene dada por:
E(P1 – P2) = E(P1) – E(P2) = – = .

P = P1 – P2

Z= Si n1  n2, entonces n es el

promedio de n1 y n2.

n=

Distribución muestral para una varianza.


Si S2 es la varianza de una muestra aleatoria de tamaño n tomada de una
población normal cuya varianza es 2.
Si n  30, entonces

Z=

=
10

Distribución T-Student.
Una variable aleatoria seguirá una distribución T-student cuando:
1. La variable aleatoria es continua.
2. La distribución de la población es aproximadamente Normal.
3. Se desconoce el valor de la desviación estándar poblacional () y el tamaño
de la muestra es pequeño (n  30).
4. Una distribución T-student estará definida si se conocen , n y S.

Aplicaciones de la Distribución T:

1. Distibución muestral para una media.


Si es la media de una muestra aleatoria de tamaño n extraída de una
población normal con media  y varianza 2 desconocida. Si n  30, entonces:

t=  = n – 1.

= Para población infinita o muestreo con reemplazo.

= * Para población finita y muestreo sin reemplazo.

2. Distribución muestral para dos medias.


Se emplea cuando se desea comparar las medias de dos poblaciones diferentes
o las de dos muestras diferentes procedentes de la misma población. Sean 1 y
2 las medias de dos poblaciones diferentes; si n1 y n2 son dos muestras
seleccionadas aleatoriamente de cada una de las poblaciones y S1 y S2 sus
desviaciones estándar. Si (n1 y n2)  30, entonces:

t=
11

Para varianzas poblaciones iguales ( = ) y desconocidas:

 = n1 + n2 – 2.

Para varianzas poblacionales diferentes (12  22) y desconocidas:

=

Distribución Chi-Cuadrada (2).


Se utiliza cuando la variable aleatoria es del tipo continua, puede ser para
proporciones o para varianza. En el caso de la proporción se utiliza para probar
el comportamiento de esta en más de dos poblaciones. Cuando se trata de la
varianza tiene múltiples aplicaciones.

Propiedades de la distribución Chi-Cuadrada.


1. Es asimétrica hacia la derecha.
2. Su rango va desde 0 hasta +.
3. Su valor dependerá de los grados de libertad, generalmente = n  1.
12

Aplicaciones de la distribución Chi-Cuadrada.

1. Distribución muestral de la varianza.


Si S2 es la varianza de una muestra aleatoria de tamaño n tomada de una
población normal cuya varianza es 2. Si n  30, entonces

2 =
 = n – 1.

Distibución F.
Se utiliza cuando se desean comparar las varianzas de dos poblaciones
diferentes o las de dos muestras procedentes de la misma población.

Características:
1. Es asimétrica hacia la derecha.
2. Su rango va desde cero hasta +.

3. El estadígrafo de prueba se calcula como: F = , la tabla dependerá de los

grados de libertad del numerador y del denominador.

Aplicaciones de la distribución F:

1. Distribución muestral de la razón entre dos varianzas.


Si y son las varianzas de dos muestras aleatorias independientes de
tamaño n1 y n2, tomadas de dos poblaciones normales con varianzas y ,
respectivamente, entonces:

F=

1 = n1 – 1 ; 2 = n2 – 1.
13

Diseño de muestreo.
Es el plan que se llevará a cabo para escoger la muestra, de tal forma que exista
un convencimiento bien fundado de que la muestra sea representativa. Para
evaluar un diseño de muestreo se toman en cuenta dos criterios que son: la
fiabilidad y la efectividad. La fiabilidad está ligada al error de muestreo y la
efectividad al costo del muestreo. Un diseño de muestreo se considera efectivo
si se obtiene el mismo grado de fiabilidad al menor costo.

Determinación del tamaño de la muestra.


Para calcular el tamaño de la muestra se debe usar del siguiente procedimiento:
1. Tipo de variable del conjunto de datos: cualitativa o cuantitativa.
2. Fijar el error permitido, el error se denota E.
E =     =  –  . Es un valor arbitrario.
3. Fijar el nivel de confiabilidad (1). Es la probabilidad de que la diferencia
entre el valor muestral y el valor del parámetro no exceda al error permitido. Al
igual que el error la confiabilidad es un valor arbitrario. La confiabilidad se utiliza
para determinar o afirmar en que medida se cumple ese error.
Riesgo (). Es la probabilidad de que se sobrepase el valor del error.

= -E  =+E
14

4. Determinar la variabilidad. La variabilidad va a depender del tipo de variable


que se esté tratando. Si la variable es cuantitativa la variabilidad es la
desviación estándar. Si la variable es cualitativa la variabilidad es o
P * (1 – P). Cuando no se conoce el valor de  ésta se estima a través de la
desviación estándar de los resultados de un premuestreo (S’).

Premuestreo. Es una muestra piloto que se elige antes del muestreo verdadero
y su finalidad es determinar la variabilidad de los datos. El premuestreo tiene
una variabilidad arbitraria. El tamaño de la premuestra se denota por n’.
Cuando se desconoce el valor de la proporción  o P se asume un 50%
como el valor de  o P sin necesidad de asumir un premuestreo.

Para variable cuantitativa: Población infinita o muestreo con reemplazo.

n

n

Para variable cualitativa: Población infinita y/o muestreo con reemplazo.

n
15

Para variable cuantitativa: Población finita y muestreo sin reemplazo.

n≥

n≥

Para variable cualitativa: Población finita y muestreo sin reemplazo.

n≥

5. Definir el tipo de muestreo: aleatorio simple, estratificado, sistemático o por


conglomerados.
6. Estimar el valor del parámetro. Esta estimación podría ser puntual o por
medio de un intervalo de confianza.

Nota: Cuando se utiliza un premuestreo con n’= W para determinar el tamaño


de la muestra, si el tamaño de la muestra (n) es inferior al valor de n’ los
cálculos se realizan con n = n’. Si el tamaño de la muestra es superior al valor
de n’, se toman las observaciones de n’, se completa hasta n y se determinan
las variables deseadas (los estadísticos).

Estimación de parámetros.
Una estimación de parámetro es una aproximación del parámetro que se efectúa
a través de un estadígrafo. Existen dos tipos de estimaciones:
1. Estimación puntual. Es un número único que puede ser considerado como un
valor sensible del parámetro ().
16

2. Estimación por intervalos. El parámetro no asume un valor único, sino


infinitos valores entre dos extremos dados. En un intervalo es importante limitar
la parte inferior y la parte superior.

-Z/2 Z Z/2
La amplitud de un intervalo de confianza queda definida por la
confiabilidad.

Fórmula general para construir un intervalo de confianza (Distribución


Normal).

 Z *  + Z *

Propiedades de un buen estimador.


1. Consistente. A medida que n   el valor del estadígrafo se aproxima cada
vez más al valor del parámetro. La media aritmética es considerada una
propiedad consistente, pero la moda no.

2. Eficaz o eficiente. Entre varios estadígrafo el que tenga la menor desviación


estándar es el más eficiente.
17

3. Suficiente. Es aquel que usa la mayor cantidad de información de la muestra


para determinar el valor del parámetro. La media aritmética es un buen
estimador, ya que usa todos los valores de la muestra.

4. Insesgado o ausencia de sesgo. El valor esperado del estadígrafo debe ser


igual al valor del parámetro. E( ) = .

1. Intervalo de confianza para una media.

≤≤

= o Para población infinita o muestreo con reemplazo.

= * o * Para población finita y muestreo sin reemplazo.

≤≤

= Para población infinita o muestreo con reemplazo.

= * Para población finita y muestreo sin reemplazo.

2. Intervalo de confianza para dos medias.

≤  ≤

=
18

≤  ≤

Para varianzas poblaciones iguales ( = ) y desconocidas:

 = n1 + n2 – 2.

Para varianzas poblacionales diferentes (12  22) y desconocidas:

=

3. Intervalo de confianza para una proporción.

P– ≤≤P+

p = Para población infinita o


muestreo con reemplazo.

p = * Para población finita y muestreo


sin reemplazo.
19

4. Intervalo de confianza para dos proporciones.

P – ≤  ≤ P +

5. Intervalo de confianza para una varianza.

(S – )2 ≤ ≤ (S + )2

a    b.

  2  

   Dividiendo por (n – 1) * S2

 
  Elevando a la (-1)


≥ ≥ Reorganizando
 


≤ ≤
 
20

6. Intervalo de confianza para la razón entre varianzas (Distribución


F).

≤ ≤ 
  

Contraste de Hipótesis

Hipótesis estadística.
1. Es una aseveración o conjetura con respecto a una o más poblaciones.

2. Es toda afirmación sobre uno o más parámetros de una población que deberá
ser confirmada a través de los resultados muestrales. Antes de conocer el
resultado muestral, la hipótesis deberá ser formulada para que la misma no
tenga influencia del muestreo (no esté viciada).

Elementos de una prueba estadística.


1. Hipótesis nula, H0.
2. Hipótesis alternativa, H1.
3. Estadístico de prueba.
4. Región de rechazo.

Hipótesis nula. Generalmente contiene la afirmación que se quiere


comprobar, se representa por H0 y se ha acordado que la hipótesis nula
contenga la igualdad.
21

Hipótesis alternativa. Es aquella que se formula de manera tal que


contradice por completo a la hipótesis nula, se representa por H1.

Caso 1:
H0:  ≤ W.
H1:   W.

Caso 2:
H0:  ≥ W.
H1:   W

Caso 3:
H0:   W.
H1:   W.

Decisión de la hipótesis estadística:


1. No rechazar la hipótesis nula (H0) siendo esta verdadera. En esta
decisión no hay error.
2. Rechazar la hipótesis nula (H0) siendo esta verdadera. En esta decisión
hay error, y a este error se le conoce como error Tipo I o .
3. Rechazar la hipótesis nula (H0) siendo esta falsa. En esta decisión no hay
error.
4. No rechazar la hipótesis nula (H0) siendo esta falsa. En esta decisión hay
error, y a este error se le conoce como error Tipo II o .
Se debe tratar en la medida de lo posible que  y  sean valores pequeños. Los
valores más usados son: 5%, 1% y 0.5%. Cuando se desconoce el valor de
alfa () se recomienda usar 5%. El error Tipo I o  es igual al riesgo de los
22

intervalos de confianza y también se le llama nivel de significación.  y  no son


valores complementarios.

Valor crítico teórico(C).


Determinará la diferencia máxima permitida entre el valor del estadígrafo y el del
parámetro.

Caso 1;
H0 :   W.
H1 :   W.

Si  C  Rechazar la hipótesis nula (H0).

Caso 2:
H0 :   W.
H1 :   W.
23

Si  C  Rechazar la hipótesis nula (H0).

Caso 3:
H0 :  = W.
H0 :   W.

Si  C1 o  C2  Rechazar la hipótesis nula (H0).

Procedimiento de solución de un contraste de hipótesis.


1. Plantear la hipótesis. Si la hipótesis nula no contiene la igualdad,
intercambiar las hipótesis de forma tal que la hipótesis nula la contenga.
2. Seleccionar el nivel de significación.
3. Seleccionar el estadígrafo pertinente con el cual se probará la hipótesis.
4. Coleccionar la información (datos) pertinentes: la muestra.
24

5. Calcular el estadígrafo de prueba correspondiente. Los estadígrafos de


pruebas son variables estandarizadas: Z, T, 2, F.
6. Decisión estadística: No rechazar o rechazar la hipótesis nula.
7. Conclusión.

Prueba de hipótesis para una media.


Caso 1:
H0:   W.
H1:   W.

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  Z R. H0.
Si t  t R. H0.
2) Criterio del valor crítico teórico.
Si C R. H0.

C =  + Z * C =  + t *
3) Criterio de la probabilidad extrema.
Si    R. H0.
 = P(  A)
25

Caso 2:
H0:  ≥ W.
H1:   W.

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  -Z R. H0.
Si t  -t R. H0.
2) Criterio del valor crítico teórico.
Si C R. H0.

C =  – Z * C =  – t *
3) Criterio de la probabilidad extrema.
Si    R. H0.
 = P(  A)

Caso 3:
H0:  = W.
H1:   W.
26

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  -Z/2 o Z  Z/2 R. H0.
Si t  -t/2 o t  t/2 R. H0.
2) Criterio del valor crítico teórico.
Si  C1 o  C2 R. H0.

C1 =  – Z/2 * C1 =  – t/2 *

C2 =  + Z/2 * C2 =  + t/2 *
3) Criterio de la probabilidad extrema.
Si   R. H0.

Para  :  = P(  A)

Para  :  = P(  A)

Z= = =

t= = =n–1
27

Prueba de hipótesis para una proporción.


Caso 1:
H0:   W.
H1:   W.

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  Z R. H0.
2) Criterio del valor crítico teórico.
Si P  C R. H0.
C =  + Z *
3) Criterio de la probabilidad extrema.
Si    R. H0.
 = P(P  A)

Caso 2:
H0:  ≥ W.
H1:   W.
28

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  -Z R. H0.
2) Criterio del valor crítico teórico.
Si P  C R. H0.
C =  – Z *
3) Criterio de la probabilidad extrema.
Si    R. H0.
 = P(P  A)

Caso 3:
H0 :  = W.
H1 :   W.
29

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  -Z/2 o Z  Z/2 R. H0.
2) Criterio del valor crítico teórico.
Si P  C1 o P  C2 R. H0.
C1 =  – Z/2 *

C2 =  + Z/2 *
3) Cirterio de la probabilidad extrema.
Si   R. H0.

Para P  :  = P(P  A)
Para P  :  = P(P  A)

Z= =

Prueba de hipótesis para una varianza.


Caso 1:
H0: 2  W.
H1: 2  W.
30

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  Z R. H0.
Si 2   R. H0.
2) Criterio del valor crítico teórico.
Si S2  C R. H0.
C = (0 + Z * )2

C=

3) Criterio de la probabilidad extrema.


Si    R. H0.
 = P(S2  A)

Caso 2:
H0: 2 ≥ W.
H1: 2  W.
31

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  -Z R. H0.
Si 2   R. H0.
2) Criterio del valor crítico teórico.
Si S2  C R. H0.
C = (0 – Z * )2

C=

3) Criterio de la probabilidad extrema.


Si    R. H0.
 = P(S2  A)

Caso 3:
H0: 2 = W.
H1: 2  W.

1) Criterio de la variable estandarizada.


Si Z  -Z/2 o Z  Z/2 R. H0.
Si 2   o 2   R. H0.
32

2) Criterio del valor crítico teórico.


Si S2  C1 o S2  C2 R. H0.

C1 = (0 – Z/2 * )2 C1 =


C2 = (0 + Z/2 * )2 C2 =

3) Cirterio de la probabilidad extrema.


Si   R. H0.

Para S2  2:  = P(S2  A)


Para S2  2:  = P(S2  A)

Z= S =

2 = =n–1

Prueba de hipótesis para dos medias.


Caso 1:
H0:   W.
H1:   W.
33

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  Z R. H0.
Si t  t R. H0.
2) Criterio del valor crítico teórico.
Si C R. H0.
C =  + Z * C =  + t *
3) Criterio de la probabilidad extrema.
Si    R. H0.
 = P(  A)

Caso 2:
H0:  ≥ W.
H1:   W.

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  -Z R. H0.
Si t  -t R. H0.
2) Criterio del valor crítico teórico.
Si C R. H0.

C =  – Z * C =  – t *
34

3) Criterio de la probabilidad extrema.


Si    R. H0.
 = P(  A)

Caso 3:
H0:  = W.
H1:   W.

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  -Z/2 o Z  Z/2 R. H0.
Si t  -t/2 o t  t/2 R. H0.
2) Criterio del valor crítico teórico.
Si  C1 o  C2 R. H0.

C1 =  – Z/2 * C1 =  – t/2 *

C2 =  + Z/2 * C2 =  + t/2 *
3) Criterio de la probabilidad extrema.
Si   R. H0.

Para  :  = P(  A)

Para  :  = P(  A)

Z= =
35

t=

Para varianzas poblaciones iguales ( = ) y desconocidas:

 = n1 + n2 – 2.

Para varianzas poblacionales diferentes (12  22) y desconocidas:

=

Prueba de hipótesis para dos medias: observaciones pareadas.


Caso 1:
H0:   W.
H1:   W.
36

Criterio de decisión:
1) Criterio de la variable estandarizada.
Si t  t R. H0.

Caso 2:
H0:  ≥ W.
H1:   W.

Criterio de decisión:
1) Criterio de la variable estandarizada.
Si t  -t R. H0.

Caso 3:
H0:  = W.
H1:   W.

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si t  -t/2 o t  t/2 R. H0.
37

t= Sd =

Prueba de hipótesis para dos proporciones.


Caso 1:
H0:   W.
H1:   W.

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  Z R. H0.
2) Criterio del valor crítico teórico.
Si P  C R. H0.
C =  + Z *
3) Criterio de la probabilidad extrema.
Si    R. H0.
 = P(P  A)
38

Caso 2:
H0:  ≥ W.
H1:   W.

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  -Z R. H0.
2) Criterio del valor crítico teórico.
Si P  C R. H0.

C =  – Z *
3) Criterio de la probabilidad extrema.
Si    R. H0.
 = P(P  A)

Caso 3:
H0:  = W.
H1:   W.
39

Criterios de decisión:
1) Criterio de la variable estandarizada.
Si Z  -Z/2 o Z  Z/2 R. H0.
2) Criterio del valor crítico teórico.
Si P  C1 o P  C2 R. H0.
C1 =  – Z/2 *

C2 =  + Z/2 *
3) Cirterio de la probabilidad extrema.
Si   R. H0.

Para P  :  = P(P  A)


Para P  :  = P(P  A)

Z= Para   0 =

Para  = 0 =

=
40

Prueba de hipótesis para la razón entre varianzas (Distribución F).


Caso 1:
H0: 
H1: 12  22

Criterio de decisión:
Si F   
R. H0.

F=

Caso 2:
H0: 
H1: 
41

Criterio de decisión:
Si F   
R. H0.

F=

Caso 3:
H0: 
H1: 

Criterio de decisión:
F  
R. H0.

F=

Prueba de hipótesis para una proporción cuando el tamaño de la


muestra es pequeño.

Caso 1:
H0 :   W.
H1 :   W.
42

Criterio de decisión:
Si X  k  R. H0.
K es el entero menor tal que B(k, n, )  .

Caso 2:
H0 :   W.
H1:   W.

Criterio de decisión:
Si X  k  R. H0.
K es el entero mayor tal que B(k, n, )  .

Caso 3:
H0 :   W.
H1 :   W.
43

Criterio de decisión
Si X  k o X  k  R. H0.
Para X  k: B(k, n, )  /2.
Para X  k: 1 – B(k, n, )  /2.

Cálculo del tamaño de la muestra cuando conocemos el valor de .


Cuando se conoce el valor de alfa () y el valor de beta () el tamaño de la
muestra se calcula como:

1) Caso unilateral:

n≥

2) Caso bilateral.

n≥
44

Curva característica de operaciones (OC) y Función de potencia.


La potencia de una prueba se considera como la capacidad de esta para
detectar la hipótesis alternativa cuando es verdadera. La Probabilidad de
rechazar la hipótesis nula cuando es falsa se denota 1– o lo que es lo mismo,
no rechazar la hipótesis alterna cuando es verdadera.  es la probabilidad de
cometer un error de tipo II, rechazar la hipótesis alterna cuando es verdadera o
lo que es lo mismo, no rechazar la hipótesis nula cuando es falsa.

Dado un nivel de significación () una prueba se considera más potente que otra
cuando el valor de 1– es mayor.

Función de potencia (1–): No hay error, rechazar lo que es falso.

Curva característica (): Hay error, no rechazar lo que es falso.

Caso 1:
H0:   W.
H1:   W.

  P(  C/1).
 = P( > C/0).
45

Caso 2:
H0:   W.
H1:   W.

  P(  C/1).
 = P(  C/0).

Caso 3:
H0:   W.
H1:   W.

  P(C1  ≤ C2/1).
 = P(  C1/0) +  = IP( > C2/0).
46

Bondad de ajuste.
Es un análisis que consiste en demostrar si un conjunto de observaciones
(datos) sigue una determinada distribución de probabilidad teórica. En este
análisis se comparará entre las frecuencias observadas (oi) o valores reales
obtenidos en el conjunto y las frecuencias esperadas (ei) o valores teóricos que
se obtienen a través de la distribución bajo estudio. Mientras mayor es la
diferencia entre las frecuencias observadas y las frecuencias esperadas más
débil es el ajuste de los datos a dicha distribución de probabilidad teórica.

Criterio de decisión:
Si 2   R. H0.

Las hipótesis generalmente se expresan así:


H0: Los datos siguen una distribución X o los datos se distribuyen
Xmente.
H1: Los datos no siguen una distribución X o los datos no se distribuyen
Xmente.

2 =

 (,  = k – m).

Donde:
k: número de términos de la sumatoria de Chi-cuadrada.
m: número de parámetros que son necesarios estimar a través de los datos
reales para calcular las frecuencias esperadas.
47

Restricciones para el análisis a través de la distribución


Chi-cuadrada.
Para realizar esta prueba se debe cumplir que las frecuencias esperadas sean
siempre mayores o iguales a cinco (ei  5), en el caso que sea menor de cinco
se deben agrupar los términos; siempre y cuando esto sea lógico.

Si no es posible la agrupación el problema no tendrá solución momentánea y se


concluirá que la cantidad de datos no es suficiente para tomar una decisión. Se
recomienda incrementar el tamaño de la muestra hasta que sea posible realizar
el análisis,

Prueba de independencia o tabla de contingencia.


Es una tabla de doble entrada en la que dos variables se subdividen en
diferentes categorías y se desea probar si existe relación de dependencia o no
entre ellas. Es un análisis de frecuencias mediante la aplicación de Chi-
cuadrada.

Una tabla de contingencia está formada por r filas y c columnas. El método


consiste en comparar las frecuencias observadas correspondientes a cada celda
y sus respectivas frecuencias esperadas. Las frecuencias esperadas se
calculan como los productos de los totales de cada fila por los totales de cada
columna dividido entre la muestra total (gran muestra).

H0: Existe relación de independencia.


H1: Existe relación de dependencia.
48

Criterio de decisión:
Si 2   R. H0.

 = (r-1) * (c-1).

2 =

Prueba de homogeneidad.
Se supone que cada uno de los individuos de las I poblaciones pertenece
exactamente a una de las J categorías. Una muestra de ni individuos se toma
de la i-ésima población; sea n = ∑ni
nij = número de individuos de la i-ésima muestra que cae en la categoría J.
i número total de individuos entre la n
n.j = ∑nij = muestreada que cae en la categoría J.
i=1
Las nij se registran en una tabla de contingencia mutua con I filas y J columnas.
La suma de las nij de la i-ésima fila es ni, mientras que la suma de entradas de
las j-ésima columna es n.j.
Sea
= Proporción de individuos de la población i que cae en la categoría j.

Así, para la proporción 1, las proporciones J son 11, 12, …, 1j (que suma 1) y
análogamente para otras poblaciones. La hipótesis nula de homogeneidad
expresa que la proporción de individuos de la categoría j es la misma para cada
población y que esto es cierto para toda categoría J.
49

El proceso de solución es similar al de la prueba de independencia, pero el


planteamiento de las hipótesis difiere.

H0: Las K poblaciones son homogéneas con respecto a las J categorías.


H1: Las K poblaciones no son homogéneas con respecto a las J
categorías.

H0: Para cada opinión las proporciones X, Y, Z son las mismas.


H1: Para al menos una opinión de las proporciones X, Y, Z no son las
mismas.

Criterio de decisión:
Si 2   R. H0.
 = (r–1) (C–1).

2 =
50

Prueba de hipótesis para varias proporciones.


Se utiliza cuando se desea probar si más de dos poblaciones binomiales tienen
el mismo parámetro , es decir tienen igual proporción. Al indicar estos
parámetros como 1, 2, ..., k en realidad se desea probar que 1 = 2 = ... = k.

Para aplicar una prueba adecuada de esta hipótesis en prueba de gran tamaño,
se necesitan muestras aleatorias independientes de tamaño n1, n2, ..., nk de las k
poblaciones; entonces, si los números correspondientes de éxito son x1, x2, ...,
xk, la prueba se fundamenta en el hecho de que:

1. Para grandes muestras la distribución muestral de = es

aproximadamente la distribución Normal estándar.

2. El cuadrado de una variable aleatoria con distribución Normal estándar es otra


variable aleatoria con distribución Chi-cuadrada.

3. La suma de las k variables aleatorias independientes cuyas distribuciones


Chi-cuadrada con 1 grado de libertad es una variable aleatoria con distribución
Chi-cuadrada con k–1 grados de libertad.

Criterio de decisión:
Si 2   R. H0.

 = k – 1.

2 =
51

Las hipótesis se formulan así:


Ho: = ... =
H1: Al menos una de las proporciones es diferente.
52

BIBLIOGRAFIA
Bonini, Charles P. y Spurr, William A. (1978). Toma de Decisiones en
Administración Mediante Métodos Estadísticos.
Editorial Limusa. Primera edición.

Chao, Lincoln. (1994). Estadística para las Ciencias Administrativas. McGraw-


Hill, inc. Tercera edición.

Devore, Jay L. (2016). Probabilidad y Estadística para ingeniería y ciencias.


Cengage learning. Novena edición.

Hays, William L. (1988). Statistics.


Holt, Rinehart and Winston, Inc. international edition. Fourth Edition.

Miller, Irwin; Freund, John y Johnson, Richard. (2012). Probabilidad y


Estadística para ingenieros.
Editorial Pearson. Octava Edición.

Milton, J. Susan; Arnold, Jesse C. (2004). Probabilidad y estadística con


aplicaciones para ingeniería y ciencias computacionales.
McGraw-Hill interamericana editors, S. A de C. V. Cuarta Edición.

Montgomery, Douglas C. y Runger, George C. (2001). Probabilidad y


Estadística.
McGraw-Hill interamericana editors, S. A de C. V.

Walpole, Ronald E.; Myers, Raymond H.; Myers, Sharon L. y Ye, Keying (2012).
Probabilidad y Estadística para ingenieros.
Pearson. Novena Edición.

También podría gustarte