Está en la página 1de 90

La Estadística en el Mejoramiento de la Calidad

Dirigido a:

Productos Internacionales MABE S.A. de C.V.

Módulo 2:
Aplicación de Estadísticas Básicas
Temas

2.1 ¿Qué es la inferencia estadística? Su 2.12 Comparación de dos proporciones


importancia en la manufactura. (*).
2.2 Relación entre histogramas y 2.13 Comparación de dos varianzas (*).
distribuciones poblacionales. 2.14 Inferencia estadística para muestras
2.3 Clasificación de la Inferencia por parejas (*).
Estadística 2.15 Comparación de varias medias (*).
2.4 Concepto de intervalo de confianza 2.16 Diferentes pruebas para comprobar
(IC). normalidad.
2.5 Interpretación de un IC. 2.17 PH para variables por atributos (*).
2.6 ¿Qué es una prueba de hipótesis 2.18 Análisis de regresión simple (*).
(PH)? 2.19 Ajuste de mínimos cuadrados.
2.7 Elementos de una PH. 2.20 Interpretación de los parámetros en
2.8 Valor P y su interpretación. un modelo lineal.
2.9 IC y PH para un promedio (*).
2.10 IC y PH para una proporción (*).
2.11 Comparación de dos medias (*).
¿Qué es la Inferencia Estadística? Su
importancia en la Manufactura

Consiste de procedimientos matemáticamente bien


fundamentados para poder inferir sobre alguna
característica o características desconocidas de una
población o un proceso, utilizando la información
obtenida en una muestra representativa de la población
o proceso. De esta manera se tendrá la posibilidad de
dar conclusiones y por lo tanto de tomar decisiones
sobre la población o proceso en estudio.

A partir de este módulo todo análisis estadístico aplicado a


la mejora de la calidad, tendrá siempre alguna
metodología de inferencia estadística.
Problemas en la Manufactura:

 Desempeño de los operadores.


 Comparación entre dos o más máquinas diferentes.
 Comparación entre los diferentes turnos.
 Comparación de dos materias primas de diferentes
proveedores.
 Inferencia sobre el promedio y/o varianza de una variable
de calidad.
 Verificar estadísticamente si los operarios están midiendo o
revisando las variables de calidad en forma consistente.
 Si los aparatos de medición son consistentes.
 Control Estadístico de Procesos.
 Capacidad de Procesos.
 Selección de las variables importantes que influyen en la
variable o variables de calidad.
 Búsqueda de respuestas óptimas.
¿Qué relación tiene la descripción de los datos con la
inferencia estadística?

Cómo se comentó en el módulo anterior, el análisis


descriptivo no sirve para inferir, ni mucho menos para
tomar una decisión que tenga que ver con la población o
proceso, al menos que se cuente con la información de
toda la población o proceso.

Para poder tomar una decisión bien fundamentada es


necesario considerar la metodología estadística
adecuada, más se sugiere que para todo análisis de
inferencia estadística, sea acompañada de un buen
análisis descriptivo. Este último ayudará a tener una
buena visión de lo que esta ocurriendo en toda la
población o proceso, confirmando posteriormente los
resultados logrados con la inferencia adecuada.
Un breve recordatorio:

Población:
Colección de individuos u objetos, de la cual existe el interés de conocer
alguna o algunas características. En el caso de producción, la
población en estudio, es el proceso de manufactura a analizar.

Muestra:
Un subconjunto de la población.

Muestra Aleatoria:
Cuando una muestra es seleccionada de tal modo que todos los
elementos (de la población) tienen la misma posibilidad de ser
seleccionados.

La idea fundamental de la estadística es, estimar o inferir sobre la


población o proceso de interés, por medio de la información de una
muestra representativa. En particular la muestra aleatoria, es la manera
más común de logar una muestra representativa, y muchos esquemas
de muestreo se basan en el muestro aleatorio. Se dice que más vale una
buena muestra representativa a una gran cantidad de información sesgada y
con problemas de capturación.
Muestra Muestra

Población

Con la información
obtenida y una
Características de una Población: metodología adecuada
media, varianza, proporción, se estima o se infiere
diferencia de medias, diferencia la característica
de proporciones, cociente de poblacional de interés.
varianzas, etc.
Es importante recordar que al realizar inferencias (estimaciones)
sobre algún parámetro determinado de una población, por
medio de la información de una muestra, se pueden cometer
dos tipos de errores:

 Errores Muestrales.
 Errores no Muestrales.

Los errores muestrales o naturales no se pueden evitar.


Ocurren cuando se obtiene una muestra “extrema”,
realizando un procedimiento de muestreo adecuado, y con
esta se realiza la estimación de interés. De está manera
tendremos una estimación “alejada” del verdadero valor del
parámetro (de la característica).

Los errores no muestrales si se pueden y se deben de evitar.


Ocurren cuando se capturó algún dato que no es. O no se
consideró información que debería de estar, o no se respeto
el procedimiento de muestreo, etc. En otras palabras es un
error humano.
En inferencia estadística se buscarán estimaciones, de tal manera que la
probabilidad de tener errores muestrales sea pequeña.

Lo anterior se consigue aplicando un adecuado método de muestreo,


con una muestra suficientemente grande y aplicando la metodología
estadística adecuada.

Recomendación:

No concluir con estimaciones puntuales (medidas descriptivas o


gráficas), es necesario considerar la variabilidad y la distribución
muestral del estimador.

Observación:

Cualquier metodología de inferencia estadística, siempre considerará la


variabilidad y la distribución muestral.

En el módulo anterior se estudiaron los conceptos de aleatoriedad,


variabilidad y distribución de una variable. Es importante ahora dejar
claros estos conceptos, pero en términos muestrales.
Relación entre histogramas y distribuciones
poblacionales
En el módulo anterior se trató el concepto de distribución: la
distribución de los datos de una muestra (distribución empírica) y
distribución poblacional.

Además se compararon ambos tipos de distribución.

Histograma de 100 datos Histograma de 10000 datos


Mean 10.00 Mean 10.02
0.4
0.4 StDev 0.9926 StDev 1.009
N 100 N 10000

0.3 0.3

Densidad
Densidad

0.2 0.2

0.1 0.1

0.0 0.0
7 8 9 10 11 12 5.5 6.6 7.7 8.8 9.9 11.0 12.1 13.2
100 datos 10000 datos

Ahora es importante considerar la distribución de un estimador (o de


una estadística) llamada: Distribución muestral
Para entender bien el concepto de distribución muestral consideraremos el siguiente
problema:

Problema:

Se obtuvieron (se simularon en MINITAB) 50 muestras aleatorias de tamaño 25 cada


una, sobre la resistencia de determinado componente. Se sabe de antemano que
la media real y desviación estándar real de esta variable es, 100 y 10
respectivamente.

La variable de interés es resistencia del componte.

El parámetro a estimar es el promedio real de la resistencia (aunque ya se conozca).

Un estimador es un promedio muestral de una muestra en particular. En este caso


existirán 50 estimadores particulares, uno por cada muestra.

POBLACIÓN
Media µ
Una muestra
Una Media Muestral

Otra muestra
Otra Media Muestral
Los valores particulares de la variable de interés (1250 datos) y las 50 medias
muestrales, se encuentran en el archivo de MINITAB : resistencias.MPJ.

A continuación se presentan:

1) Cálculos básicos sobre los 1250 datos.


2) Cálculos básicos sobre las 50 medias muestrales.
3) La distribución (histograma) de todos los 1250 datos.
4) La distribución (histograma) de las 50 promedios muestrales.

1) Descriptive Statistics: datos


• Variable N Mean Median TrMean StDev SE Mean
• datos 1250 100.12 99.96 100.09 9.61 0.27
• Variable Minimum Maximum Q1 Q3
• datos 65.88 133.85 93.93 106.71

2) Descriptive Statistics: Promedios


• Variable N Mean Median TrMean StDev SE Mean
• Promedio 50 100.12 99.91 100.11 1.87 0.27
• Variable Minimum Maximum Q1 Q3
• Promedio 96.01 104.33 99.05 101.34
0.05 Obsérvese que la
0.04
diferencia entre ambas
0.03
distribuciones es, la
Distribución

variabilidad. Entre más


0.02
grande es el tamaño
0.01
de muestra, menos
0.00
variabilidad se tendrá
65 75 85 95 105 115 125 135
Resistencias

Cualquier inferencia
0.2 Sobre la media
Poblacional, como
Distribución

0.1
intervalos de confianza,
pruebas de Hipótesis,
es usada la distribución
0.0
muestral de la media
65 75 85 95 105 115 125 135
Promedios muestral.
muestrales
Observaciones:

Aunque la parte central de ambas distribuciones, la de los datos y la de la


media muestral son muy similares (medias iguales a 100.12), la
variabilidad de los datos ( desviación estándar igual a 9.61) es más
grande a la variabilidad de la media muestral (desviación estándar
igual a 1.87) .

Si se obtiene una muestra, la cual proporciona una media muestral de


101.5, es incorrecto concluir que la media real o poblacional (en este
caso se sabe que es igual a 100) es superior a 101. Es importante
considerar la variabilidad y la distribución de la media muestral.

Cuando no se tienen bien claros los conceptos de variabilidad y de


distribución, es muy común que se realicen preguntas como:

¿Porqué no puedo concluir que la media real (de toda la población) es


superior a 101, si yo estoy observando una media muestral de 101,
101.5 ó 102?.
Clasificación de la Inferencia Estadística
 Estimación Puntual:

El objetivo es encontrar el mejor estimador puntual. Aquel


que tenga las mejores propiedades: Insesgado, mínima
varianza, etc. Se sugiere no concluir solo con la
información de las estimaciones puntuales.

x
x x x x x
x
x x xx
x x x
x x x x
x x
x x x
x
x x x
x x
x x
x x
x

Insesgado Insesgado Insesgado


y poca varianza y varianza grande
 Estimación por Intervalos:

El objetivo es encontrar intervalos que contengan al parámetro objetivo, con


una confianza “grande”.

Los límites del intervalo son construidos con la información de la muestra y con
el conocimiento de la distribución del estimador puntual. Con los intervalos
existe la posibilidad de concluir y por lo tanto tomar decisiones.

Se buscan intervalos altamente confiables y lo más estrechos posibles.

 Pruebas de Hipótesis:

Proceso que da la posibilidad de tomar una decisión entre dos hipótesis


opuestas. Estas hipótesis son afirmaciones que se realizan sobre el
parámetro objetivo (característica de la población, por ejemplo: la media,
varianza,etc.).

La decisión que se toma o no se toma es fundamentada con la información de


la muestra y usando la distribución del correspondiente estimador puntual.

Es la gran base de la Inferencia estadística. Existe la posibilidad de concluir y


tomar decisiones.
Los intervalos de confianza y las pruebas de hipótesis dependen de un
estimador puntual del parámetro objetivo y de la distribución del
estimador.

Entre más grande sea la muestra, menor variabilidad tendrá el


estimador (más estrecha la distribución), lo cual ayudará a lograr
intervalos más estrechos y con alta confianza. Por otra parte, en
pruebas de hipótesis se tendrá más seguridad para decidir.

0.3

0.2

0.1

0.0

95.0 96.5 98.0 99.5 101.0 102.5 104.0

En toda Inferencia es tomada en cuenta


la variabilidad del estimador puntual
En resumen:

Las distribuciones muestrales y la variabilidad de los


estimadores son la base para construir intervalos
de confianza y pruebas de hipótesis.

A continuación presentaremos dos casos generales de


inferencia estadística, los cuales a su vez se dividen en
otros sub-casos:

Muestras pequeñas
Muestras grandes
Muestras Pequeñas

Cuando los datos (muestra aleatoria) provienen de una población normal, las
distribuciones más importantes que son usadas como distribuciones
muestrales son:

- Normal
Usada para realizar inferencia estadística para la media o
comparación de 2 medias.

- t-student
Usada para realizar inferencia para la media, diferencia de 2
medias, análisis de regresión, diseño de experimentos.

- Ji-Cuadrada
Usada para realizar inferencia para la varianza o desviación
estándar. También para comparar varias proporciones

- F
Usada para comparar varianzas, para análisis de varianza, análisis
de regresión, diseño de experimentos.

Nota: En estos casos, es importante verificar que los datos efectivamente


(muestra aleatoria) proviene de un modelo normal.
Muestras Grandes:

Este caso es sustentado en el Teorema de Límite Central.

Teorema de Límite Central o TLC.

Cuando los datos (muestra aleatoria) provienen de cualquier distribución


con alguna media y desviación estándar y, el tamaño de la muestra es
suficientemente grande (n ≥ 30), entonces la distribución muestral de:

 La media muestral (inferencia para una media)


 La diferencia de medias (inferencia para comparar dos medias)
 La proporción muestral (inferencia para una proporción)
 La diferencia de proporciones (inferencia para comparar dos
proporciones)

es aproximadamente NORMAL.

Nota: No es necesario verificar que los datos provienen de una distribución


normal. Es suficiente que la muestra sea aleatoria y su tamaño no sea
menor a 30.
Concepto de Intervalo de Confianza
Un Intervalo de Confianza (I.C.) es un rango de posibles
valores para el parámetro objetivo. Los límites de un intervalo
son llamados límites de confianza: límite de inferior y
límite superior, y se construyen a partir de los datos de la
muestra.

La probabilidad de que los límites contengan al parámetro


objetivo se le conoce como la confianza del intervalo, la
cual se representa como 1-α.

Para lograr la construcción de un I.C. es de suma importancia


conocer la distribución muestral de un estimador puntual o
función del estimador puntual del parámetro objetivo.

Para tener una mejor comprensión de los que es un intervalo de


confianza, se presentará a continuación un problema de
simulación de intervalos de confianza.
Interpretación de un Intervalo de Confianza

Problema (simulación de intervalos):

Se simularan 100 muestras de tamaño 30. Cada una es


seleccionada de una población con comportamiento normal
con media 200 y desviación estándar 10. Para cada muestra
se construye un intervalo de confianza del 95% de confianza
para la media. El procedimiento para construir este tipo de
intervalos se verá más adelante, para esta simulación
usaremos MINITAB.

La idea es observar cuantos intervalos de confianza contienen a


la media real y por lo tanto que proporción de intervalos la
contienen, en este caso, a la media real es 200. Los resultados
se dan en el archivo: Intervalos

De acuerdo al archivo, se puede observar, que 4 de éstos 100


intervalos (casi 5%) contienen al parámetro objetivo o dicho de
otra manera 96 de 100 contienen a 200 (casí 95%, confianza
del intervalo).
Pruebas de Hipótesis
Con la intención de comprender mejor la metodología de Pruebas de
Hipótesis, se comenzará este tema con un ejemplo:

Supongamos que se tiene la siguiente sospecha: el porcentaje


(real) de artículos que se están fabricando con defecto supera al
10%. Para validar esta sospecha, no es posible tener toda la
información de la producción, en cuanto a defectuosos o no. Más se
puede tomar una muestra aleatoria de artículos manufacturados y,
con la información obtenida en esta, validar la información o no.

Supongamos que el número de artículos en la muestra es igual a


100. Dependiendo de la proporción muestral de defectuosos en la
muestra, será posible apoyar o no la sospecha que se tiene.

Esto es, entre más alejado este la proporción muestral de


defectuosos del 10% (mayor que 10%), con más seguridad
apoyaremos la sospecha. Entre más cerca este la proporción
muestral del 10%, menos seguridad tendremos de apoyar esta
sospecha.
Sospecha: porcentaje de defectuosos es mayor al 10%

10 %

Menos evidente Más evidente es


es la sospecha la sospecha

Pruebas de hipótesis (P.H.) es la gran base de la Inferencia Estadística. Existen


pruebas de hipótesis (P.H.) equivalentes a I.C., pero es más usado en la vida
real una P.H. que los intervalos. Además existen comprobaciones que solo se
pueden verificar con P.H.

¿Qué es una P.H.?

En determinada población o producción existe interés por tener conocimiento


sobre una determinada característica (parámetro). Por alguna circunstancia, se
tiene una sospecha sobre el valor de esta característica.

Esta sospecha se plantea como una hipótesis, llamada hipótesis alternativa y


denotada como Ha). Como hipótesis opuesta o contradictoria, también se
plantea dentro del problema, llamada hipótesis nula y denotada como Ho.
Con los datos de la muestra (aleatoria) se verificará si estos apoyan a la
hipótesis alternativa (sospecha que se tiene) o no.
La idea inicial de pruebas de hipótesis es, en base a la información
muestral tendremos dos opciones:

1. Rechazar Ha y por lo tanto aceptar Ho


2. Rechazar Ho y por lo tanto aceptar Ha

Errores posibles en una P.H. :

Para cualquiera de las dos opciones, existe la posibilidad de cometer


dos tipos de errores. Son errores muestrales, naturales, y no se
pueden evitar :

Error tipo I: Rechazar la hipótesis nula (entonces aceptar la hipótesis


alternativa), cuando en realidad es verdadera la hipótesis nula.

Error tipo II: Aceptar la hipótesis nula (entonces rechazar la hipótesis


alternativa), cuando en realidad la hipótesis nula es falsa.

Estos errores no se pueden evitar, más la idea es de fijarlos con poca


probabilidad.
α= probabilidad de cometer el error tipo I.
= nivel de significancia.

β= probabilidad de cometer el error tipo II.

1- α = probabilidad de no rechazar la hipótesis nula, dado que se


sabe que esta es verdadera.

1- β = probabilidad de aceptar la hipótesis alternativa, dado que se


sabe que la hipótesis nula es falsa o la hipótesis alternativa
es verdadera.
= potencia de la prueba estadística.

Acepta Ho Rechazar Ho
Ho verdadera 1-α α
Ho falsa β 1- β
Lo ideal es trabajar las P.H. con α y β “pequeños”. Con pequeñas
posibilidades de cometer los errores.

Observación:

Si se reduce α, entonces β aumenta.

Si se reduce β, entonces α aumenta.

Aclaraciones:

Una forma mucho más práctica de trabajar es fijando α (arbitrariamente). Se


acostumbra a fijarla al 5%, pero puede fijarse del 1% al 10%.

No nos vamos a preocupar (por el momento) de manipular β, pero tampoco


nos atreveremos a aceptar “fácilmente” una hipótesis nula.
La recomendación es, solo aceptar la hipótesis
alternativa, cuando la prueba lo indique y, en
caso contrario, simplemente diremos: No hay
suficiente evidencia para apoyar la hipótesis
alternativa.

La probabilidad β es usada para calcular tamaños


de muestra. 1- β es conocida como la potencia
de la prueba. Entonces para calcular un tamaño
de muestra con MINITAB,se fija la potencia y la
precisión con la que se pretende estimar, y con
esta información se determina el tamaño
muestral.
Elementos de una P.H. :

 Hipótesis Nula, denotada como Ho.


 Hipótesis Alternativa, denotada como Ha (Lo que se quiere
comprobar).
 Estadística de Prueba (depende de la muestra y utiliza de
alguna manera la afirmación que se hace en la hipótesis Ho).
 Región de Rechazo (depende del valor que se de α y de la
estadística de prueba). Sirve para decidir. (No lo vamos a usar)
 Valor P (p-value) o mínimo valor de significancia (depende de
la estadística de prueba y no depende de α, la cual es arbitraria).
Sirve para decidir. ( Se verá en las siguientes láminas).

Aclaración:

En los paquetes estadísticos, se calcula valor P y no la región de


rechazo, por lo cual esta última no la usaremos. Es de suma
importancia, saber interpretar el valor P, en términos del
problema. Para esto, es muy importante también, tener bien claro
quienes son las hipótesis del problema.
Observación:

Los paquetes estadísticos tratan ampliamente con P.H. y por lo tanto con el
cálculo del valor p.

Idea de como funciona una P.H. (valor p)

La estadística de prueba depende de dos elementos:

1. De los datos de la muestra.


2. Y en forma “opuesta” de la hipótesis nula.

Si los datos apoyan a la hipótesis alternativa, entonces la estadística de prueba


será “grande” (en valor absoluto). Y si los datos apoyan a la hipótesis nula,
la estadística de prueba será “pequeña” (en valor absoluto).

Valor P = Es el nivel de significancia alcanzado, para el cual los datos


observados indican que se debe de rechazar la hipótesis nula
(interpretación práctica más adelante).

Observación:
Entre más “grande” en valor absoluto es el estadístico de prueba, más
“pequeño” es el valor P y viceversa.
Pruebas de hipótesis

H0 : μ  500 Valor P
Ha : μ  500

Estadístico de Prueba

Hipótesis Si el estadístico de prueba es más


Ho Pequeño el valor P es más grande
Para acabar de entender la metodología de pruebas de
hipótesis con cada uno de sus elementos, se tratará el
siguiente problema.

Problema:

De una máquina que sirve para el llenado de determinado


líquido en envases de 7 onzas, se sospecha que en
promedio el llenado de líquido por botella es mayor a las
7 onzas, ya que se ha observado constantemente que
se derraman varios llenados. Para comprobar esta
afirmación, se revisan 10 llenados y se realizan las
mediciones. La media y desviación estándar de las 10
mediciones resultaron ser 7.1 y 0.12, respectivamente.

Calcular los elementos de la prueba de hipótesis.


Hipótesis: Lo que dice Ho de µ
7.1

Ho: µ = 7 (para facilitar cálculos la Ho se escribe = y no ≤ )


Ha: µ > 7 0.12 10

Estadística de prueba
x7 Si t es “grande” apoyará Ha,
t n Si t es “pequeño” (cercano a 0)
S no apoyará Ha

Valor p

-6 -4 -2 0 2 4 6 Probabiliad de equivo-
carme al aceptar Ha
t
En este problema, la hipótesis a probar Ha, fue del tipo:
“promedio mayor que determinado valor”. En lugar de
mayor que, se puede usar, si así se requiere, …menor
que… o …diferente que….

Ahora, en casi todos los paquetes estadísticos (MINITAB),


cuando se trabaja una P.H., como información de
entrada, es importante en muchos casos, especificar
las hipótesis a probar (en algunos casos ya viene un
default, con la opción a cambiarlas). Y como datos de
salida, el paquete calcula el correspondiente valor p
(también el estadístico de prueba), el cual, posiblemente
nos permitirá llegar a una conclusión.

Es común, que la persona que no esta muy familiarizada


con la inferencia estadística y utiliza algún paquete, al
final, como datos de salida, no sabe como interpretar el
valor p, ya que desconoce las hipótesis del problema, o
peor aún, no sabe que el valor p esta totalmente
relacionado con las hipótesis del problema.
En conclusión:

Si el valor p es “pequeño” apoyaremos la hipótesis Ha, con la


probabilidad de equivocarme igual al valor p.

Si el valor p es “grande” no tendremos evidencia suficiente para


apoyar la hipótesis Ha. (Tampoco aceptaremos Ho, ya que no
tenemos control sobre β).

En libros, a veces recomiendan comprar el valor p con α = 0.05. Esto


es,
Si valor p ≤ .05, entonces se acepta Ha
Si valor p > 0.05, entonces no se acepta Ha (tampoco Ho)

Aclaración:

Esta comparación entre valor p y 0.05 es arbitraria. Algunos autores


en lugar de 0.05 usan 0.1, o algunos son más estrictos. Lo que si,
debe de quedar bien claro, que entre más pequeño sea el valor p,
con más confianza apoyaremos la hipótesis alternativa.
I.C. y P.H. para un promedio real o poblacional
Tanto para un I.C. como para una P.H. para un promedio existen dos casos:

Caso 1)
 La muestra deberá de ser aleatoria
 La muestra puede provenir de cualquier población (distribución).
 El tamaño de la muestra deberá de ser “suficientemente grande”. (No menos
de 30 datos).
 La distribución muestral que se usa es la Normal.

En este caso, un I.C. y a la vez una P.H para la media, por medio de MINITAB, se
puede hacer por medio de dos caminos:
-Stat > Basic Statistics > 1-Sample Z
-Stat > Basic Statistics > 1-Sample t

Caso 2)
 La muestra deberá de ser aleatoria.
 La muestra deberá de provenir de una distribución Normal.
 El tamaño de la muestra puede ser de cualquier tamaño.
 La distribución muestral que se usa es la distribución t-Student.

En este caso, un I.C y a la vez una P.H. para la media, por medio de MINITAB se
pueden construir de la siguiente manera:
-Stat > Basic Statistics > 1-Sample t
Aclaración:

Con la finalidad de entender mejor los conceptos de I.C. y P.H., solo para el caso,
del promedio real y proporción real se mostrarán las fórmulas. Para los demás
parámetros, se pueden consultar en algún libro de estadística o en MINITAB.

La fórmula de un intervalo de confianza para un promedio real, en el primer caso es,


con una confianza del (1-α) x 100 % es
 S S  Variabilidad
 x  z ( ) , x  z ( )  de la media
 2 n 2 n
muestral
Donde z( / 2 ) es buscado en tablas de la normal estándar.

La fórmula del intervalo de confianza para un promedio real, para el segundo caso
es, con una confianza del (1-α) x 100 % es

 ( n 1) S ( n 1) S 
 x  t ( ) , x  t ( )

 2 n 2 n

( n 1)
Donde t  (
2es buscado en tablas de la distribución t-student con n-1 grados de
)

libertad. Para ambas expresiones, x , s y n son respectivamente la media


muestral, la desviación estándar muestral y el tamaño de la muestra.
Relación entre Distribución muestral de la media muestral
e intervalos de confianza.
0.3

0.2

0.1

0.0

1-α
de confianza
Límite Inferior Límite superior
de confianza de confianza
En el caso de pruebas de hipótesis para un promedio, existen tres
posibilidades de plantear las hipótesis:

1) Ho: µ = µo 2) Ho: µ = µo 3) Ho: µ = µo


Ha: µ > µo Ha: µ < µo Ha: µ ≠ µo

La elección de 1), 2) o 3) depende de lo que se quiera probar.

Es importante aclarar, que para cualquier parámetro, siempre existirán tres


posibilidades de plantear la hipótesis alternativa: “mayor que”, “menor que”
o “diferente que”.

El estadístico de prueba es el mismo para los dos casos:

x  0
n
S
Para calcular el valor p, en el primer caso se usa la distribución normal y
para el segundo caso, la distribución t- student con n-1 grados de libertad.
I.C. y P.H. para una proporción

La variable involucrada es cualitativa o por atributos, sus valores son solo dos:
“éxito” o “fracaso”.

El parámetro objetivo es la proporción real (poblacional) de éxitos.

Para su estimación, consideraremos una muestra aleatoria de esta variable. La


proporción de éxitos en la muestra será un buen estimador de la proporción de
éxitos real. Y en base a esta proporción muestral se construirá el I.C y/o P.H.
para la proporción real.

Por ejemplo, en la producción, un artículo es rechazado o aceptado. Para estimar la


proporción de artículos rechazados, se selecciona una muestra aleatoria de
artículos, la proporción de artículos rechazados en la muestra, será una
estimación de la proporción real.

Cabe señalar que la muestra aleatoria son datos de unos (éxitos) y ceros
(fracasos). Esto es, cada dato es:

-1 si es “éxito” (rechazado)
- 0 si es “fracaso” (aceptado)
Cuando la muestra aleatoria es suficientemente “grande” (no menor que 30), por el
Teorema de Límite Central (el teorema más importante de la estadística), se
puede construir un I.C para la proporción real, usando la distribución normal,
con una confianza del (1-α) x 100 %. La fórmula del intervalo es:
Variabilidad
 De la
pˆ (1  pˆ ) pˆ (1  pˆ ) 
 pˆ  ( )
z z
, pˆ  ( )  Proporción
 n n 
 2 2
 muestral

Donde p̂ es la proporción de éxitos muestral, z( / 2 ) se busca en tablas de la


distribución Normal estándar y n es el tamaño de la muestra.

En una forma más complicada, es posible construir intervalos de confianza para la


proporción real, usando la distribución exacta (distribución binomial).

Con MINITAB se pueden construir I.C. y a la vez una P.H., usando la


aproximación normal o usando la distribución exacta (distribución binomial). Las
instrucciones son:

Stat > basic statistics > 1 Proportion.


En options se selecciona si se prefiere construir el intervalo por la aproximación Normal
o en forma exacta.
Como se había ya mencionado para el caso de una prueba de
hipótesis para una proporción, existen tres posibilidades de plantear
la hipótesis alternativa:

1) Ho: p = po 2) Ho: p = po 3) Ho: p = po


Ha: p > po Ha: p < po Ha: p ≠ po

La elección de 1), 2) o 3) depende de lo que se quiera probar.

El estadístico de prueba es (aproximación normal):

ˆ  p0
p
ˆ (1  p
p ˆ)
n

Para calcular el valor p, se usa la distribución normal (estándar).


Comparación de dos medias
Por medio de un I.C. y/o P.H. es posible comparar dos promedios, de poblaciones o procesos
diferentes.

Por ejemplo, nos puede interesar comparar dos procesos de producción diferentes (como
diferentes máquinas o diferentes turnos o diferentes materias primas, etc.).

Dos promedios µ1 y µ2 se pueden comparar por medio de su diferencia: µ1 - µ2 . Si la diferencia


es igual a cero, entonces los promedios son iguales. Si la diferencia es positiva,
entonces el primer promedio es superior al segundo, y si la diferencia es negativa, el
primer promedio es inferior al segundo.

Entonces el parámetro objetivo es la diferencia de las dos medias: µ1 - µ2 .

La construcción de I.C. y/o P.H. para la diferencia de dos medias se divide en:

Caso 1)
 Cada muestra (son dos) deberá de ser aleatoria.
 Las muestras se deberán de obtener en forma independiente.
 Cada muestra deberá de provenir de una distribución normal.
 Las varianzas de ambas poblaciones o producciones deberán de ser
iguales.
 La distribución muestral que se usa es la t-student.
Para realizar la inferencia estadística sobre la diferencia de medias, por medio de
este camino, es importante verificar la normalidad de cada muestra y por otro
lado comprobación de que las varianzas no son diferentes.

Más adelante se verán algunas pruebas para comprobar que los datos provienen
de una distribución normal, así como también algunas pruebas para comprobar
igualdad de varianzas.

Caso 2:
 Cada muestra deberá de ser aleatoria.
 Entre las dos muestras deberá de existir independencia.
 Cada muestra deberá de provenir de una distribución normal
 La varianzas pueden ser diferentes.

Observación:

En los dos casos se deberá de cumplir el supuesto de normalidad.

¿Qué pasa cuando no se cumple el supuesto de normalidad?


Es posible considerar el caso 2, con la sugerencia de que el tamaño de cada
muestra deberá de ser no menos de 30.

MINITAB considera los dos casos: Stat > basic statistics > 2-Sample t.
Comparación de dos proporciones

En la práctica puede ser de interés comparar dos proporciones (de “éxitos”) de


dos poblaciones o procesos diferentes.

Por ejemplo, puede ser de interés, si dos máquinas o dos turnos diferentes
están produciendo los mismos porcentajes de artículos rechazados. Si dos
marcas diferentes de un mismo producto están produciendo al mismo nivel,
en cuanto a artículos defectuosos.

Por medio de un I.C. y/o P.H. es posible comparar dos proporciones.

La inferencia se realiza sobre la diferencia de las dos proporciones. Esto es, el


parámetro objetivo es la diferencia P1-P2 , donde P1 y P2 son las
proporciones reales de las poblaciones o procesos correspondientes en el
estudio.

Para realizar una inferencia (I.C. y/o P.H.) sobre la diferencia de proporciones,
es importante tener dos muestras aleatorias independientes entre si (cada
muestra de una población o proceso diferente). Donde cada dato es 1 (si es
“éxito”) o cero (si es “fracaso”). Se sugiere que rl tamaño de cada muestra
deberá ser no menor a 30.
La distribución muestral utilizada para la inferencia de la diferencia de
dos proporciones es, en forma aproximada la distribución normal,
es una vez más una aplicación del Teorema del Límite Central.
Cabe señalar, que entre más grande sean los tamaños de cada
muestra, mejor será la aproximación a la normal.

Por otro lado, cuando se quiere realizar una comparación entre más de
dos proporciones a la vez, por ejemplo, más de dos máquinas, más
de dos turnos o más de dos marcas, la comparación se realizará
por medio de otra prueba diferente, la cual se analizará más
adelante (inferencia estadística para variables por atributos).

El procedimiento en MINITAB para comparar dos proporciones reales


es el siguiente:

Stat > Basic statistics > 2 Proportions.

Se tiene la opción de trabajar con los datos individuales, ceros y unos,


o también se puede indicar el tamaño de cada muestra y el número
de “éxitos” contabilizados en cada muestra.
Inferencia Estadística para una desviación estándar
Puede ser de interés analizar como es la variabilidad de una población o
proceso.

Por ejemplo, nos puede interesar si la variabilidad de la producción en


determinada máquina es muy grande o no. Ya se ha estado señalando que
un parámetro fundamental para medir la calidad es la desviación estándar.

Cabe señalar, que para propósitos de calidad, muchas herramientas se han


construido en función de la varianza o desviación estándar.

Dos supuestos se deben de cumplir: Muestra aleatoria y normalidad en los


datos.

MINITAB solo construye intervalos de confianza del 95% de confianza para la


desviación estándar. El procedimiento por MINITAB es

Stat > Basic statistics > Graphical Summary.

Cabe señalar que el propósito principal de la anterior instrucción no es el de


calcular intervalos, este cálculo lo realiza como algo adicional.
Comparación de dos varianzas.

Además de comparar entre dos poblaciones o procesos diferentes, sus


correspondientes promedios o proporciones, puede ser de interés comparar
sus correspondientes varianzas ( o desviaciones estándar).

En cuestiones de producción, por ejemplo que una máquina este produciendo


más variabilidad que otra, es un asunto que deberá de atenderse.

Antes de comparar dos promedios, se sugiere verificar si las varianzas de


ambos procesos o poblaciones no son diferentes.

La inferencia estadística para comparar dos varianzas, se basa en la


construcción de I.C y/o P.H. para el cociente de varianzas.

Un cociente de dos números puede tener tres opciones: igual a uno y entonces
los dos números son iguales; mayor que uno y entonces el numerador es
mayor que el denominador; menor que uno y entonces el numerador es
menor que el denominador.
Para realizar inferencia estadística para el cociente de dos varianzas
es necesario que se cumplan la siguientes condiciones:

 Cada muestra deberá de ser aleatoria.


 Cada muestra deberá de provenir de una distribución normal.
 Entre cada muestra deberá de existir independencia.
 La distribución muestral utilizada es una distribución F.

MINITAB, además de realizar la prueba de hipótesis


Ho: σ1 = σ2
Ha:σ1 ≠ σ2
Con la distribución F también lo hace con la prueba de Levene.

El procedimiento con MINITAB es

Stat > Statistics basics > 2 Variances.


Muestras Apareadas o por parejas.
Para situaciones donde dos muestras están relacionadas.

Por ejemplo, se pretende verificar si determinado entrenamiento para


trabajadores es efectivo. Para este propósito se selecciona aleatoriamente un
grupo de trabajadores, entonces se toman mediciones sobre el tiempo que se
tarda cada uno, para efectuar determinada tarea, antes y después del
entrenamiento.

Puede verse como una muestra en pares (“antes” y “después”). Como son los
mismos trabajadores para ambas muestras, entonces ambos grupos de
datos son dependientes.

En este caso, es un error aplicar inferencia estadística para diferencia de


medias, ya que esta considera la diferencia entre los trabajadores y lo que
nos interesa es verificar diferencia entre los dos métodos (antes y después).

La inferencia estadística es basada sobre las diferencias de ambos grupos de


datos, en nuestro ejemplo, a cada trabajador se le calcula la diferencia entre
el tiempo antes del entrenamiento y el tiempo después del entrenamiento.
El parámetro objetivo es el promedio de las diferencias.

Si el promedio de las diferencias es igual a cero, significa que no existe


diferencia entre las dos metodologías que se están comparando, si es mayor
que cero, significa que la primera metodología en promedio es mayor que la
segunda, y si es menor que cero, significa que la segunda metodología, en
promedio es mayor que la primera.

Para realizar inferencia estadística sobre el promedio de diferencias de dos


metodologías diferentes, se deberá de cumplir:

 Los elementos para el estudio deberán de ser seleccionados aleatoriamente.


 De cada elemento, se realizarán dos mediciones. Cada medición será con
metodología diferente.
 Las diferencias de las mediciones entre ambas metodologías, deberán de
distribuirse normal.
 La distribución muestral usada es la distribución t- Student.

En MINITAB se puede realizar de la siguiente manera:

> Stat > Statistics Basics > Paired t


Pruebas de Normalidad
Para muchos estudios estadísticos, es importante tener la seguridad de que si
la muestra o muestras provienen de distribuciones normales, es un
supuesto que se pide constantemente, en inferencia estadística.

Se puede verificar de tres maneras la normalidad:

1) Histograma.
2) Papel probabilidad Normal.
3) Pruebas de Hipótesis.

Las dos primeras formas fueron tratadas en el primer módulo. Ahora


trataremos la tercera:

Las hipótesis en este caso se plantean de la siguiente manera:

Ho: los datos provienen de una distribución normal.


Ha: los datos no provienen de una normal.

MINITAB considera tres P.H para normalidad: Anderson-Darling, Ryan-Joiner y


Kolmogorov-Smirnov. El procedimiento es:

>Stat > Statistics Basics > Normality Test


Con la finalidad de motivar las herramientas expuestas hasta este
momento, se tratarán varios problemas prácticos.

Problema 1:

Una operación de montaje en una fábrica manufacturera requiere


aproximadamente un mes de entrenamiento para que un nuevo
empleado alcance su máxima eficiencia. Se sugirió un nuevo
método para el entrenamiento y, se realizó una prueba para
comparar el nuevo método con el método estándar.
Se entrenaron dos grupos de nuevos empleados. Un grupo utilizó el
método estándar y el otro el nuevo método. Se midió el tiempo que
necesitó cada empleado para montar el dispositivo.

Realizar el análisis estadístico necesario para saber si entre ambos


métodos de entrenamiento existe en promedio una diferencia. Los
datos se encuentran en el archivo MINITAB: dosmetodos.MPJ.

Primero se realizará una gráfica de cajas, con la idea de tener una


primera comparación. Las instrucciones son:
Abrir el archivo MINITAB: dosmetodos.MPJ
>Graph > Boxplot
Seleccionar en Multiple Y´s: Simple
Ok
Seleccionar en Graph variables, las columnas: ´estandar´ y ´nuevo´.

Boxplot of estándar, nuevo


45

40
Data

35

30

25

estándar nuevo

Una primera impresión nos indica que el nuevo método es mejor, ya que en
la gráfica de cajas, se nota la segunda caja más baja que la primera.

El siguiente paso es la verificación de que cada grupo de datos tiene


distribución normal
Probability Plot of estándar
El procedimiento en MINITAB será: Normal
99
Mean 35.22
StDev 4.944
95 N 9
> Stat > Basic Statistics > Normality Test 90
AD 0.220
P-Value 0.763
Se selecciona la columna: estándar 80
Para el otro grupo de datos es igual, pero se selecciona la 70

Percent
columna: nuevo. 60
50
40
30

Para ambos grupos de datos las 20

pruebas de normalidad se 10
5
muestran a la derecha.
1
25 30 35 40 45 50
estándar
Interpretación:
Probability Plot of nuevo
Normal
En ambos casos los puntos siguen la 99
Mean 31.56

tendencia de la línea recta. Por otro 95


StDev
N
4.475
9

lado, en ambos casos, el valor p


AD 0.173
90
P-Value 0.896
80
de la prueba es más grande que 70
Percent

60

0.1. Lo que significa que no 50


40

podemos rechazar la normalidad de 30


20

los datos. 10
5

1
20 25 30 35 40 45
nuevo
El siguiente paso es realizar la P.H. para verificar si las varianzas son iguales o
no.

Por MINITAB:

Stat > Basic Statistics > 2 Variances


Se selecciona Sample in different columns, y en First se selecciona: estandar y en
Second se selecciona: nuevo.
ok

Los resultados de dan a continuación:

• Test for Equal Variances: estándar, nuevo

• F-Test (normal distribution)


• Test statistic = 1.22, p-value = 0.785

• Levene's Test (any continuous distribution)


• Test statistic = 0.05, p-value = 0.821

En ambas pruebas el valor p es más grande que 0.1, por lo que no se rechaza
que ambas varianzas son iguales.
Hasta el momento, se han cumplido todos los supuestos para realizar la
inferencia estadística sobre la diferencia de medias.

Por MINITAB:

Stat > Basic Statistics > 2-Sample t


Se selecciona Sample in different columns, y en First se selecciona: estandar y en Second se selecciona:
nuevo.
Se selecciona: Assume equal variances
En options seleccionar en Alternative: greater than.
Ok > ok

Los resultados se dan a continuación:

• Difference = mu (estándar) - mu (nuevo)


• Estimate for difference: 3.66667
• 95% lower bound for difference: -0.21429
• T-Test of difference = 0 (vs >): T-Value = 1.65 P-Value = 0.059 DF
= 16
• Both use Pooled StDev = 4.7155
Por una parte el intervalo unilateral nos indica que la diferencia de promedios
tiene un valor mínimo de -0.21429.

-0.21429 0

µ1 - µ2

De acuerdo a este resultado no hay suficiente evidencia para indicar que el


método nuevo, en promedio es mejor que el método estándar.

Por otro lado, el valor p de la prueba de hipótesis, no es suficientemente


pequeño (menor que 0.05) para poder indicar que el método nuevo es
mejor que el primero.

Observación: En este análisis, no se logró confirmar lo que se observó a nivel


descriptivo, más es importante resaltar que esto puede deberse a que
los tamaños muestrales son pequeños, solo 9 por cada muestra.
Problema 2:

Considerando los mismos datos del problema anterior, ¿Se puede


indicar que el tiempo promedio del nuevo método es inferior a los
40 minutos?

La gráfica de cajas (ir a la lámina de cajas) nos indica que


prácticamente todos los tiempos medidos con el nuevo método
son menores que 40.

Como cada uno de los grupos de datos cumplen con el supuesto de


normalidad (se verificó en el problema anterior), realizaremos la
inferencia correspondiente al nuevo método:

Abrir con MINITAB el archivo dosmetodos.MPJ


Stat > basic statistics > 1- Sample t
Seleccionar en Sample in columns, la columna: ´nuevo´
Seleccionar en Test mean: 40
Seleccionar en options, en alternative: less than
Ok >ok
Los resultados se dan a continuación:

• Test of mu = 40 vs < 40
• 95%
• Upper
• Variable N Mean StDev SE Mean Bound T P
• nuevo 9 31.5556 4.4752 1.4917 34.3295 -5.66 0.000

34.3295 40

Intervalo de confianza
Para el Promedio real

Por otro lado el valor p es 0, lo que confirma que el promedio de tiempo


con el nuevo método es inferior a los 40 minutos.
Problema 3:

En un proceso de manufactura se quiere investigar si el


porcentaje de artículos defectuosos es inferior al 10%. Para
esta investigación se obtuvo una muestra aleatoria de 500
artículos, de los cuales se contabilizaron 36 defectuosos.

En este caso, no es necesario verificar algún supuesto,


entonces realizaremos la inferencia con MINITAB:

Abrir MINITAB
Stat > Basic Statistics > 1 Proportion
Seleccionar en Summarized data, en Number of trials: 500 y en Number of events: 36.
En options en Test escribir 0.1 y en Alternative seleccionar: less than
Hacer click en Use test and interval…
Ok > ok
Los resultados se dan a continuación:

• Test and CI for One Proportion


• Test of p = 0.1 vs p < 0.1
• 95%
• Upper
• Sample X N Sample p Bound Z-Value P-Value
• 1 36 500 0.072000 0.091014 -2.09 0.018

9.1% 10%

Intervalo para p

Como el valor p =0.018, menor al 5%, se confirma que este proceso


produce menos del 10% de defectuosos,
Problema 4:

Se desea comparar dos marcas de llantas radiales. Se instala una


llanta de cada marca al azar en las dos ruedas traseras de ocho
automóviles y se usan hasta que las llantas se desgastan, y se
miden el número de millas recorridas. Se quiere verificar si entre los
dos tipos de llantas existe alguna diferencia en su rendimiento.

Los datos se encuentran en el archivo MINITAB: LLANTASM1M2.MPJ.

Primero vamos a construir un diagrama de caja de las diferencias


entre los rendimientos de la primera marca y los rendimientos de la
segunda marca (una diferencia por cada automóvil).

Abrir el archivo LLANTASM1M2.MPJ


Calc > calculator
Seleccionar en store result in variable: c3
En expression escribir: c1-c2
Ok
Graph > Boxplot
En One Y seleccionar: Simple

El diagrama de caja se da a continuación:


Boxplot of C3

3000

2500

2000

C3
1500

1000

500

En este diagrama se nota que todas las diferencias son positivas, lo


que hace pensar que la llanta de la marca 1 tiene mejor rendimiento
que la llanta de la marca 2. Para acabar de verificar tal situación
realizaremos el análisis estadístico correspondiente. Antes de este
análisis, verificaremos el supuesto de normalidad, sobre las
diferencias de ambos rendimientos:

Stat > Basic Statistics > Normality Test


En variable seleccionar: la columna que se creo de diferencias (c3)
Ok

Los resultados se dan a continuación:


Probability Plot of C3
Normal
99
Mean 1436
StDev 1104
95 N 8
AD 0.419
90
P-Value 0.242
80
70
Percent
60
50
40
30
20

10
5

1
-1000 0 1000 2000 3000 4000
C3

Lo que indica que no hay problemas de no normalidad (valor p > 0.1).

A continuación realizaremos el análisis para verificar si hay diferencia


entre los rendimientos promedios de ambas llantas

Stat > basic statistics > Paired t


En Sample in columns, en first sample seleccionar: ´marca 1´, y en second sample seleccionar:
´marca 2´
Ok

Los resultados se dan a continuación:


• Paired T-Test and CI: marca 1, marca 2

• Paired T for marca 1 - marca 2

• N Mean StDev SE Mean


• marca 1 8 39046.9 5380.7 1902.4
• marca 2 8 37611.0 5243.9 1854.0
• Difference 8 1435.88 1104.48 390.49

• 95% CI for mean difference: (512.51, 2359.24)


• T-Test of mean difference = 0 (vs not = 0): T-Value = 3.68 P-Value = 0.008

En este caso las hipótesis que se plantearon fueron: Ho: el promedio de las
diferencias es =0 contra Ha: el promedio de las diferencias es diferente a cero.
Con un valor p muy cercano a cero, nos indica que si existe diferencia en el
rendimiento promedio entre los dos tipos de llanta. Y según el intervalo para el
promedio de diferencia, este promedio resultó ser mayor que cero, véase el
diagrama de abajo. Por lo tanto , en promedio, tiene un mejor rendimiento la
llanta de la marca 1 que la llanta de la marca 2.
Intervalo
Para el
Promedio
2359.24 De diferencias
0 512.51
Problema 5:

Se usan dos tipos diferentes de máquina de modelado por inyección


para hacer piezas de plástico. Una pieza se considera defectuosa si
presenta una merma excesiva o está decolorada. Se seleccionan
dos muestras aleatorias de 300 piezas de cada máquina,
encontrándose 12 piezas defectuosas en la máquina 1 y 8 piezas
defectuosas en la máquina 2. ¿Es razonable concluir que la
máquina1 produce más defectuosos que la máquina 2?

En este problema se realizará una comparación de proporciones de


defectuosos. El requisito para realizar este análisis es, que entre la
información de la máquina 1 y la información de la máquina 2 sea
independiente, no este relacionada, y por otro lado que las muestras
no sean menor que 30.

Las instrucciones por MINITAB son:

Stat > Basic statistics > 2 Proportions


En Summarized data escribir en First :Trials: 300, en First: events, 12, en Second: Trials: 300,
Second: events: 8.
En options, en alternative, seleccionar: greater than
Ok > ok
Los resultados se dan a continuación:

• Test and CI for Two Proportions


• Sample X N Sample p
• 1 12 300 0.040000
• 2 8 300 0.026667
• Difference = p (1) - p (2)
• Estimate for difference: 0.0133333
• 95% lower bound for difference: -0.0107579
• Test for difference = 0 (vs > 0): Z = 0.91 P-Value = 0.181

Tanto el intervalo, como la prueba nos indican que no hay suficiente


evidencia para indicar que una máquina produce más defectuosos
que la otra. Cero esta incluido en el intervalo y valor p >0.1.
Intervalo para la diferencia

-0.01 0
Comparación de varias medias
El objetivo es verificar si entre varios promedios (más de dos) existe alguna
diferencia, o estadísticamente no son diferentes. Cada promedio de una
población o proceso diferente.

Las hipótesis se plantean de la siguiente manera:

Ho: Las medias son iguales


Ha: Por lo menos alguna media es diferente.

Los supuestos que se deben de cumplir son:

 Cada muestra deberá de ser aleatoria.


 Entre las muestras debe de existir independencia.
 Cada muestra deberá de provenir de una distribución normal.
 Las varianzas de cada población o proceso deberán de ser iguales

Este tipo de prueba se puede analizar como un análisis de varianza


(ANOVA), donde se considera una variable de respuesta ante un
factor con varios niveles. Y se trata de comparar los promedios de la
variable de respuesta antes los diferentes niveles del factor considerado.
Si en el estudio del Análisis de Varianza resulta que por lo menos un
promedio es diferente a los demás, lo que se procede a hacer es
comparar todos los promedios por parejas, para encontrar con más
precisión, que promedios son los que realmente son diferentes.

La prueba de comparaciones por parejas que será considerará, se le


llama comparaciones de Tukey.

La idea es construir varios conjuntos de intervalos de confianza, el


primer conjunto, son intervalos para las diferencias del primer
promedio con cada uno de los demás promedios, el segundo
conjunto, son intervalos para las diferencias del segundo promedio
con cada uno de los demás promedios (sin considerar el primer
promedio), y así sucesivamente.

Para verificar los supuestos de independencia, normalidad y


homogenidad de varianzas, se hace por medio de los residuales.
Entendiendo como residual a la diferencia entre el valor observado
y el valor ajustado. Los residuales pueden ser calculados con
MINITAB.
Problema 6:

Se pretende estudiar la resistencia a la tensión de


determinada marca de cemento. Cuatro técnicas de
mezclado se pretenden comparar: técnica 1, técnica 2,
técnica 3 y técnica 4. Se han recolectado los
siguientes datos:
Técnica Resistencia a la tensión
1 3129 3000 2865 2890
2 3200 3300 2975 3150
3 2800 2900 2985 3050
4 2600 2700 2600 2765

Se quiere verificar si existe una diferencia entre los promedios de


resistencia a la tensión en las cuatro técnicas.

Por medio de MINITAB:


Abrir el archivo: Tecnicascemento.MPJ
Stat > Anova > One-Way
Seleccionar en Response: Resistencias
Seleccionar en Factor: Técnicas
Seleccionar Store residuals
Seleccionar Comparisons
Seleccionar Tukey´s…
Ok >ok

Los resultados se dan a continuación:

• One-way ANOVA: Resistencias versus Técnicas


• Source DF SS MS F P
• Técnicas 3 489740 163247 12.73 0.000
• Error 12 153908 12826
• Total 15 643648
• S = 113.3 R-Sq = 76.09% R-Sq(adj) = 70.11%

• Individual 95% CIs For Mean Based on


• Pooled StDev
• Level N Mean StDev ---+---------+---------+---------+------
• Técnica 1 4 2971.0 120.6 (------*-----)
• Técnica 2 4 3156.3 136.0 (-----*-----)
• Técnica 3 4 2933.8 108.3 (-----*-----)
• Técnica 4 4 2666.3 81.0 (-----*-----)
• ---+---------+---------+---------+------
• 2600 2800 3000 3200
El valor p resultó cero, lo que significa que por lo menos un promedio es
diferente a los demás. Posteriormente se construyeron los intervalos de
confianza individuales, en donde se observa que la resistencia más grande
es para la técnica 2 y la más pequeña es para la técnica 4.

A continuación las comparaciones de Tukey:

• Técnicas = Técnica 1 subtracted from:

• Técnicas Lower Center Upper


• Técnica 2 -52.6 185.3 423.1
• Técnica 3 -275.1 -37.2 200.6
• Técnica 4 -542.6 -304.8 -66.9

• Técnicas = Técnica 2 subtracted from:

• Técnicas Lower Center Upper


• Técnica 3 -460.3 -222.5 15.3
• Técnica 4 -727.8 -490.0 -252.2

• Técnicas = Técnica 3 subtracted from:

• Técnicas Lower Center Upper


• Técnica 4 -505.3 -267.5 -29.7

Interpretación:

Si un intervalo contiene al cero, entonces no hay evidencia suficiente


para indicar que un promedio es superior al otro. Si un intervalo no
contiene al cero, significa que los promedios correspondientes a
este intervalo son diferentes.

En el problema, se puede decir que el promedio de resistencia a la


tensión es superior en la técnica 1 que en la técnica 4. También
que el promedio de resistencia de la técnica 2 es superior al de la
técnica 2 y el de la técnica 3 es superior al de la técnica 4.

La normalidad se puede analizar con los residuales, estos fueron


almacenados en la tercera columna del archivo de los datos:

Stat > basic statistics > Normality Test


Seleccionar la tercera columna in variable
ok
La prueba de la normalidad de los residuales se da a continuación:

Probability Plot of RESI1


Normal
99
Mean 0
StDev 101.3
95 N 16
AD 0.186
90
P-Value 0.890
80
70
Percent

60
50
40
30
20

10
5

1
-300 -200 -100 0 100 200 300
RESI1

No mostrándose problema de no normalidad, valor p >.8

El análisis de homogenidad de varianzas se deja para un módulo de


diseños de experimentos.
Prueba de hipótesis para variables por atributos
La metodología estadística que se aplica a datos cuantitativos no
puede ser igual a la metodología que se aplica a datos cualitativos
o variables por atributos. En los análisis cuantitativos, se suma, se
resta, se obtienen promedios, varianzas, etc. Los valores de una
variable cualitativa, no son numéricos, son categorías o atributos.
Es un error cuantificar loa valores y tratarlos en forma cuantitativa.

Las variables por atributos se clasifican de la siguiente manera:

Variables Binarias. Toman solo dos valores: “éxito” y “fracaso”. Este


tipo de variables ya se han tratado en inferencia estadística de una
proporción y en comparaciones de dos proporciones.

Variables Nominales. Toman más de dos valores, por ejemplo: “turno


1”, “turno 2”, “turno 3”.

Variables ordinales. Toman varios valores, pero entre ellos existe una
jerarquía: “malo”, “regular”, “bueno”, “excelente”.
La metodología para proporciones, solo sirve para variables binarias.
En este parte se tratarán pruebas de hipótesis, para verificar si dos
variables por atributos son independientes o de alguna manera
están relacionadas.

Supongamos una variable A con los siguientes atributos : A1, A2,…,Ak


y que otra variable B tiene los siguientes atributos: B1, B2,…,Bm.
La idea es obtener una muestra aleatoria de tamaño n y contar
cuantos casos cumplen con el atributo 1 de A y el atributo 1 de B,
cuantos el atributo 1 de A y atributo 2 de B, y asi sucesivamente.
Con esta información se análiza estadísticamente si existe una
relación entre ambas variables A y B o son independientes.

Existen varias estadísticas de prueba para comprobar la posible


dependencia, pero solo consideraremos la prueba de la Chi-
Cuadrada. Cabe señalar que esta la más usada para comprobar
este tipo de asociaciones.
Las hipótesis que se plantean son:

Ho: Las variables A y B son independientes


Ha: Las variables A y B son dependientes

Problema:

Determinadas cápsulas para medicina son manufacturados en tres turnos


(T1,T2 y T3). Los defectos de las cápsulas terminadas, se clasifican en
defectos graves (G), defectos medianos (M) y defectos no graves (NG). Se
pretende analizar si algún tipo de defecto es más común que otro, si el tipo
de defecto depende del turno. Además, si algún turno este produciendo
más defectuosos que los demás turnos.

De una muestra de 1258 cápsulas defectuosas, se obtuvieron los siguientes


resultados:

En el primer turno se contaron 49, 69 y 256 cápsulas con defectos graves,


medianos y no graves respectivamente. En el segundo turno, se
observaron 43, 152, 200 cápsulas con defectos graves, medianos y no
graves respectivamente. Y en el último turno, se contaron 95, 82, 289
cápsulas con defectos graves, medianos y no graves respectivamente.
Realizaremos el análisis por medio de MINITAB:

Abrir MINITAB
File > Open project
Seleccionar el archivo tipodedefecto.MPJ
Stat > Tables > Cross tabulation and Chi-Square
Seleccionar en For rows: Tipo de defecto
Seleccionar en For columns: Turno
Seleccionar en Frecuencies are in: Número de cápsulas
En Display seleccionar: counts
En Chi-Square sleccionar: Chi-Square Analysis y Expected cells counts
Ok>ok
Lo que se espera
Los resultados se dan a continuación: en cada casilla
si entre las dos
• Tabulated statistics: Tipo de Defecto, Turno variables existiera
• Using frequencies in Número de cápsulas

independencia
Rows: Tipo de Defecto Columns: Turno
• TURNO 1 TURNO 2 TURNO 3 All

• GRAVE 49 43 170 262


• 67.1 82.3 112.7 262.0

• MEDIANO 69 152 82 303


• 77.6 95.1 130.3 303.0

• NO GRAVE 204 200 289 693


• 177.4 217.6 298.0 693.0

• All 322 395 541 1258


• 322.0 395.0 541.0 1258.0
• Pearson Chi-Square = 111.299, DF = 4, P-Value = 0.000
• Likelihood Ratio Chi-Square = 109.196, DF = 4, P-Value = 0.000

En estos resultados, se presentan dos pruebas diferentes, con el mismo fin. En


ambas pruebas el valor p es igual a cero. Lo que significa que si existe una
dependencia entre los turnos y el tipo de defecto. De acuerdo a las gráficas
realizadas en el módulo 1:

Chart of Número de cápsulas vs Tipo de Defecto


GRAVE MEDIANO NO GRAVE
TURNO 1 TURNO 2
300

200
Número de cápsulas

100

0
TURNO 3
300

200

100

0
GRAVE MEDIANO NO GRAVE
Tipo de Defecto
Panel variable: Turno

El tipo de defecto más frecuente es el no grave. El turno 2 produce más cápsulas


con defectos medianos, que los demás turnos. El turno 3 es el que reporta
más defectos graves que los demás turnos y, en defectos no graves, también
el turno 3 es el que produce más artículos defectuosos. Es importante poner
atención sobre el turno 3.
Análisis de Regresión Simple

Con análisis de regresión simple se examina la relación entre una variable


continua Y, llamada variable de respuesta y una variable independiente X,
llamada variable de predicción.

La forma general de la ecuación de un modelo de regresión simple es:

Y = a + bX + є

Donde a es el valor de Y cuando X es igual a cero, b es la pendiente, el


cambio de Y, cuando se incrementa una unidad X, y є es un error aleatorio.

La idea es obtener una muestra de pares ordenados (x1,y1), (x2,y2),…,(xn,yn).


Primero se obtiene una diagrama de dispersión para ver la posibilidad de
una relación entre las variables X y Y. De observarse una relación entre
ambas variables, observar si es del tipo lineal o de otro tipo.
25
20

20

y6
y

10
15

10
0
0 10 20 0 10 20
x x6

Lineal Polinomial

En caso de observar que la relación es lineal, se procede a estimar los


coeficientes de la línea recta a y b, por el método de mínimos
cuadrados. Este método lo que hace es encontrar las mejores
estimaciones de los coeficientes, dicho de otra manera, estima la
línea recta que pasa en forma óptima sobre los puntos observados.
200 10

175

150 Valor de un
125 residual
100

75

50

50 75 100 125 150 175 200

Los valores observados de Y difieren de los valores ajustados por el


modelo de regresión. Estas diferencias se llaman residuales.

El modelo de regresión simple deberá de cumplir 3 supuestos que se


hacen sobre los residuales para poder realizar inferencia sobre los
parámetros a y b y poder calcular intervalos de confianza de
predicción:

 Los residuales deberán de ser independientes entre sí.


 Deberán de comportarse con distribución normal.
 Deberán de tener varianza constante, a través de los diferentes valores
de X.
Para aceptar el modelo de regresión y poder realizar predicciones
sobre Y para determinados valores de X, es necesario verificar que
estos supuestos se cumplen.

Problema:

Se sospecha que el número de libras de vapor consumidas


mensualmente por una planta química se relaciona con la
temperatura mensual promedio. Se obtuvieron mediciones
mensuales durante un año. Los datos se encuentran en el archivo
de MINITAB: consumovstemperatura.MPJ

Para darnos una idea si entre ambas variables existe una relación se
realizará primero un diagrama de dispersión:

Abrir el archivo consumovstemperatura.MPJ


Graph> scatterplots > simple
Ok
En Y variables, seleccionamos la columna: consumo
En X variables, seleccionamos la columna: temperatura
Ok

El diagrama se muestra a continuación:


Scatterplot of Consumo vs Temperatura
700

600

500

Consumo
400

300

200

20 30 40 50 60 70
Temperatura

Mostrándose una relación fuerte entre ambas variables. Por lo tanto, realizaremos el
análisis de regresión completo:

Stat > Regression > Fitted Line Plot


En Response (Y) seleccionar: Consumo
En Predictor (X) seleccionar: Temperatura
En Graphs, seleccionar four in one
Ok > ok

La recta ajustada resultó ser:

• The regression equation is

• Consumo = - 4.78 + 9.373 Temperatura


El análisis de varianza se muestra a continuación:

• Analysis of Variance

• Source DF SS MS F P
• Regression 1 272350 272350 944.45 0.000
• Error 10 2884 288
• Total 11 275234

Es una prueba de hipótesis, donde las hipótesis son:

Ho: b=0 (la pendiente del modelo es igual a cero)


Ha: b≠0 (la pendiente del modelo es diferente a cero)

En este caso el valor p, es igual a cero, lo cual nos indica que la pendiente es
diferente de cero. En palabras del problema, significa que es evidente que
por cada cambio que se tiene en al temperatura ambiental, se tendrá un
cambio en el consumo de vapor, en la planta. En este caso, se estima que,
por cada unidad de temperatura que se aumente, 9.373 libras aumentará el
consumo de vapor.
La gráfica de los puntos observados con la línea ajustada resultó ser:
Fitted Line Plot
Consumo = - 4.78 + 9.373 Temperatura
700 S 16.9815
R-Sq 99.0%
R-Sq(adj) 98.8%
600

500

Consumo
400

300

200

20 30 40 50 60 70
Temperatura

Por otro lado el coeficiente de determinación, el cuadrado del


coeficiente de correlación, resulto ser R2= 99%. La interpretación
que se da es: la variabilidad de la variable, consumo de vapor es
explicada en un 99% por medio del modelo lineal, siendo la variable
de predicción la temperatura.

A continuación verificaremos los supuestos con las cuatro gráficas en


uno:
Residual Plots for Consumo
Normal Probability Plot of the Residuals Residuals Versus the Fitted Values
99
20
90
10

Residual
Percent

50 0

-10
10
-20
1
-40 -20 0 20 40 200 300 400 500 600
Residual Fit t ed Value

Histogram of the Residuals Residuals Versus the Order of the Data


4
20

3 10
Frequency

Residual
2 0

-10
1
-20
0
-20 -10 0 10 20 1 2 3 4 5 6 7 8 9 10 11 12
Residual Observat ion Order

Con la primera gráfica se puede observar que el supuesto de normalidad


si se cumple. Con la segunda gráfica se muestra que el supuesto de
aleatoriedad en los residuales se cumple, esto es no existe un patrón
definido, además no se nota que la varianza sea más grande para
algunas observaciones. Y la cuarta gráfica confirma la aleatoriedad de
las observaciones (o residuales). El histograma en este caso no es útil,
un histograma no va tener una forma definida si el número de
observaciones es de 30 o más.
En conclusión, el consumo de vapor puede ser explicado en una forma
lineal por medio de la variable temperatura ambiental, tanto la
gráfica de la línea ajustada con las observaciones, como el
coeficiente de determinación, como la prueba de hipótesis confirma
que el modelo lineal ajustado es bastante bueno. Para validar el
modelo se verificaron los supuestos por medio de las cuatro
gráficas de los residuales, no encontrándose que algún supuesto
sea violado.

El tema de regresión es muy amplio, existe el ajuste de modelos que


nos son lineales, por ejemplo, cuadráticos, cúbicos, logarítmicos,
etc. Por otro lado, existe análisis de regresión múltiple, donde se
tiene una variable de respuesta (Y) y varias variables de predicción
X1, X2, …, Xk.

En el tercer módulo: Análisis de Sistemas de Medición, se necesitará


de las bases vistas en este módulo de Análisis de Regresión
Simple.
Nota Final:
La base de la inferencia estadística, son las pruebas de hipótesis e
intervalos de confianza. Se sugiere que para cualquier inferencia que se
pretenda realizar: se tenga conocimiento de quien es el parámetro que
se pretende estimar; tener la seguridad de que la información muestral
con la que se cuenta corresponde al problema que se va tratar; verificar
que metodología o metodologías son las adecuadas para el análisis que
se va a realizar; comprobar que se cumplan los supuestos, casi siempre
existe por lo menos algún supuesto que se debe de cumplir; realizar los
cálculos correspondientes, ahora ya existen paquetes estadísticos muy
completos y eficientes; y por último interpretar adecuadamente los
resultados, si se tuvo claridad en el problema desde un principio, las
interpretaciones y por lo tanto conclusiones serán claras y sin confusión
alguna.

Es muy importante señalar que todo el análisis estadístico de calidad es


basado en alguna la inferencia estadística, con un apoyo descriptivo del
problema. Lo tratado en este módulo ha sido tan solo un repaso de la
inferencia estadística elemental.

También podría gustarte