Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
-Variables aleatorias
-Función de distribución
- Expectativa
los datos.
Introducción
-Función de distribución
- Expectativa
-Momentos y propiedades.
Distribución continua:
Uniforme,
-Weibull,
Distribución gamma
Gamma distribución.
UNIDAD IV: Pruebas de hipótesis:
Introducción
-Nivel de significancia
http://www.ub.edu/aplica_infor/spss/cap4-5.htm
comparar medias poblacionales los resultados no son fiables ya que la estimación del error
típico que realiza el programa no coincide con la del estadístico de prueba. Para resolver el
problema con el programa SPSS se deberá cruzar la variable analizada con la que define los
cuadrado.
cuadrado con (I-1)(J-1) grados de libertad. Las Eij se calculan multiplicando las frecuencias marginales y dividendo el
producto por n. Estas Eij son estimaciones de las frecuencias absolutas que cabría esperar en cada casilla bajo el supuesto
de que la proporción de éxitos es la obtenida a partir del total de observaciones muestrales sin considerar diferencias entre
La secuencia es:
Analizar
Estadísticos Descriptivos
Tablas de contingenci
En el cuadro de diálogo se indica la variable que se quiere contrastar (filas), la variable que define los dos grupos
EJEMPLO
Con referencia a la encuesta Enctrans.sav se quiere comprobar si la proporción de alumnos con vehículo difiere
La hipótesis nula del contraste es ; siendo la proporción poblacional de hombres con vehículo y la
Con la secuencia Analizar > Estadísticos Descriptivos > Tablas de contingencia se accede al cuadro de diálogo donde se
indica que la variable a contrastar es Vehículo y que la variable de agrupación es el Género, y se selecciona la opción Chi-
Si es cierto que
El estadístico Chi-cuadrado toma el valor 0,998 y el nivel de significación crítico es 0,318, por lo tanto no se rechaza la
hipótesis nula para los niveles de significación habituales y se puede aceptar que no hay diferencia entre la proporción de
Para ejecutar un ANOVA, debe tener una variable de respuesta continua y al menos un factor
categórico con dos o más niveles. Los análisis ANOVA requieren datos de poblaciones que sigan
una distribución aproximadamente normal con varianzas iguales entre los niveles de factores. Sin
embargo, los procedimientos de ANOVA funcionan bastante bien incluso cuando se viola el
supuesto de normalidad, a menos que una o más de las distribuciones sean muy asimétricas o si
las varianzas son bastante diferentes. Las transformaciones del conjunto de datos original pueden
corregir estas violaciones.
Por ejemplo, usted diseña un experimento para evaluar la durabilidad de cuatro productos de
alfombra experimentales. Usted coloca una muestra de cada tipo de alfombra en diez hogares y
mide la durabilidad después de 60 días. Debido a que está examinando un factor (tipo de
alfombra), usted utiliza un ANOVA de un solo factor.
Si el valor p es menor que el nivel de significancia, entonces usted concluye que al menos una
media de durabilidad es diferente. Para información más detallada sobre las diferencias entre
medias específicas, utilice un método de comparaciones múltiples como el de Tukey.
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-statistics/anova/supporting-
topics/basics/what-is-anova/
ANOVA de una vía para datos
independientes
Introducción
El ANOVA de una vía, ANOVA con un factor o modelo factorial de un solo factor
es el tipo de análisis que se emplea cuando los datos no están pareados y se
quiere estudiar si existen diferencias significativas entre las medias de una
variable aleatoria continua en los diferentes niveles de otra variable cualitativa o
factor. Es una extensión de los t-test independientes para más de dos grupos.
Las hipótesis contrastadas en un ANOVA de un factor son:
Para poder calcular las diferentes varianzas en primer lugar se tienen que
obtener las Sumas de Cuadrados (SS o Sc):
Suma de Cuadrados Total o Total Sum of Squares (TSS): mide la
variabilidad total de los datos, se define como la suma de los cuadrados de
las diferencias de cada observación respecto a la media general de todas
las observaciones. Los grados de libertad de la suma de cuadrados totales
es igual al número total de observaciones menos uno (N-1).
Suma de cuadrados del factor o Sum of Squares due to Treatment
(SST): mide la variabilidad en los datos asociada al efecto del factor sobre
la media (la diferencia de las medias entre los diferentes niveles o grupos).
Se obtiene como la suma de los cuadrados de las desviaciones de la media
de cada proveedor respecto de la media general, ponderando cada
diferencia al cuadrado por el número de observaciones de cada grupo. Los
grados de libertad correspondientes son igual al número niveles del factor
menos uno (k-1).
Suma de cuadrados residual/error o Sum of Squares of Errors
(SSE): mide la variabilidad dentro de cada nivel, es decir, la variabilidad
que no es debida a variable cualitativa o factor. Se calcula como la suma de
los cuadrados de las desviaciones de cada observación respecto a la
media del nivel al que pertenece. Los grados de libertad asignados a la
suma de cuadrados residual equivale la diferencia entre los grados de
libertad totales y los grados de libertad del factor, o lo que es lo mismo (N-
k). En estadística se emplea el termino error o residual ya que se considera
que esta es la variabilidad que muestran los datos debido a los errores de
medida. Desde el punto de vista biológico tiene más sentido llamarlo Suma
de cuadrados dentro de grupos ya que se sabe que la variabilidad
observada no solo se debe a errores de medida, si no a los muchos
factores que no se controlan y que afectan a los procesos biológicos.
TSS=SSE+SSTTSS=SSE+SST
Una vez descompuesta la suma de cuadrados se puede obtener la
descomposición de la varianza dividiendo la Suma de Cuadrados entre los
respectivos grados de libertad. De forma estricta, al cociente entre la Suma de
Cuadrados y sus correspondientes grados de libertad se le denomina Cuadrados
Medios o Mean Sum of Squares y pueden ser empleado como estimador de la
varianza:
ANOVA se define como análisis de varianza, pero en un sentido estricto, se trata
de un análisis de la Suma de Cuadrados Medios.
Estimados todos, bienvenidos a un nuevo capítulo de Stats SOS, espero que estén muy bien y
que todo vaya maravilloso para ustedes.
Ya hemos avanzando bastante y cada vez la complejidad de los temas aumentan pero estoy
seguro que ustedes están yendo muy bien. Tal como mencioné el post pasado, ahora vamos a
ver una extensión del ANOVA, que es el ANOVA de dos vías o Two way ANOVA. Los
que no recuerdan qué es el ANOVA simple no hay ningún problema, pueden ir a este post que
los ayudará a refrescar su memoria.
Entonces, el objetivo de la aventura de hoy es describir y explicar de manera sencilla, el
ANOVA de dos vías. Pero antes de ello, brevemente me iré atrás en el tiempo y mencionaré
algo sobre el ANOVA simple, ¿está bien?
Tal como ustedes my bien saben, el ANOVA es una prueba lineal, que lo que busca es
relacionar una variable categórica que tiene más de tres grupos, con una variable de intervalo.
Si no recuerdan a qué me refiero, este enlace les puede hacer el truco.
En el caso del ANOVA de dos vías, la idea ya no es relacionar solo una variable categórica con
una variable de intervalo, sino dos variables categóricas con una de intervalo. Por
eso, es que se llama de dos vías, porque ya no se desea relacionar una variable
(categórica) con otra variable (intervalo), sino dos o más variables categóricas,
con esta de intervalo.
¿Suena a un idioma oscuro y malévolo? ¡No hay problema! Vamos a un ejemplo que seguro
nos aclarará el panorama.
Imagínense que tenemos interés en conocer los niveles de estrés de un grupo de jóvenes y
cómo estos niveles se relacionan con el sexo y la percepción de salud. Entonces, en este caso
tenemos tres variables: a) Estrés que es medida con un cuestionario y tiene puntajes y por
ende será nuestra variable de intervalo (variable a). b) Sexo, que es una variable categórica
que puede ser hombre o mujer (variable b). c) Percepción de salud, que es otra variable
categórica que tiene cinco opciones. Mala, Regular, Buena, Muy buena y Excelente (variable
c).
¡Muy bien! ¿Hasta ahí están conmigo? Espero que sí, así que sigamos. Luego que recogemos
toda la información la ingresamos en el SPSS y estamos frente a la computadora, ¿y ahora,
qué hago? ¡Muy sencillo! Primero se toman un delicioso café o una infusión para los que no
son amantes del cafe y siguen esta ruta.
En este caso, la ruta se llama de esta manera porque el ANOVA de dos vías es un análisis
lineal que solo usa una variable como resultado, que en nuestro ejemplo es estrés.
¡Excelente! Luego de ello, les debe haber aparecido un menú. En este caso, tenemos que poner
nuestra variable dependiente que sería la variable que queremos analizar. En ese
caso, ponemos ahí la variable a, que es el nivel de estrés de los jóvenes.
Luego, en el recuadro de factores fijos, tenemos que poner nuestras otras dos
variables: Sexo (variable b) y Percepción de Salud (variable c). Estas variables se
ponen en este recuadro porque son las que deseamos analizar directamente. Los que tienen
curiosidad de conocer qué son los otros recuadros, siempre pueden dejar un maravilloso
comentario y encantado de ayudarlos.
¿Hasta ahí? ¿Están acá? ¡Muy bien, sigamos! Luego de ello, es importante ir a gráficos y aquí
tienen varias opciones, este menú les dice cómo es que quieren su gráfico. Para este ejemplo,
lo que haremos es lo siguiente: en eje horizontal pondremos la percepción de salud y en líneas
separadas el sexo. Entonces, al final, nos aparecerá un gráfico con dos líneas, una de
hombres y otra de mujeres. Además, en el eje horizontal (el eje echado) saldrán
las cinco percepciones de salud (ver arriba). Finalmente, el eje vertical (el parado)
les saldrán las medias promedio de estrés .
Importante: Antes de salir del menú debemos apretar (o pinchar) en añadir para que lo
que hemos escogido aparezca en el recuadro de abajo. Esto es importantísimo, porque sino el
gráfico no saldrá. Luego debemos poner continuar.
Después de ello, tenemos que ir al botón de Post Hoc y ahí es importante poner
los factores en el recuadro del costado que dice “pruebas post hoc para”. Además, es
necesario poner un tick en el análisis que queremos. Para este caso, voy a poner Scheffe,
porque es lo convencional, sin embargo existen otros análisis más precisos como Dunett y
Tukey-B. Para saber más de esto pueden ir al capítulo de post hoc y a la parte de comentarios
que les puede dar algunas ideas. Un dato interesante, es que este análisis de post hoc, es igual
al que ya hemos visto antes, entonces ya estamos en la etapa donde los análisis comienzan
juntarse entre ellos. Luego de hacer click en todas estas opciones, ponemos continuar.
Finalmente, debemos ir a opciones. Ahí, es necesario pasar las variables del recuadro
de “Factores e interacciones” al recuadro contiguo “Mostrar las medias para”. En
este caso, tenemos que poner todas las variables menos la que dice “Overall” porque lo que
nos interesa es analizar variable por variable. Entonces, queremos analizar, sexo (variable
b) y percepción de salud (variable c) y la interacción entre ellas, que en este caso está
representado como sexo*percepción general. Los que no recuerdan qué es una
interacción pueden ir a este post, que los puede ayudar. ¡Así que no se preocupen! :).
Luego, sería importante también incluir estadísticos descriptivos y la prueba de
homogeneidad de varianzas y poner continuar. Los que no recuerdan qué es un estadístico
descriptivo, pueden ir a este post. Por otro lado, los que no recuerdan qué es una prueba de
homogeneidad de varianzas, este post de la T-student les puede dar la respuesta.
¡Muy bien! Ahora sí, ¡veamos los resultados! Lamento que este post esté siendo un poco largo,
pero a medida que se vuelva más complejo el análisis, lamentablemente serán más extensos
los posts. En algunos casos intentaré separarlos en dos para aliviar el tema.
¡Importante! El SPSS les va a botar un montón de tablas, y muchas de ellas van a ser
redundantes, para este post sólo voy a escoger las tablas que son de mayor utilidad.
Tabla 1
Esta primera tabla, mide exactamente lo mismo que ya hemos visto antes, ¿En dónde lo
vimos? En la t-student para muestras independientes. Lo que mide esta tabla es si las
varianzas son iguales (homogéneas) o diferentes (heterogéneas). Como la significación es
mayor a 0.05 no podemos rechazar la idea que las varianzas son iguales. Si no
recuerdan por qué se da esto, pueden ir al post de estadística inferencial que los puede
ayudar. Un tema importante, para que este análisis sea lo más preciso posible y cumpla
todas las reglas de juego, es necesario que las varianzas sean iguales. Dado que en
nuestro ejemplo ocurre esto, podemos ser felices y seguir mirando las siguientes tablas.
Tabla 2
Esta tabla es la central en el análisis del anova de dos vías. Fírmenlo, recuérdenlo y apúntenlo.
Aquí, lo que estamos viendo es la significación y si existe relación entre nuestras variables y el
estrés. Aquí podemos ver tres cosas importantes: a) Percepción de salud, la significación es
menor a 0.05 (es 0.011), los cual significa que existe relación o diferencias
significativas entre las diferentes percepciones de salud y los niveles de
estrés. b) Sexo, la significación es menor a 0.05 nuevamente, lo cual significa que sí existe
relación entre el sexo y los niveles de estrés en este grupo de jóvenes. En otras
palabras, hay diferentes por sexo en los niveles de estrés. Finalmente, c) SG*Sexo (que sería la
interacción de percepción de salud con sexo), no muestra relación con los niveles de
estrés. Por ello, la variable sexo y percepción de salud, tienen una relación con estrés que es
independientemente de cada una. ¿Qué significa eso? Que no hay una interacción entre
Sexo y percepción de salud, y el conjunto relacionado de ambas no generan un
cambio en los niveles de estrés. Los que no recuerdan qué es una interacción
siempre pueden ir a este pot a refrescar la memoria.
Tabla 3
Esta tabla nos muestra la diferencia en los niveles de estrés entre hombres y mujeres. Como
podemos ver, los hombres reportan menos niveles de estrés que las mujeres. ¿Cómo podemos
saber esto? De dos maneras: a) podemos fijarnos en la tabla 2 donde mostraba que hay
una relación significativa entre sexo y niveles de estrés. b) podemos ver los intervalos
de confianza donde claramente se muestra que los intervalos del promedio de hombres
no chocan o traslapan con el de mujeres. ¿Cómo así? El límite superior del intervalo de
hombres es 31.301, mientras que el límite inferior de mujeres es 36.343. Por ello, nunca se
chocan y eso es una prueba más que hay una diferencia significativa entre sexo. Los que
quieren refrescar la memoria sobre intervalos de confianza, pueden ir a este post que les será
de utilidad.
Tabla 4
Finalmente, pasemos a la última tabla numérica. ¿Siguen acá conmigo? ¿Está todo bien?
¡Excelente sigamos!
Esta tabla intuyo que también debe ser familiar para ustedes, si no lo es, ¡no hay ningún
problema! Pueden ir a este post y refrescar la memoria. Esta es una tabla de Post Hoc. Aquí, lo
que le pedimos al SPSS es que nos muestre las diferencias entre cada una de las categorías de
percepción de salud (Mala, Regular, Muy buena y Excelente) con las otras. No iremos muy al
detalle con esta tabla porque es algo que ya hemos visto antes. Pero lo que sí sería importante
mencionar es que si seguimos el clásico criterio de la significación menor a 0.05 podemos
ver lo siguiente: Existen diferencias en los niveles de estrés entre las personas que dicen
tener la salud mala versus los que dicen tener la salud, muy buena y excelente. Las
personas con una percepción de mala salud, tienen mayores niveles de estrés que las
personas con percepción de muy buena y excelente salud.
Aparte, en todos los otros casos, no existe una relación entre la percepción de salud y los
niveles de estrés. Recuerden el post de estadística inferencial, nos morimos por rechazar la
primera hipótesis que dice que los niveles de estrés son iguales. Pero para lograr hacer esto,
nuestra significación debe ser menor a 0.05.
Gráfico 1
Finalmente, el gráfico, ¡o el famoso gráfico! No se asusten, no se tambalean ni se mareen en la
silla. Los gráficos deberían hacernos sonreír en lugar de preocuparnos porque nos dan una
representación gráfica de nuestros números. Nota: las medias marginales del lado
izquierdo nos muestran los promedios de estrés. Mientras más altos los puntos
más estrés. De este gráfico podemos encontrar varias cosas: a) Las mujeres reportan más
estrés que los hombres porque la línea verde que significan mujeres está más arriba que la de
hombres. b) Tener una mala percepción de salud está relacionada con más altos
niveles de estrés, especialmente en mujeres. Como dato curioso, en el caso de los
hombres, se puede ver en la gráfica que los hombres que reportan una percepción de salud
buena tienen ligeramente mayores niveles de estrés que los que dicen tener una percepción
regular.
Finalmente, y el dato más importante. No hay interacción entre sexo y
percepción de salud y esta no se relaciona con los niveles de estrés. ¿Cómo se ve
esto en la gráfica? Muy sencillo, si las líneas llegan a cruzarse entre sí, esto quiere decir
que sí hay interacción. En otras palabras, la representación de una interacción en la gráfica
es cuando las líneas chocan.
¡Muy bien! ¡Eso sería todo! Lamento que este post haya sido tan largo, espero que no estén
agotados, exhaustos ni hayan salido corriendo. Ya saben, que cualquier pregunta, comentario
o duda siempre pueden escribir y dejar un maravilloso comentario en la parte de comentarios.
Para la siguiente aventura de Stats SOS, veremos la regresión lineal simple. Y ahí se
percatarán nuevamente cómo todos estos análisis son parecidos y una misma familia
https://statssos.net/2015/03/30/dos-caminos-un-destino-el-anova-de-dos-vias/
l probar hipótesis en las que la estadística de prueba es discreta, la región crítica se puede
elegir de forma arbitraria y determinar su tamaño. Si es demasiado grande, se
puede reducir al hacer un ajuste en el valor crítico. Puede ser necesario aumentar
el tamaño de la muestra para compensar la disminución que ocurre de manera
automática en la potencia de la prueba (probabilidad de rechazar Ho dado que una
alternativa específica es verdadera).
Ensayo Bilateral
Ejemplos:
Solución:
1. Ensayo de hipótesis
Ho; = 70 años.
1. Regla de decisión:
2. Cálculos:
BIBLIOGRAFIA
http://www.amstat.org/publications/tas/index.htm
Tema 3. Introducción al contraste de hipótesis. Amón, J. (1991). Estadística para Psicólogos II. Capítulo 10, pp.
262-289. Madrid: Pirámide. Pardo, A. y San Martín, R. (1994). Análisis de Datos en Psicología II. Capítulo 3, pp.
125-184. Madrid: Ediciones Pirámide S.A. Hopkins, K.D., Hopkins, B.R. y Glass, G.V. (1997, 3ª ed). Estadística
Básica para las Ciencias Sociales y del Comportamiento. Capítulo 10, pp. 171-188. México: Prentice-Hall
Hispanoamericana. Tema 4. Contraste de hipótesis para algunos parámetros Amón, J. (1991). Estadística para
Psicólogos II. Capítulo 11, pp. 290-331. Capítulo 13, pp. 359-373. Madrid: Pirámide. Pardo, A. y San Martín, R.
(1994). Análisis de Datos en Psicología II. Capítulo 4, pp. 185-228. Capítulo 11, pp. 491-518. Madrid: Ediciones
Pirámide S.A. Hopkins, K.D., Hopkins, B.R. y Glass, G.V. (1997, 3ª ed). Estadística Básica para las Ciencias
Sociales y del Comportamiento. Capítulo 11, pp. 189-220. Capítulo 12, pp. 221-251. Capítulo 13, pp. 252-270.
Introducción
Control Estadístico de la Calidad
Enviado por Henrry Adalid Torres Céspedes
1.
2. Orígenes y evolución de la Calidad
3. Gurús
4. Técnicas de administración de la calidad
5. Aplicaciones de Ejemplos
6. Conclusión
7. Bibliografía
Introducción
El presente trabajo pretende explicar las ventajas que implica aplicar el Control Estadístico en
los procesos de producción con el fin de mejorar los procesos productivos, disminuyendo costos para así
ofrecer productos realmente competitivos.
Existe mucha literatura de control de calidad en sus distintas modalidades, todos los autores de calidad
coinciden en la necesidad de usar técnicas de calidad, y para cubrir esta necesidad existe un conjunto de
técnicas estadísticas llamadas herramientas básicas de la calidad que aplicada combinadamente forman el
Control Estadístico del Proceso (CEP).
Orígenes y evolución de la calidad
Previo a la conformación de los primeros grupos humanos organizados de importancia, las personas tenían
pocas opciones para elegir lo que habrían de comer, vestir, en donde vivir y como vivir, todo dependía de
sus habilidades en la cacería y en el manejo de herramientas, así como de su fuerza y voluntad, el usuario y
el primitivo fabricante eran, regularmente, el mismo individuo.
La calidad era posible definirla como todo aquello que contribuyera a mejorar las precarias condiciones de
vida de la época prehistórica, es decir, las cosas eran valiosas por el uso que se les daba, lo que era
acentuado por la dificultad de poseerlas.
Conforme el ser humano evoluciona culturalmente y se dinamiza el crecimiento de los asentamientos
humanos, la técnica mejora y comienzan a darse los primeros esbozos de manufactura; se da una
separación importante entre usuario o cliente y el fabricante o proveedor.
La calidad se determinaba a través del contacto entre los compradores y lo vendedores, las buenas
relaciones mejoraban la posibilidad de hacerse de una mejor mercancía, sin embargo, no existían garantías
ni especificaciones, el cliente escogía dentro de las existencias disponibles.
Conforme la técnica se perfecciona y las poblaciones se transforman poco a poco en pueblos y luego en
ciudades de tamaño considerable, aparecen los talleres de artesanos dedicados a la fabricación de gran
variedad de utensilios y mercancías, cada taller se dedicaba a la elaboración de un producto, eran
especialistas en ello y basaban su prestigio en la alta calidad de sus hechuras, las que correspondían a las
necesidades particulares de sus clientes. En esta etapa surge el comerciante, sirviendo de intermediario
entre el cliente y el fabricante.
Los gurús de nuestros días
Los gurús de esta nueva etapa idealizan las funciones y dinámica de la organización para insertarlas en un
nuevo modelo de comportamiento, relaciones y disciplinas. Entre estos tenemos:
W. EDWARDS DEMING (1900-1993)
William Edwards Deming nació en 1900 en Wyoming, E.U., se dedicó a trabajar sobre el control estadístico
de la calidad. Japón asumió y desarrollo los planteamientos de Deming, y los convirtió en el eje de
su estrategia de desarrollo nacional. En 1950 W. Edward Deming visitó Japón, dando conferencias
sobre Control de Calidad. A dichas conferencias asistieron un grupo numeroso y seleccionado de directivos
de empresas para crear las bases sobre las que instaurar el Premio Deming, premiando a
aquellas instituciones o personas que se caracterizaran por su interés en implantar la calidad.
JOSEPH MOSES JURAN (1904-199)
Nace en Rumania en 1904 y es otra de las grandes figuras de la calidad. Se traslada a Minnesota en 1912. Es
contemporáneo de Deming. Después de la II Guerra Mundial trabajó como consultor. Visita Japón en 1954
y convierte el Control de la Calidad en instrumento de la dirección de la empresa. Imparte
su conferencia sobre: "Gestión Sistemática del Control de Calidad". Se le descubre a raíz de la publicación
de su libro, desechado por otras editoriales: "Manual de Control de Calidad". Su fundamento básico de la
calidad, es que sólo puede tener efecto en una empresa cuando ésta aprende a gestionar la calidad.
KAORU ISHIKAWA (1915-)
El representante emblemático del movimiento del Control de Calidad en Japón es el Dr. Kaoru Ishikawa.
Nacido en 1915, se graduó en la Universidad de Tokio el año 1939 en Química Aplicada. Fue profesor en la
misma Universidad, donde comprendió la importancia de los métodos estadísticos, ante la dispersión
de datos, para hallar consecuencias. Desarrolla el Diagrama Causa-Efecto como herramienta para el
estudio de las causas de los problemas.
Parte de que los problemas no tienen causas únicas, sino que suelen ser, según su experiencia, un cúmulo
de causas. Sólo hay que buscar esta multiplicidad de causas, colocarlas en su diagrama.
PHILIP B. CROSBY (1926-2001)
El Dr. Genichi Taguchi nació en Japón en 1924, graduándose en la Escuela Técnica de la Universidad Kiryu,
su principal etapa profesional ha sido dentro de la Electrical Communication Laboratory (ECL) de la
Nippon Telephone and Telegraph Co. (1948-1961) en donde se enfocó a la mejora de la productividad en la
investigación y desarrollo. En sus métodos emplean la experimentación a pequeña escala con la finalidad
de reducir la variación y descubrir diseños robustos y baratos para la fabricación en serie, reduciendo los
tiempos de investigación, desarrollo y entrega del diseño.
SHIGEO SHINGO (1909-1990)
Nació en Japón en 1909, Shigeo Shingo tal vez no es tan conocido en Occidente como Ishikawa y Taguchi,
aunque la incidencia de su trabajo, especialmente en Japón, ha sido inmensa. Después de graduarse
en Ingeniería Mecánica en la Escuela Técnica Yamanahsi en 1930, se incorporó a la Fábrica de Ferrocarriles
Taipei, en Taiwán, donde introdujo los métodos de gestión científica.
Es interesante advertir que los sistemas poka-yoke, al utilizar dispositivos que evitan la aparición de
defectos, obvian la necesidad de medición. En general, los sistemas poka-yoke comprenden dos fases: el
aspecto de detección y el aspecto de regulación.
Los catorce pasos hacia el "cero defectos" de crosby
Denominados para que la administración conduzca a la organización a una posición productiva y
competitiva. En los años 60’s, Philip B. Crosby propuso un programa de 14 pasos a los que denominó "cero
defectos", a través de los cuales hizo entender a los directivos que cuanto se exige perfección ésta puede
lograrse, pero para hacerlo la alta gerencia tiene que motivar a sus trabajadores (Crosby:1979). De esta
forma planteaba la importancia de las relaciones humanas en el trabajo.
El Control Estadístico de la Calidad y la mejora de procesos.
Comenzando con la aportación de Shewhart sobre reconocer que en todo proceso de producción existe
variación (Gutiérrez:1992), puntualizó que no podían producirse dos partes con las mismas
especificaciones, pues era evidente que las diferencias en la materia prima e insumos y los distintos grados
de habilidad de los operadores provocaban variabilidad. Shewhart no proponía suprimir las variaciones,
sino determinar cuál era el rango tolerable de variación que evite que se originen problemas.
Para lograr lo anterior, desarrolló las gráficas de control al tiempo que Roming y Dodge desarrollaban las
técnicas de muestreo adecuadas para solamente tener que verificar cierta cantidad de productos en lugar de
inspeccionar todas las unidades. Este periodo de la calidad surge en la década de los 30’s a raíz de los
trabajos de investigación realizados por la Bell Telephone Laboratories.
En su grupo de investigadores destacaron hombres como Walter A. Shewhart, Harry Roming y Harold
Dodge, incorporándose después, como fuerte impulsor de las ideas de Shewhart, el Dr. Edwards W. Deming
(Cantú:1997).
Estos investigadores cimentaron las bases de lo que hoy conocemos como Control Estadístico de la
Calidad (Statistical Quality Control, SQC), lo cual constituyó un avance sin precedente en el
movimiento hacia la calidad,
Causas de variación
Existen variaciones en todas las partes producidas en el proceso de manufactura. Hay
dos fuentes de variación:
o variación aleatoria se debe al azar y no se puede eliminar por completo.
o variación asignable es no aleatoria y se puede reducir o eliminar.
Nota: la variación puede cambiar y cambiará la forma, dispersión y tendencia central de
la distribución de las características medidas del producto.
Diagramas de diagnóstico
Controles o registros que podrían llamarse "herramientas para asegurar la calidad de una fábrica", esta son
las siguientes:
Hoja de control (Hoja de recogida de datos)
Histograma
Análisis paretiano (Diagrama de pareto)
Diagrama de Ishikawa: Diagrama de causa y efecto (Espina de Pescado)
Estratificación (Análisis por Estratificación)
Diagrama de scadter (Diagrama de Dispersión)
Gráfica de control
Hay personas que se inclinan por técnicas sofisticadas y tienden a menospreciar, pero la realidad es que es
posible resolver la mayor parte de problemas de calidad, con el uso combinado de estas herramientas en
cualquier proceso de manufactura industrial.:
Detectar problemas
Delimitar el área problemática
Estimar factores que probablemente provoquen el problema
Determinar si el efecto tomado como problema es verdadero o no
Prevenir errores debido a omisión, rapidez o descuido
Confirmar los efectos de mejora
Detectar desfases
3. Identificar las causas principales a través de flechas secundarias que terminan en la flecha principal.
4. Identificar las causas secundarias a través de flechas que terminan en las flechas secundarias, así como
las causas terciarias que afectan a las secundarias.
5. Asignar la importancia de cada factor.
6. Definir los principales conjuntos de probables causas: materiales, equipos, métodos de trabajo, mano
de obra, medio ambiente (5 M’s).
7. Marcar los factores importantes que tienen incidencia significativa sobre el problema.
8. Registrar cualquier información que pueda ser de utilidad.
Un gráfico de control utiliza medidas de un proceso para determinar el comportamiento normal de dicho
proceso. La desviación típica es una medida de variabilidad que también puede calcularse, con las cuales
trazamos los límites de control superior e inferior. Incluyendo los datos futuros a medida que se obtienen,
veremos si los nuevos datos se corresponden con los resultados esperados. Si no es así, inferiremos que ha
sucedido algo infrecuente con lo que procederemos a buscar la causa. Estas causas son denominadas causas
especiales para diferenciarlas de las causas comunes de variabilidad, las cuales siempre están presentes y
son las causantes de la variación incluida en las observaciones previas. Las causas comunes se reflejan en
los cálculos de la media y de la desviación típica utilizados para elaborar el gráfico de control.
Tipos de diagramas de control de la calidad para variables
La media o la gráfica x barra
La media o la gráfica x barra está diseñada para variables de control como peso, longitud, etc. El límite
superior de control (LSC) y el límite inferior de control (LIC) se obtienen a partir de la ecuación:
donde es la media de las medias muestrales y es la media de las amplitudes muestrales.
El diagrama de amplitudes
El diagrama de amplitudes está diseñado para mostrar si la amplitud total de la medición está dentro o
fuera de control. El límite superior de control (LSC) y el límite inferior de control (LIC) se obtienen a partir
de la ecuación:
Aplicaciones
Ejemplo1
Se desea interpretar el siguiente gráfico.
De tal forma en el ejemplo podemos observar que el 33% de los factores generadores de costes son
responsables del 67% del total de los costes incurridos. De tal forma una reducción del 20% en los dos ítem
más importantes generarán una reducción en el coste total del orden del 13%.
A su vez los costes de reparaciones pueden y deben ser objeto también de un análisis paretiano de manera
tal de saber que tipo de reparaciones conforman este coste, y saber también a que línea de productos
responden dichos gastos. Lo mismo debe hacerse con los restantes costes (fallas, reprocesos, etc.).
Bibliografía
1) LIND, Douglas y MARCHAL, William y MASON, Robert. Estadística para administración y economía.
Alfaomega. Colombia. 11a edición. 2004.
2) CÓRDOVA, Jorge Herramientas estadísticas para la gestión en salud. 3ra edición. JC ediciones.
Versión electrónica (formato CD). Mayo 2003. Perú.
3) LIND, Douglas y MARCHAL, William y MASON, Robert. Estadística para administración y economía.
Alfaomega. Colombia. 10a edición. 2002.
4) Nathan Grabinsk & Alfred W. Klein, EL ANÁLISIS
FACTORIAL, Banco de México. Investigaciones Industriales
5) Niebel & Freivalds, INGENIERÍA INDUSTRIAL. MÉTODOS, ESTÁNDARES Y DISEÑO DEL TRABAJO,
Ed. Alfa omega
World Wide Web:
1) Barca, R.G., Control Estadístico de Procesos ( Junio 2001)
http://www.calidad.com.ar/calid111.html
2) Control Estadístico de Procesos (Febrero 2001)
http://www.calidad.com.ar/controe7.html
LIND, Douglas y MARCHAL, William y MASON, Robert. Estadística para administración y economía.
Alfaomega. Colombia. 11a edición. 2004.
CÓRDOVA, Jorge Herramientas estadísticas para la gestión en salud. 3ra edición. JC ediciones. Versión
electrónica (formato CD). Mayo 2003. Perú.
LIND, Douglas y MARCHAL, William y MASON, Robert. Estadística para administración y economía.
Alfaomega. Colombia. 10a edición. 2002.
Nathan Grabinsk & Alfred W. Klein, EL ANÁLISIS FACTORIAL, Banco de México. Investigaciones
Industriales
Niebel & Freivalds, INGENIERÍA INDUSTRIAL. MÉTODOS, ESTÁNDARES Y DISEÑO DEL TRABAJO,
Ed. Alfa omega
1) Barca, R.G., Control Estadístico de Procesos ( Junio 2001)
http://www.calidad.com.ar/calid111.html (Accesado Febrero 2, 004)
2) Control Estadístico de Procesos (Febrero 2001)
http://www.calidad.com.ar/controe7.html (Accesado Febrero 2, 2004)
www.itlp.edu.mx/publica/tutoriales/procesoadmvo/tema6_1.htm
Imagina que eres un productor de tornillos y que cada tornillo que haces debe medir entre
3,55 cm y 3,60 cm. Menos de 3,55 cm o más de 3,60 cm se consideran tornillos defectuosos.
Por ende, estableces tu límite de control superior en 3,60 cm y tu límite inferior en 3,55 cm.
Anotas las medidas de los tornillos que produces a diferentes horas del día. Un día ves que
en el gráfico de control, hay 7 tornillos producidos a las 3 de la tarde que están por fuera de
los límites, ¿qué paso ahí?
La respuesta al primer interrogante es: Adquieres control del proceso. Siguiendo el ejemplo
de los tornillos, el paso siguiente es determinar porqué ocurrió esa variación en el proceso.
¿Acaso fue una causa aleatoria? ¿Quizás fue una causa asignable?
Causa asignable: Si consigues hallar una causa concreta o que ocasiona una variación
excesiva y obedece a una situación especifica, hablamos de causa asignable. Es el tipo de
causa que debemos corregir. Por ejemplo la deficiente capacitación del trabajador o la falta de
ajuste de una máquina.
Causa aleatoria: Cuando no consigues hallar una explicación concreta a una variación, o si la
variación fue ocasionada por un evento sin importancia que no se volverá a repetir, hablamos
de causa aleatoria. También se le suelen llamar variaciones naturales o causas naturales. Es
el tipo de causa que esta presente en la vida misma, fortuita. Ejemplos son la curva de
aprendizaje del trabajador y el cierre inesperado del software.
Límite superior de control: Es el valor más grande aceptado en el proceso. En español LSC,
en inglés UCL (Upper control limit).
Limite inferior de control: El opuesto al superior, es decir, el valor más pequeño. LIC en
español, LCL en inglés (Lower control limit).
Límite central de control: Con siglas LCC, es la línea central del gráfico. Entre más cerca
están los puntos a la línea, mas estable es el proceso.
Con lo que hemos detallado hasta el momento ya tenemos varios beneficios definidos.
Análisis de proceso: Puede que nunca se haya hecho un control estadístico de proceso. Un
análisis con gráfico de control donde estableces los límites de control, te permitirá analizar ese
proceso y determinar qué es lo normal en él, cuando algo no está bien, o si ha mejorado o
empeorado a través del tiempo. Un proceso analizado con esta herramienta, es un proceso
controlado, que es precisamente el segundo beneficio.
Control de proceso: Conoces el comportamiento del proceso. ¿Es estable?, ¿se mantiene?
¿qué tan frecuente se sale de control? Esto te permite intervenir sobre el proceso para
mejorarlo. Este, a continuación es el tercer beneficio.
Mejoramiento del proceso: No basta analizar y controlar un proceso. Es necesario mejorarlo.
Con el diagrama de Shewhart identificamos dónde se generaron las fallas y tenemos datos de
entrada para hacer análisis de causas en aras de plantear soluciones a las fallas.
Paso 1. Antes que nada, determina cuál es el proceso a trabajar y cuál es la característica de
calidad que vas a medir. ¿Acaso es peso, longitud, número de defectos o volumen?
Paso 2: Ahora que tienes el tipo de datos a recolectar, define el tipo de gráfico de control a
usar basándote en lo explicado anteriormente, y no te quedes solo con eso, investiga más.
Paso 3: Determina el tiempo en el que estarás capturando los datos y define con base en el
tipo de gráfico que vas a trazar, cuestiones como la cantidad de muestras a considerar
(considera al menos 20) y el tamaño de cada una.
Paso 4: Recopila los datos.
Paso 5: Determina la línea central y el límite de control superior e inferior.
Paso 6: Representa los datos en la gráfica.
Paso 7: Analiza el resultado. Interpreta el gráfico.
Pista 1: Cuando hay solo un punto fuera de control. Es quizá la más pequeña de las
probabilidades.
Pista 2: Cuando hay dos de cada tres puntos sucesivos ubicados a un lado de la línea central
y más de dos desviaciones estándar (sigma) alejados de esta línea.
Pista 3: Cuando hay 4 de cada 5 puntos sucesivos ubicados a un lado de la línea central y
más de una desviación estándar (sigma) alejados de esta línea.
Pista 4: Cuando hay una serie de 8 puntos sucesivos ubicados a un lado de la línea central,
sin importar cuántas desviaciones estándar estén alejados de la línea central. Por ejemplo 8
de cada 10 puntos, 12 de cada 14 puntos o 16 de cada 18 puntos.
Pista 5: Cuando hay 6 puntos consecutivos ascendentes o descendientes.
Pista 6: Cuando hay 14 o más puntos consecutivos cruzando la línea central de arriba a abajo,
sin que haya al menos 2 puntos sucesivos en un mismo lado.
Pista 7: Cualquier patrón recurrente que estés observando, puede ser considerado algo
inusual.
Paso 1: Se van a contar el número de defectos encontrados en las mesas por lote. Los lotes
pueden variar levemente de tamaño, es decir, puede haber pequeñas variaciones en el
número de mesas que compone un lote de producción.
Paso 2: Se van a trabajar lotes que pueden tener diferente tamaño, y se va a contar el
porcentaje de defectos encontrados por lote (el lote es la muestra), razón por la cual vamos a
trabajar con una gráfica de control por atributos tipo p.
Paso 3: Los datos se van a capturar durante 10 días de producción. Se van a considerar 20
muestras (20 lotes), el tamaño de cada lote lo tienes en el paso 4.
Paso 4: Estos son los datos recopilados. La fracción defectuosa es el resultado de dividir el
número de errores por el tamaño del lote.
Datos recopilados para elaborar gráfico de control
Paso 5: Vamos a determinar la línea central y los límites de control superior e inferior. Vale la
pena aclarar que cuando hicimos el ejemplo, consideramos todos los decimales, sin embargo
en los gráficos y fórmulas que mostramos a continuación, solo consideramos dos cifras
decimales, por lo tanto seguramente si reproduces el ejemplo como se muestra a
continuación, los resultados van a variar levemente.
Para tener la línea central calculamos p promedio:
Observa la última fila del paso 4. El número de errores es 99, el número total de registros
examinados es 1859 y resulta de la sumatoria del número de escritorios por lote.
El número de desviaciones estándar se conoce como z. Mesfir (la empresa) limita los valores
a 3 desviaciones estándar de la media, lo que equivale a 99,73%. Es por eso que en el
cálculo de los límites de control, z es igual a 3. Los otros datos ya los conoces, fueron
calculados anteriormente.
¿Podemos tener un número de defectos negativo? No. Es por eso que el límite central
inferior se redondea a 0.
El punto 12 esta fuera de control. Aunque es una probabilidad pequeña, bien vale la pena
entrar a mirar porqué ocurrió esto.
Evidentemente algo ocurrió en los lotes 4 a 9. Fija que hay un aumento constante desde el
punto 4 hasta el punto 9, y aunque se ve corregido en el punto 10, se debe de revisar cómo se
trabajaron estos lotes.
¿Qué ocurrió en los puntos 11,12 y 13? Hubo algún suceso que afectó sobre todo al punto 12
y después fue corregido; es lo más probable.
https://ingenioempresa.com/grafico-de-control/
https://www3.uji.es/~epifanio/DOCENCIA/etig/t3.pdf