Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Algunos 20 Antecedentes 20 de 20 La 20 Calidad
Algunos 20 Antecedentes 20 de 20 La 20 Calidad
net/publication/28083116
CITATIONS READS
2 22,699
4 authors:
Some of the authors of this publication are also working on these related projects:
Now we are working no: measurement of sustainability in cities and in propose a measurement of tourism sustainability. View project
Creation of a thematic network called "TOURISM, ENVIRONMENT, INNOVATION AND PRODUCTIVITY" View project
All content following this page was uploaded by Esteban Alfaro-Cortés on 28 May 2014.
RESUMEN
1
Profesores del Área de Estadística. Facultad de Ciencias Económicas y Empresariales de Albacete.
Universidad de Castilla-La Mancha. Pza. Universidad, s/n. 02071 Albacete.
E-mail: Esteban.Alfaro@uclm.es
E-mail: JoseLuis.Alfaro@uclm.es
2
Profesores del Área de Estadística. Facultad de Ciencias Sociales de Cuenca. Universidad de Castilla-La
Mancha. Avda. de los Alfares, 44. 16071 Cuenca.
E-mail: Jose.Mondejar@uclm.es
E-mail: Manuel.Vargas@uclm.es
1-. Introducción: los antecedentes del control de calidad moderno.
Como aparece en el libro de William S. Peters1 : “Los intentos para controlar los bienes
fabricados existían antes de la revolución industrial. La biblia dice que Dios dio a Noé las
especificaciones necesarias para construir el arca. Los gremios medievales controlaban la calidad
de su producción artesanal mediante el sistema de aprendizaje; así, el control de calidad estaba
basado en la confianza, en la experiencia y la reputación artesanal.”
Por lo tanto se puede decir que el control de calidad ha estado presente entre nosotros
durante mucho tiempo. Sin embargo, dicho control residía en la habilidad del individuo para
fabricar productos. Así, en la edad media, las comunidades otorgaban largos períodos de
aprendizaje a los conocidos como aprendices, que aspiraban a convertirse en maestros artesanos.
Estos procedimientos no tenían otro objetivo que el mantenimiento y la mejora de la calidad,
1
PETERS, W. S. (1987): “Counting for Something”. New York, Springer-Verlag. pp. 151-162
1
entendida ésta como la semejanza de los productos manufacturados a un “producto tipo o
estándar”, siendo interpretada la variación respecto a él como un error achacable a la falta de
habilidad del artesano. Como se puede apreciar, se planteaba una manufacturación
individualizada de cada producto, que debía semejarse lo más posible a su estándar, sin
referencia ninguna a un colectivo de productos, por lo que el concepto de control de calidad
estaba centrado exclusivamente en el control técnico de la fabricación de cada unidad.
2
Que podemos traducir libremente por “prueba de la caja”. Ya que esta caja se custodiaba en una habitación
cerrada de la Abadía de Westminster y que el uso eclesiástico de la palabra “pyx” antes de 1400 hacía
referencia al vaso en el que se guardaba el pan del sacramento, la expresión inglesa podría entenderse como
“prueba del cáliz”, juego de palabras intraducible al español.
2
especifican cómo se seleccionaban las muestras, resulta difícil creer que dada la importancia del
tema, tanto la Casa de la Moneda como la Corona admitiesen un procedimiento claramente
parcial; aunque no se pueda hablar de una selección aleatoria tal y como se entiende hoy en día,
sí es razonable suponer que el mecanismo utilizado no incurría en sesgos de selección
manifiestos. El “trial of the pyx” se convierte así en uno de los esquemas de muestreo más
antiguos que se pueden documentar.
Para completar el esquema, se establecía una tolerancia por encima y por debajo del valor
estándar, que se denominaba “remedy”. Aunque admitiendo variabilidad en la cantidad de metal
precioso utilizado en la acuñación, los efectos de que ésta fuera elevada no eran asumibles. En
concreto, si se detectaba una mayor proporción de oro o plata, las monedas podían ser fundidas
y reutilizados dichos metales con un margen de beneficio, situación que la Corona quería evitar
a toda costa, sobre todo si era llevada a cabo por agentes extranjeros. Por otro lado, si el
contenido de metales preciosos era inferior al establecido, se podía producir una pérdida de
confianza en la moneda (o incluso inflación) y se consideraba que la Corona había sido robada.
En este caso, como remedio, se obligaba a la Casa de la Moneda a reingresar una cantidad de oro
o plata igual a la diferencia observada multiplicada por la cantidad de moneda acuñada en el
período analizado, origen tal vez del término “remedy”. Como se puede observar, se trata de un
intento de fijar unas “tolerancias” para el proceso de acuñación. Aunque se intuían los conceptos
estadísticos necesarios y algunos fueron relativamente bien aplicados, en el caso del “remedy”
como tolerancia presentaba un inconveniente: la obtención de la tolerancia para el conjunto de
3
monedas era obtenido simplemente multiplicando la tolerancia permitida para una moneda por
el número de monedas utilizadas,3 lo que equivale a permitir “demasiada” variabilidad sin
incurrir en la ilegalidad,4 situación que se mantuvo con pequeños cambios hasta 1815, fecha en
que se redujo sensiblemente la magnitud del “remedy”. Por todo ello, el “trial of the pyx” puede
considerarse uno de los más antiguos contrastes bilaterales de hipótesis, con un plan de muestreo
establecido, el uso de estadísticos de contraste y la definición de una región crítica, con el
objetivo de controlar la calidad de un producto.
Pero durante el siglo XIX se toma conciencia de que no es necesario que las piezas
fabricadas sean exactamente iguales a su patrón de calidad, sino que basta con que sean
suficientemente parecidas como para considerarlas válidas, situación económica y técnicamente
menos costosa que la anterior. Surge así la exigencia de que las manufacturas presenten, en sus
características más relevantes, unos límites de especificación o tolerancias para ser consideradas
válidas, en lugar de tener que ajustarse exactamente a su estándar de calidad.5 Este cambio
3
La variación de n unidades se consideraba como n veces la variación de una, situación que no cambia hasta
que, en 1730, De Moivre descubre que el aumento de variación es proporcional a .
4
Existe alguna evidencia de la gradual explotación de estos márgenes en momentos económicamente
difíciles para la Corona británica. Incluso no han sido raras las acusaciones entre ingleses y franceses de haber
explotado fraudulentamente esta deficiencia (Stigler, 1999, cap. 21).
5
Como puede verse en Shewhart (1986) la aparición del uso de tolerancias se produce en dos fases, una
inicial con un límite de validez y otra posterior con la inclusión de tolerancias superior e inferior.
4
supone el reconocimiento, más o menos explícito, de la existencia de una variabilidad en la
producción que no invalida a las unidades fabricadas para su uso y cuyo coste económico de
eliminación es muy elevado. Es, en otras palabras, el reconocimiento de una variación natural
en la fabricación, en el sentido de ser admitida como inherente al proceso de producción para que
éste no sea económicamente prohibitivo y estar controlada.
Asociada a este nuevo esquema de producción aparece una nueva serie de retos en la
industria. En primer lugar, la existencia de tolerancias obliga a que la unidades que no cumplan
este requisito sean consideradas como defectuosas o, en términos más usuales, no conformes. La
producción de este tipo de unidades, o su rectificación, conlleva un coste que podría ser
eliminado; pero también la inspección y la búsqueda de las causas de esta situación presenta un
coste monetario cada vez mayor. Surge así el reto de intentar reducir la proporción de unidades
no conformes hasta un punto en el que el incremento del coste de inspección y control iguale al
incremento de ahorro por la disminución del número de unidades rechazadas. En segundo lugar,
la inspección o medición de algunas características de calidad (como pueden ser la resistencia,
composición química o tiempo de vida útil) son de carácter destructivo, por lo que no pueden ser
llevadas a cabo sobre todas las unidades; incluso aunque las pruebas no fuesen destructivas, la
inspección del 100% de la producción puede ser improcedente económicamente. Aparece
entonces la necesidad de garantizar la viabilidad de la producción de forma general mediante la
inspección de una parte significativa de ésta y, por tanto, la necesidad de determinar qué
proporción de unidades debe ser inspeccionada, cómo seleccionar dichas unidades y cómo
garantizar que los resultados obtenidos son extrapolables a la generalidad de la producción.
5
carrera profesional en la industria transcurre como ingeniero en la Western Electric, de 1918 a
1924, y en los laboratorios Bell Telephone, como miembro del cuerpo técnico de 1925 hasta su
retiro en 1956. Colaboró en cátedras sobre control de calidad y estadística aplicada en la
Universidad de Londres, el Instituto Stevens de Tecnología, la Escuela de Graduados del
Departamento de Agricultura de Estados Unidos y en La India. Fue miembro del comité de
visitas en el Departamento de Relaciones Sociales de Harvard, profesor honorario en Rutgers y
miembro del comité consultivo del departamento de matemáticas de Princeton, así como
miembro fundador de la Sociedad Americana de Calidad (ASQ). Empleado frecuentemente como
consultor, Shewhart colaboró con el Departamento de Guerra norteamericano, las Naciones
Unidas, el Gobierno de La India y trabajó activamente con el Consejo Nacional de Investigación
y el Instituto Internacional de Estadística. Fue miembro honorario de la Real Sociedad Estadística
de Inglaterra y la Asociación Estadística de Calcuta. Fue socio y oficial del Instituto de
Estadísticas Matemáticas, la Asociación Matemática para el Avance de la Ciencia, la Asociación
Americana de Estadística, la Sociedad de Econometría y la Academia de Ciencias de Nueva
York.
6
Esquemáticamente, los gráficos de control introducidos por Shewhart son una
herramienta para decidir cuándo la producción presenta una variabilidad natural, en el sentido
atribuido anteriormente a este adjetivo, y cuándo la variación se debe a causas concretas que
pueden ser eliminadas a un bajo coste. Así, un proceso se dice que esta bajo control estadístico
cuando se ha podido comprobar, por medio de un número razonable de datos, que su
comportamiento es consistente y predecible; en caso contrario, cuando el proceso no se comporta
de una forma predecible, debe decirse que está fuera de control estadístico. De este modo, el
gráfico de control se puede considerar como un procedimiento para caracterizar y controlar el
comportamiento de un proceso, conformándose así como un mecanismo de control, en el sentido
de ser un dispositivo de decisión y acción para conseguir un fin deseado (Shewhart, 1986, p. 8).
Debajo de este sencillo objetivo subyace un planteamiento estadístico que, bien por
desconocimiento bien por la familiaridad de las técnicas, pasa desapercibido. En muchas
ocasiones parece que el control estadístico de la calidad es diferenciado del control de calidad
sólo por el uso de técnicas estadísticas, cuando en realidad supone una concepción mucho más
amplia, que abarca la especificación, producción e inspección de la calidad. Es, en palabras del
propio Shewhart, un proceso dinámico, continuo y autocorrectivo diseñado con el propósito de
conseguir y mantener un estado de control estadístico (Shewhart, 1986, p. 38). Este proceso,
destinado a minimizar la variabilidad en la calidad de un producto a coste dado, engloba también
un método racional de predicción sobre el resultado de un proceso productivo: afirmar que la
calidad está estadísticamente controlada supone una inferencia probabilística basada en la
evidencia obtenida sobre el proceso de producción. Pare ello es necesario un diseño experimental
del proceso, un plan de muestreo del mismo y un tratamiento probabilístico de la información.
Así pues, la aportación de Shewhart al control de calidad no se reduce a la exposición de sus
conocidos gráficos de control, sino que abordó un esquema mucho más amplio que merece ser
estudiado como uno de los primeros casos de aplicación de la filosofía estadística moderna a una
situación real.
7
3-. Planteamiento del estado estadístico de control.
Hoy en día, se tiende a pensar que un gráfico de control no es más que la representación
gráfica de un contraste de hipótesis sobre la estabilidad de los parámetros que rigen la
distribución probabilística de una variable de calidad, usualmente normal. Esta idea es origen,
para otros consecuencia, de la confusión entre que una secuencia de observaciones de la variable
esté bajo control estadístico y que se pueda admitir que éstas provienen de la misma población
(o universo estadístico según lo definía Shewhart).
- En primer lugar, a partir de una información finita es imposible determinar una única
distribución de probabilidad para decidir si se está o no bajo control. Ante este problema, se suele
adoptar el supuesto de la normalidad en la distribución de la característica de calidad, utilizando
para ello los teoremas límite, sin hacer referencia al coste asociado con la disponibilidad de una
cantidad de información tal que sea razonable este supuesto.6 Aparte de la necesidad de una
muestra suficientemente grande, los contrastes de bondad de ajuste a una curva teórica son
independientes del orden de ocurrencia de dicha muestra, lo que puede invalidar parcialmente
sus conclusiones. Consciente de estas dificultades, Shewhart intenta establecer mecanismos de
control que, en la medida de lo posible, no dependan de la modelización probabilística o, en sus
términos, “...we can not reasonably hope to construct a model that will represent exactly any
specific characteristic of a particular state of control even though such a state actually exists.”
(Shewhart, 1986, p. 19). Así, por ejemplo, propone que los límites de control de los gráficos se
sitúen a tres desviaciones típicas sin hacer referencia a probabilidades asociadas bajo ninguna
distribución. Posteriormente, se han justificado estos límites haciendo referencia al nivel de
significación de los contrastes de hipótesis, y achacando esta ausencia a una deficiente
6
Cada vez son más frecuentes los estudios sobre la robustez de los métodos ante este supuesto, lo que tiende
a paliar este problema histórico.
8
comprensión probabilística por parte de Shewhart de su propuesta. Nada más lejos de la realidad:
su formación, su trayectoria profesional y sus relaciones con estadísticos y matemáticos de la
época indican que conocía perfectamente el entramado probabilístico de su propuesta y que la
falta de una justificación distribucional de los límites fue premeditada y orientada a paliar los
efectos de los problemas de robustez.
Por todo ello, Shewhart renuncia a determinar una condición matemática para definir el
estado de control estadístico, sino que se ve en la necesidad de adoptar, arbitrariamente, algunos
criterios operativos. O, en otros términos, enfoca el control estadístico como una operación
7
Noción que por su importancia abordaremos más adelante detenidamente.
8
Las conocidas reglas de la Western Electric.
9
destinada a orientar la decisión de cuándo un proceso está en estado de control estadístico. Para
ello, determina cinco condiciones necesarias para definir una operación de control de calidad:
Como se puede apreciar, existen varios axiomas o presupuestos básicos. Por ejemplo,
bajo la primera condición subyace el supuesto de que la operación de producción es aleatoria9,
por lo que la pista para determinar la existencia de una causa asignable de variación es cualquier
cosa que indique no aleatoriedad en los datos. Y ante la dificultad de determinar si una secuencia
es aleatoria o no, el criterio adoptado se basa en la experiencia pasada: “...we must depend on
past experience to suggest what, if any, characteristics of a given set of n values of X are more
likely to occur in nature as a result of a nonrandom than as a result of a random operation.”
(Shewhart, 1986, p. 26).
Las condiciones tercera y cuarta, muy interrelacionadas, suponen el aspecto más visible
de los dispositivos de control estadístico y marcan el carácter continuo y autocorrectivo de los
mismos. En concreto, éstos no deben indicar sólo cuando hay una causa asignable de variación,
sino que deben ayudar a descubrir dichas causas. Sin embargo, la expresión “causa asignable”
no está exenta de problemas, ya que esta consideración depende de las condiciones del proceso
9
En el sentido de que las secuencias de observaciones que proporciona son aleatorias.
10
y de la experiencia previa. Como se destaca en Shewhart (1986): “Obviosusly there is no a
priori, formal, and mathematical method of setting yp a criterion that will indicate an assignable
cause in any given case. Instead, the only way one can justify the use of a given criterion is
through extensive experience. The fact that the use of a given criterion must be justified on
empirical grounds is emphasized here in order to avoid the confusion of such a criterion with
a test of statistical significance.” .10 De nuevo nos encontramos con una discrepancia con lo
comúnmente aceptado hoy en día. Efectivamente, el uso de contrastes estadísticos de
significación supone una inferencia deductiva en el sentido de que éste se determina sin el uso
de la información muestral, estando basado exclusivamente en los supuestos distribucionales:
sólo cuando éste está construido se compara el valor muestral con los límites. Por contra, para
determinar la existencia de una causa asignable cuando el estadístico observado está fuera de los
límites de control se precisa de la inferencia inductiva, que sólo se puede basar en la evidencia
empírica. Por otro lado, una operación de control de calidad no contrasta sólo la validez de
ciertas hipótesis, sino también si la muestra de datos fue obtenida bajo condiciones que pueden
considerarse aleatorias. La consideración moderna de un gráfico de control como la
representación de un contraste de hipótesis vuelve a ser rechazada tajantemente por Shewhart
(1986, p. 40): “As a background for the development of the operation of statistical control, the
formal mathematical theory of testing a statistical hypothesis is of outstanding importance, but
it would seem that we must continually keep in mind the fundamental difference between the
formal theory of testing a statistical hypothesis and the empirical testing of hypothesis employed
in the operation of statistical control.”
Pero el supuesto básico más importante en el diseño de los gráficos de control es la propia
concepción filosófica de probabilidad que subyace en el trabajo de Shewhart.
10
Subrayado propio.
11
exponía el control de la calidad desde un punto de vista económico, si bien la mayoría de las
aplicaciones resultaban altamente costosas, lo que llevo a un rechazo por parte de muchos
fabricantes de la época. También en los laboratorios Bell Telephone, Harold F. Dodge y Harry
G. Roming empezaron a aplicar la teoría estadística en la inspección por muestreo, trabajos que
culminaron con las bien conocidas tablas de inspección por muestreo Dodge-Roming. El trabajo
de estas tres personas supone el punto de partida de lo que hoy en día se conoce como teoría
estadística del control de calidad.
12
En 1946 se crea la Sociedad Americana de Control de Calidad (ASQC) como resultado
de la fusión de varias sociedades que trataban temas relacionados con la calidad. Esta sociedad
absorbió algunas publicaciones especializadas en el control de la calidad y promovió el uso del
control estadístico de la calidad en el continente americano. Posteriormente se creó una sección
de esta sociedad en Japón. También en este año, el Dr. Edwards Deming, especialista en
estadística, es invitado a Japón para ayudar a la reconstrucción de la industria japonesa, que se
recuperaba de los estragos de la guerra. En una conferencia ante dirigentes de las grandes
industrias, afirmó que si aplicaba en sus fábricas un adecuado control estadístico de la calidad,
la marca “made in Japan” llegaría a ser un símbolo de alta calidad.
Bajo la guía del Dr. Edwards Deming, el control estadístico de la calidad en Japón fue
desarrollado como uno de los mejores sistemas de control de calidad del mundo. El profesor K.
Ishikawa crea los primeros círculos de calidad en Japón y empieza a desarrollar una serie de
herramientas básicas que van a dar lugar a lo que en el argot del control de la calidad se conoce
como herramientas básicas de control de calidad, también conocidas como herramientas de
Ishikawa o las siete magníficas, muy utilizadas hasta los años noventa, en los que la mayor
exigencia en la calidad del producto ha supuesto el desarrollo de una serie de técnicas más
complejas y eficaces desde un punto de vista estadístico.
Con el paso de los años, los gráficos de control Shewhart han recibido una mayor
formalización desde un punto de vista estadístico y se han establecido como un contraste de
hipótesis sobre el parámetro que queremos controlar, normalmente la media del proceso. Esto
nos ha llevado a que la ubicación inicialmente propuesta por Shewhart de los límites de control
a tres desviaciones típicas de la media, ya no se realiza de forma totalmente empírica, sino que
posee una fundamentación probabilística. Después de los gráficos de control y planes de
muestreo, se han desarrollado distintas técnicas de control de la calidad con mayor base
estadística, basándose gran parte de estos desarrollos en la teoría de los procesos estocásticos.
En 1954, E.S Page desarrolla el gráfico de control de sumas acumuladas (CUSUM) que
intenta solucionar el problema que presentaba el gráfico de control Shewhart cuando los cambios
en el proceso eran de pequeña magnitud. Este gráfico de control va a considerar la información
13
pasada del proceso en su desarrollo, lo que va a suponer que su comportamiento ante cambios
de pequeña magnitud va a ser mejor que el del gráfico Shewhart. También en esa fecha, el Dr.
J. M. Juran empieza a difundir los métodos estadísticos y los sistemas de control de calidad entre
todos los dirigentes y mandos intermedios de las empresas japonesas. Esta inquietud se extiende
por todas las empresas japonesas y se crea un reto por la calidad.
14
< No detecta pequeños cambios en el proceso.
< Las variables son tratadas de forma simultánea, por lo que es difícil asignar a qué
variable se debe la posible señal de fuera de control. Para solucionar este
problema se han desarrollado distintas técnicas de tratamiento de la información,
que nos permite determinar qué variable ha tenido una mayor influencia en esa
situación fuera de control. Entre esas técnicas caben destacar el uso de gráficos
univariantes para cada una de las variables, la aplicación de componentes
principales, la descomposición del estadístico T2 viendo la contribución de cada
una de las variables y el uso de intervalos de confianza tipo Bonferroni.
< El estadístico T2 sólo usa para su cálculo la información actual del proceso,
dejando a un lado la información pasada del mismo.
Junto al desarrollo de los gráficos de control multivariantes, fue contrastado por distintos
estadísticos que las suposiciones de partida aplicadas a la mayoría de los métodos gráficos de
control de independencia y normalidad iban a ser, en la mayoría de los casos, demasiado
restrictivas. Aunque el efecto del incumplimiento de la normalidad no era demasiado importante,
el efecto de la no independencia sí que era importante, de ahí que se desarrollaran distintas
15
técnicas de tratamiento de esa autocorrelación en las observaciones tales como la aplicación de
modelos de series temporales o la utilización de límites de control empíricos.
11
ISO es la Organización Internacional de Normalización.
16
5-. Desafíos actuales.
En los últimos años los desarrollos dentro del campo del control estadístico de la calidad
están centrados básicamente en dos ámbitos fundamentales. En primer lugar, se pretende analizar
detalladamente el efecto del incumplimiento de las hipótesis estadísticas básicas sobre los
gráficos de control multivariantes. En este campo, las direcciones presentes de investigación se
centran en:
17
de límites estadísticos de control y el estudio de la potencia de los contrastes.
2.- Desarrollo de las técnicas de obtención de tendencias comunes, sobre todo en espacio
de estados, que permitan explotar la estructura de correlación poblacional para obtener gráficos
de control más eficientes que los clásicos en la detección de observaciones fuera de control
estadístico.
Por lo tanto, como se puede observar con este breve repaso de la evolución histórica del
control de la calidad, cada día tanto en las organizaciones como en la sociedad existe una mayor
preocupación por los temas relacionados con la calida. De ahí la gran evolución que han
presentado las técnicas de control de calidad, y entre ellas los métodos estadísticos de control de
la calidad.
6-. Bibliografía.
18
SHEWHART, W.A. (1939): Statistical Methods from the Viewpoint of Quality Control.
Graduate School of the Department of Agriculture, Washington, D.C.
SHEWHART, W.A. (1941): “Contribution of Statistic to he Science of Enginnering”. En Fluid
Mechanics and Statistical Methods in Engineering. University of Pennsylvania Press,
Philadelphia, PA, pp. 97-124.
SHEWHART, W.A. (1986): Statistical Methods from the Viewpoint of Quality Control.
(Reprint). Dover Publications, New York.
STIGLER, S.M. (1999): Statistics on the Table: The History of Statistical Concepts and
Methods. Harvard University Press, Cambrigde, Massachusetts.
WADSWORTH, H. M. , STEPHENS, K. S. & GODFREY, A. B. (2001) : Modern Methods
for Quality Control and Improvement. John Wiley & Sons, New York.
19