Está en la página 1de 14

Introducción al control estadístico de procesos

1- El control estadístico de la calidad


El conjunto de actividades destinadas a conseguir la calidad del producto resultante de un cierto proceso productivo
se denomina genéricamente control de la calidad. Entendemos aquí por proceso productivo no sólo la fabricación en
el sentido clásico sino también la producción de servicios, y, más en general, cualquier tipo de producción
susceptible de ser descrita mediante unas características cuantitativas (que en este contexto reciben el nombre de
variables) o de ser clasificada según la conformidad o disconformidad a unos estándares o especificaciones
(atributos).

El control estadístico de la calidad (SQC) es una rama del control de la calidad, que engloba a aquellos
procedimientos que hacen use de técnicas estadísticas. Se acostumbra a estructurar el control estadístico de calidad
en:

a) Control en curso de fabricación o control estadístico de procesos (SPC), cuya herramienta típica es el grafico de
control (control chart).

b) Control de producto acabado, o control de recepción, que habitualmente se realiza de acuerdo con los llamados
planes de muestreo (sampling plans).

Mientras el control estadístico de procesos ha conservado su vigencia y su actualidad es aún mayor que en la época
de su introducción, el control de recepción se considera cada vez mus como una "medida defensiva”, a aplicar
cuando no queda otro remedio. Nos vamos a ocupar aquí del control de procesos, poniendo énfasis especial en las
técnicas estadísticas usadas, principalmente en la elaboración a interpretación de los gráficos de control.

1.2.- La descripción estadística del proceso


El resultado de un proceso productivo presenta siempre una cierta variabilidad. Podría pensarse en describir el
funcionamiento del proceso dando el valor de una cierta característica (por ejemplo, la longitud de un tornillo) para
cada una de las unidades producidas, pero esto sería tedioso e ininteligible. Por el contrario, se opta en la práctica
por dar una descripción en términos estadísticos, indicando con qué frecuencia la característica medida se halla en
uno a otro intervalo. De este modo se obtiene no solo una descripción más somera del proceso, sino que además
esta descripción contiene la información útil, y permite la inteligibilidad del proceso.

La hipótesis de trabajo habitual en la Estadística consiste en suponer que la aparición de los distintos valores de una
variable se produce de acuerdo con un "modelo" teórico. Este modelo cubre todas las situaciones posibles para un
problema determinado, y entonces cada situación particular puede caracterizarse por los valores de unos
parámetros. Identificando los valores de los parámetros podemos prever, en términos estadísticos, el
comportamiento de la variable estudiada. Los valores de los parámetros se estiman a partir de los datos obtenidos
de la producción. Los valores estimados de los parámetros resultan de ciertas operaciones realizadas con esos datos
(tales como medias o desviaciones típicas), denominadas estadísticos muestrales.

La identificación de los parámetros de un proceso es fundamental para poder prever con qué frecuencia los valores
de la variable en estudio estarán dentro de un cierto intervalo, y poder, en consecuencia, decidir si un proceso
productivo es capaz de alcanzar los objetivos deseados. Un paso previo y esencial, antes de esta identificación, es
asegurar la regularidad estadística del proceso, es decir, la estabilidad de los parámetros. Si los valores de los
parámetros no pueden considerarse estables, ninguna consideración sobre la capacidad del proceso tiene sentido,
ya que las predicciones son distintas al variar los valores de los parámetros. El objetivo del control estadístico de
procesos es, precisamente, lograr la regularidad estadística del proceso, asegurando la estabilidad de los
parámetros. Cuando ese objetivo se ha alcanzado, el comportamiento estadístico del proceso queda caracterizado
por los valores de los parámetros.

1.3. Variables y atributos


Los datos que se usan en el control estadístico de la calidad son, fundamentalmente, de dos tipos, según se
obtengan al efectuar mediciones, o al contar el número de veces que aparece un cierto fenómeno. En el primer caso,
se habla de control por variables, y en el segundo de control por atributos. Vamos a explicar esto con más detalle en
esta sección.
1.3.1. Variables
En el contexto del control estadístico de la calidad se llama variables a aquellas características que pueden ser
medidas, tales como peso, longitud, viscosidad, temperatura, etc. La variante del control estadístico de procesos que
se ocupa de este tipo de datos se denomina control de procesos por variables, y es la más usada . El modelo teórico
para estas variables es, habitualmente, la distribución normal, que tiene dos parámetros, µ. y σ, µ, se interpreta
como el valor medio de la variable en las unidades del producto, y σ como una medida de la variabilidad que se halla
en las mediciones de esta variable en las unidades producidas. Describiremos más adelante este modelo. El rasgo
esencial de esta variante del control estadístico de calidad, desde el punto de vista matemático, es el hecho de que
estas variables pueden variar de forma continua, de modo que todos los valores de un intervalo son posibles.
Naturalmente, esto solo es así en el plano teórico, ya que en la realidad el uso de un determinado instrumental en
las mediciones limita los valores posibles a un conjunto finito. Ya trataremos más adelante de los casos en los cuales
esta contradicción representa un auténtico problema.

1.3.2. Atributos
Se llama atributos a aquellas características que se clasifican como conformes o no a unas ciertas especificaciones. Al
contar el número de unidades de un producto que presentan un cierto atributo, o el número de veces que un
atributo se presenta en cada unidad, si se trata de un atributo que puede aparecer varias veces, obtenemos datos
que son números naturales (0, 1, 2, etc.). La variante del control estadístico de procesos que se ocupa de este tipo de
datos se conoce como control de procesos por atributos.

El control de procesos por atributos se ocupa, normalmente de dos tipos de datos:

a) El número de unidades defectuosas que se hallan en una muestra de n unidades. La variante del control de
procesos que se ocupa de este tipo de datos se conoce como control de procesos por la proporción de unidades
defectuosas (defectivas). El modelo teórico para estas variables es la distribución binomial, con un parámetro p, que
se interpreta como la proporción de unidades defectuosas producida por el proceso.

b) El número de defectos hallados en cada segmento de la producción. La correspondiente variante del control de
procesos se llama control de procesos por el número de defectos. El modelo teórico es la distribución de Poisson,
con un parámetro, c, que se interpreta como el número medio de defectos por segmento.

1.3.3. Razones para el uso de atributos


El control por variables maneja un nivel de información superior al del control por atributos, ya que no solo usa el
hecho de que una unidad no este conforme con las especificaciones, sino que además utiliza la magnitud de la
divergencia. No obstante, el control por atributos es más sencillo y económico. Veamos a continuación algunas
situaciones en los que podemos encontrarnos con atributos.

a) Cuando las mediciones no son posibles, por ejemplo cuando se inspeccionan visualmente características como el
color, el brillo o las abolladuras.

b) Cuando las medidas pueden hacerse pero no se hacen, por razones de tiempo, precio o necesidad. Por ejemplo, el
diámetro de un agujero puede medirse con un micrómetro interior, pero a veces es conveniente usar un calibrador
"pasa-no pasa" para decidir si la pieza es defectuosa o no. Este ejemplo es característico de una procedimiento usual
que consiste en fijar unos límites o especificaciones para una variable y clasificar como defectuosos los productos
para los cuales el valor de esa variable caiga fuera de esos límites.

c) En algunos casos las mediciones se hacen pero no se registran, o no se usan los valores obtenidos, limitándose a
clasificar los productos como defectuosos o no defectuosos. De este modo se transforma una variable en un
atributo. Naturalmente, esto representa una pérdida de información, pero en muchos casos resulta operativo
proceder de esta forma.

Tal como mencionábamos anteriormente, la herramienta básica del control de procesos la constituyen los gráficos
de control. Los gráficos son diferentes para cada una de las variantes del control de procesos, y sirven,
fundamentalmente, para comprobar la estabilidad de los parámetros correspondientes. Por consiguiente, en cada
variante se usan tantos gráficos como parámetros deban controlarse: dos gráficos en el control por variables y uno
en el control por atributos (distinto según se trate de control por la proporción de unidades defectuosas o por el
número de defectos). Describiremos más adelante la construcción de cada una de estas clases de gráficos.
El hecho fundamental, sobre el que no es ocioso insistir, es que, si estos parámetros son estables, su conocimiento
nos permite saber, en términos estadísticos, cual es el comportamiento del proceso, y disponer, por tanto, de
expectativas fiables en relación al cumplimiento de los objetivos para los cuales fue diseñado

1.4. Descripción estadística de un proceso por variables


1.4.1. Distribución de frecuencia
Supongamos que x es una cierta variable que queremos usar para describir un proceso. Para ello recogemos una
colección de datos a partir de mediciones de esa variable efectuadas a lo largo de un cierto periodo de
funcionamiento de dicho proceso. Una forma de presentar la información contenida en estos datos de modo que sea
inteligible es la distribución de frecuencia.

Para obtener una distribución de frecuencia para x se considera un intervalo de valores de x que contenga todos los
valores medidos y se divide en varios subintervalos de la misma longitud. El intervalo considerado, así como el
número de subintervalos en que se subdivide, se escoge teniendo en cuenta el número de datos y su estructura. Se
cuentan los valores de x que caen dentro de cada intervalo, que es la frecuencia asignada a ese intervalo. Esta
frecuencia puede expresarse como un número absoluto, o en forma de proporción o porcentaje del número total de
datos.

1.4.2. Ejemplo.
Para controlar la regularidad de un proceso de producción de hojas de acero cuyo grosor nominal es 0,25 25mm

se han tomado muestras, una de cada lote, de un total de 20 lotes y cada muestra contiene 5 hojas, midiéndose el
grosor de cada hoja. Los resultados obtenidos se presentan en la Tabla 1.1. Las medidas vienen dadas en micras
(milésimas de mm).

Consideramos el intervalo 232,5-272,5 (después veremos por qué) y lo dividimos en 8 partes. La distribución de
frecuencia correspondiente a esta partición puede verse en la Tabla 1.2.
1.4.3 Histogramas
La distribución de frecuencia puede presentarse en forma gráfica, en lugar de usar una tabla como la Tabla 1.2. La
forma más frecuente es la de diagramas de barras, que se obtienen dibujando una barra encima de cada uno de los
intervalos considerados, de altura proporcional a la frecuencia de ese intervalo. Cuando se trata con variables estos
diagramas de barras reciben el nombre de histogramas. El histograma correspondiente a la Tabla 1.2 puede verse en
la figura 1.1.

1.4.4. Estructura de los datos


Aunque se hable de la distribución de frecuencias de los datos, en realidad obtendremos diferentes frecuencias y
diferentes histogramas al cambiar los intervalos usados. Hay que tener en cuenta, además, que al contabilizar los
puntos que caen en cada intervalo, hay que decidir si un punto que coincide con uno de los puntos que separan
intervalos adyacentes se incluye en el intervalo de la izquierda o en el de la derecha. De estas consideraciones
resulta, pues, que hay una cierta arbitrariedad en la manera de obtener la distribución de frecuencias que conduce al
histograma. Sin embargo, si los datos vienen registrados de forma realmente continua (en particular, hay muy pocas
repeticiones), esto es poco importante, y el perfil del histograma prácticamente no cambia.

En muchos casos prácticos, aunque estemos manejando datos que provienen de mediciones de una variable
continua, sólo tenemos unos cuantos valores distintos, repetidos un número mayor o menor de veces, como sucede
en el Ejemplo 1.4.2. Esta situación se da con bastante frecuencia en la industria, debido, en algunos casos, a que el
sistema de medición empleado no proporciona suficiente resolución, y, en otros, a que al registrar los datos se
redondean los números (lo que, en general, no es aconsejable).

En el Ejemplo 1.4.2, pese a tratarse de una variable continua y a haber hecho 100 mediciones, hemos obtenido solo
8 valores distintos. En este caso podemos atribuir esto a que el instrumento de medición empleado no proporciona
suficiente resolución. De este modo, lo que nosotros registramos como 250 micras, por ejemplo, corresponde a los
valores comprendidos entre 247,5 y 252,5, es decir aquellos tales que, de los valores registrados, el más cercano es
250. Así pues, estos datos ya vienen, en realidad, agrupados por intervalos, y lo mejor es respetar estos intervalos al
hacer el histograma, tomando 8 intervalos de longitud 5 micras, centrados en los valores que hemos registrado al
hacer las mediciones. En este caso el histograma es muy sencillo, y puede hacerse a mano fácilmente. La mayoría de
los programas de ordenador que hacen histogramas permiten que el usuario haga a su gusto la división en intervalos
de clase.

1.4.5. Medidas de posición y de dispersión


Supongamos que disponemos de un conjunto de valores de una variable x, lo que en el contexto del control
estadístico de procesos se denomina un subgrupo. Hay una serie de operaciones que se realizan típicamente sobre
los datos para obtener unos valores, llamados genéricamente estadísticos, que nos proporcionan información sobre
la distribución de la variable. Estos estadísticos se utilizan básicamente con dos fines: dar una medida de la posición
de los datos, o una medida de su dispersión. Dar una medida de posición y otra de dispersión de un conjunto de
datos es una vía para presentar de forma resumida una descripción estadística de esos datos. Veremos más adelante
como puede interpretarse una información dada de esta forma, y nos limitaremos en este apartado a ver cuáles son
las medidas de posición y dispersión más usadas.
Supongamos que xl, x2, . . ., xn son los datos de que disponemos. La media (aritmética), promedio o valor medio es:

La media es una medida de posición, que marca un punto en torno al cual están más o menos agrupados los datos:
Así, si sumamos una cantidad fija a todos los datos, obtenemos una nueva serie de datos cuya media es igual a la de
la serie inicial más la cantidad sumada.

En algunas ocasiones se usa en lugar de la media, la mediana como medida de posición. La mediana es un valor tal
que la mitad de los datos son menores o iguales que él, y la mitad mayores. Si n es impar, para obtener la mediana
N +1
se ordenan los datos de menor a mayor, y se toma él termino que ocupa el lugar . Si n es par, sirve como
2
mediana cualquier valor entre el de lugar
n
2
y el de lugar()
n
2
+1.

Otros estadísticos se usan como medidas de variabilidad, para medir la dispersión de los datos respecto a un valor
central. El más sencillo es el recorrido o Rango que es la diferencia entre el mayor y el menor de los valores hallados.
Se designa habitualmente por R.

Otra medida de dispersión es la varianza:

Obsérvese que los sumandos que hay en el numerador en la definición de la varianza son positivos, al ser cuadrados,
y que la varianza es mayor cuanto mayores sean las desviaciones de los valores de x respecto de su media, a efecto
de medir la dispersión. No obstante, las dimensiones de la varianza no son las mismas que las de la variable (por
ejemplo, si x se mide en mm, la varianza resulta en mm2).

Se llama desviación típica (o standard) a la raíz cuadrada de la varianza. La desviación típica tiene las mismas
dimensiones que la variable medida, y por esa razón se usa como escala para medir la magnitud de la desviación de
un valor xi respecto de la media, calculando

lo que equivale a dar la desviación en "múltiplos de s".

La desviación típica s y el recorrido R son las formas más típicas de evaluar la variabilidad presente en un conjunto de
datos. Veamos sus ventajas a inconvenientes.

a) El recorrido es más sencillo de calcular, y mucho más fácil de entender, que la desviación típica, lo que representa
un argumento de peso en favor de su uso. De hecho, es por esta razón por lo que su uso es frecuente en el control
estadístico de la calidad.

b) El recorrido solo usa dos de los valores de que se dispone, mientras que la desviación típica los usa todos. Por
consiguiente, el recorrido es menos aconsejable conforme va aumentando el número de valores, ya que su uso
involucra una pérdida de información. De hecho, sólo se usa cuando el número de datos es pequeño (5 o 6 como
máximo).

c) La interpretación precisa del valor del recorrido depende del número de valores a partir de los que se ha obtenido,
ya que no puede esperarse la misma magnitud para un recorrido de 6 valores, por ejemplo, que para uno de 2. En
cambio, puede hacerse uso directo del valor de la desviación típica, independientemente del número de valores que
se hayan usado para obtenerla, lo que representa una ventaja a favor de su uso. Veremos que, en la práctica, se usa
el recorrido para series de datos pequeñas, pero para su interpretación siempre se transforma previamente en una
desviación típica.
1.5. Descripción estadística de un proceso por atributos
1.5.1. Proporción de unidades no conforme
Supongamos que el proceso que queremos describir produce unas unidades discretas (tales como tornillos, tapones
para frasco de perfume, hojas de afeitar, bombillas, etc.), y que disponemos de un criterio que permite clasificar
estas unidades en conforme y no conforme (frecuentemente se usa el termino defectuosa en lugar de no-conforme,
a pesar de que la no-conformidad puede no responder a un auténtico defecto, sino a la incapacidad para una cierta
función). En este caso la forma más sencilla de evaluar el proceso, desde el punto de vista de la calidad, es a través
de la proporción de unidades no-conforme, que se obtiene de dividir el numera de unidades no-conforme observado
por el número total de unidades observadas:

Obsérvese que la proporción está comprendida entre 0 y 1. Si la multiplicamos por 100 obtenemos un porcentaje. El
uso de porcentajes es común en él, habla cotidiana, pero desde el punto de vista estadístico, el multiplicar las
proporciones por 100 es indiferente.

1.5.2. Ejemplo
Supongamos que, en el curso de una inspección efectuada sobre un cierto proceso de fabricación, se recogen 20
muestras, de 50 unidades cada una, y se registra el número de unidades defectuosas observado en cada muestra,
obteniendo los resultados de la Tabla 1.3.

Para dar una descripción estadística de este proceso puede usarse una tabla en la que se dan las diferentes
frecuencias con las que se han hallado los diferentes números de unidades defectuosas por muestra. En la Tabla 1.4
se presenta la distribución de frecuencia en este formato.

Obsérvese que, en este ejemplo, se han inspeccionado 20 muestras de 50 unidades, es decir, 1000 unidades,
obteniendo en total 20 unidades defectuosas. Esto nos sugiere que la proporción de unidades defectuosas en este
proceso es 20/1000 = 0,02, es decir, de un 2%. La distribución de frecuencia puede presentarse también mediante
un diagrama de barras como él. de la Figura 1.2.
1.5.3. Número medio de defectos
Ciertos productos no se clasifican como conformes o no conformes por la aparición de un defecto, sino que se
cuentan los defectos, que pueden ser más de uno (sin que el producto se considere no conforme), y tener distinta
gravedad. Si el producto se presenta, como en 1.5.1, en forma de unidades discretas, la evaluación del proceso se
realiza a través del número medio de defectos, c, por unidad, o por cada n unidades (n escogido a conveniencia). Si
el producto se presenta en forma continua (cable, tejido, cinta, etc.), la evaluación se realiza considerando
segmentos de tamaño conveniente y usando el número medio de defectos por segmento.

1.5.4. Ejemplo
En un proceso de fabricación de tejido para revestimiento de asientos de automóvil interesa controlar el número de
defectos del tejido. Se inspeccionan piezas de varios metros cada una, que, por razones de organización de la
empresa, tienen distinta longitud. Los resultados de la inspección se presentan en la Tabla 1.5.

Obsérvese que, para este ejemplo, un gráfico como el de la Figura 1.2 no tiene interés, ya que los números defectos
obtenidos en las distintas muestras no son comparables, por tener las muestras distinto tamaño. Podemos obtener
una evaluación del proceso a través del número medio de defectos por metro, que obtendremos dividiendo el
número de defectos hallados por el número de metros inspeccionados, resultando c = 0,2564.

1.5 5. Número medio de deméritos


En ciertos productos interesa distinguir los defectos según su gravedad o criticidad. Para ello se asigna a cada tipo de
defecto un número de deméritos, y al contar los defectos se multiplica el número de defectos de cada tipo por el
número de deméritos correspondiente, y se suman los resultados para obtener el número de deméritos del
segmento inspeccionado. De este modo puede evaluarse el proceso por el número medio de deméritos por
segmento.

1.5.6. Clasificación de no conformidades


En muchas ocasiones, la no conformidad de un cierto producto puede deberse a aspectos diversos (tales como rayas,
abolladuras, rebabas, grietas, burbujas de aire, etc.), y es conveniente incluir en la descripción estadística la
incidencia de cada uno de estos aspectos. Para ello es preciso clasificar las unidades no conformes de acuerdo con el
aspecto que origina la no conformidad, y contar el número de no conformidades debidas a cada uno. La proporción
o porcentaje de no conformidades atribuido a cada aspecto puede referirse al total de unidades inspeccionadas o al
total de unidades no conformes obtenidas, aunque este último caso es; el más frecuente. El análisis comparativo de
estas proporciones se denomina análisis de Pareto, y su objeto es; determinar cuáles son los tipos de no
conformidad cuya incidencia es mayor, con el fin de optimizar el esfuerzo realizado en la mejora de la calidad
concentrándolo en la reducción de la frecuencia de aparición de estos tipos concretos.
1.5.7. Ejemplo
Supongamos que, en el marco de un estudio sobre la calidad de la producción en una factoría, se realiza una
inspección para recoger datos sobre la proporción de productos defectuosos resultantes de un cierto proceso. De
2165 unidades inspeccionadas, 416 son defectuosas, y se clasifica estas en 5 categorías, como se muestra en la Tabla
1.6.

En la segunda columna de la tabla se muestra el número de unidades que presentan cada tipo de defecto (es decir,
la frecuencia absoluta), en la tercera el porcentaje que estas unidades representan respecto al total inspeccionado; y
en la cuarta el porcentaje que representan del total de unidades defectuosas. El hecho de que el total en esta última
columna no sea 100 es debido al redondeo efectuado para dar los porcentajes con una cifra decimal.

La misma información puede presentarse en un gráfico como el de la Figura 1.3. Estos gráficos, llamados diagramas
de sectores, o de tarta (pie charts) aparecen frecuentemente en la prensa (Vg. para presentar resultados
electorales), y precisan de pocas aclaraciones. Las áreas correspondientes a cada tipo de defecto son proporcionales
a sus frecuencias

En la Figura 1.4 se da otra representaci6n gráfica, esta vez en forma de diagrama de barras (bar chart). Obsérvese
que hemos ordenado aquí los rubros de defectos según sus frecuencias (en este caso dadas en forma de
porcentajes), lo que permite hacer un análisis de Pareto visualmente. Frecuentemente, el análisis de Pareto da como
resultado que un número reducido de tipos de defecto represente una parte sustancial del total, y varios más
representen una parte menos importante, como sucede en el diagrama de la Figura 1.4, donde uno solo da lugar a
casi la mitad de las no conformidades.
1.6. Variabilidad y estado de control
Todo proceso productivo da lugar a una cierta variabilidad. Supongamos, por ejemplo, que un proceso de fabricación
produce unas piezas, de las que nos interesa una determinada característica medible. Por avanzada que sea la
tecnología empleada, no hay dos piezas exactamente iguales. La aportación de la Estadística al control de la calidad
consiste, esencialmente, en proporcionar un lenguaje que permite describir y evaluar esa variabilidad. En el contexto
del control estadístico de procesos, la estadística se pone al servicio del control de procesos, cuyo objetivo es el
control de la variabilidad del proceso. Hay que recalcar que "control" no es sinónimo de "reducción", ni mucho
menos de "supresión'", aunque, en la mayoría de los casos, para llegar al control de un proceso haya que reducir la
variabilidad presente en el mismo.

1.6.1. La aproximación de Shewhart al control de procesos


La aproximación de Shewhart al problema del control de la variabilidad de un proceso se basa en una distinción
fundamental, que contempla dos niveles de variabilidad:

a) Algunos procesos manifiestan variabilidad controlada, es decir, caracterizada por una pauta consistente a lo largo
del tiempo.

b) Otros procesos, en cambio, manifiestan variabilidad no controlada, es decir, caracterizada por una pauta que varía
con el tiempo.

Cuando un proceso manifiesta variabilidad controlada, se dice que está en estado de control. Si damos una
descripción estadística de la variabilidad del proceso, el estado de control se traduce en la consistencia de esa
descripción estadística a lo largo del tiempo. Si además, a través de un modelo, resumimos la descripción estadística
del proceso en los valores de unos parámetros, como vimos en las secciones 1.4 y 1.5, el estado de control equivale
a la estabilidad de esos parámetros. Los gráficos de control se usan, precisamente, para controlar la estabilidad de
los parámetros.

Shewhart consideraba que la variabilidad controlada era consecuencia de la actuación de unas causas, que
individualmente tienen poca importancia, y no son fáciles detectar o identificar, a las que denominaba causas
aleatorias o causal no asignables. Por otra parte, la variabilidad no controlada se debería a otro tipo de causas, cuya
actuación es esporádica, sin una pauta consistente, a las que denominaba causas asignables.

Básicamente, las causas aleatorias y las asignables se distinguen en tres características, como se indica en el
esquema que sigue:

Se supone que las causas no asignables están siempre presentes en el proceso productivo, y que producen una
variabilidad, que hace que al repetir el proceso se obtengan resultados diferentes, pero que esta variabilidad es
regular (y de poca afección). Cuando toda la variabilidad del proceso puede ser atribuida a causas no asignables, el
proceso se halla en estado de control.

De este modo, habremos conducido a un proceso al estado de control cuando hayamos eliminado las causas
asignables y la variabilidad restante puede atribuirse a causas aleatorias. El estado de control no es espontáneo, y
llegar a él requiere normalmente una intervención sobre el proceso. El objetivo del control de procesos es llevar al
proceso al estado de control y mantenerlo en é1.

Mientras el proceso se mantiene bajo control, la variabilidad es consistente, y por tanto sus efectos (número de
unidades defectuosas, proporción de unidades para las que una cierta característica medible supera un cierto limite,
ere.) son previsibles. En este estado el proceso es predecible, y puede hacerse un estudio de capacidad de este
proceso, como veremos más adelante.
1.6.2. El aporte de Deming
W. E. Deming pasa por ser el responsable de la difusión en la industria japonesa de las técnicas estadísticas del
control de la calidad. Deming, que había trabajado con Shewhart en Western Electric, reformuló los conceptos de
causa aleatoria y causa asignable, insistiendo en la delimitación de responsabilidades en si actuación frente a las
causas de variabilidad.

Deming se refiere a los dos tipos de causas como causas comunes y causas especiales. Las causas comunes son parte
del sistema, o existen como consecuencia de la manera en que el sistema se gestiona, y son por consiguiente
responsabilidad de quienes lo gestionan (los "managers"). Por el contrario, las causas especiales no son parte del
sistema, sino de la actuación en un momento puntual, de agentes que hay que identificar y corregir. Las causas
especiales son, en general, responsabilidad de los trabajadores o de los encargados, y los gráficos de control son las
herramientas para detectarlas.

1.7. Distintos tipos de proceso


Ya hemos visto anteriormente como se clasifica el control de procesos desde el punto de vista estadístico, es decir,
teniendo en cuenta la naturaleza matemática de los datos que usan. Desde el punto de vista de la naturaleza del
producto que se controla, debemos considerar tres tipos fundamentales de proceso, que vamos a comentar a
continuación.

1.7.1. Procesos que dan lugar a unidades discretas


En el primer tipo que vamos a considerar, el resultado del proceso considerado consiste en unidades discretas, para
las que la calidad queda definida con un solo valor.

La situación más simple, cubierta en todos manuales sobre el tema (la mayoría solo parecen considerar esta
situación), es aquella en la cual estas unidades se producen una después de otra, y de la misma forma. Para estos
procesos todas las fuentes de variabilidad controlada tienen oportunidad de influir entre dos unidades consecutivas.
Si la característica que interesa es medible, se emplean las técnicas del control por variables, y si se clasifica o se
cuenta, las del control por atributos.

Otra situación, diferente desde el punto de vista estadístico, se presenta cuando la máquina que produce las
unidades posee varias posiciones (orificios, cavidades de un molde, etc.) de las que salen las unidades del producto.
En este caso las unidades que provienen de distintas posiciones pueden presentar unas diferencias entre ellas
debidas a la diferente posición. Estas diferencias siguen normalmente una pauta consistente en el tiempo, y forman
parte, por consiguiente, de la variabilidad controlada. El tratamiento estadístico de la variabilidad de estos procesos
es algo más complicado, ya que hay que tener en cuenta las dos fuentes que la originan, la diferencias entre las
posiciones, y el proceso propiamente dicho. Pese a ser muy abundante en la industria por razones de productividad,
esta situación es esquivada en general en los manuales de control estadístico de procesos.

1.7.2. Procesos continuos


Los procesos continuos, como la fabricación de papel, de cable, de cinta, o algunos procesos químicos, no producen
unidades individuales, sino un flujo continuo de material. A veces, al intentar aplicar a estos procesos unos métodos
que han sido diseñados para trabajar con procesos como los de 1.7.1, pueden violarse las hipótesis estadísticas sobre
las que esos métodos están basados, y las conclusiones no son válidas.
1.7.3. Procesos en batch
En un proceso en batch se realizan operaciones sucesivas, en las que, después de un cierto tiempo, se obtiene una
cierta cantidad (batch) del producto, que normalmente es un material de tipo continuo (líquido, polvo, etc.). El batch
puede presentar una variabilidad interna, con lo que no tendría sentido tratar de definirlo por una sola medida, a
menos que la medida se haga sobre una muestra compuesta. Si se puede suponer que los batches son
completamente homogéneos, entonces puede tratar cada batch como una unidad separada, y trabajar como en los
procesos de 1.7.1. En caso contrario tendremos que distinguir la variabilidad entre los batches de la variabilidad
dentro de un mismo batch. Debido a la existencia potencial de esta variabilidad interna, no puede darse un método
general para el tratamiento estadístico de los datos de calidad de un proceso en batch, sin haber estudiado el caso
concreto. El problema se complica en la mayoría de los casos por el hecho de que los procedimientos de medida
usados para las variables que se miden en estos procesos presentan errores no despreciables.

Nos ocuparemos en primer lugar de los procesos de 1.7.1, y veremos después cómo pueden adaptarse los métodos
vistos para los otros tipos de proceso.

1.8. Gráficos de control


1.8.1. Gráficos de control
Un gráfico de control es la representación gráfica de valores sucesivos de algún estadístico (media, recorrido,
proporción, etc.), obtenidos a partir de datos recogidos de la producción a intervalos de tiempo constantes.

1.8.2. Límites de control


En un gráfico de control, además de los puntos que representan los valores del estadístico usado, normalmente
unidos por una línea quebrada, se dibujan líneas rectas horizontales que representan los límites de control. Todo
gráfico de control tiene un límite de control, superior o inferior, o ambos. Los límites de control son límites de
variación del estadístico que pueden esperarse razonablemente si solamente intervienen causas comunes. Si el
gráfico sale fuera de estos límites se considera que ello es debido a la presencia de una causa especial, es decir, a
que el proceso está fuera de control. Los gráficos de control proporcionan así un método sencillo para el
seguimiento de la variabilidad y para detectar la actuación de causas especiales.

El procedimiento habitual para hallar los límites de control consiste en calcular un valor estimado de la desviación
típica del estadístico que se representa en el gráfico, y entonces los límites se obtienen sumando y restando al valor
medio el triple de la desviación típica. Se acostumbra a representar en el gráfico, además de los límites de control,
este valor medio.

Con relación a los límites de control, hay que llamar la atención sobre una distinción importante (puesto que la
confusión es frecuente) entre los límites de control y los límites de tolerancia en el control por variables. Recuérdese
que los límites de control son valores estadísticos, resultantes de los datos del proceso, y los límites de tolerancia
son valores que no tienen nada que ver con la Estadística, y que frecuentemente se determinan por razones
extrínsecas al proceso. Así pues, puede ser que un proceso esté en estado de control, sin que el producto resultante
satisfaga las especificaciones, o viceversa. Volveremos más adelante sobre esta cuestión al tratar de los estudios de
capacidad
1.8.3. Utilidad de los límites de control
Básicamente, los gráficos de control pueden usarse para tomar decisiones para las que el sentido común solo no
basta en muchos casos. En concreto, para decidir si la variabilidad que encontramos en un producto puede
considerarse o no como normal en el proceso. De este modo podemos evitar dos errores típicos:

a) intervenir en el proceso con demasiada frecuencia, o sin motivo real para hacerlo (overcontrol).

b) desaprovechar la oportunidad para ejercer una acción correctiva adecuada o para aprender que es lo que hace
comportarse al proceso como lo está haciendo (undercontrol)

Con el gráfico de control ahorramos tiempo no investigando la presencia de causas asignables cuando no hay
evidencia de la actuación de tales causas y lo reservamos para una investigación cuidadosa que haremos en aquellos
casos en los que hay evidencia de la actuación de causas asignables. Por consiguiente, el gráfico de control nos
permite rentabilizar mejor nuestro esfuerzo. En las páginas siguientes se verán ejemplos de todos los tipos de
gráficos de control, en general sencillos de elaborar. Los gráficos de control han sido diseñados de modo que su
construcción sea sencilla y su interpretación rápida. Eso explica que hayan perdurado durante un período de tiempo
tan largo y tan rico en innovaciones tecnológicas, y que, sesenta años después de su introducción en la industria, aún
sean ampliamente utilizados.

Clase 1-4
Estrategias de Prevención vs. E de Detección
Durante siglos, los artesanos hábiles se han esforzado en hacer productos que se distinguieran por su calidad
superior y, una vez que se lograba cierto grado de calidad, eliminar, hasta donde fuera posibles, cualquier
variabilidad en sus productos.

El trabajo artesanal conlleva la inspección y seguimiento de la calidad DURANTE cada etapa de la producción. El
artesano selecciona cuidadosamente su materia prima, y luego aplica su arte para el logro de un producto de
calidad.

El artesano utiliza una estrategia de prevención a favor de la calidad, porque es consciente del costo de su trabajo. La
producción en serie introdujo la necesidad de aplicar técnicas de inspección final o intermedia con el fin de detectar
fallas y segregar producto defectuoso. En los albores de la revolución industrial, y hasta hace no tanto tiempo, los
costos de la no calidad eran aceptados como inherentes a la producción en masa.
El desafío es combinar inteligentemente las bondades de la estrategia del artesanos con la producción en serie. Los
sistemas de Gestión de la Calidad están diseñados para lograr esa combinación inteligente.

La variabilidad de los Procesos es el principal enemigo de la Calidad

También podría gustarte