Está en la página 1de 26

CALIDAD Y SU CONTROL

MARCO CONCEPTUAL
Antiguamente, se tenía el concepto de que se debía controlar el material fabricado
para asegurar su calidad. Esto implicaba grandes costos, ya que se debían controlar
minuciosamente todas las dimensiones indicadas en el plano para determinar si la
pieza era correcta o no. Posteriormente, se empezó a realizar controles por muestreo,
de modo que se controlaba una pequeña cantidad de pie<as de un lote y de acuerdo a
la cantidad de rechazos que se detectarán se decía rechazar el lote completo. En este
sistema hay involucrado una cierta dosis de estadística para determinar el tamaño de
la muestra y los números de rechazo para tomar la determinación final. Una vez
rechazado el lote, el fabricante debía revisar pieza por pieza para separar las buenas
de las malas.

Estos sistemas, además del alto costo del control, tiene como inconveniente el hecho
de que se detecta el rechazo o el error de la producción cuando ya se ha gastado una
gran cantidad de recursos en la fabricación. Aún peor, si las piezas ya llegaron al
cliente, la mala imagen generada puede arruinar a la empresa más fuerte. Ejemplo de
ello son las conocidas campañas de servicio lanzadas por las automotrices para que
los clientes lleven sus vehículos a revisión ante posibles fallas en alguna de sus
partes. Es una regla básica, el hecho que cuando mas haya avanzado el producto
desde el momento en que se produjo la falla, más costoso resulta su solución.

Modernamente se usan sistemas de control estadístico que intentan asegurar el


resultado final manteniendo bajo control los distintos procesos de fabricación para de
ese modo intentar asegurar el resultado final. Esto se conoce como control estadístico
de procesos o CEP y se han desarrollado diversas herramientas para realizar estas
validaciones.

Esto no evita que piezas o productos con fallas lleguen a los clientes finales, pero al
menos permite el seguimiento, detección y solución de los orígenes del problema.

El slogan conocido de este sistema es que la calidad no se controla, sino que se


fabrica, y aquí es donde empezamos a cerrar el círculo de los conceptos vistos en los
distintos procesos de mecanizado explicados en el curso.

Va a depender del proceso diseñado y puesto en marcha, de su correcta


documentación, seguimiento y mantenimiento que dicho proceso sea estable y por lo
tanto predecible y confiable.

Por ejemplo, si una dimensión con una tolerancia de pocas centésimas lo


mecanizamos con una sola herramienta en una sola pasada de 3 milímetros de
profundidad, es probable que al principio la dimensión salga dentro de la tolerancia,
pero también es muy probable que a las pocas piezas se produzcan variaciones que
saquen a esa dimensión de la tolerancia. Si le agregamos una pasada de terminación
con otra herramienta, esa dimensión se va a estabilizar durante muchas más piezas y
de ese modo, conseguimos que el proceso se volviera más estable. Obviamente
agregar una herramienta y otra operación tiene un costo, por lo que es el ingeniero de
procesos es el que debe tomar la decisión de donde es necesario y donde no.

Calidad
Definición de la norma ISO 9000: “Calidad: grado en el que un conjunto de
características inherentes a un objeto (producto, servicio, proceso, persona,
organización, sistema o recurso) cumple con los requisitos.”

En la definición de calidad de la norma ISO 9000 podemos apreciar que el concepto


de calidad que en general se tiene es errado, cuando hablamos que un producto es de
buena o mala calidad, ya que normalmente lo referimos a las expectativas que
tenemos como usuarios del mismo, sin percatarnos que lo importante es si cumple o
no con los requisitos establecidos, que en nuestro caso, es el plano de la pieza y sus
especificaciones.

Obviamente el tema es mucho más extenso y complejo, pero al objeto de este curso,
vamos a centrarnos en el cumplimiento de las especificaciones del plano, que como
vimos arriba está íntimamente relacionado al proceso diseñado, incluyendo en esto, a
las máquinas elegidas, las fases, las operaciones con sus herramientas y condiciones
de corte, fijaciones, e instrumentos de medición.

El papel de la estadística

Más arriba hablamos del control estadísticos de procesos. Para eso, debemos explicar
algunos conceptos básicos de estadística.

Si nosotros relevamos los valores que va tomando una variable en un proceso, vamos
a encontrarnos que es muy probable que los valores se concentren alrededor de una
serie de valores y que haya algunos que se dispersan para arriba y para debajo de esa
concentración. A esto se le llama distribución normal o de Gauss y toma la forma que
se indica abajo.

Uno de los parámetros caracteristicos de esta distribución es la desviación standard


“σ”, que se expresa con la formula indicada abajo, pero que geometricamnete indica
que tan abierta es la curva, desviación grande o que tan cerrada, desviación pequeña.

σ2 = (Σ(xi - µ)2 )/ n

Donde xi son los valores que toma la variable, µ es el promedio de las mismas y n es
la cantidad de valores observados.
Una de las propiedades de la distribución normal es que se puede establecer que el
99.74 de los valores van a estar dentro de los 3 σ para un lado y para el otro. De aquí
surge una de las escuelas actuales de la calidad que se llama de 6 σ

Si comenzamos a medir una dimensión de una pieza a medida que se van fabricando,
vamos a ver que las medidas comienzan a agruparse cerca de la medida nominal
ajustada originalmente, y después de que fabricamos una cantidad de piezas
determinada, vamos a notar que las dimensiones siguen la curva normal. Esto quiere
decir que la mayoría de as mediciones van a estar cerca de la media, y habrá una
pequeña cantidad de mediciones que van a ser un poquito mas grande o un poquito
mas pequeña. Como dijimos antes, cuanto más angosta sea la campana, mejor, ya
que quiere decir que hay una gran cantidad de dimensiones relevadas que están cerca
de la dimensión nominal, y la dispersión es pequeña. La opción de la campana ancha
no es deseable, porque indica un proceso inestable.

La estadística nos permite aproximar el valor de σ con unas pocas mediciones, que
dependiendo del proceso, pueden ser por ejemplo de 50.

Una vez fabricado ese lote sin tocar ninguna de las variables de proceso y medidas
las dimensiones criticas, es decir las que tienen tolerancias apretadas y por lo tanto de
las que se debe hacer un seguimiento continuo, se calcula σ con la formula indicada
arriba.

Una vez calculado el valor de σ y determinada la media y las líneas de 3 σ para cada
lado, podemos asegurar que hay una probabilidad del 99.73% de que todas las piezas
estén dentro de ese rango de 6 σ. Estas líneas se llaman límites de control inferior y
superior respectivamente.

Obviamente, este razonamiento es valido siempre y cuando no ocurra un evento


inesperado, como ser la rotura de una herramienta o un error en el ajuste de la medida
nominal al colocar un nuevo inserto.
Según este enfoque, existen dos tipos de variabilidad. El primer tipo es una
variabilidad aleatoria debido a "causas al azar" o también conocida como "causas
comunes". El segundo tipo de variabilidad, en cambio, representa un cambio real en el
proceso atribuible a "causas especiales", las cuales, por lo menos teóricamente,
pueden ser identificadas y eliminadas.

Los gráficos de control ayudan en la detección de modelos no naturales de variación


en los datos que resultan de procesos repetitivos y dan criterios para detectar una falta
de control estadístico. Un proceso se encuentra bajo control estadístico cuando la
variabilidad se debe sólo a "causas comunes".
Veamos algunos ejemplos:
Es importante resaltar que las causas de las variaciones aleatorias son inherentes al
proceso, y por lo tanto no las vamos a poder controlar a menos que hagamos cambios
en el proceso. Las variaciones dentro de esa zona es responsabilidad del que diseñó
el proceso. En cambio, las variaciones fuera de las líneas de control son identificables
y es responsabilidad del operario o del supervisor detectarlas antes de que se
produzcan piezas fuera de tolerancia.
Para que el operario pueda realizar ese control, se utilizan las cartas de control:

La carta de control es un instrumento del manejo del proceso en tiempo real. No es


necesario esperar que los puntos salgan de los límites. Es necesario vigilar también
los puntos en el interior de los límites y detectar toda disposición anormal de los
puntos. Las causas especiales pueden aún existir cuando todos los puntos estén en el
interior de los límites. Este es el rol preventivo de la carta de control

A.- Si no hay evidencias de una distribución anormal para los puntos en el


interior de los limites, entonces:

• Pocas probabilidades de que existan CAUSAS ESPECIALES.

• Solo existen CAUSAS COMUNES.

• NO INTERVENIR: el proceso no puede hacerlo mejor, su concepción no


se lo permite

B.- Si hay puntos al exterior de un límite de control, entonces:

• Fuertes probabilidades de que existan CAUSAS ESPECIALES.

• INTERVENIR: falla el proceso.

LOS DOS ERRORES A EVITAR

• 1 INTERVENIR EN EL CASO A.

• 2 NO INTERVENIR EN EL CASO B.
Capacidad del proceso vs. Especificación del producto

Ahora bien, que pasa si nuestro intervalo de tolerancia es mas chico que el intervalo
de 6 σ? Evidentemente, el proceso no es apto para conseguir en forma confiable esa
dimensión con esa tolerancia. Puede ser que el proceso de mecanizado no sea
estable, que la maquina no tenga la precisión suficiente, que las herramientas no
tengan la calidad necesaria, etc, por lo que necesita ser revisado. Abajo vemos un
caso en que el intervalo de 6 σ esta ampliamente incluido dentro del intervalo de la
tolerancia especificada.

La principal razón para cuantificar la capacidad de un proceso es la de calcular la


habilidad del proceso para mantenerse dentro de las especificaciones del producto.
Para procesos que están bajo control estadístico, una comparación de la variación
de6σ con los límites de especificaciones permite un fácil cálculo del porcentaje de
defectuosos mediante la tolerancia estadística convencional.

El índice de capacidad del proceso es la formula utilizada para calcular la habilidad del
proceso de cumplir con las especificaciones y se expresa de la siguiente manera:
LSE − LIE
ICP =
6σˆ

Donde: ICP: Índice de Capacidad del Proceso

LSE: Limite superior Especificado

LIE: Limite inferior Especificado

σ: Desviación estándar de los datos individuales


ICP Clase de Decisión
proceso

ICP>1.33 1 Más que adecuado, incluso puede exigirse más en


términos de su capacidad.

1<ICP<1.33 2 Adecuado para lo que fue diseñado. Requiere control


estrecho si se acerca al valor de 1

0.67<ICP<1 3 No es adecuado para cumplir con el diseño inicial.

ICP<0.67 4 No es adecuado para cumplir con el diseño inicial.

Análisis de la capacidad del proceso

Se utiliza con dos objetivos principales, implicando ambos las especificaciones del
producto:

1. Como ayuda a la predicción. ¿Es este proceso capaz de cumplir


permanentemente con las especificaciones del producto?

2. Como ayuda al análisis. ¿Por qué este proceso no cumple con las especificaciones
establecidas?

El termino “Análisis de la capacidad del proceso” se refiere a la actividad de estudiar el


proceso en un esfuerzo por responder ambas preguntas.

Relación entre los parámetros de la variable y los límites de especificación. Incluyendo


los valores de Cpk que pueden asumir según su comportamiento frente a las
especificaciones:

a. El proceso no esta en capacidad de cumplir con las especificaciones.


b. Proceso cuyo centro esta desplazado y el proceso esta en peligro de generar
producto fuera de la especificación, sin embargo la amplitud del proceso indica
que este puede cumplir la tolerancia demarcada por las especificaciones.
c. En este caso ya se han presentado productos fuera de las especificaciones,
generando no conformidades del proceso

Cuando el problema esta en centrar correctamente el proceso con respecto a las


especificaciones, la administración debe investigar la causas de la mala dirección
técnica del proceso.
Frecuencias

Promedio Aceptable Especificaciones


a.
Desviación estándar

aceptable. Cpk > 1


Medidas
Promedio aun aceptable

Frecuencias
b.
Desviación estándar Especificaciones

aceptable. Cpk = 1

Medidas

Promedio muy alto


c.

Frecuencia
Especificaciones
Desviación estándar

potencialmente aceptable

Cpk = Cpu < 1


Medidas

Promedio aceptable
d.
Frecuencias

Desviación estándar Especificaciones

muy grande

Cpu y Cp1 < 1

Medidas

Promedio muy alto


Frecuencias

e. Especificaciones
Desviación estándar muy

grande

Cpk = Cpu < 1


Medidas

Cpk

Otra medida para la cuantificación del índice de capacidad de proceso es el Cpk, que
esta definido come el menor valor encontrado entre el Cpu y el Cpl, que se define
como:
LSE − X X − LIE
Cpu = Cpl =
3σ 3σ

Donde Cpu: Capacidad de proceso teniendo en cuenta únicamente la


especificación superior del proceso.

LIE: Limite de especificación inferior de la variable


LSE: Limite de especificación superior de la variable

X:
Valor promedio encontrado de los datos

σ: Desviación estándar del proceso

Cpu y Cpl solo evalúan la mitad de la distribución de los datos teniendo en cuenta solo
3σ. Es útil cuando la especificación de la variable, solo se expresa como un máximo o
como un mínimo, para indicar al analista en que sector de la especificación (superior o
inferior) se presenta mas riesgo de incumplimiento de los valores establecidos.

Si el promedio de las mediciones X coincide con la medida nominal que se esta


controlando, entonces, Cp = Cpk. Esto quiere decir que le proceso esta centrado,
condición importante que se debe lograr al momento de lanzar el proceso.

Los valores de Cpk, son ampliamente utilizados como indicadores de la calidad de un


proceso o producto. El valor de Cpk = 1.33 se ha establecido como un parámetro
deseado porque la obtención de este valor en un proceso o producto significa que por
cada 10.000 mediciones 3 de ellas existe la probabilidad estadística que se encuentre
fuera de los limites de la especificación.
Esquema general para implementación de un programa de control estadístico o
para el mejoramiento de los procesos con base en esta herramienta

Inicio

Definir variables de
proceso a medir

Definir plan de
mediciones

Realizar las mediciones de


acuerdo al plan establecido

Evaluar el comportamiento
con gráficos de control

Identificar Eliminar
No
causas causas
Proceso asignables de asignables de
variación variación

Si

Decisión Evaluar la capacidad del


gerencial proceso

No
ICP>1

?
Si

Verificar Programas de
ICP>1.33 No
centrado del mejoramiento
proceso del proceso
? Si

Decisión
gerencial

Más que un proceso operativo, la implementación de un programa de esta naturaleza


es un proceso administrativo.
Los dos primeros pasos deben ser definidos con el concurso de la persona o cargo
que demarque los objetivos de calidad de la compañía. Básicamente se refiere al “que”
medir y seguramente va ligado al “porque medir”.

El tercer paso, permite conocer en detalle el proceso y seguramente lo habilitara para


la toma de mejores decisiones en el futuro. En este paso se debe implementar todo lo
desarrollado en la sección de gráficos de control por variable y gráficos de control por
atributos.

Siguiendo el esquema una vez obtenidos los gráficos de control debe evaluarse si el
proceso esta o no en control estadístico, revisar tendencias, limites, etc., en síntesis
verificar que el proceso esta estable y predecible. Si se descubre que el proceso
presenta causas asignables de variación estas deben ser eliminadas y posteriormente
repetirse el estudio, hasta encontrar el proceso en estado de control estadístico.

El que el proceso se encuentre “bajo control estadístico” no significa que cumpla con
las especificaciones para cual fue diseñado. (Se verifica a través del cálculo del índice
de capacidad del proceso.)

Si el proceso estando en estado de control estadístico presenta un Cpk inferior a 1,


significa que la decisión debe ser tomada al nivel de la alta gerencia porque las causas
de este comportamiento pueden estar en algunas de estas alternativas:

Especificaciones mal establecidas.


El procedimiento de operación no es adecuado para obtención de los
requerimientos exigidos.
La tecnología utilizada no es adecuada para el efecto esperado.

Son decisiones que involucran reorientación de procesos, inversiones económicas


fuertes o el acuerdo con los clientes de modificación de las especificaciones.

Si la capacidad del proceso se presenta ente los valores 1 y 1.33, significa que la
dispersión del proceso puede ser igual a la dispersión esperada (especificación), pero
puede haber puntos por fuera de los límites de control. Si este es el caso, se debe
verificar el centramiento del proceso, recalcular los limites de control, continuar el
control a través de los gráficos y proponer mejoras en el proceso para lograr mejores
metas de calidad y aumento de la productividad.

Si por fortuna nuestro proceso posee un Cpk igual o mayor de 1.33, debemos tomar
otro tipo de decisiones a nivel gerencial, por ejemplo: aumentar la tasa de producción,
vender un “plus” de calidad, vender la optimización de un método de instalación o de
operación, trasladar la operación de manufactura a otras maquinas y permitir que la
primera se dedique a procesos mas delicados o especializados, etc.
DEFINICION DE LA ESTABILIDAD

Las Siete Herramientas de la Calidad

La calidad del producto fabricado está determinada por sus características de calidad,
es decir, por sus propiedades físicas, químicas, mecánicas, estéticas, durabilidad,
funcionamiento, etc. que en conjunto determinan el aspecto y el comportamiento del
mismo. El cliente quedará satisfecho con el producto si esas características se ajustan
a lo que esperaba, es decir, a sus expectativas previas.

El valor de una característica de calidad es un resultado que depende de una


combinación de variables y factores que condicionan el proceso productivo.

¿Para qué se miden las características de calidad? El análisis de los datos medidos
permite obtener información sobre la calidad del producto, estudiar y corregir el
funcionamiento del proceso y aceptar o rechazar lotes de producto. En todos estos
casos es necesario tomar decisiones y estas decisiones dependen del análisis de los
datos. Como hemos visto, los valores numéricos presentan una fluctuación aleatoria y
por lo tanto para analizarlos es necesario recurrir a técnicas estadísticas que permitan
visualizar y tener en cuenta la variabilidad a la hora de tomar las decisiones.

Siguiendo el pensamiento del Dr. Kaoru Ishikawa, vamos a explicar algunas de estas
técnicas, que se conocen como Las 7 Herramientas de la Calidad. Estas son:

1. Diagramas de Causa-Efecto

2. Planillas de Inspección

3. Gráficos de Control

4. Diagramas de Flujo

5. Histogramas

6. Gráficos de Pareto

7. Diagramas de Dispersión

8. hoja de control

Diagramas de Causa-Efecto

Cuando ocurre algún problema con la calidad del producto, debemos investigar para
identificar las causas del mismo. Para ello nos sirven los Diagramas de Causa -
Efecto, conocidos también como Diagramas de Espina de Pescado por la forma que
tienen. Estos diagramas fueron utilizados por primera vez por Kaoru Ishikawa.

Para hacer un Diagrama de Causa-Efecto seguimos estos pasos:

Decidimos cual va a ser la característica de calidad que vamos a analizar.

Trazamos una flecha gruesa que representa el proceso y a la derecha escribimos la


característica de calidad:

Indicamos los factores causales más importantes y generales que puedan generar la
fluctuación de la característica de calidad, trazando flechas secundarias hacia la
principal. Por ejemplo, Materias Primas, Equipos, Operarios, Método de Medición, etc.:
Incorporamos en cada rama factores más detallados que se puedan considerar causas
de fluctuación

Finalmente verificamos que todos los factores que puedan causar dispersión hayan
sido incorporados al diagrama. Las relaciones Causa-Efecto deben quedar claramente
establecidas y en ese caso, el diagrama está terminado.

Un diagrama de Causa-Efecto es de por si educativo, sirve para que la gente conozca


en profundidad el proceso con que trabaja, visualizando con claridad las relaciones
entre los Efectos y sus Causas. Sirve también para guiar las discusiones, al exponer
con claridad los orígenes de un problema de calidad. Y permite encontrar más
rápidamente las causas asignables cuando el proceso se aparta de su funcionamiento
habitual.

Otro ejemplo
Planillas de Inspección

Los datos que se obtienen al medir una característica de calidad pueden recolectarse
utilizando Planillas de Inspección. Las Planillas de Inspección sirven para anotar los
resultados a medida que se obtienen y al mismo tiempo observar cual es la tendencia
central y la dispersión de los mismos. Es decir, no es necesario esperar a recoger
todos los datos para disponer de información estadística.
¿Cómo realizamos las anotaciones? En lugar de anotar los números, hacemos una
marca de algún tipo (*, +, raya, etc.) en la columna correspondiente al resultado que
obtuvimos.

En primer lugar, registramos en el encabezado de la planilla la información general: Nº


de Planilla, Nombre del Producto, Fecha, Nombre del Inspector, Nº de Lote, etc. Esto
es muy importante porque permitirá identificar nuestro trabajo de medición en el futuro.

Luego realizamos las mediciones y las vamos anotando en la Planilla.

Después de muchas mediciones, nuestra planilla quedaría como sigue:


Para cada columna contamos el total de resultados obtenidos y lo anotamos al pié.
Esta es la Frecuencia de cada resultado, que nos dice cuáles mediciones se repitieron
más veces.

¿Qué información nos brinda la Planilla de Inspección? Al mismo tiempo que medimos
y registramos los resultados, nos va mostrando cual es la Tendencia Central de las
mediciones. En nuestro caso, vemos que las mismas están agrupadas alrededor de
2.3 aproximadamente, con un pico en 2.1 y otro en 2.5 . Habría que investigar por que
la distribución de los datos tiene esa forma. Además podemos ver la Dispersión de los
datos. En este caso vemos que los datos están dentro de un rango que comienza en
1.5 y termina en 3.3 . Nos muestra entonces una información acerca de nuestros datos
que no sería fácil de ver si sólo tuvieramos una larga lista con los resultados de las
mediciones.

Y además, si marcamos en la planilla los valores mínimo y máximo especificados para


la característica de calidad que estamos midiendo (LIE y LSE) podemos ver que
porcentaje de nuestro producto cumple con las especificaciones.

Gráficos de Control

Un gráfico de control es una carta o diagrama especialmente preparado donde se van


anotando los valores sucesivos de la característica de calidad que se está controlando.
Los datos se registran durante el funcionamiento del proceso de fabricación y a
medida que se obtienen.

El gráfico de control tiene una Línea Central que representa el promedio histórico de la
característica que se está controlando y Límites Superior e Inferior que también se
calculan con datos históricos.
los valores fluctúan al azar alrededor del valor central (Promedio histórico) y dentro de
los límites de control superior e inferior

Existen diferentes tipos de Gráficos de Control: Gráficos X-R, Gráficos C, Gráficos np,
Gráficos Cusum, y otros. Cuando se mide una característica de calidad que es una
variable continua se utilizan en general los Gráficos X-R. Estos en realidad son dos
gráficos que se utilizan juntos, el de X (promedio del subgrupo) y el de R (rango del
subgrupo).:

Diagramas de Flujo

Diagrama de Flujo es una representación gráfica de la secuencia de etapas,


operaciones, movimientos, decisiones y otros eventos que ocurren en un proceso.
Esta representación se efectúa a través de formas y símbolos gráficos utilizados
usualmente:

Los símbolos gráficos para dibujar un diagrama de flujo están más o menos
normalizados:
Existen otros símbolos que se pueden utilizar. Lo importante es que su significado se
entienda claramente a primera vista. En el ejemplo siguiente, vemos un diagrama de
flujo para representar el proceso de fabricación de una resina (Reacción de
Polimerización):

Algunas recomendaciones para construir Diagramas de Flujo son las siguientes:

• Conviene realizar un Diagrama de Flujo que describa el proceso real y no lo


que está escrito sobre el mismo (lo que se supone debería ser el proceso).

• Si hay operaciones que no siempre se realizan como está en el diagrama,


anotar las excepciones en el diagrama.

• Probar el Diagrama de Flujo tratando de realizar el proceso como está


descripto en el mismo, para verificar que todas las operaciones son posibles tal
cual figuran en el diagrama.

• Si se piensa en realizar cambios al proceso, entonces se debe hacer un


diagrama adicional con los cambios propuestos.
Histogramas

Un histograma es un gráfico o diagrama que muestra el número de veces que se


repiten cada uno de los resultados cuando se realizan mediciones sucesivas. Esto
permite ver alrededor de que valor se agrupan las mediciones (Tendencia central) y
cual es la dispersión alrededor de ese valor central.

lo primero que hace el médico es agrupar los datos en intervalos contando cuantos
resultados de mediciones de peso hay dentro de cada intervalo (Esta es la frecuencia).
Por ejemplo, ¿Cuántos pacientes pesan entre 60 y 65 kilos? ¿Cuántos pacientes
pesan entre 65 y 70 kilos?:

Nº Pacientes
Intervalos
(Frecuencia)
<50 0
50-55 0
55-60 1
60-65 17
65-70 48
70-75 70
75-80 32
80-85 28
85-90 16
90-95 0
95-100 3
100-105 0
105-110 0
>110 1

Ahora se pueden representar las frecuencias en un gráfico como el siguiente:

Por ejemplo, la tabla nos dice que hay 48 pacientes que pesan entre 65 y 70
kilogramos. Por lo tanto, levantamos una columna de altura proporcional a 48 en el
gráfico: Y agregando el resto de las frecuencias nos queda el histograma siguiente:
¿Qué utilidad nos presta el histograma? Permite visualizar rápidamente información
que estaba oculta en la tabla original de datos. Por ejemplo, nos permite apreciar que
el peso de los pacientes se agrupa alrededor de los 70-75 kilos. Esta es la Tendencia
Central de las mediciones. Además podemos observar que los pesos de todos los
pacientes están en un rango desde 55 a 100 kilogramos. Esta es la Dispersión de las
mediciones. También podemos observar que hay muy pocos pacientes por encima de
90 kilogramos o por debajo de 60 kilogramos.

Diagramas de Dispersión

Los Diagramas de Dispersión o Gráficos de Correlación permiten estudiar la relación


entre 2 variables. Dadas 2 variables X e Y, se dice que existe una correlación entre
ambas si cada vez que aumenta el valor de X aumenta proporcionalmente el valor de
Y (Correlación positiva) o si cada vez que aumenta el valor de X disminuye en igual
proporción el valor de Y (Correlación negativa). En un gráfico de correlación
representamos cada par X, Y como un punto donde se cortan las coordenadas de X e
Y:

Veamos un ejemplo. Supongamos que tenemos un grupo de personas adultas de sexo


masculino. Para cada persona se mide la altura en metros (Variable X) y el peso en
kilogramos (Variable Y). Es decir, para cada persona tendremos un par de valores X, Y
que son la altura y el peso de dicha persona. Entonces, para cada persona
representamos su altura y su peso con un punto en un gráfico. Qué nos muestra este
gráfico? En primer lugar podemos observar que las personas de mayor altura tienen
mayor peso, es decir parece haber una correlación positiva entre altura y peso. Pero
un hombre bajito y gordo puede pesar más que otro alto y flaco. Esto es así porque no
hay una correlación total y absoluta entre las variables altura y peso. Para cada altura
hay personas de distinto peso:
Sin embargo podemos afirmar que existe cierto grado de correlación entre la altura y el
peso de las personas.

Hoja de control

La Hoja de control u hoja de recogida de datos, también llamada de Registro, sirve


para reunir y clasificar las informaciones según determinadas categorías, mediante la
anotación y registro de sus frecuencias bajo la forma de datos. Una vez que se ha
establecido el fenómeno que se requiere estudiar e identificadas las categorías que los
caracterizan, se registran estas en una hoja, indicando la frecuencia de observación.
Lo esencial de los datos es que el propósito este claro y que los datos reflejen la
verdad. Estas hojas de recopilación tienen muchas funciones, pero la principal es
hacer fácil la recopilación de datos y realizarla de forma que puedan ser usadas
fácilmente y analizarlos automáticamente.
De modo general las hojas de recogida de datos tienen las siguientes funciones:

o De distribución de variaciones de variables de los artículos producidos


(peso, volumen, longitud, talla, clase, calidad, etc.Z)

o De clasificación de artículos defectuosos

o De localización de defectos en las piezas

o De causas de los defectos

o De verificación de chequeo o tareas de mantenimiento.

Una vez que se ha fijado las razones para recopilar los datos, es importante que se
analice las siguientes cuestiones:

o La información es cualitativa o cuantitativa

o Como, se recogerán los datos y en que tipo de documento se hará


o Cómo se utiliza la información recopilada

o Cómo de analizará

o Quién se encargará de la recogida de datos

o Con qué frecuencia se va a analizar

o Dónde se va a efectuar

Esta es una herramienta manual, en la que clasifican datos a través de marcas sobre
la lectura realizadas en lugar de escribirlas, para estos propósitos son utilizados
algunos formatos impresos, los objetivos mas importantes de la hoja de control son:

o Investigar procesos de distribución

o Artículos defectuosos

o Localización de defectos

o Causas de efectos

Una secuencia de pasos útiles para aplicar esta hoja en un Taller es la siguiente:

1. Identificar el elemento de seguimiento

2. Definir el alcance de los datos a recoger

3. Fijar la periodicidad de los datos a recolectar

4. Diseñar el formato de la hoja de recogida de datos, de acuerdo con la


cantidad de información a recoger, dejando un espacio para totalizar los
datos, que permita conocer: las fechas de inicio y término, las probables
interrupciones, la persona que recoge la información, fuente, etc.Z

Diagrama de Pareto

Es una herramienta que se utiliza para priorizar los problemas o las causas que los
genera.
El nombre de Pareto fue dado por el Dr. Juran en honor del economista italiano
VILFREDO PARETO (1848-1923) quien realizó un estudio sobre la distribución de la
riqueza, en el cual descubrió que la minoría de la población poseía la mayor parte de
la riqueza y la mayoría de la población poseía la menor parte de la riqueza. El Dr.
Juran aplicó este concepto a la calidad, obteniéndose lo que hoy se conoce como la
regla 80/20.
Según este concepto, si se tiene un problema con muchas causas, podemos decir que
el 20% de las causas resuelven el 80 % del problema y el 80 % de las causas solo
resuelven el 20 % del problema.
Seta basada en el conocido principio de Pareto, esta es una herramienta que es
posible identificar lo poco vital dentro de lo mucho que podría ser trivial, ejemplo: la
siguiente figura muestra el número de defectos en el producto manufacturado,
clasificado de acuerdo a los tipos de defectos horizontales.
Procedimientos para elaborar el diagrama de Pareto:

1. Decidir el problema a analizar.

2. Diseñar una tabla para conteo o verificación de datos, en el que se


registren los totales.

3. Recoger los datos y efectuar el cálculo de totales.

4. Elaborar una tabla de datos para el diagrama de Pareto con la lista de


ítems, los totales individuales, los totales acumulados, la composición
porcentual y los porcentajes acumulados.

5. Jerarquizar los ítems por orden de cantidad llenando la tabla respectiva.

6. Dibujar dos ejes verticales y un eje horizontal.

7. Construya un gráfico de barras en base a las cantidades y porcentajes


de cada ítem.

8. Dibuje la curva acumulada. Para lo cual se marcan los valores


acumulados en la parte superior, al lado derecho de los intervalos de
cada ítem, y finalmente una los puntos con una línea continua.

9. Escribir cualquier información necesaria sobre el diagrama.

Para determinar las causas de mayor incidencia en un problema se traza una línea
horizontal a partir del eje vertical derecho, desde el punto donde se indica el 80%
hasta su intersección con la curva acumulada. De ese punto trazar una línea vertical
hacia el eje horizontal. Los ítems comprendidos entre esta línea vertical y el eje
izquierdo constituye las causas cuya eliminación resuelve el 80 % del problema.
AMFE (PRODUCTO) SINONIMOS: CEDAC – FMECA

AMFE: Análisis Modal de Fallas y Efectos

Es un procedimiento de análisis de fallos potenciales durante el diseño de un producto


o servicio que permite clasificar los mismos en función de su probabilidad de
ocurrencia y de su gravedad, permitiendo de este modo solucionarlos antes de que se
pase a la producción o implementación.

El AMFE fue aplicado por vez primera por la industria aeroespacial en la década de los
60, y en la década de los 70 lo empezó a utilizar Ford, extendiéndose más tarde al
resto de fabricantes de automóviles. En la actualidad es un método básico de análisis
en el sector del automóvil que se ha extrapolado satisfactoriamente a otros sectores.
Este método también puede recogerse con la denominación de AMFEC (Análisis
Modal de Fallos, Efectos y su Criticidad), al introducir de manera remarcable y más
precisa la especial gravedad de las consecuencias de los fallos. Aunque la técnica se
aplica fundamentalmente para analizar un producto o proceso en su fase de diseño,
este método es válido para cualquier tipo de proceso o situación, entendiendo que los
procesos se encuentran en todos los ámbitos de la empresa, desde el diseño y
montaje hasta la fabricación, comercialización y la propia organización en todas las
áreas funcionales de la empresa. Evidentemente, este método a pesar de su enorme
sencillez es usualmente aplicado a elementos o procesos clave en donde los fallos
que pueden acontecer, por sus consecuencias puedan tener repercusiones
importantes en los resultados esperados. El principal interés del AMFE es el de
resaltar los puntos críticos con el fin de eliminarlos o establecer un sistema preventivo
(medidas correctoras) para evitar su aparición o minimizar sus consecuencias, con lo
que se puede convertir en un riguroso procedimiento de detección de defectos
potenciales, si se aplica de manera sistemática.

El AMFE se confecciona multiplicando índices (de uno a diez) que indican la gravedad,
la probabilidad de que ocurra y la detectabilidad, es decir, si es fácil que se detecte en
la línea o puede pasar desapercibido y por lo tanto le llegará al cliente.

El índice final obtenido de multiplicar los tres anteriores, dará un orden de prioridad
para atacarlos con las herramientas mencionadas anteriormente.-

También podría gustarte