Está en la página 1de 48

INSTITUTO POLITÉCNICO NACIONAL

ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA


UNIDAD PROFESIONAL ADOLFO LÓPEZ MATEOS
ZACATENCO
INGENIERÍA EN COMUNICACIONES Y ELECTRÓNICA
MATERIA: CALIDAD EN LA INGENIERÍA
PROFESOR: GUZMAN LÓPEZ RENÉ
GRUPO: 8CV2
NOMBRES: RAMOS LÓPEZ MARIA FERNANDA
BENAVIDEZ OSORIO JOSÉ MANUEL
LÁZARO LUVIANO RICARDO
TRABAJO DE EXPOSICIÓN
“CONTROL ESTADÍSTICO DE LA CALIDAD”

FECHA DE EXPOSICIÓN: 18 DE FEBRERO DE 2020


ÍNDICE
Tabla de contenido
INTRODUCCIÓN..................................................................................................................................3
2.1 Formular y valorar el control estadístico de la calidad.................................................................4
2.1.2 Antecedentes Calidad-Variabilidad...........................................................................................5
2.1.3 Control estadístico de procesos en servicios.............................................................................7
2.2 Calidad de diseño.........................................................................................................................9
AMEF (Análisis del Modo y Efecto de Fallas)..................................................................................9
2.2 QFD (Quality Function Deploymet)............................................................................................13
Calidad de concordancia/conformidad............................................................................................16
Diagrama de Pareto.........................................................................................................................18
La Ley o Principio de Pareto.........................................................................................................18
Ejemplo de un Diagrama de Pareto..................................................................................................21
Histograma.......................................................................................................................................23
Ejemplo de un Histograma...............................................................................................................25
Estratificación...................................................................................................................................27
Hoja de Verificación.........................................................................................................................31
El diagrama causa-efecto.................................................................................................................34
Gráfico o diagrama de control..........................................................................................................39
Diagrama de dispersión....................................................................................................................42
Correlación.......................................................................................................................................43
CONCLUSIONES PERSONALES..........................................................................................................45
BIBLIOGRAFÍA...................................................................................................................................46
INTRODUCCIÓN
Definimos el “Control Estadístico de la Calidad” como la aplicación de diferentes
técnicas estadísticas a procesos industriales (mano de obra, materias primas
medidas, máquinas y medio ambiente), procesos administrativos y/o servicios con
objeto de verificar si todas y cada una de las partes del proceso y servicio cumplen
con unas ciertas exigencias de calidad y ayudar a cumplirlas, entendiendo por
calidad “la aptitud del producto y/o servicio para su uso.

La aplicación de técnicas estadísticas al control está basada en el estudio y


evaluación de la variabilidad existente en cualquier tipo de proceso que es
principalmente el objeto de la Estadística. Las fuentes que producen la variabilidad
objeto de estudio en la Estadística, se clasifica en “variabilidad controlada” o
“corregible” que no entra dentro de nuestro campo pero si es posible detectarla por
causar una variabilidad muy grande (ajuste incorrecto de la máquina, errores
humanos, siendo posible eliminar la causa o causas que la han producido, y la
“variabilidad debida al azar”, también denominada “variabilidad no controlable que
no puede ser asignada a una causa única sino al efecto combinado de otras
muchas.

El objetivo del Control Estadístico de la Calidad es:

1. Detectar rápidamente la ocurrencia de variabilidad debida a causas


asignables. 2
2. Investigar la(s) causa(s) que la han producido y eliminarla(s).
3. Informar de ella para la toma de decisión oportuna, pues de lo contrario se
producirían gran cantidad de unidades de calidad no aceptable, originando
una disminución de la capacidad productiva e incremento de costos del
producto terminado (supervisor).
4. 4. Eliminar, si es posible, o al menos reducir al máximo la variabilidad del
proceso (dirección).

El presente trabajo pretende explicar las ventajas que implica aplicar


el Control Estadístico en los procesos de producción con el fin de mejorar los
procesos productivos, disminuyendo costos para así ofrecer productos realmente
competitivos. Existe mucha literatura de control de calidad en sus distintas
modalidades, todos los autores de calidad coinciden en la necesidad de
usar técnicas de calidad, y para cubrir esta necesidad existe un conjunto de
técnicas estadísticas llamadas herramientas básicas de la calidad que aplicada
combinadamente forman el Control Estadístico del Proceso (CEP).
2.1 Formular y valorar el control estadístico de la calidad
2.1.1 Calidad de la ingeniería

La Calidad de Ingeniería es una metodología que consiste en la aplicación de


técnicas cuantitativas para optimizar productos y procesos de manufactura. Este
conjunto de técnicas agrega calidad a lo largo del proceso de producción,
incluyendo el diseño, fabricación y control de productos y procesos.

La Ingeniería de la Calidad fue desarrollada por Genichi Taguchi, que tiene como
objetivo combinar métodos de ingeniería y estadística con la finalidad de mejorar
el rendimiento de costo y calidad.

Genichi Taguchi fue un ingeniero y estadístico japonés que desarrolló una


metodología a partir de estadísticas que permitió mejorar la calidad de los
productos manufacturados para la época. Sus principales aportes giraron en torno
a las estadísticas aplicadas a procesos industriales de control y gestión de calidad,
así como medidas que llegaron a influenciar los mecanismos administrativos de
las empresas japonesas y occidentales.

La filosofía de Taguchi abarca toda la función de producción, desde el diseño


hasta la fabricación. Su metodología se concentra en el consumidor, valiéndose de
la “función de pérdida”. Taguchi define la calidad en términos de la pérdida
generada por el producto a la sociedad. Esta pérdida puede ser estimada desde el
momento en que un producto es despachado hasta el final de su vida útil.

Su mayor contribución se debe a los conceptos de pérdida de calidad y la razón


señal ruido, que nos indica en qué situación está con respecto al desarrollo del
producto y cuando es tiempo de las mejoras que hay que hacer y la forma más
económica posible

Taguchi llama a los factores incontrolables factores de ruido. Ruido es cualquier


cosa que causa a una característica de la calidad desviarse de su objetivo, el cual
subsecuentemente causa una pérdida de calidad. La porción señal-ruido es un
índice de robusticidad de calidad, y muestra la magnitud de la interacción entre
factores de control y factores de ruido.

Los factores de ruido:

 Causan que una característica funcional se desvié de su valor objetivo

 Los factores de ruido causan variación y pérdida de calidad


Taguchi ha observado que esta pérdida de calidad constituye una pérdida de
tiempo y dinero tanto a los consumidores como a los fabricantes y en última
instancia a la sociedad

La calidad de la ingeniería lleva a cabo actividades dirigidas a reducir las pérdidas


causadas por la variabilidad. Las actividades de ingeniería de calidad se
incorporan en cada paso del desarrollo del producto y de la manufactura a fin de
prevenir los efectos de los factores de ruido.

2.1.2 Antecedentes Calidad-Variabilidad


La calidad se refiere a la capacidad que posee un objeto para satisfacer
necesidades implícitas o explícitas según un parámetro. Calidad es un
concepto subjetivo. La calidad está relacionada con las percepciones de cada
individuo para comparar una cosa con cualquier otra de su misma especie, y
diversos factores como la cultura, el producto o servicio, las necesidades y las
expectativas influyen directamente en esta definición. Por ello se dice que no
existe una definición exacta de calidad, pero sí una infinidad de ideas que explican
a su manera el concepto.
Antes de la llamada revolución industrial, la producción de bienes que consumía la
sociedad era elaborada por artesanos especializados, quienes en muchas
ocasiones firmaban cada pieza que elaboraban. Pero la demanda de nuevos
productos, la producción en línea y la aparición de nuevos sistemas de fabricación
rompieron con el antiguo esquema de producción. En este nuevo sistema, el
artesano pasó a ser un trabajador de fábrica perdiéndose con ello la identificación
de éste con cada producto elaborado, disminuyendo así su calidad, ya que los
requerimientos de producción en masa descuidaban las características que
satisfacían las necesidades de los consumidores.
Esta nueva forma de producir bienes disminuyó considerablemente la calidad de
los productos, y no fue sino hasta mediados de la década de 1920, que Walter
Shewhart, investigador de Bell Laboratories, hizo un descubrimiento significativo
en el área de mejoramiento de la producción. "Identificó que, aunque la variación
en la fabricación de productos era inevitable, este hecho podría vigilarse y
controlarse utilizando ciertos procesos estadísticos. Shewhart desarrolló la
denominada carta de control, una gráfica simple que permitía determinar cuándo
la variación en un proceso de fabricación excedía los límites aceptables".
En términos de las Gráficas de Control podemos decir que para que un proceso
esté en control, todos los datos de las mediciones efectuadas sobre el proceso
deben caer dentro de los Límites de Control y deben estar dispersos al azar con
respecto a la Línea Central sin mostrar, tendencias, ciclos o apegos a los límites.
Lo primero que debe quedar claro con respecto a los límites de una carta de
control es que éstos no son las especificaciones, tolerancias o deseos para el
proceso. Por el contrario, se calculan a partir de la variación del estadístico (datos)
que se representa en la carta. De esta forma, la clave está en establecer los
límites para cubrir cierto porcentaje de la variación natural del proceso, pero se
debe tener cuidado de que tal porcentaje sea el adecuado, ya que si es
demasiado alto (99.999999%) los límites serán muy amplios y será más difícil
detectar los cambios en el proceso; mientras que si el porcentaje es pequeño, los
límites serán demasiado estrechos y con ello se incrementará el error tipo 1 (decir
que se presentó un cambio cuando en realidad no lo hubo).

Para calcular los límites de control se debe actuar de forma que, bajo condiciones
de control estadístico, los datos que se grafican en la carta tengan una alta
probabilidad de caer dentro de tales límites. Por lo tanto, una forma de proceder es
encontrar la distribución de probabilidades de la variable, estimar sus parámetros y
ubicar los límites de manera que un alto porcentaje (99.73%) de la distribución
esté dentro de ellos (véase Duncan, 1989). Esta forma de proceder se conoce
como límites de probabilidad.

Aunque originalmente estas técnicas fueron aplicadas en la elaboración de


productos, hoy son también aplicadas a los servicios; esto significa que la calidad
representa que un producto o servicio debe cumplir con todos los requerimientos
que satisfagan las necesidades de un consumidor.
Para obtener productos o servicios de calidad, éstos no deben tener defectos. Los
defectos en un producto se deben a "la variación en materiales, a la variación en
las condiciones de la maquinaria de fabricación, a la variación en los métodos de
trabajo y a la variación en las inspecciones", mientras que la calidad en servicios
se mide en forma más subjetiva, mediante la atención al cliente, calidez del
servicio, presentación del servicio, o bien, en forma cuantitativa mediante un
tiempo de espera, tiempo de atención, etcétera.

Aunque las causas de la variación en la calidad son innumerables, no todas la


afectan en el mismo grado. Algunas la afectan enormemente, mientras que otras
tienen poco efecto cuando se controlan adecuadamente. Kume nos indica que "lo
que necesitamos hacer es encontrar las causas vitales de los productos
defectuosos y eliminar estas causas después de que se hayan identificado
claramente".

El proceso de encontrar las causas de los productos defectuosos se llama


diagnóstico del proceso. Hay muchos métodos de diagnóstico del proceso;
algunos emplean la intuición, otros dependen de la experiencia, otros recurren al
análisis estadístico de los datos y hasta se puede utilizar la investigación
experimental. Los dos primeros son poco efectivos ya que vivimos en una época
de progreso rápido, donde la intuición y la experiencia no son fáciles de obtener.
Por otro lado, la investigación experimental es costosa y lenta para un mercado
ávido de productos y servicios, así que los métodos estadísticos son hasta ahora
el mejor medio para lograr un diagnóstico adecuado del proceso y con ello
establecer un buen sistema de control de la calidad.

2.1.3 Control estadístico de procesos en servicios


Nace en la década de los 30’s por investigadores como Walter A. Shewhart ,Harry
Roming y Harold Dodge

Definimos el “Control Estadístico de la Calidad” como la aplicación de diferentes


técnicas estadísticas a procesos industriales (mano de obra, materias primas
medidas, máquinas y medio ambiente), procesos administrativos y/o servicios con
objeto de verificar si todas y cada una de las partes del proceso y servicio cumplen
con unas ciertas exigencias de calidad y ayudar a cumplirlas, entendiendo por
calidad “la aptitud del producto y/o servicio para su uso. Cuando la prestación de
un servicio no es confiable porque no cumple con los requerimientos establecidos,
debemos examinar el proceso para encontrar los mecanismos que nos permitan
controlarlo.

Como resultado de todo proceso de prestación de un servicio podemos encontrar


dos tipos de variación:
• La variación aleatoria (variación común o inherente): Está originada por factores
aleatorios (desgaste de piezas, mantenimiento, personas, equipos de medida,
etc.); en este caso la variabilidad tiene un comportamiento estadístico y es
predecible, y se puede ejercer un control estadístico sobre el mismo. No se
pueden eliminar por completo

• La variación asignable (variación sistemática o de causa especial): Esta


originada por factores que son identificables; esta variabilidad no presenta un
comportamiento estadístico y, por tanto, no son previsibles las salidas. La
organización debe identificar las estas causas y eliminarlas como paso previo a
poner el proceso bajo control; ejemplos de estas causas son roturas de
herramientas, averías de máquinas, errores humanos, cambios erróneos de
material, fallos en los sistemas de control, etc. Se puede reducir o eliminar

Cada una de ellas requiere de una solución diferente. La reducción de la variación


aleatoria o inherente, en general, no puede lograrse sin cambiar el proceso. Y no
debe cambiarse el proceso hasta estar seguros de que toda la variación sistémica
o asignable ha sido identificada y está bajo control. Es decir, si un proceso está
fuera de control debido a que todavía está presente alguna variación de causa
especial, primero deberá identificarse y corregirse la causa de dicha variación.
Esto es, debemos poner el proceso bajo control para posteriormente lograr una
mejora en la calidad mediante un rediseño del proceso que reduzca la variabilidad
inherente. Se puede reducir o eliminar

El objetivo del Control Estadístico de la Calidad es:

1. Detectar rápidamente la ocurrencia de variabilidad debida a causas asignables.

2. Investigar la(s) causa(s) que la han producido y eliminarla(s).

3. Informar de ella para la toma de decisión oportuna, pues de lo contrario se


producirían gran cantidad de unidades de calidad no aceptable, originando una
disminución de la capacidad productiva e incremento de costos del producto
terminado (supervisor).

4. Eliminar, si es posible, o al menos reducir al máximo la variabilidad del proceso


(dirección).
Herramientas estadísticas

Las herramientas estadísticas se utilizan para poder tener un cierto control


estadístico en el proceso productivo con el fin de ir mejorando continuamente
problemas que se presenten

 Diagrama de flujo

 Hojas de verificación

 Histograma

 Diagramas de causa efecto

 Diagrama de Pareto

 Diagrama de dispersión

 Graficas de control

2.2 Calidad de diseño


AMEF (Análisis del Modo y Efecto de Fallas)
Los AMEFs fueron formalmente introducidos a finales de los 40’s mediante el
estándar militar 1629. Utilizados por la industria aeroespacial en el desarrollo de
cohetes, los AMEFs y el todavía más detallado Análisis Crítico del Modo y Efecto
de Falla (ACMEF) fueron de mucha ayuda en evitar errores sobre tamaños de
muestra pequeños en costosa tecnología.

El principal empuje para la prevención de fallas vino durante los 60’s, mientras se
desarrollaba la tecnología para enviar un hombre a la luna en la misión Apolo, en
este momento la Ford Motor Company estaba siendo presionada por los altos
costos de demandas de responsabilidad civil derivados de los problemas de
calidad en sus vehículos, por tal motivo introdujo los AMEFs.

El Análisis del Modo y Efecto de Fallas (AMEF): es un procedimiento que permite


identificar fallas en productos, procesos y sistemas, así como evaluar y clasificar
de manera objetiva sus efectos, causas y elementos de identificación, para de esta
forma, evitar su ocurrencia y tener un método documentado de prevención.

Una de las ventajas potenciales del AMEF, es que esta herramienta es un


documento dinámico, en el cual se puede recopilar y clasificar mucha información
acerca de los productos, procesos y el sistema en general.
Ventajas potenciales de AMEF

Este procedimiento de análisis tiene una serie de ventajas potenciales


significativas, por ejemplo:

 Identificar las posibles fallas en un producto, proceso o sistema.


 Conocer a fondo el producto, el proceso o el sistema.
 Identificar los efectos que puede generar cada falla posible.
 Evaluar el nivel de criticidad (gravedad) de los efectos.
 Identificar las causas posibles de las fallas.
 Establecer niveles de confiabilidad para la detección de fallas.

Procedimiento para realizar el AMEF de un proceso – AMEFP

En primer lugar debe considerarse que para desarrollar el AMEF se requiere de un


trabajo previo de recolección de información; en este caso el proceso debe contar
con documentación suficiente acerca de todos los elementos que lo componen. El
AMEF es un procedimiento sistemático cuyos pasos se describen a continuación:

1. Desarrollar un mapa del proceso (Representación gráfica de las


operaciones).
2. Formar un equipo de trabajo (Team Kaizen), documentar el proceso, el
producto, etc.
3. Determinar los pasos críticos del proceso.
4. Determinar las fallas potenciales de cada paso del proceso, determinar sus
efectos y evaluar su nivel de gravedad (severidad).
5. Indicar las causas de cada falla y evaluar la ocurrencia de las fallas.
6. Indicar los controles (medidas de detección) que se tienen para detectar
fallas y evaluarlas.
7. Obtener el número de prioridad de riesgo para cada falla y tomar decisiones.
8. Ejecutar acciones preventivas, correctivas o de mejora.
Pasos de realización de un AMEF

1- Determine el producto o proceso a analizar


2- Liste los pasos del proceso o las partes del sistema a analizar
3- Describa la función del paso o el componente
4- Determinar los posibles modos de falla de cada paso o componente
5- Listar los efectos de cada potencial modo de falla
6- Asignar el grado de severidad de cada efecto Severidad es la consecuencia de
que la falla ocurra

Para estimar el grado de severidad, se debe de tomar en cuenta el efecto de la


falla en el cliente. Se utiliza una escala del 1 al 10: el ‘1’ indica una consecuencia
sin efecto. El 10 indica una consecuencia grave.
7- Asignar el grado de ocurrencia de cada modo de falla Ocurrencia à la
probabilidad de que la falla ocurra.

8- Describa si hay controles actuales de prevención

9-Describa si hay controles actuales de detección

10- Asignar el grado de detección de cada modo de falla Detección es la


probabilidad de que la falla sea detectada antes de que llegue al cliente

11- Calcular el NPR (Número Prioritario de Riesgo) de cada efecto


 NPR =Severidad*Ocurrencia*Detección

Es un valor que establece una jerarquización de los problemas a través de la


multiplicación del grado de ocurrencia, severidad y detección, éste provee la
prioridad con la que debe de atacarse cada modo de falla identificado.

NPR = Ocurrencia * Severidad * Detección


500 – 1000        Alto riesgo de falla
125 – 499          Riesgo de falla medio
1 – 124              Riesgo de falla bajo
0                        No existe riesgo de falla
12- Priorizar los modos de falla con el NPR de mayor a menor.
13- Tomar acciones (acciones recomendadas) para eliminar o reducir el riesgo del
modo de falla, en este paso debe establecerse un plan de acción para mitigar el
riesgo, a estas acciones se les llama acciones recomendadas.

2.2 QFD (Quality Function Deploymet)


QFD (Quality Function Deploymet) significa despliegue de la función de calidad.
Esto es, “transmitir “los atributos de calidad que el cliente demanda a través de
los procesos organizacionales, para que cada proceso pueda contribuir al
aseguramiento de estas características. A través del QFD, todo el personal de una
organización puede entender lo que es realmente importante para los clientes y
trabajar para cumplirlo

Son tres los objetivos que persigue el QFD:

 Dar prioridad a las necesidades expresadas y latentes de los clientes con


respecto a un producto.

 Traducir esas necesidades en términos de características y


especificaciones técnicas.

 Diseñar, producir y entregar un producto o servicio de calidad, centrándose


en la satisfacción de los clientes.

Ventajas del QDF

 Creación de base de datos

 Sistemática ordenada y eficaz

 Comunicación y trabajo en equipo

 Reduce tiempos de lanzamiento

 Reduce costes de calidad


La parte horizontal contiene la información del
cliente, enumerando las necesidades y deseos del cliente y determina su
importancia relativa, también enumera la regeneración y quejas del cliente

La parte vertical contiene información técnica que responde a información


obtenida del cliente. Traduce necesidades y deseos del cliente en lenguaje que
puede ser medido, examina la relación entre el cliente y los requisitos técnicos y
contiene datos técnicos competitivos , los objetivos o las metas fijadas por una
compañía para alcanzar competitividad

El valor central el nivel de funcionamiento que necesita ser alcanzado para


resolver el resultado percibido de los proyectos QFD de la organización.

La casa de la calidad
Paso 1: Determinación de las necesidades del cliente ¿Qué? .La información
debe recolectarse por las personas idóneas –Gerentes responsables y Líder de
proyecto. –Ingeniero de servicio o campo. –Representantes de ventas. –
Departamento de Mercadotecnia –Ingeniería de producto –Clientes y
consumidores finales

Paso 2: Llenado de la Matriz de Planeación. Se consideran varios factores para


cada necesidad del cliente, para identificar las más importantes

Paso 3: Definición de las características de diseño del producto ¿Cómo? •


Después de completar las secciones de necesidades del cliente y matriz de
planeación, el siguiente paso es definir las características de diseño del producto
con el que se cubrirán esas necesidades

Paso 4: Definición de la relación entre


necesidades del cliente y características de diseño del producto.

Determinar el grado de relación entre las necesidades del cliente y las


características de diseño del producto. Usar una escala ponderada no lineal para
enfatizar claramente la importancia de los valores Los valores utilizados
normalmente son:

Paso 5: Cálculo de las prioridades

Este cálculo enlaza las necesidades del cliente y su importancia para las
características internas. Núm. de prioridad = S (Valores de Relación X Peso
ponderado.) Para cada característica técnica % relativos de Números de prioridad
= % de la prioridad / total

Paso 6: Determinación de las especificaciones técnicas de la empresa y de la


competencia en relación con los requerimientos de diseño. También se establece
una meta técnica. Para cada requerimiento o característica de diseño, se
determina la especificación actual de la empresa. Se determina la especificación
que ofrece cada competidor. En base a lo anterior se establece una meta de
especificación de diseño, en base a las prioridades calculadas y los costos
Paso 7: Determinación de la correlación entre características de diseño del
producto. Ayuda a identificar qué efectos adversos pueden ocurrir cuando se
cambian una o más características de diseño.

Calidad de concordancia/conformidad.
Para poder entender este concepto de Calidad de concordancia necesitamos
saber que es a lo que se refiere la calidad. Entonces ¿Qué entendemos por
Calidad?

Calidad es el conjunto de características de un producto, proceso o servicio, que le


confieren su aptitud para satisfacer las necesidades del usuario. La calidad está
directamente relacionada con la satisfacción del cliente: se trata de hacer productos que
se ajusten o incluso superen las expectativas del cliente.

La calidad significa darle al cliente lo que desea, se pueden distinguir 3 tipos de calidad.
Basta con analizar las relaciones entre tres elementos en juego: cliente, diseño y
producto.

Calidad de Concepción

La calidad de concepción o calidad de diseño se refiere a la capacidad de


desarrollar diseños que recojan fielmente los deseos de los clientes. Es la
habilidad de traducir los deseos a especificaciones técnicas.
Calidad de Concordancia

La calidad de concordancia, calidad de conformación o calidad técnica se refiere a


la capacidad de fabricar productos conforme a las especificaciones técnicas que
establece el diseño. Es la habilidad para materializar el producto diseñado.

Calidad de Servicio

La calidad del servicio se refiere a la capacidad de entregar el producto según las


expectativas del consumidor. No solo importan las características técnicas, si no
otras cuestiones como el trato recibido por los clientes, el servicio post venta
ofrecido, la complejidad de la transacción.
Mejorar la calidad en una empresa significa mejorar la calidad de concepción, la
calidad de concordancia, y la calidad de servicio.

La calidad de concordancia es el grado de cumplimiento de las especificaciones y


aspectos referenciados durante la calidad de concepción durante su realización. El
grado de cumplimiento es directamente proporcional a la calidad de concordancia.
Cuanto mayor sea el grado de cumplimiento, la calidad de concordancia será
mucho mayor porque se estará cumpliendo con lo especificado.

Diagrama de Pareto
El Diagrama de Pareto, es una técnica gráfica sencilla para clasificar aspectos en
orden de mayor a menor frecuencia. Está basado en el principio de Pareto. Este
diagrama, también es llamado curva cerrada o Distribución A-B-C, es una gráfica
para organizar datos de forma que estos queden en orden descendente, de
izquierda a derecha y separados por barras. El 20% de las causas genera el 80%
de las consecuencias.

La Ley o Principio de Pareto


Vilfredo Pareto, un sociólogo, economista, filósofo italiano y doctor en ingeniería
hizo la famosa observación de lo que hoy conocemos como el principio de
Pareto.

El principio de Pareto puede ayudar a hacer un análisis de problemas y


poder priorizar, de las causas probables que generan un problema, cuáles son
aquellas en las que nos tenemos que enfocar primero.

A principio de Pareto se le conoce como el principio 80-20 y básicamente lo que


él analizó en aquel entonces era como estaba distribuida la riqueza en Italia. Se
dio cuenta que un grupo muy pequeño de personas poseía la mayor cantidad de la
riqueza, algo muy similar a lo que ocurre actualmente.
Pareto dio una proporción de 80-20: el 80% de la riqueza es poseída por el 20%
de las personas poseen el 80 por ciento de la riqueza. Esto se puede generalizar,
lo que implica que en un proceso o una situación el 20% de las causas nos
generan el 80% de los resultados. Lo que vamos a ver en el desarrollo del
diagrama de Pareto, es que es muy importante determinar cuáles son las variables
que vamos a tomar en cuenta, para poder establecer la relación 80-20.

Aplicaciones del Principio de Pareto

 Producción: el 20% de los procesos generan el 80% de los productos, tanto


en tiempo como en cantidades.
 Ventas: el 20 % de los productos generan el 80% de las ventas
 Gestión de almacenes:  el 20% de los productos representan al 80% del
coste del inventario. La mayor parte del inventario lo tenemos en una
cantidad muy pequeña de productos
 Control de calidad: el 20% de los defectos afectan al 80% de los procesos.
Muy pocos defectos tienen su mayor impacto en todos los procesos de la
empresa
 Ingeniería de software: el 80% de esfuerzo en tiempo y dinero produce el
20% del código crítico.

Al analizar diversos expertos en cada una de las áreas, nos damos cuenta de que
el principio de Pareto se aplica básicamente en todos de manera muy similar.
Las proporciones, 80-20 no tienen por qué ser exactas.

¿Por qué es importante el Diagrama de Pareto?

Nos permite asignar un orden de prioridades y algo muy importante para que tú
puedas ser más productivo y eficaz es que puedes asignar las prioridades de una
manera correcta. Nos permite también mostrar la esencia del principio de Pareto.
Esto significa que de una gran cantidad de actividades, recursos o resultados que
tenemos pocos son los que realmente valen. Si nos enfocamos en los que son
vitales, el resultado puede ser todavía mucho mejor.

Por último, el diagrama de Pareto facilita el estudio de los errores en las


empresas.
Las cifras del principio de Pareto, 80-20, son arbitrarias no son exactas y pueden
variar. El principio solamente nos da una idea nos da una orientación, pero
realmente el diagrama lo que nos ayuda es a ver exactamente dónde caen esas
proporciones.

Por eso se desarrolló el diagrama. De hecho, el diagrama no lo hizo Pareto. Él


estableció el principio y el diagrama se hizo después, para ayudar de alguna
manera aplicar el principio y poder facilitar el análisis. Por lo tanto, su aplicación
reside una descripción de un fenómeno y como tal, es aproximada y adaptable en
cada caso particular.

Ventajas del Diagrama de Pareto


• Permite centrarse en los aspectos cuya mejora tendrán más impacto,
optimizando por tanto los esfuerzos.

• Proporciona una visión sencilla y rápida de la importancia relativa de los


problemas.

• Ayuda a evitar que empeoren algunas causas al tratar de solucionar otras


menos significativas.

• Su visión gráfica del análisis es fácil de comprender y estimula al equipo


para continuar con la mejora.

¿Cómo realizar un diagrama de Pareto?

1. Determina la situación problemática: ¿Hay un problema? ¿Cuál es?


2. Determina los problemas (causas o categorías) en torno a la situación
problemática, incluyendo el período de tiempo.
3. Recolecta datos: Hay una situación problemática presentándose y tienes
las posibles causas que lo generan, pues entonces comienza a recolectar
los datos. Estos dependerán de la naturaleza del problema. Por ejemplo,
número de defectos si analizamos averías en un producto, costo de
desperdicios de acuerdo con el tipo de desperdicio, kilogramos de carga por
tipo de producto. Recuerda que las unidades deben ser las mismas, nada
de mezclar peras con manzanas. Recuerda también que el periodo de
tiempo es el mismo para todos, si vas a recolectar los datos pertenecientes
a un trimestre, debe ser igual para todas las causas.
4. Ordena de mayor a menor: Ordenamos de mayor a menor las causas con
base en los datos que recolectamos y su medida. Si es el número de veces
que se presenta un evento será por cantidad, si es por costo de
desperdicios según el tipo de producto, será en unidades monetarias, por
ejemplo.
5. Realiza los cálculos: A partir de los datos ordenados, calculamos
el acumulado, el porcentaje y el porcentaje acumulado. En el ejemplo te
muestro detalladamente cómo hacerlo.
6. Graficamos las causas: El eje X lo destinamos a colocar las causas. Vamos
a usar eje Y izquierdo y eje Y derecho. El izquierdo es para la frecuencia de
cada causa, lo usamos para dibujarlas con barras verticales.
7. Graficamos la curva acumulada: El eje Y derecho es para el porcentaje
acumulado, por lo tanto, va desde 0 hasta 100%. Lo usamos para dibujar la
curva acumulada.
8. Analizamos el diagrama.

Ejemplo de un Diagrama de Pareto


Digital GrownUP es una compañía de diseño de software e instalación de redes.
Su misión se basa en instalar redes privadas para las organizaciones, además
brindan el mantenimiento al sistema y proveen un software de monitoreo para la
organización que los contrata.
En el último trimestre, la compañía ha registrado un aumento de las quejas de los
clientes orientado tanto en la instalación y mantenimiento de las redes, además
del comportamiento del software.

Paso 1: Aumento de quejas.


Paso 2: Vamos a identificar las causas o categorías que generan el aumento de
quejas. Para esto, hacemos una revisión de las quejas y obtenemos:
 El personal de postventa no sabe cómo instalar el producto (la red)
 El servicio postventa no se presenta a tiempo
 El producto no cuenta con repuestos
 El funcionamiento del producto (el software) es confuso
 El personal de postventa es grosero o no tiene actitud de servicio
 El precio del producto aumentó mucho
 El producto se demora mucho en encender
 El producto (la instalación de redes) se daña muy rápido
 Las piezas del producto no llegan completas
 El personal del centro de contacto es grosero o no tiene actitud de servicio.

Paso 3: Recolectamos los datos (frecuencia) de las quejas y en el paso 4 las


ordenamos de mayor a menor en una tabla. Los datos brindados por el
departamento de control de calidad a Digital GrownUP son los siguientes:

Paso 4: Calculamos la frecuencia acumulada, el porcentaje y el porcentaje


acumulado.

Cálculos

 Frecuencia es el número de veces que se repite una causa (en este caso
un tipo de queja)
 Con frecuencia acumulada nos referimos a la suma de las frecuencias
anteriores incluyendo la frecuencia de la causa que se analiza. Por ejemplo,
con la vista puesta en Q2, vemos que su frecuencia es 20, a este número le
debemos sumar todas las frecuencias anteriores, que en este caso solo es
la frecuencia de Q1, 26. El resultado es 46, lo que viene siendo la
frecuencia acumulada de Q2.
 Con porcentaje nos referimos a la participación del número de veces que se
repite una queja en el número total de quejas. Por ejemplo: El producto se
daña muy rápido, es un tipo de queja que se presentó 3 veces de un total
de 86. Por regla de tres, si 86 el 100%, 3 viene siendo: (3*100%) /86. O
simplemente divide 3 entre 86. Esto mismo se hace con todos los demás.
 El porcentaje acumulado es exactamente lo mismo que la frecuencia
acumulada, solo que esta vez hacemos la suma acumulada de porcentaje.
Hasta el momento, tenemos el siguiente cuadro:

Paso 6: Ubicamos cada uno de los problemas en un gráfico de barras. Como


mencionamos antes en el paso a paso, hay un eje Y izquierdo y un eje Y derecho.
En el eje Y izquierdo ubicamos cada una de las causas con base en su frecuencia
relativa. Cada causa será colocada a lo largo del eje X.

Paso 7: Dibujamos la curva acumulada de acuerdo con el porcentaje acumulado


de cada causa, lo hacemos basándonos en el eje Y derecho.

Finalmente obtenemos el Diagrama de Pareto que queda de la siguiente manera:


Paso 8: Analizamos.

El 72% está concentrado en las 3 primeras causas. Esta distribución es suficiente


para dirigir nuestros esfuerzos en dar solución a estos inconvenientes.
Posteriormente y si se desea, podemos hacer un nuevo análisis de Pareto con las
causas restantes, donde el 80% estará representado en otras causas. De esta
forma, iremos acabando con la situación problemática.

Histograma
Un histograma es la representación gráfica en forma de barras, que simboliza la
distribución de un conjunto de datos. En general esta herramienta es utilizada por
la estadística, su función es la exposición gráfica de números, variables y cifras,
para una visualización ordenada y más clara.

Un histograma es una gráfica adecuada para representar variables continuas,


aunque también se puede usar para variables discretas. Es decir, mediante un
histograma se puede mostrar gráficamente la distribución de una variable
cuantitativa o numérica. Los datos se deben agrupar en intervalos de igual
tamaño, llamados clases.

Los histogramas son de utilidad para:

• Interpretar de manera sencilla la variación de los datos.

• Brindar una visión clara de la información aportada por los datos, facilitando
la interpretación de estos.

• Comparar valores e identificar posibles causas de un problema.

• Comprobar las causas.


• Valorar posibles soluciones, una vez eliminadas las causas del problema.

Características de los Histogramas

• Muestra la distribución de un conjunto de datos.

• Grafica de barras verticales

• Muestra una barra pegada a otra barra, sin espacio entre las mismas.

• Cada barra constituye un subconjunto de los datos.

• Figura la acumulación o tendencia, variabilidad o dispersión y distribución


de una muestra.

• Se usa para representar variables continuas y variables discretas.

• Los datos se agrupan en clases, estos son intervalos de un mismo tamaño.

Tipos de Histogramas

Existen diferentes tipos de representaciones graficas de estos, las más comunes


son:

Histograma de Barra Simple

Representan la frecuencia simple, bien sea absoluta o relativa, mediante la altura


establecida a la barra, la cual debe ser proporcional a la frecuencia de la clase que
representa.

Histograma de Barras Compuestas

Se utiliza en la representación de 2 variables, las cuales se muestran según la


frecuencia simple de la modalidad de la variable y su altura es proporcional a la
misma.

Histograma de Barras Agrupadas

Se utiliza en la representación de información de dos variables, donde mediante


un conjunto de barras representan las diferentes modalidades.

Polígono de Frecuencia:

Es una representación gráfica de líneas que se utiliza para mostrar las frecuencias
absolutas de todos los valores en una distribución, donde se puede observar que
la altura de punto coligado al valor de una variable es proporcional a la asiduidad
de dicho valor.

Ojiva Porcentual

Es una representación gráfica acumulativa, útil cuando se persigue la


representación de la clase porcentual de cada valor en la distribución de
frecuencias.

Construcción de un Histograma

Para construir un histograma es necesario previamente construir una tabla de


frecuencias. Lo construiremos siguiendo los siguientes pasos:

1. En el eje de abcisas (eje horizontal) se colocan los intervalos, de menor a


mayor.
2. En el eje de ordenadas (eje vertical) se representan las frecuencias
absolutas de cada uno de los intervalos. También se suelen representar
las frecuencias relativas.
3. Se dibujan barras rectangulares de anchura igual y proporcional al intervalo.
La altura es la frecuencia absoluta. Las barras rectangulares se dibujan
adyacentes la una a la otra, pero no intersectan entre ellas. Por tanto, todas
las barras tocan con las de al lado, a no ser que un intervalo tenga frecuencia
cero (la altura de la barra será también cero).

Ejemplo de un Histograma
En una ciudad se realiza un estudio para observar la distribución de la población
según la edad. La ciudad tiene censados 1.324.861 habitantes. Para el estudio de
la distribución de las edades se va a construir un histograma en grupos decenales
(intervalos de diez años).

1. En el eje de abcisas se colocan los intervalos de edades (grupos


decenales).
2. En el eje de ordenadas se representa el número de personas que tienen
ese rango de edad en la fecha del estudio (frecuencias absolutas).
3. Se dibujan rectángulos de anchura igual y proporcional al intervalo (en
nuestro caso todos tendrán la misma anchura) y de altura igual a la frecuencia
absoluta.

El histograma resultante será el siguiente:


Estratificación
Actualmente las empresas y sus sistemas de gestión de la calidad requieren del
uso de técnicas estadísticas y métodos de solución de problemas, especialmente
aplicables a los procesos de producción, análisis, medición y mejora, los cuales
facilitan el control de la calidad en los productos, así como el desarrollo adecuado
de los diferentes procesos que se llevan a cabo en la empresa.
A continuación, encontraras todo lo que necesitas saber del análisis por
estratificación, como herramienta de la calidad, su definición, ventajas,
procedimientos y aplicaciones.
Definición de estratificación
Es una herramienta de análisis estadístico aplicada al control de calidad de los
procesos en una empresa, su fin es el aporte de datos en situaciones complejas,
que faciliten la toma de decisiones para solventar dichas situaciones en beneficio
del desenvolvimiento de la empresa.
Estratificar consiste en la división de la data disponible en subconjuntos en
principio más homogéneos, estos subconjuntos se denominan estratos y se aplica
en el planteamiento de recogidas de datos, para ser analizados y representados
mediante diversos diagramas bastante frecuentes y comunes en el estudio
estadístico.
Dicha división de datos se hace en base a múltiples factores definidos al momento
de conseguir los datos. Por ejemplo, son factores de clasificación las máquinas, la
línea, los proveedores, la jornada laboral, el turno, entre otros, por lo tanto, son
factores de estratificación de datos, cuyo objeto es identificar la influencia de
ciertos factores en el resultado obtenido en un proceso.
La estratificación además sirve de base a otras herramientas de control de calidad,
como por ejemplo el análisis de Pareto y se usa en conjunto con herramientas
como histogramas, diagramas de dispersión entre otros.
En palabras más simples, la estratificación, también conocida como muestreo
estratificado, es una herramienta de análisis estadístico en beneficio o mejora de
las empresas, basada en la división de datos obtenidos masivamente, en
diferentes estrados mediante investigación de mercado, encuestas, u otras
fuentes.
Investigación de mercado: La American Marketing Associatión (AMA) la define
como la recopilación sistemática, el registro y el análisis de los datos acerca de los
problemas relacionados con el mercado de bienes y servicios. Se puede definir
como la recopilación y el análisis de información, en lo que respecta al mundo de
la empresa y del mercado, realizados de forma sistemática o expresa, para poder
tomar decisiones dentro del campo del marketing estratégico y operativo.
Aspectos a tener en cuenta en la estratificación
Al momento de plantear una estratificación es conveniente tener presente los
siguientes aspectos:
 Se debe prestar atención en no extenderse, la apropiada comprensión de
un determinado fenómeno se puede tornar más compleja cuando el número
de factores de estratificación para el análisis es muy amplio.
 Para una oportuna comprensión de un problema, es necesario estratificar
de acuerdo con los componentes útiles a la definición del evento y a al
esclarecimiento sucesivo de las causas que despliegan mayor influencia
sobre dicho evento.
 Como ayuda en el momento de definir los factores de estratificación, se
aplica el método de preguntarse: ¿Cómo índice determinado factor sobre el
evento? la palabra determinado corresponderá a un factor de
estratificación.
Tipos de muestreo estratificado
En general, existen tres tipos de muestreo estratificado o técnicas de
estratificación:
Muestreo estratificado proporcional
Es cuando los estratos de la muestra (el número de datos a considerar) conservan
la misma proporción de la población. Por ejemplo: Hay 1.000.000 de personas
entre hombres y mujeres (población) con 60% mujeres y 40% hombres. Hemos
decidido tomar una muestra de 1000 personas. Los estratos definidos por
supuesto son hombres y mujeres. Por lo tanto, el estrato de mujeres deberá tener
un tamaño de 600 (60%) y el estrato de hombres de 400 (40%). Tal como lo ves,
pro-por-cio-nal.
Muestreo estratificado uniforme
Es cuando consideramos el mismo número de datos para cada estrato, o, dicho de
otra forma, el mismo tamaño de muestra a cada estrato. Por lo tanto, aquí no
importa cuál es el peso del estrato en la población, como si pasaba en el
estratificado proporcional. Por ejemplo, tomando una muestra de 100 personas
entre hombres y mujeres, el estrato de hombres será de 50, al igual que el de
mujeres. Tal como ves, uniforme.
Muestreo estratificado óptimo
También llamado no proporcional, con este muestreo cada estrato es proporcional
a la desviación estándar. En otras palabras, el número de datos en cada estrato
será mayor en la medida en que exista mayor variabilidad entre ellos.
¿Cómo se realiza la estratificación?
La estratificación se lleva a cabo en diferentes fases, estas son:
Definición del evento y característica a analizar.
En primer lugar, se establece la situación o problema sobre la cual se desea
aplicar la estratificación. Identificado el problema, se procede a determinar cuáles
serán las fuentes para utilizar para llevar a cabo la estratificación.
Por ejemplo:
En la empresa se presenta una situación particular respecto a la producción, por
consiguiente, se deben considerar las fuentes de producción, horas de trabajo,
maquinaria, uso de materia prima, inventario, entre otros.
Este paso es de importancia, pues según la definición de los estratos a usar, se
podrá llegar a conocer adecuadamente la situación.
Presentación general de los datos relativos al evento
Se definen las fuentes de obtención de datos, se aplican y se obtiene una data
que se asocia según factores en común.
Ejemplo:
Los datos se pueden agrupar en función de factores como el tiempo (turnos,
estaciones), operarios (experiencia, sexo), maquinaria (tipo, tecnología) materiales
(proveedores, composición, expedición, etc.).

Clasificación de la data obtenida


Los datos deben agruparse homogéneamente en función de los factores de
estratificación. Seguidamente, se analizan los datos obtenidos, en esta fase se
puede notar el flujo de marcha en los estratos, visualizándose el problema o
situación detalladamente.
Comparación de grupos homogéneos de datos
Se lleva a cabo una comparación de los grupos dentro de cada uno de los criterios
de estratificación, a fin de observar la existencia de diferencias o
heterogeneidades entre los propios grupos.
Si se observan diferencias significativas, habrá sido efectiva la estratificación.
Representación gráfica de los grupos de datos
La representación gráfica de cada grupo homogéneo de la data es importante para
facilitar el proceso de análisis completo, para ello se utilizan herramientas, como
los histogramas o diagramas de Pareto.
Generación de soluciones
Por último, luego de analizada detalladamente la situación mediante la data, los
gráficos, etc., se generan posibles medidas o soluciones para solventar el
problema o eventualidad planteada, antes del proceso de estratificación.
Ventajas de la estratificación
 Permite encontrar y bloquear la causa de un problema, mediante la
identificación de la influencia de determinados factores en el desarrollo y
resultado de un proceso.
 La estratificación se puede apoyar en distintas herramientas de calidad, que
facilitan la presentación de los datos en forma gráfica y comparativa para
mejor entendimiento.
 Destaca la complejidad de la comprensión de un fenómeno y la simplifica.
Usos de la estratificación
La estratificación en una empresa se usa para:
 Identificar las causas de mayor influencia en la variación de eventos y
procesos.
 Comprender detalladamente la estructura de una data (grupo de datos), lo
que podrá permitir la identificación de las causas de un problema y conducir
las acciones correctivas necesarias.
 Examinar la diferencia y variación entre los estratos y ejercer medidas
frente dichas diferencias que puedan existir.
 Facilitar la toma de decisiones en cuanto a medidas correctivas.
Para concluir, vale la pena resaltar que la estratificación presenta de forma
ordenada y clara, datos relacionados a cualquier situación que se presente en una
empresa, bien sea favorable o desfavorable, como por ejemplo dónde se produce,
de dónde proviene, cómo afecta, grupos que intervienen, entre otros.
Para ello es importante estudiar el comportamiento de cada grupo y/o variables
que intervienen en la situación dada. El conocimiento de esta data expuesta en
estratos permitirá llevar a cabo la oportuna valoración para adoptar o no
determinadas acciones.

Hoja de Verificación
La hoja de verificación, también llamada hoja de chequeo, planilla de inspección y
hoja de control, es un formato generalmente impreso utilizado para recolectar
datos por medio de la observación de una situación o proceso específico. Es una
de las siete herramientas de calidad y hoy en Ingenio Empresa vamos a ver qué
es y cómo se elabora para la gestión del negocio.
¿Qué es una hoja de verificación?
Una hoja de verificación o de chequeo es una herramienta impresa a modo de
formato, utilizada para recoger y compilar de forma estructurada datos asociados a
un proceso o situación particular definida. Los datos reunidos representan una
entrada para el uso de otras herramientas de control de calidad como el diagrama
HTT Pa de Pareto o dispersión. En este sentido, la hoja de verificación es una
herramienta genérica utilizada para multitud de propósitos que van más allá de la
calidad.

Para qué sirve una hoja de verificación


¿Cuál es la función de una hoja de verificación? Un personaje icono en el campo
de la calidad se hizo antes la misma pregunta. La función de una hoja de
verificación varía de acuerdo al tipo de hoja. Esto es lo que dice Kaoru Ishikawa:
 Para cuantificar los defectos por producto
 Para cuantificar defectos por localización
 Para cuantificar defectos por causa (maquina o trabajador)
 Para realizar un seguimiento a las actividades de un proceso (lista de
verificación)
Así pues, la hoja de chequeo es una puerta de entrada para otras herramientas de
control de calidad. Sin datos, no habrá solución, de ahí su importancia.
Tipos de hoja de verificación
No hay tipos establecidos de hojas de verificación de manera formal, sin embargo
si podemos definir ciertos usos comunes, los cuales se resumen en tres:
 Hoja para registro de datos
 Hoja de lista de chequeo
 Hoja de localización
Algunos ejemplos son:
Hoja de chequeo con escala de medición: Con ella evaluamos la forma de
distribución de probabilidad para construir después una distribución de frecuencia.
En este tipo de hoja clasificamos la medición según una serie de categorías o
parámetros, además nos permite trazar límites de especificación.
Hoja de chequeo de frecuencia: Con esta hoja definimos las categorías y
recogemos los datos anotando el número de veces que se presentan.
Hoja de chequeo con clasificación: También llamada hoja de verificación por
tipo de defecto. En esta hoja, definimos una serie de categorías a ser ubicadas en
la primera columna y en la primera fila, de tal manera que los datos reunidos sean
clasificados de acuerdo con el cruce de columna y fila.
Hoja de chequeo de localización: En ella se presenta uno o más esquemas del
objeto de medición, en el cual señalamos la ubicación del defecto.
Lista de chequeo o checklist: Los aspectos a comprobar se enumeran y en-
listan de tal forma que al detectarse un evento asociado a uno de los aspectos, se
pueda marcar según corresponda.
¿Cómo hacer una hoja de verificación de calidad?
No hay una forma definida para hacer una hoja de verificación. Esta va a depender
de la situación a analizar, por lo cual cada uno es responsable de diseñar su
propia hoja. Sin embargo, sí que hay unos lineamientos a tener en cuenta para
lograr nuestra hoja de verificación, veamos cuáles son.
Paso 1: Establecemos el contexto sobre el cual vamos a medir los datos.
Básicamente lo que hacemos aquí es planear, y una de las mejores herramientas
para apoyarnos es el 5w+2h.

¿Qué?
¿Por qué?
¿Cuándo?
¿Dónde?
¿Quién?
¿Cómo?
¿Cuánto?
What?
Why?
When?
Where?
Who?
How?
How much?

Paso 2: Creamos el formato de la hoja, el cual estará diseñado de acuerdo al


5w+2h del paso anterior.
Paso 3: Recolectar los datos. Es importante que los datos se recolecten como se
definió en el cómo, cuándo y dónde del paso 1. Así aseguramos la pertinencia de
los datos recolectados.

El diagrama causa-efecto
el Diagrama causa-efecto o Diagrama de Ishikawa, es una herramienta utilizada
para analizar y evidenciar las relaciones entre un efecto determinado (por ejemplo,
las variaciones en una característica de la calidad) y sus causas potenciales. Fue
concebido por el licenciado en química japonés Kaoru Ishikawa en el año 1943.
Las numerosas causas potenciales se organizan en categorías principales y
subcategorías, de modo tal que la disposición final se parece al esqueleto de un
pez.
Se utiliza entre otras cosas para:
Analizar las relaciones causa-efecto.
Comunicar las relaciones causa-efecto.
Facilitar la solución de problemas desde el síntoma hasta la causa y luego hasta la
solución.
¿Cómo se hace un diagrama causa-efecto?
Pasos previos
1. Determinar inequívocamente el problema a analizar. Debe ser un problema
concreto, aunque puedan intervenir diversas causas que lo expliquen.
2. Determinar el grupo de personas que deben intervenir en el análisis.
Normalmente serán personas relacionadas con el problema directa o
indirectamente, de forma que todas ellas puedan aportar ideas.
3. Convocar al grupo, anunciándoles el problema concreto que se va a analizar
(para que vayan pensando en él).
Reunión de análisis
1. El grupo de analistas va dando sus opiniones, de forma ordenada, sobre las
posibles causas que cada uno identifica para dicho problema (en esta etapa,
puede aplicarse la misma metodología de la tormenta de ideas).
La tormenta de ideas o “Brainstorming” en este punto sirve para identificar el
mayor número posible de causas que puedan estar contribuyendo para generar el
problema, preguntando: “¿Por qué está sucediendo?”.
Una vez que hemos identificado las causas principales procedemos a
preguntarnos: ¿Por qué ha surgido determinada causa principal?
Esto se hace con el fin de identificar cuáles han sido las causas secundarias
(subcausas) que han provocado a las causas principales.
Para hacer esta cadena de preguntas puede ser útil la herramienta de los 5
porqués.
El facilitador o coordinador del grupo irá anotando las causas y subcausas una a
una en una pizarra o similar.
2. Una vez agotadas las opiniones, el facilitador o coordinador del grupo dibuja el
diagrama base en una pizarra suficientemente amplia para poder escribir en ella
todas las causas posibles.
* En el triángulo de la “cabeza del pez” se escribe el problema considerado.
* A continuación, se identifican los factores o grupos de causas en que éstas
pueden clasificarse. A cada uno de estos factores se les asigna una flecha que
entronca en la “espina” principal del pez.
Habitualmente, los factores suelen estar predefinidos como las “4M” o “5M”
(incluso 6M), dependiendo del contexto:

1ª M: Máquinas
2ª M: Mano de obra
3ª M: Método
4ª M: Materiales
5ª M: Medio (entorno de trabajo)
3. A continuación, el facilitador, con la colaboración de los integrantes del grupo,
asigna cada una de las causas identificadas a uno de los títulos o conjuntos de
causas definidos, utilizando flechas paralelas a la “espina” central y escribiendo de
nuevo la causa al lado de cada flecha.
Otra posibilidad para hacer lo mismo es que cada participante, o el facilitador,
escriba cada causa en una tarjeta adhesiva (tipo “post-it”), de forma que esta
tarjeta pueda pegarse en el factor correspondiente.
Durante el proceso, pueden aparecer causas que lo sean, a su vez, de otras
causas. Cuando esto sucede, pueden añadirse flechas que entronquen estas
“subcausas” con las correspondientes a las causas principales y así
sucesivamente.
De esta forma, se ramifica el diagrama de forma directamente proporcional a la
capacidad del grupo de encontrar causas para el problema planteado.
Se debe desarrollar el diagrama pensando y escribiendo todas las causas desde
el nivel superior hasta el nivel más bajo posible. Un diagrama bien elaborado no
tendrá ramas de menos de 2 niveles y muchos tendrán 3 o más niveles.
4. Finalmente, se determina cuál es el orden de importancia de las causas
identificadas. Para ello, puede someterse a votación entre los participantes el
conjunto de causas identificadas.
5. Una vez hecha la votación, se rodean con un círculo las dos o tres causas más
votadas. Estas serán las primeras contra las que se deberá actuar.
Se debe seleccionar e identificar una pequeña cantidad (de 3 a 5) de las causas
del más alto nivel que puedan tener la mayor influencia en el efecto y requerir de
acciones adicionales, tales como la recolección de datos, esfuerzos de control,
etc.
Otros métodos de construcción de diagramas causa-efecto
Existen diversos métodos para construir diagramas de causa efecto, que varían
según el tipo de organización y disposición que se adopte. Estos métodos pueden
dividirse en los tres modelos siguientes. 
Modelo de análisis de las dispersiones
Este tipo de modelo consiste en trabajar variables que aparentemente son
idénticas, pero que tienen ligeras diferencias que, sin embargo, pueden ocasionar
una gran dispersión en el sistema.
La aplicación más común del modelo es para asignar las características de calidad
o factores de un producto (longitud, dureza, defectos, etc.), causantes de la
dispersión.
Modelo de clasificación según el proceso de producción
Con este método, el cuerpo principal del diagrama sigue el proceso de producción
y va incorporado todo lo que puede influir sobre las características calidad
deseada, en cada etapa del proceso.
Modelo de enumeración de las causas
En este modelo simplemente se hace una lista de todas las causas posibles a
través de la técnica de lluvia de ideas (no bloqueo de expresión de ideas). Las
causas han de organizarse en función de las características deseadas, calidad del
producto, destacando la relación causa-efecto.

Gráfico o diagrama de control


Un gráfico de control es una herramienta utilizada para distinguir las variaciones
debidas a causas asignables o especiales a partir de las variaciones aleatorias
inherentes al proceso.
Las variaciones aleatorias se repiten casualmente dentro de los límites
predecibles.
Las variaciones debidas a causas asignables o especiales indican que es
necesario identificar, investigar y poner bajo control algunos factores que afectan
al proceso.
La construcción de gráficos de control está basada en la estadística matemática.
Los gráficos de control emplean datos de operación para establecer límites dentro
de los cuales se espera hacer observaciones futuras, si el proceso demuestra no
haber sido afectado por causas asignables o especiales.
Causas Asignables
Factores (generalmente numerosos, pero individualmente de relativa importancia)
que se pueden detectar e identificar como causantes de un cambio en una
característica de la calidad o nivel del proceso.
Nota: En ocasiones, se denominan causas especiales de variación.
Causas Aleatorias
Factores generalmente numerosos, pero poco importantes, que contribuyen a la
variación y no han sido necesariamente identificados.
Nota: En ocasiones, se denominan causas comunes de variación.
Existe una gran variedad de gráficos de control que se pueden aplicar a todo tipo
de características medibles o contables de un proceso, un producto o cualquier
salida.

Límite superior de control (LSC): Es el mayor valor aceptado en el proceso.


Limite inferior de control (LIC): Es el valor más pequeño que se acepta en el
proceso.
Límite central de control (LC): Es la línea central del gráfico. Mientras más cerca
estén los puntos a la línea, mas estable es el proceso.
¿Para qué sirve un gráfico o diagrama de control?
 Diagnóstico: Para evaluar la estabilidad de un proceso.
 Control: Para determinar cuándo es necesario ajustar un proceso y cuándo
se debe dejar tal y como está.
 Confirmación: Para confirmar la mejora de un proceso.
Tipos de gráficos de control
Gráfico de control por variables
Hacen uso de estadísticas obtenidas a partir de datos tales como la longitud o
grosor de un elemento. En los gráficos de control por variables es posible medir la
característica de calidad a estudiar. En estos casos conviene describir la
característica de calidad mediante una medida de tendencia central (usualmente la
media muestral) y una medida de su variabilidad (usualmente el rango o la
desviación estándar).
Los gráficos de control por variables son más “sensibles” que los gráficos de
control por atributos, razón por la cual son capaces de “avisarnos” de posibles
problemas de calidad incluso antes de que éstos sean ya relevantes.

Gráfico de control por atributos


Se basan en frecuencias, por ejemplo el número de unidades defectuosas.
En estos gráficos el control del proceso se realiza si el producto inspeccionado se
clasifica como no conforme o conforme (defectuoso o no defectuoso), respecto a
las especificaciones para la característica de calidad considerada. Ejemplo: un
tornillo es conforme si su longitud está entre 1,9 y 2,1 cm., en caso contrario será
no conforme. Los gráficos de control por atributos tienen la ventaja de sintetizar de
forma rápida toda la información referida a diferentes aspectos de calidad de un
producto, ya que permiten clasificar éste como aceptable o inaceptable; además,
no suelen necesitar de sistemas de medición muy complejos y son más fácilmente
entendibles por los no especialistas.
Procedimiento para hacer un gráfico de control
 Seleccionar la característica objeto de análisis en el gráfico de control.
 Seleccionar el tipo apropiado de gráfico de control.
 Decidir el subgrupo (una pequeña recopilación de artículos, en el marco de
los cuales las variaciones se deben probable y únicamente al azar), sus
dimensiones, y la frecuencia de muestreo del subgrupo.
 Recolectar y registrar datos sobre 20 ó 25 subgrupos por lo menos, o
utilizar datos registrados previamente.
 Calcular estadísticamente las características de cada muestra del
subgrupo.
 Calcular los límites de control sobre la base de las estadísticas de las
muestras de subgrupos.
 Construir un gráfico y plotear las estadísticas del subgrupo.
 Examinar el ploteo por si hay puntos fuera de los límites de control y
patrones que indiquen la presencia de causas asignables o especiales.
 Decidir las acciones a tomar en el futuro.

Diagrama de dispersión
Un tipo de diagrama matemático que utiliza las coordenadas cartesianas para
mostrar los valores de dos variables para un conjunto de datos.
Los datos se muestran como un conjunto de puntos, cada uno con el valor de una
variable que determina la posición en el eje horizontal (x) y el valor de la otra
variable determinado por la posición en el eje vertical (y).
El diagrama de dispersión permite estudiar las relaciones entre dos conjuntos
asociados de datos que aparecen en pares (por ejemplo, (x,y), uno de cada
conjunto). El diagrama muestra estos pares como una nube de puntos.
Las relaciones entre los conjuntos asociados de datos se infieren a partir de la
forma de las nubes.
Una relación positiva entre x y y significa que los valores crecientes de x están
asociados con los valores crecientes de y.
Una relación negativa significa que los valores crecientes de x están asociados
con los valores decrecientes de y.
¿Para qué se usa un diagrama de dispersión?
Entre sus usos está descubrir y mostrar las relaciones entre dos conjuntos
asociados de datos y confirmar relaciones anticipadas entre dos conjuntos
asociados de datos.
El diagrama de dispersión puede estudiar la relación entre:
 Dos factores o causas relacionadas con la calidad.
 Dos problemas de calidad.
 Un problema de calidad y su posible causa.
Procedimiento para hacer un diagrama de dispersión
 Recolectar datos pareados (x,y) a partir de dos conjuntos asociados de
datos cuya relación va a ser objeto de estudio. Es conveniente contar con
30 pares de datos aproximadamente.
 Rotular el eje x y el eje y.
 Encontrar los valores mínimo y máximo, tanto para x como para y y utilizar
estos valores para elaborar la escala de los ejes horizontal (x) y vertical (y).
Ambos deben tener aproximadamente la misma longitud.
 Plotear los datos pareados (x,y). Cuando haya dos pares de datos que
tengan los mismos valores, dibujar círculos concéntricos al punto ploteado o
plotear el segundo punto a una corta distancia.
 Examinar la forma de la nube de puntos para descubrir los tipos y las
fuerzas de las relaciones.
Cuando hablamos de la relación entre dos tipos de acciones nos referimos a una
relación de causa y efecto, a una relación entre una causa y otra, o a una relación
entre una causa y dos o más causas.
Un diagrama de dispersión relaciona las tres condicionantes antes mencionadas.
Correlación
La correlación no es más que cómo se relacionan ambas variables entre sí. En la
tabla siguiente te muestro algunos tipos de correlación:

Ejem
plos de estos tipos de correlación:

Línea de ajuste
La línea de ajuste se usa para hacer predicciones basándonos en datos pasados.
Cuando se dibuja la recta, debemos asegurarnos de que encaje con la mayor
parte de los datos. Si hay un punto que está muy por encima o muy por debajo
con respecto al resto (puntos atípicos) debemos dejarlo fuera de la recta.
Coeficiente de correlación de Pearson
En estadística, el coeficiente de correlación de Pearson es una medida de la
relación lineal entre dos variables aleatorias cuantitativas. A diferencia de la
covarianza, la correlación de Pearson es independiente de la escala de medida de
las variables.
De manera menos formal, podemos definir el coeficiente de correlación de
Pearson como un índice que puede utilizarse para medir el grado de relación de
dos variables siempre y cuando ambas sean cuantitativas.

CONCLUSIONES PERSONALES
RAMOS LÓPEZ MARIA FERNANDA:

Muchos de los métodos tocados en esta unidad son de descendencia japonesa y muchos
de ellos nacieron gracias a las deficiencias que se tenían en su momento, los gráficos
aquí vistos tienen la finalidad de representar información recolectada sobre un producto
bien o servicio y de manera gráfica ver cómo es que se encuentra nuestro producto bien o
servicio.

Cualquier empresa necesita verificar estándares de calidad, procesos, etc. Debido a las
variaciones de características cada empresa va a utilizar la herramienta estadística que se
acople a sus necesidades, es importante tener estándares como productores de un
producto y como ingenieros es aún más importante seguir y cuidar esos estándares que la
empresa puede tener. Existen diversos factores externos que pueden generar que nuestro
producto no tenga cierta calidad estos factores no se pueden eliminar por completo sin
embargo es importante que se desarrollen técnicas para evitar que estas tengan un
impacto muy grave en nuestro producto, de igual manera considero que el termino calidad
es muy personal ya que como la manera de pensar esta definición hacia un producto
puede variar de acuerdo a los estándares personales de cada persona. Es importante
saber utilizar las herramientas estadísticas ya que de lo contrario podemos obtener
resultados erróneos.

LÁZARO LUVIANO RICARDO:

El desarrollo de todos estos temas nos va a permitir aprender un tema importantísimo


dentro de la Ingeniería. La calidad como técnicas para la mejora continua dentro de un
proceso llevará a cualquier empresa a tener un mejor funcionamiento y pueda tener tal
vez más ganancias, poco o mínimos errores y a poder tener prevenciones que no le
causen a estas.

Siete de las más famosas herramientas de la calidad han dado a través del tiempo un
gran avance en el funcionamiento de una empresa, han permitido a los gerentes o jefes
tener en claro las diferentes causas que puede tener un mal proceso, puedan tener
estrategias precisas y posibles soluciones que lleven a la corrección de dicho problema.
Con ello las empresas que han adoptado estas herramientas de manera eficaz y precisa
han podido tener una calidad casi perfecta y así poder satisfacer las necesidades de los
usuarios o clientes

BENAVIDEZ OSORIO JOSÉ MANUEL:

El control estadístico de la calidad es una herramienta que es indispensable a la horade


controlar procesos y poder establecer mecanismos de control que permitan regular los
mismos. Todo esto con el fin de mantener los estándares establecidos y poder cumplir
con las especificaciones que el proceso requiere.

En la actualidad la demanda de los clientes por la excelencia de la calidad en los


productos que se les fabrican o servicios que se les brindan, debe ser de calidad total, con
el fin de cumplir con todas las expectativas que ellos requieren, por esta razón las
empresas están en contante cambio en procesos de mejora continua e implementación de
sistemas de calidad específicos apoyándose en herramientas de control estadístico para
la calidad, tales como: graficas de control para variables o graficas de control para
atributos que son herramientas que ayudan a visualizar y analizar el comportamiento de
un proceso a través del tiempo con la finalidad de identificar la variabilidad, conocer las
causas y proponer mejoras que contribuyan a tener procesos de calidad.

BIBLIOGRAFÍA
https://www.aiteco.com/qfd-despliegue-de-la-funcion-de-calidad/

https://es.slideshare.net/JACS93/control-estadistico-de-la-calidad-conceptos

https://bsginstitute.com/area/Calidad/Ingenieria-de-la-Calidad

http://ocw.usal.es/ciencias-sociales-1/control-estadistico-de-la-
calidad/contenido/ocw_cabero/01_asignaturaCC/Temario/Tema1.pdf

http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0188-77422009000200009

https://www.significados.com/calidad/

http://www3.fi.mdp.edu.ar/estadisticabasica/Materiales/clases_teoricas/clase_14.pdf

https://www.ingenieriaindustrialonline.com/lean-manufacturing/analisis-del-modo-y-efecto-de-
fallas-amef/

https://leansolutions.co/conceptos-lean/lean-manufacturing/amef-analisis-de-modo-y-efecto-de-
falla/

https://prezi.com/yhs1d7zmdsit/ingenieria-de-la-calidad/

https://www.icicm.com/files/QFD.pdf

https://www.softwaresupercep.com.mx/2012/05/24/la-variabilidad/

https://slideplayer.es/slide/3339568/

https://prezi.com/afx--ygncjjv/qfd-y-amef/

http://blogdecalidadiso.es/concordancia-entre-calidad-y-expectativas-del-cliente/

https://www.aiteco.com/diagrama-de-pareto/

https://www.universoformulas.com/estadistica/descriptiva/histograma/

También podría gustarte