Está en la página 1de 22

GESTION DE

CALIDAD
Trabajo de Investigación

Tarija-Bolivia
Nombre: Rocio Silvana Sánchez Sossa

Docente: Ing. Mariel Sánchez Campero

Turno: Mañana

Fecha: 1 de Marzo de 2017

UNIVERSIDAD PRIVADA
DOMINDO SAVIO

MÉTODOS Y TÉCNICAS PARA EL CONTROL DE CALIDAD

INTRODUCCIÓN
Los métodos y técnicas se dividen en las categorías cuantitativa y no cuantitativa. Las
cuantitativas son el control estadístico del proceso, muestreo de aceptación,
confiabilidad, diseño experimental, ingeniería de calidad de Taguchi, análisis modal de
fallas y efectos. Dentro de las no cuantitativas son ISO 9000, ISO 14000, Benchmarking,
mantenimiento productivo total, calidad por diseño, herramientas de administración,
responsabilidad por los productos, tecnología, etc.

A continuación se desglosaran con más detalle 5 de estos métodos técnicas de control


de calidad.

ANÁLISIS MODAL DE FALLAS EFECTOS (AMFE)

Antecedentes

El análisis modal de fallas y efectos es una técnica analítica (una prueba escrita) donde
se combinan la tecnología y la experiencia de las personas para identificar modos de falla
previsibles en un producto, servicio o proceso, y para planear su eliminación. Este
análisis es una acción ´´antes de que suceda´´ que requiere un esfuerzo de equipo para
aliviar en la forma más fácil y menos costosa los cambios en el diseño y la producción.

Historia

El AMFE fue aplicado por primera vez por la industria aeroespacial en la década de los
60, e incluso recibió una especificación en la norma militar americana MIL-STD-16291
titulada ´´Procedimientos para la realización de análisis de modo fallo, efectos criticidad
´´. En la década de los 70 lo empezó a utilizar Ford, extendiéndose más tarde al resto de
fabricantes de automóviles. En la actualidad es un método básico de análisis en el sector
del automóvil que se ha extrapolado satisfactoriamente a otros sectores. Este método
también puede recogerse con la denominación de AMFEC (Analisis Modal de Fallos,
Efectos y su Criticidad), al introducir de manera remarcable y más precisa la especial
gravedad de las consecuencias de los fallos.

Técnica

Aunque la técnica se aplica fundamentalmente para analizar un producto o proceso en su


fase de diseño, este método es válido para cualquier tipo de proceso o situación,
entendiéndose que los procesos se encuentran en todos los ámbitos de la empresa,
desde el diseño y montaje hasta la fabricación, comercialización y la propia organización
en todas las áreas funcionales de la empresa.

A continuación se indican de manera ordenada y esquemática los pasos necesarios con


los correspondientes informaciones a cumplimentar en la hoja de análisis para la
aplicación del método AMFE de forma genérica. El esquema de presentación de la
información que se muestra en esta NTP tiene un valor meramente orientativo, pudiendo
adaptarse a las características e intereses de cada organización.

1
Pasos necesarios a aplicar:

DENOMINACIÓN DEL COMPONENTE E IDENTIFICACIÓN

PARTE DEL COMPONENTE. OPERACIÓN O FUNCIÓN

FALLO O MODO DE FALLO

EFECTO/S DEL FALLO

CAUSAS DEL MODO DE FALLO

MEDIDAS DE ENSAYO Y CONTROL PREVISTAS

GRAVEDAD

ÍNDICE DE PRIORIDAD DE RIESGO (IPR)

ACCIÓN CORRECTORA

RESPONSABLE Y PLAZO

ACCIONES IMPLANTADAS

Denominación del componente e identificación.- Debe identificarse el PRODUCTO o


parte del PROCESO incluyendo todos los subconjuntos y los componentes que forman
parte del producto/proceso que se vaya a analizar, bien sea desde el punto de vista de
diseño del producto/proyecto o del proceso propiamente dicho. Es útil complementar tal
identificación con códigos numéricos que eviten posibles confusiones al definir los
componentes.

Parte del componente operación o función.- Se completa con distinta información


dependiendo de si se está realizando un AMFE de diseño o de proceso. Para el AMFE de
diseño se incluyen las partes del componente en que puede subdividirse y las funciones
que realiza cada una de ellas, teniendo en cuenta las interconexiones existentes. Para el
AMFE de proceso se describirán todas las operaciones que se realizan a lo largo del

2
proceso o parte del proceso productivo considerado, incluyendo las operaciones de
aprovisionamiento, de producción, de embalaje, de almacenado y de transporte.

Fallo o modo de fallo, el “Modo de fallo potencial”.- se define como la forma en la


que una pieza o conjunto pudiera fallar potencialmente a la hora de satisfacer el propósito
de diseño/proceso, los requisitos de rendimiento y/o las expectativas del cliente. Los
modos de fallo potencial se deben describir en términos “físicos” o técnicos, no como
síntoma detectable por el cliente. Es recomendable numerarlos correlativamente un fallo
puede no ser detectable inmediatamente, ello como se ha dicho es un aspecto importante
a considerar y por tanto no debería nunca pasarse por alto.

Efecto/s del fallo.- Normalmente es el síntoma detectado por el cliente/ usuario del
modo de fallo, es decir si ocurre el fallo potencial como lo percibe el cliente, pero también
como repercute en el sistema. Se trata de describir las consecuencias no deseadas del
fallo que se puede observar o detectar, y siempre deberían indicarse en términos de
rendimiento o eficacia del producto/proceso. Es decir, hay que describir los síntomas tal
como lo haría el propio usuario. Cuando se analiza solo una parte se tendrá en cuenta la
repercusión negativa en el conjunto del sistema, para así poder ofrecer una descripción
más clara del efecto. Si un modo de fallo potencial tiene muchos efectos, a la hora de
evaluar, se elegirán los más graves.

Causas del modo de fallo.- La causa o causas potenciales del modo de fallo están en el
origen del mismo y constituyen el indicio de una debilidad del diseño cuya consecuencia
es el propio modo de fallo. Es necesario relacionar con la mayor amplitud posible todas
las causas de fallo concebibles que pueda asignarse a cada modo de fallo.

Ejemplo de AMFE de diseño:

Supongamos que estamos analizando el tubo de escape de gases de un automóvil en su


proceso de fabricación.

• Modo de fallo: Agrietado del tubo de escape

Efecto: Ruido no habitual

Causa: Vibración – Fatiga

Medidas de ensayo y control previstas.- En muchos AMFE suele introducirse este


análisis para reflejar las medidas de control y verificación existentes para asegurar la
calidad de respuesta del componente/producto/proceso. La fiabilidad de tales medidas de
ensayo y control condicionará a su vez a la frecuencia de aparición de los modos de fallo.

Gravedad.- Determina la importancia o severidad del efecto del modo de fallo potencial
para el cliente (no teniendo que ser este el usuario final); valora el nivel de
consecuencias, con lo que el valor del índice aumenta en función de la insatisfacción del
3
cliente, la degradación de las prestaciones esperadas y el coste de reparación. Este
índice sólo es posible mejorarlo mediante acciones en el diseño, y no deberían afectarlo
los controles derivados de la propia aplicación del AMFE o de revisiones periódicas de
calidad

Índice de Prioridad de Riesgo (IPR).- Es el producto de los tres factores que lo


determinan. Dado que tal índice va asociado a la prioridad de intervención, suele
llamarse Índice de Prioridad del Riesgo. Debe ser calculado para todas las causas de
fallo. No se establece un criterio de clasificación de tal índice. No obstante un IPR inferior
a 100 no requeriría intervención salvo que la mejora fuera fácil de introducir y
contribuyera a mejorar aspectos de calidad del producto, proceso o trabajo.

Acción correctora.- Se describirá en este apartado la acción correctora propuesta.


Generalmente el tipo de acción corrector a que elegiremos seguirá los siguientes
criterios, de ser posible:

• Cambio en el diseño del producto, servicio o proceso general.


• Cambio en el proceso de fabricación.
• Incremento del control o la inspección.
Siempre hay que mirar por la eficiencia del proceso y la minimización de costes de todo
tipo, generalmente es más económico reducir la probabilidad de ocurrencia de fallo que
dedicar recursos a la detección de fallos.

Responsable y plazo.- Como en cualquier planificación de acciones correctoras se


deberá indicar quien es el responsable de cada acción y las fechas previstas de
implantación.

Acciones implantadas.- Este apartado es opcional, no siempre lo contienen los métodos


AMFE, pero puede ser de gran utilidad recogerlo para facilitar el seguimiento y control de
las soluciones adoptadas. Se deben reflejar las acciones realmente implantadas que a
veces puede ser que no coincidan exactamente con las propuestas inicialmente.

TABLA 1. Clasificación de la gravedad del modo fallo según la repercusión en el


cliente/usuario

GRAVEDAD CRITERIO VALOR

MUY BAJA No es razonable esperar que este f allo de pequeña impor tancia origine
1
Repercusiones efecto real alguno sobre el rendimiento del sistema. Probablemente, el
imperceptibles cliente ni se daría cuenta del fallo.

4
BAJA Repercusiones El tipo de fallo originaria un ligero inconveniente al cliente. Probablemen- 2-3
irrelevantes apenas te, éste observara un pequeño deterioro del rendimiento del sistema sin
perceptibles importancia. Es fácilmente subsanable
MODERADA
El fallo produce cier to disgusto e insatisf acción en el cliente . El cliente 4-6
observará deterioro en el rendimiento del sistema

ALTA El fallo puede ser critico y verse inutilizado el sistema. Produce un grado de 7-8
insatisfacción elevado.

Modalidad de fallo potencial muy crítico que afecta el funcionamiento de 9-10


MUY ALTA seguridad del producto o proceso y/o in volucra seriamente el incumpli-
miento de nor mas reglamentarias. Si tales incumplimientos son graves
corresponde un 10

TABLA 2. Clasificación de la frecuencia/ probabilidad de ocurrencia del modo de fallo

FRECUENCIA CRITERIO VALOR

Muy Baja Ningún fallo se asocia a procesos casi idénticos , ni se ha dado n unca en 1
Improbable el pasado, pero es concebible.

Baja Fallos aislados en procesos similares o casi idénticos . Es r 2-3


azonablemente esperable en la vida del sistema, aunque es poco probable que
suceda.
Moderada Defecto aparecido ocasionalmente en procesos similares o pre vios al 4-5
actual. Probablemente aparecerá algunas veces en la vida del
componente/sistema.
El fallo se ha presentado con cierta frecuencia en el pasado en procesos 6-8
Alta simi- lares o previos procesos que han fallado.

Muy Alta Fallo casi inevitable. Es seguro que el fallo se producirá frecuentemente. 9-10

Ventajas

Algunas de las ventajas que presenta este análisis son las siguientes:

 Mejora de la calidad, fiabilidad y seguridad de un producto o proceso


 Mejora la imagen y competitividad de la organización
 Aumentar la satisfacción del usuario.
 Reducir el tiempo y coste de desarrollo del sistema.
 Recopilación de información para reducir fallos futuros y capturar conocimientos
de ingeniería.
 Reducción de problemas posibles con las garantías.

POKA-YOKE

Antecedentes

El sistema Poka-yoke, o libre de errores, son los métodos para prevenir errores humanos
que se convierten en defectos del producto final. El concepto es simple: si los errores no
se permite que se presenten en la línea de producción, entonces la calidad será alta y el

5
re trabajo poco. Esto aumenta la satisfacción del cliente y disminuye los costos al mismo
tiempo. El resultado, es de alto valor para el cliente. No solamente es el simple concepto,
pero normalmente las herramientas y/o dispositivos son también simples. Los sistemas
Poka-yoke implican el llevar a cabo el 100% de inspección, así como, retroalimentación y
acción inmediata cuando los defectos o errores ocurren. La práctica del sistema Poka-
yoke se realiza más frecuentemente en la comunidad manufacturera para enriquecer la
calidad de sus productos previniendo errores en la línea de producción.

Historia

Poka-yoke es una técnica de calidad desarrollada por el ingeniero japonés Shigeo Shingo
en los años 1960´s, que significa "a prueba de errores". Shigeo Shingo era un
especialista en procesos de control estadísticos en los años 1950´s, pero se desilusionó
cuando se dio cuenta de que así nunca podría reducir hasta cero los defectos en su
proceso.

Shigeo Shingo fue uno de los ingenieros industriales en Toyota, quien creó y formalizó el
Control de Calidad Cero Defectos (ZQC). La habilidad para encontrar los defectos es
esencial, como dice Shingo "la causa de los defectos recae en los errores de los
trabajadores, y los defectos son los resultados de continuar con dichos errores".

Shingo ha desarrollado un concepto al que llama Poka-yoke (sin fallas). Poka-Yoke


significa contar con listas detalladas de los puntos críticos de cada operación, de tal
manera que se elimine totalmente el error humano. Es similar al concepto de
automatización (Jikhoda) basado en procesos automáticos de bajo costo, que suspenden
la operación en cuando esta se ha completado cuando surgen errores/anormalidades.

Técnica

Funciones del sistema poka-yoke

Un sistema poka-yoke posee dos funciones: una es la de hacer la inspección del 100%
de las partes producidas, y la segunda es si ocurren anormalidades puede dar
retroalimentación y acción correctiva. Los efectos del método poka-yoke en reducir
defectos va a depender en el tipo de inspección que se este llevando a cabo, ya sea: en
el inicio de la línea, auto-chequeo, o chequeo continuo. Los efectos de un sistema poka-
yoke en la reducción de defectos varían dependiendo del tipo de inspección.

Tipos de inspección

Para tener éxito en la reducción de defectos dentro de las actividades de producción,


debemos entender que los defectos son generado por el trabajo, y que toda inspección
puede descubrir los defectos.
6
• Inspección de criterio

• Inspección informativa

• Inspección en la fuente

Inspección de criterio

Error____________ Defecto___________ Defecto Detectado

Inspección para separar lo bueno de lo malo

• Comparado con el estándar

• Muestreo o 100%, cualquiera de los dos.

Paradigmas existentes

• Los errores son inevitables.

• La inspección mejora la calidad

La inspección de criterio o juicio es usada principalmente para descubrir defectos.

• Los productos son comparados normalmente contra un estándar y los artículos


defectuosos son descartados.

• El muestreo también puede ser usado, usualmente cuando una inspección de 100% es
muy costosa.

La principal suposición acerca de la inspección de criterio es que los defectos son


inevitables y que inspecciones rigurosas son requeridas para reducir los defectos.

• Este enfoque, sin embargo, no elimina la causa o defecto.

Inspección Informativa

Inspección para obtener datos y tomar acciones correctivas

7
Usado típicamente como:

• Auto inspección.

• Inspección subsecuente.

Auto-Inspección.

• La persona que realiza el trabajo verifica la salida y toma una acción correctiva
inmediata.

• Algunas ventajas son:

 Rápida retroalimentación
 Usualmente inspección al 100%
 Más aceptable que crítica exterior

• La desventaja es que la auto-inspección es más subjetiva que la inspección del


operador subsecuente.

Empleado A, opera___________ Empleado B, inspecciona y opera_________ Empleado


C, inspecciona y opera... D

Inspección en la fuente

Inspección de arriba hacia abajo y resultados de retroalimentación.

Algunas ventajas son:

 Mejor que la auto inspección para encontrar defectos a simple vista.


 Promueve el trabajo en equipo

Algunas de las desventajas son:

 Mayor demora antes de descubrir el defecto.


 El descubrimiento es removido de la causa raíz.
 Inspección en la fuente (Source Inspection)

Defectos Vs Errores.

El primer paso para lograr cero defectos es distinguir entre errores y defectos. “Defectos
y Errores no son la misma cosa”

 DEFECTOS son resultados.

8
 ERRORES son las causas de los resultados.

Tipos de errores causados por el factor humano en las operaciones.

1. El olvido del individuo.


2. Un entendimiento incorrecto o inadecuado.
3. Falta de identificación del proceso o es inadecuado el que existe.
4. Falta de experiencia del individuo.
5. Errores a propósito, por ignorar reglas o políticas.
6. Por descuido no se realiza una parte del proceso.
7. Por lentitud del individuo o algo relacionado con la operación o sistema.
8. Falta de documentación en procedimientos o estándares operacionales o de
sistema.
9. Por falta de análisis de todas las posibles situaciones que pueden suceder y se
presente la sorpresa.
10. Por falta de conocimiento, capacitación y/o integración del individuo con la
operación o sistema se dan causas intencionales.
11.

Existen dos funciones reguladoras para desarrollar sistemas Poka-Yoke:

Métodos de Control. Existen métodos que cuando ocurren anormalidades apagan los
equipos o bloquean los sistemas de operación y/o inspección previniendo que siga
ocurriendo el mismo defecto.

Métodos de Advertencia Este tipo de método advierte al trabajador de las


anormalidades ocurridas, llamando su atención, mediante la activación de una luz y un
sonido. Si el trabajador no se da cuenta de la señal de advertencia, los defectos seguirán
ocurriendo, por lo que este tipo de método tiene una función reguladora menos poderosa
que la de métodos de control.

Clasificación de los métodos Poka-yoke

1. Métodos De Contacto. Son métodos donde un dispositivo sensitivo detecta las


anormalidades en el acabado o las dimensiones de la pieza, donde puede o no haber
contacto entre el dispositivo y el producto.

9
2. Método De Valor Fijo. Con este método, las anormalidades son detectadas por medio
de la inspección de un número específico de movimientos, en casos donde las
operaciones deben de repetirse un número predeterminado de veces.

3. Método Del Paso-Movimiento. Estos son métodos en el cual las anormalidades son
detectadas inspeccionando los errores en movimientos estándares donde las
operaciones son realizados con movimientos predeterminados. Este extremadamente
efectivo método tiene un amplio rango de aplicación, y la posibilidad de su uso debe de
considerarse siempre que se esté planeando la implementación de un dispositivo Poka-
Yoke.

Medidores utilizados en sistemas Poka-Yoke

Los tipos de medidores pueden dividirse en tres grupos:

• Medidores de contacto

• Medidores sin-contacto

• Medidores de presión, temperatura, corriente eléctrica, vibración, número de ciclos,


conteo, y transmisión de información

Ventajas

 Son simples y baratos.


 Son parte del proceso.
 Son puestos cerca o en el lugar donde ocurre el error

SEIS SIGMAS

Antecedentes

10
Seis sigmas es una estrategia de mejora continua que busca identificar las causas de los
errores, defectos y retrasos en los diferentes procesos de negocio, enfocándose en los
aspectos que son críticos para el cliente. La estrategia Seis Sigma se basa en métodos
estadísticos rigurosos que emplean herramientas de calidad y análisis matemáticos ya
sea para diseñar productos y procesos o para mejorar los ya existentes.

Historia

Seis Sigma fue introducida por primera vez en 1987 en Motorola por un equipo de
directivos encabezados por Bob Galvin, presidente de la compañía con el propósito de
reducir los defectos de productos electrónicos. Desde entonces Seis Sigma ha sido
adoptado, enriquecido y generalizado por un gran número de compañías. Además de
Motorola, otras compañías que han adoptado la metodología y logrado grandes éxitos
son Allied Signal que inicio su programa en 1994 y General Electric que inicio en 1995.
Uno de los factores decisivos fue que los presidentes de estas compañías, Larry Bossidy
y Jack Welch, respectivamente encabezaron y apoyaron de manera entusiasta y firme el
programa dentro de sus organizaciones

Técnica

La meta de Seis Sigma es lograr que los procesos tengan una calidad de Seis Sigma,
cuantitativamente esto quiere decir tener a 3.4 defectos por millón de oportunidades o en
otras palabras, estar bien al 99.9997% de las veces a la primera.

Se refiere a que de acuerdo a los límites de especificación del cliente, la variación de un


proceso resulta en seis desviaciones estándar del proceso entre la media del proceso y
los límites de especificación del cliente. Por lo tanto Seis Sigma se utiliza como una
medida estadística del nivel de desempeño de un proceso o producto.

Cambiar de una calidad tres sigma a Seis Sigma significa pasar de un proceso con un
rendimiento de 99.73% (tres sigma) la cual genera 66,800 DPMO (Defectos Por Millón de

11
Oportunidades) a una con rendimiento de 99.9997% la cual genera como se mencionó
anteriormente 3.4 DPMO.

Otras métricas para Seis Sigmas:

1. DPU (Defectos por Unidad)

Métrica que mide el nivel de no calidad de un proceso que no toma en cuenta las
oportunidades de error y se obtienen de la siguiente forma:

Donde d= número de defectos observados

U= número de unidades producidas en cierto periodo de tiempo

2. DPO (Defectos por Oportunidad)

12
Se utiliza para tomar en cuenta la complejidad de la unidad o producto y se obtiene de la
siguiente manera:

Donde O= número de oportunidades de error por unidad

Se debe asegurar que solo se cuenten oportunidades que son significantes en el


proceso.

3. DPMO (Defectos por Millón de Oportunidades)

Este índice mide los defectos esperados en un millón de oportunidades de error y se


calcula de la siguiente manera:

Ventajas

Algunas de las ventajas son:

 La utilización de esta estrategia permite la capacidad de aumentar la productividad


mejorando la calidad y reduciendo el defecto.
 Aumento de variedad de productos que se producen, la diversificación de
productos no es solo posible, sino recomendable, ya que será capaz de ofrecer
más productos y servicios a sus clientes
 Capacidad de cortar sots utilizando la estrategia Six Sigmas negocio ahorrando
dinero para inversiones futuras.

Desventajas

Dentro de las desventajas presenta las siguientes:

 Luego de usar la estrategia se debe tomar en cuenta, por ejemplo, te darás cuenta
de que, después de tomar una decisión que va a tomar algún tiempo para obtener
buenos resultados.
 Se debe confiar en las estadísticas o datos al tomar una decisión, y como se sabe
a veces las mejores decisiones se toman a través de las experiencias.
 Está diseñado para ignorar el costo y la eficiencia con el fin de centrarse en la
mejora de la calidad

BENCHMARKING

Antecedentes
13
Benchmarking es el proceso continuo de comparación de nuestros procesos, productos y
servicios, frente a los de los competidores o a los que aquellas compañías reconocidas
como líderes permitiendo identificar y adoptar practicas exitosas.

Historia

Creada por Xerox Corporation en el año 1979. En 1989, el reconocido premio Malcom
Baldrige distinguió los resultados logrados por XEROX, en lo que se refiere al
Benchmarking, a partir del 1990 se aplicó a otras áreas lo que finalmente se buscó
superar la competencia.

Técnica

El benchmarking obliga a comparar constantemente los procesos internos con las


mejores prácticas de la industria. Promueve el trabajo en equipo, dirigiendo la atención a
las prácticas empresariales, así como a que la producción siga siendo competitiva. La
técnica no es discutible; si otra empresa puede hacer mejor determinado proceso o
práctica ¿Por qué no también aquí? Este permite que una empresa establezca metas
realistas y creíbles

El Benchmarking puede ser aplicado a todas las áreas de negocio de la compañía, como
ser:

 Productos y servicios
 Operaciones y funciones
 Procesos de trabajo
 Prácticas comerciales
 Desempeño organizacional
 Estrategia

Tipos de Benchmarking

Por Sujeto

 Interno.- sobre operaciones de negocios semejantes que se desempeñan en


múltiples instalaciones, departamentos o divisiones en una empresa

 Competitivo o externo.- orientado hacia los productos, servicios y procesos de


trabajos de los competidores directos.

 Funcional.- dirigido a funciones y procesos comunes para muchas empresas, sin


importar la industria a la que pertenezcan.

14
Por metas:

 Desempeño.- identificación de quien se desempeña mejor, con base en


mediciones de productividad.

 Estratégico.- estableciendo alianzas de benchmarking con un número limitado de


empresas no competidoras en un intento por identificar las tendencias.

 Procesos.- significa buscar las mejores prácticas a través de estudios personales y


observaciones de procesos clave, sin importar quienes sean los candidatos para
las mejores practicas.

La Correcta Visión de Benchmarking

Ventajas

 Identificar oportunidades de innovación a través del descubrimiento de nuevas


tecnologías ya aplicadas en su propio sector u otros diferentes
15
 Identificar aquellos procesos en los que existan diferencias significativas respecto
al ´´mejor del sector´´, utilizándolo como estímulo para el cambio y como
instrumento de seguimiento de las mejoras producidas.
 Conocer la posición relativa frente a empresas del propio sector o de otros.
 Conocer con suficiente anterioridad nuevas tendencias y direcciones estratégicas
y, en función de esas, gestionar adecuadamente el cambio.
 Detectar cambios y tendencias en los mercados .seguimiento a relaciones y
desarrollo de planes de colaboración

Desventajas

 Está de moda la aplicación del benchmarking. Esto puede crear expectativas en el


personal, sin que la dirección se sienta comprometida con los resultados
 Puede ser necesario impartir nociones de ética y cuestiones legales que rodean al
intercambio de información de trabajo entre organizaciones, especialmente
competidores
 El benchmarking cuenta con la confianza. Esta es la mayor resistencia a comparar
de forma eficaz los procesos de los competidores, debido a que la mayor parte de
la información es confidencial.

DISEÑO DE EXPERIMENTOS (DE)

Antecedentes

16
Los modelos de diseño de experimentos son modelos estadísticos clásicos cuyo objetivo
es averiguar si unos determinados factores influyen en una variable de interés y, si existe
influencia de algún factor, cuantificar dicha influencia.

Técnica

La metodología del diseño de experimentos se basa en la experimentación. Es sabido


que si se repite un experimento, en condiciones indistinguibles, los resultados presentan
una cierta variabilidad. Si la experimentación se realiza en un laboratorio donde la
mayoría de las causas de variabilidad están muy controladas, el error experimental será
pequeño y habrá poca variación en los resultados del experimento. Pero si se
experimenta en procesos industriales o administrativos la variabilidad será mayor en la
mayoría de los casos.

El objetivo del diseño de experimentos es estudiar si cuando se utiliza un


determinado tratamiento se produce una mejora en el proceso o no. Para ello se debe
experimentar aplicando el tratamiento y no aplicándolo. Si la variabilidad experimental es
grande, sólo se detectará la influencia del uso del tratamiento cuando éste produzca
grandes cambios en relación con el error de observación.

La metodología del diseño de experimentos estudia cómo variar las condiciones


habituales de realización de un proceso empírico para aumentar la probabilidad de
detectar cambios significativos en la respuesta; de esta forma se obtiene un mayor
conocimiento del comportamiento del proceso de interés.

Para que la metodología de diseño de experimentos sea eficaz es fundamental que el


experimento esté bien diseñado.

Un experimento se realiza por alguno de los siguientes motivos:

 Determinar las principales causas de variación en la respuesta.

 Encontrar las condiciones experimentales con las que se consigue un


valor extremo en la variable de interés o respuesta.

 Comparar las respuestas en diferentes niveles de observación de


variables controladas.

 Obtener un modelo estadístico-matemático que permita hacer


predicciones de respuestas futuras.

La utilización de los modelos de diseño de experimentos se basa en la experimentación


y en el análisis de los resultados que se obtienen en un experimento bien planificado.
En muy pocas ocasiones es posible utilizar estos métodos a partir de datos disponibles

17
o datos históricos, aunque también se puede aprender de los estudios realizados a
partir de datos recogidos por observación, de forma aleatoria y no planificada.

En el análisis estadístico de datos históricos se pueden cometer diferentes errores,


los más comunes son los siguientes:

1. Inconsistencia de los datos: Los procesos cambian con el tiempo, se producen


cambios en el personal (cambios de personas, mejoras del personal por procesos de
aprendizaje, motivación, ...), cambios en las máquinas (reposiciones, reparaciones,
envejecimiento, ...). Estos cambios tienen influencia en los datos recogidos, lo que hace
que los datos históricos sean poco fiables, sobre todo si se han recogido en un amplio
espacio de tiempo.

2. Variables con fuerte correlación: Puede ocurrir que en el proceso existan dos o
más variables altamente correlacionadas que pueden llevar a situaciones confusas. Por
ejemplo, en el proceso hay dos variables X1 y X2 fuertemente correlacionadas que
influyen en la respuesta, pero si en los datos que se tiene aumenta al mismo tiempo el
valor de las dos variables no es posible distinguir si la influencia es debida a una u otra o
a ambas variables (confusión de los efectos). Otra situación problemática se presenta si
solo se dispone de datos de una variable (por ejemplo de X1 y no de X2), lo que puede
llevar a pensar que la variable influyente es la X1 cuando, en realidad, la variable
influyente es la X2 (variable oculta).

3. El rango de las variables controladas es limitado: Si el rango de una de las


variables importantes e influyentes en el proceso es pequeño, no se puede saber su
influencia fuera de ese rango y puede quedar oculta su relación con la variable de
interés o lo cambios que se producen en la relación fuera del rango observado. Esto
suele ocurrir cuando se utilizan los datos recogidos al trabajar el proceso en
condiciones normales y no se experimenta (cambiando las condiciones de
funcionamiento) para observar el comportamiento del proceso en situaciones nuevas.

Ventajas

Dentro de las ventajas se presentan las siguientes:

18
 Se elimina el efecto de las variables perturbadoras o extrañas, mediante el efecto
de la aleatorización.
 El control y manipulación de las variables predictorias clarifican la dirección y
naturaleza de la causa
 Debe enfocarse la atención a las interrelaciones y a la estimación y cuantificación
de fuentes de variabilidad en los resultados.
 El número de pruebas requerido puede determinarse con certeza y a menudo
puede reducirse
 La comparación de los efectos de los cambios es más precisa debido a la
agrupación de resultados
 La exactitud de las conclusiones se conoce con una precisión matemáticamente
definida.

Desventajas

Las desventajas del diseño experimental son las siguientes:

 Tales diseños y sus análisis usualmente están acompañados de enunciados


basados en los lenguajes técnicos del estadístico. Seria significativo a la
generalidad de la gente, además el estadístico no debería subestimar el valor de
presentarnos los resultados de forma gráfica.
 Muchos diseños estadísticos, especialmente cuando fueron formulados por
primera vez, se han criticado como demasiado caros, complicados y que
requieren mucho tiempo. Tales críticas, cuando son válidas deben aceptarse de
buena fe.

BIBLIOGRAFIA

DALE H. BESTERFIEL
Control de Calidad, Octava edición

19
Pearson educación, 2009

PAUL JAMES.
Gestión de la Calidad Total
Prentice Hall, 1996

PATRICK LYONNET
Los métodos de la Calidad Total
Ediciones Diaz de Santos, 1989

SHIGEO SHINGO
Zero Quality Control: Source Inspection and the Poka-yoke System Productivity
Portland, Oregon

JOSE LUIS LLORENTE


Benchmarking

http://www.elprisma.com/apuntes/ingenieria_industrial/pokayoke/

INDICE
INTRODUCCION 1
ANALISIS MODAL DE FALLAS Y EFECTOS (AMFE) 1
ANTECEDENTES 1

20
HISTORIA 1
TECNICA 1
VENTAJAS 5
POKA-YOKE 6
ANTECEDENTES 6
HISTORIA 6
TECNICA 6
VENTAJAS 10
DESVENTAJAS 10
SEIS SIGMAS 11
ANTECEDENTES 11
HISTORIA 11
TECNICA 11
VENTAJAS 13
DESVENTAJAS 13
BENCHMARKING 14
ANTECEDENTES 14
HISTORIA 14
TECNICA 14
VENTAJAS 16
DESVENTAJAS 16
DISEÑO DE EXPERIMENTOS (DE) 17
ANTECEDENTES 17
TECNICA 17
VENTAJAS 19
DESVENTAJAS 19
BIBLIOGRAFIA 20

21

También podría gustarte