Está en la página 1de 44

Gestionar las actividades de mantenimiento mediante

la integración del plan maestro, para garantizar la


operación y contribuir a la productividad de la
organización.
Índice

! " !
" !
# " # $
" !"
# %
! &
# " ' # &
% ()
Las 7 herramientas básicas de calidad
*
)

$
) + ,- $
( ,
, %
, %
,. &
, &
, " "
/

) + )
)
)

)
01 2
0 $
, ,
Introducción

Para entender el concepto de calidad es preciso remitirnos al siglo XIX, en los años
de la Revolución Industrial, cuando el trabajo manual es reemplazado por el trabajo
mecánico. En la Primera Guerra Mundial, las cadenas de producción adquieren
mayor complejidad y simultáneamente surge el papel del inspector, que era la
persona encargada de supervisar la efectividad de las acciones que los operarios
realizaban. Es el primer gesto de control de calidad.
Lo que en la actualidad conocemos como Gestión de Calidad es el conjunto de
acciones, medidas y soluciones orientadas a la mejora continua de los procesos
internos de una organización, tomando como objetivo principal el aumento del nivel
de satisfacción de un grupo de clientes o consumidores.

Hasta ahí no decimos nada nuevo. No obstante, esta definición, que en principio es
la más aceptada entre especialistas y profesionales del campo, es en realidad
producto de un conjunto de circunstancias y condiciones específicas.

La calidad no siempre ha sido tal como la conocemos ahora. Este concepto ha


sufrido importantes cambios a lo largo de las décadas, especialmente desde que se
asumió como una necesidad en el campo empresarial.

Por lo tanto, la norma ISO 9001, que acaba de ser actualizada, no es otra cosa que
el reflejo de todas aquellas circunstancias. ¿Cuándo empezó tal evolución? ¿Cuáles
son las etapas más imp0rtantes? ¿Qué enfoques se han destacado?
Calidad en el Mantenimiento

Cuando se usa el término calidad, solemos imaginar un excelente producto o


servicio, que cumple o rebasa nuestras expectativas. Estas expectativas se basan en
el uso que se pretende dar y en el precio de venta. Por ejemplo, el cliente espera un
desempeño diferente entre una rondana plana de acero y una rondana cromada de
acero, porque son de distintos grados. Cuando un producto sobrepasa nuestras
expectativas, a eso lo consideramos calidad. Entonces, la calidad es algo intangible
que se basa en la percepción.

Si Q es mayor que 1.0, el cliente tiene una buena noción del producto o servicio. Es
claro que la determinación de P y E se basará con más probabilidad en la
percepción, donde el vendedor determina el desempeño y el cliente determina las
expectativas. Las expectativas de los clientes son cada vez más demandantes.

La American Society for Quality (ASQ) define a la calidad como un término subjetivo
para el cual cada persona o sector tiene su propia definición. En su aplicación
técnica, la calidad puede tener dos significados: las características de un producto o
servicio que inciden en su capacidad para satisfacer las necesidades explícitas o
implícitas, o un producto o servicio que está libre de deficiencias.

Una definición más trascendente de la calidad aparece en la norma ISO 9000:2000.


En ella, la calidad se define como el grado con el que un conjunto de características
inherentes cumple los requisitos. Grado significa que se puede usar calidad con
adjetivos como mala, buena y excelente. Inherente se define como que existe en
algo, en especial como una característica permanente. Las características pueden
ser cuantitativas o cualitativas. Un requisito es una necesidad o expectativa que se
especifica; en general está implícita en la organización, sus clientes y otras partes
interesantes, o bien es obligatoria.
La calidad tiene nueve dimensiones diferentes que se muestran en la tabla 1-1, con
sus significados y explicaciones aplicadas a una TV de plasma. Esas dimensiones
son algo independientes, y entonces, un producto puede ser excelente en una
dimensión, pero promedio o malo en otra. Hay muy pocos productos, si es que los
hay, que son sobresalientes en las nueve dimensiones. Por ejemplo, se consideraba
que los japoneses producían automóviles de muy alta calidad en la década de 1970,
de acuerdo sólo con las dimensiones de confiabilidad, conformidad y estética. Por
consiguiente, se puede determinar si el producto es de calidad usando algunas
dimensiones de la calidad.

La administración de la calidad total (TQM, de total quality management) es al mismo


tiempo una filosofía y un conjunto de principios conductores que representan la base
de una organización en mejora continua. Es la aplicación de métodos cuantitativos y
de recursos humanos para mejorar todos los procesos en una organización, y para
exceder las necesidades del cliente, ahora y en el futuro. La TQM integra las técnicas
administrativas fundamentales, los esfuerzos existentes para mejorar, y herramientas
técnicas, todo bajo un método disciplinado.

Un proceso es un conjunto de actividades interrelacionadas que usa entradas


específicas para producir salidas específicas. La salida de un proceso generalmente
es la entrada de otro. Proceso se refiere tanto a actividades comerciales como de
producción. Cliente se refiere tanto a clientes internos como externos, y proveedor se
refiere a tanto proveedores internos como externos.

Reseña histórica

Sin duda, la historia del control de calidad es tan antigua como la industria misma.
Durante la Edad Media, la calidad era controlada en gran medida por los largos
periodos de entrenamiento establecidos por los gremios. Esa capacitación inyectaba
orgullo en los trabajadores, por la calidad de sus productos, que eran hechos a la
medida.

El concepto de especialización de la mano de obra fue introducido durante la


Revolución Industrial. El resultado fue que un trabajador ya no fabricaba todo el
producto, sino sólo una parte. Este cambio causó una declinación en la calidad de la
mano de obra, porque ya no se necesitaban trabajadores calificados. La mayor parte
de los productos fabricados durante ese periodo temprano no eran complicados; en
consecuencia, la calidad no se afectó mucho. De hecho, al mejorar la productividad,
los costos decrecieron, lo que causó menores expectativas de los clientes. A medida
que los productos se volvieron más complicados, y los empleos más especializados,
se hizo necesario inspeccionar los productos después de fabricarlos.

En 1924, W. A. Shewhart, de Bell Telephone Laboratories, desarrolló una gráfica


estadística para controlar variables en productos. Se considera que esta gráfica (o
cuadro) fue el inicio del control estadístico de la calidad. Después, en esa misma dé
cada, H. F. Dodge y H. G. Romig, ambos también de Bell Telephone Laboratories,
desarrollaron el área de muestreo de aceptación como sustituto de la inspección al
100%.

En 1942 se hizo aparente el reconocimiento del valor del control estadístico de la


calidad. Desafortunadamente, en Estados Unidos los gerentes no reconocieron este
valor.
En 1946 se formó la American Society for Quality. Esta organización, mediante sus
publicaciones, conferencias y sesiones de capacitación, ha promovido el uso de
calidad para todos los tipos de producción y servicio.

En 1950, W. Edwards Deming, que había aprendido de Shewhart el control


estadístico de la calidad, presentó una serie de conferencias sobre métodos
estadísticos frente a ingenieros japoneses, y sobre responsabilidad por la calidad a
los directores generales de las más grandes organizaciones en Japón. Joseph M.
Juran viajó a Japón por primera vez en 1954, y enfatizó la responsabilidad de la
administración en el logro de la calidad. Con esos conceptos, los japoneses
establecieron las normas de calidad para que el resto del mundo las adoptara.

En 1960 se formaron los primeros círculos de control de calidad, con el propósito de


mejorar la calidad. Los trabajadores japoneses aprendieron y aplicaron técnicas
estadísticas sencillas.

Para fines de la década de 1970 y principios de la de 1980, los gerentes


estadounidenses viajaban con frecuencia a Japón con el fin de aprender acerca del
milagro japonés. En realidad esos viajes no eran necesarios, ya que podrían haber
leído las publicaciones de Deming y Juran. Sin embargo, comenzó un renacimiento
de la calidad en los productos y servicios estadounidenses, y para mediados de la
década de 1980, se publicaron los conceptos de la administración de la calidad total.

A finales de la década de 1980, la industria automotriz comenzó a dar importancia al


control estadístico del proceso (SPC). Se pidió a los proveedores, y a sus respectivos
proveedores, adoptar esas técnicas. Otras industrias y el Departamento de la
Defensa en Estados Unidos también implementaron el control estadístico del
proceso.
Se estableció el Premio Nacional de Calidad Malcolm Baldrige, y se convirtió en la
medida de la administración de la calidad total. Genechi Taguchi introdujo sus
conceptos de diseño de parámetros y tolerancias, y dio lugar a un resurgimiento del
diseño de experimentos (DOE, de design of experiments) como un método valioso
para mejorar la calidad.
En la década de 1990, continuó el énfasis en la calidad en la industria automotriz,
cuando el modelo Saturn quedó en tercer lugar en satisfacción del cliente, después
de los dos automóviles japoneses más costosos. Además, la norma ISO 9000 se
convirtió en el modelo mundial para los sistemas de calidad. La industria automotriz
modificó la ISO 9000 para dar mayor importancia a la satisfacción del cliente, y
adicionó elementos en el proceso de aprobación de la producción de partes, la
mejora continua y las posibilidades de fabricación. La norma ISO 14000 fue
aprobada como modelo mundial para sistemas de administración del medio
ambiente.

Para el año 2000, el enfoque se desplazó hacia la tecnología de la información


dentro de una organización, y fuera de ella a través de Internet.

Evolución de la Calidad

La Calidad ha experimentado un profundo cambio hasta llegar a lo que hoy


conocemos por Calidad Total, también denominado Excelencia. En el contexto de
las organizaciones industriales desde comienzos de este siglo, y tal vez antes, se
entendía la calidad como: El grado en que un producto cumplía con las
especificaciones técnicas que se habían establecido cuando fue diseñado.

Posteriormente fue evolucionando el concepto de calidad, que la norma UNE 66-001


define como:

La adecuación al uso del producto o, más detalladamente, el conjunto de


propiedades y características de un producto o servicio que le confieren su aptitud
para satisfacer las necesidades expresadas o implícitas.

Más recientemente el concepto de calidad ha trascendido hacia todos los ámbitos de


la organización y así actualmente se define como:
"Todas las formas a través de las cuales la organización satisface las necesidades y
expectativas de sus clientes, sus empleados, las entidades implicadas
financieramente y toda la sociedad en general".

Podemos observar que esta última definición engloba conceptualmente a la segunda


y ésta a su vez a la primera.

En paralelo con esta evolución han ido también progresando los mecanismos
mediante los cuales las organizaciones han gestionado la calidad.

Así, inicialmente se hablaba de control de calidad, departamento o función


responsable de la inspección y ensayo de los productos para verificar su
conformidad con las especificaciones Estas inspecciones se realizaban en un
principio masivamente en el producto acabado y, más tarde, se fueron aplicando
durante el proceso de fabricación.
En los años 50, y en consonancia con la definición, surgió el término "Quality
Assurance" que podemos traducirlo como garantía o aseguramiento de la calidad y
que engloba al "conjunto de actividades planificadas y sistemáticas, necesario para
dar confianza de que un producto o servicio va a satisfacer los requerimientos
establecidos". Todo este ámbito, que se circunscribe a la certificación ISO
9001:2000, ha pasado a denominarse actualmente Gestión de la Calidad.

Posteriormente, y con relación a la definición (3), han surgido varios términos como
Total Quality Management, Company Wide Quality Control, etc., que podríamos
traducir, eliminando pequeños matices entre ellos y simplificando como Calidad Total
o Excelencia.
Hoy en día las empresas y otras organizaciones y sus departamentos pueden estar en
cualquiera de las distintas etapas anteriormente citadas.

Esta evolución del concepto de la calidad ha sido paralela a la evolución en los últimos años
de los sistemas de producción. Estos han evolucionado desde la producción en masa hasta la
producción ajustada
Control de la Calidad

“El control de la calidad es el conjunto de técnicas y actividades, de carácter operativo,


utilizadas para verificar los requisitos relativos a la calidad del producto o servicio.”
Los departamentos de control de calidad surgen en las empresas a principios del siglo XX,
momento en el que el Taylorismo propugnaba una clara división de funciones y tareas en las
organizaciones, en consecuencia una diferenciación entre las personas que ejecutan tareas y
las que controlan.
El segundo gran hito de este siglo fue "la línea de montaje" desarrollada por Henry Ford. Este
sistema requería que las piezas utilizadas en la línea fueran intercambiables y por tanto
deberían cumplir unos requisitos mínimos. Introdujo las tolerancias que las piezas deberían
cumplir para garantizar su montaje y se impuso el concepto de inspección o control de
calidad aplicada a todos los productos terminados.
Posteriormente, hacia 1930, se introduce la estadística (planes de muestreo) a la
inspección, reduciendo los costes al evitar controlar el 100% de las piezas. Diversos
análisis dictaminaron que realizando controles intermedios en el proceso, se evitaba
procesar un producto que ya llevaba implícito el defecto por el cual se iba a rechazar al final.
Por ello se pasó de la inspección final del producto acabado al control de calidad en las
diferentes fases del proceso.
A continuación se vio que suponía un menor coste y era más fiable controlar el proceso que
el producto. Es decir, si se lograba tener bajo control los parámetros del proceso
(temperatura, presión, tiempo, etc.) de los cuales depende como salga el producto, no sería
necesario controlar éste. W. Shewhart desarrolló a partir de este concepto la metodología
conocida como “Control estadístico de procesos” en los años 30.
Gestión de la Calidad

La gestión de la calidad es el conjunto de acciones, planificadas y sistemáticas, que son


necesarias para proporcionar la confianza adecuada de que un producto o servicio va a
satisfacer los requisitos dados sobre la calidad.

Siguiendo el proceso de simplificación y reducción de costes del control de calidad, los


grandes "compradores" se dieron cuenta que para garantizar que sus proveedores les
enviaran los productos cumpliendo sus especificaciones, era necesario que organizaran y
documentaran todos aquellos aspectos de su organización que pudieran influir en la calidad del
producto que les suministraban. Todo ello debía estar sistematizado y documentado, y por ello
empezaron a obligar a sus proveedores a garantizar la calidad.

Un sistema de gestión de la Calidad debe estar documentado con un manual de calidad y con
procedimientos e instrucciones técnicas y debe revisarse su cumplimento a través de
auditorías. Debe contemplar todos aquellos aspectos que tengan incidencia en la calidad final
del producto o servicio que presta la organización.

En los últimos años han gozado de gran popularidad las normas de “Aseguramiento de la
Calidad” de la serie ISO 9.000, normas que a partir del 1 de enero de 2001 han pasado a
denominarse “Gestión de la Calidad” con una norma certificable: la norma ISO 9001:2000.

Calidad Total - Excelencia

La Calidad Total - Excelencia es una estrategia de gestión cuyo objetivo es que la


organización satisfaga de una manera equilibrada las necesidades y expectativas de los
clientes, de los empleados, de los accionistas y de la sociedad en general.
El fenómeno japonés

Japón había salido mal parado de la Segunda Guerra Mundial y debía recuperarse. No
disponía de recursos propios excepto las personas y su materia gris.

La JUSE (Unión Japonesa de Científicos e Ingenieros) invitó en los años 50 a expertos


americanos como Deming, Iman y otros para que explicasen a los directivos japoneses las
prácticas de gestión utilizadas en las empresas americanas, con especial énfasis en las
técnicas estadísticas utilizadas en el control de procesos.

A partir de aquí se desencadenó una movilización sin precedentes en la historia a nivel del
país. Posteriormente los japoneses han realizado las mayores aportaciones metodológicas
a nivel mundial (just in time, quality function deployment QFD, círculos de calidad, etc.)
sorprendiendo con las elevadas cotas de competitividad alcanzadas por sus empresas.

Taylorismo y Calidad Total

A comienzos de este siglo, Frederic Taylor desarrolló la “Organización Científica del


Trabajo”. Esta ciencia aportó rigor a la gestión de las organizaciones y sus principios
básicos de descomposición del trabajo en actividades elementales, especializando al
máximo en ellas a los operarios permitió a las empresas desarrollarse contratando personas
procedentes del campo y sin ninguna cualificación (en la planta de River Rouge de la
FORD se hablaban 60 idiomas diferentes).

Este y otros principios postulados por el Taylorismo estaban adaptados a la realidad de su


época, pero actualmente el entorno ha cambiado radicalmente respecto a comienzos de siglo:

• Globalización de los mercados


• Elevado nivel de cualificación de las personas
• Accesibilidad a las tecnologías
• Países emergentes con industrialización rapidísima
No obstante, muchas de las organizaciones occidentales y también de la CAPV, están
impregnadas del taylorismo y requieren serias modificaciones para adaptarse a la realidad
actual.

La estrategia de gestión conocida como Calidad Total – Excelencia es un compendio de las


mejores prácticas de gestión que pueden y deben desarrollar las empresas y otras
organizaciones para adaptarse a la realidad actual de cambio cada vez más rápido.

Enfoque tradicional Enfoque actual


tayloriano Calidad Total - Excelencia
Producir bienes Generar satisfacción del cliente
Objetivos departamentales Objetivos estratégicos ligados a procesos
Unos pocos lo piensan todo Todos piensan
Trabajo individual Trabajo en equipo
Enfasis en los medios físicos Enfasis en las personas
Mejora mediante inversión Mejora continua
El trabajo como mercancía de Integración de los empleados en la empresa
compraventa
Confrontación- Negociación- Confrontación Cooperación

El cambio de la cultura empresarial hacia la Calidad Total - Excelencia es un proceso


complejo que requiere tiempo y esfuerzo.

Asimismo, para que se lleve a cabo con eficacia existe una condición que debe cumplirse
ineludiblemente y es que los líderes de la organización estén convencidos de la necesidad
de cambiar, así como el papel que ellos deben desempeñar para que tenga lugar
Aportaciones destacables de Expertos

Autor Aportación
Ciclo de Shewhart (PDCA): "El proceso metodológico básico para
Walter Shewhart asegurar las actividades fundamentales de mejora y mantenimiento:
Plan-Do-Check-Act" y el Control Estadístico de Procesos SPC.
Catorce puntos para la dirección: qué se debe contemplar para la
Edward Deming
dirección de la organización.
Trilogía de Juran: "La planificación de la calidad, control de la
Joseph Juran calidad y mejora de la calidad son los instrumentos del Directivo
en la gestión de la calidad".
Círculos de Calidad: "Grupos de voluntarios, estables en el tiempo, que
Kaoru Ishikawa tienen como objetivo principal mejorar la calidad de los procesos y
el entorno de trabajo".
Just in Time: "Sistema de gestión de producción que permite
Taiichi Ohno entregar al cliente el producto con la calidad exigida, en la cantidad
precisa y el momento exacto".
Kaizen: "Significa mejora continua en japonés. Es el espíritu y
Masaaki Imai
práctica de los principios de mejora continua en la organización".
Ingeniería de la Calidad: "Métodos para el diseño y desarrollo de los
Genichi Taguchi
procesos de industrialización con el máximo de eficiencia".
Gestión Visual: "Es un sistema donde la información necesaria para la
Kiyoshi Suzaki
gestión operativa está presente allí donde trabajan las personas".

WALTER SHEWHART

Su aportación es el ciclo PDCA (Plan-Do-Check-Act). Es un proceso metodológico básico


para realizar las actividades de mejora y mantener lo que sea mejorado.
Asimismo desarrolló el Control Estadístico de Procesos, metodología para lograr la
estabilidad y la mejora continua de los procesos en base a eliminar de ellos sus "causas
especiales" de variabilidad y reducir sus "causas comunes".
EDWARD DEMING
Entre las diferentes aportaciones de este autor a la calidad cabe destacar dos: los catorce
puntos de Deming y la divulgación del ciclo PDCA de Shewhart.

Con sus "catorce puntos para la gestión", Deming pretende mostrar la importancia del
papel de las personas, y en especial de la dirección en la competitividad de las
organizaciones.

PUNTOS DE DEMING

1.- Crear constancia en el propósito de mejorar el producto y el servicio. 2.- Adaptar la


organización a la nueva economía en que vivimos.
3.- Evitar la inspección masiva de productos.
4.- Comprar por calidad, no por precio y estrechar lazos con los proveedores. 5.- Mejorar
continuamente en todos los ámbitos de la organización.
6.- Formar y entrenar a los trabajadores para mejorar el desempeño del trabajo. 7.- Adoptar e
implantar el liderazgo.
8.- Eliminar el miedo, para que las personas trabajen seguras y den lo mejor de sí mismas. 9.-
Romper las barreras entre departamentos.
10.- Eliminar eslóganes y consignas para los operarios, sustituyéndolos por acciones de
mejora.
11.- Eliminar estándares de trabajo, incentivos y trabajo a destajo, pues son incompatibles con
la mejora continua.
12.- Eliminar las barreras que privan a la gente de estar orgullosa de su trabajo. 13.- Estimular a
la gente para su mejora personal.
14.- Poner a trabajar a todos para realizar esta transformación, aplicando el método PDCA.

JOSEPH JURAN

La trilogía de Juran sobre la gestión de la calidad se basa en tres aspectos que se muestran en
el siguiente gráfico: planificación de la calidad, control de la calidad y mejora de la
calidad.
En la planificación, la organización fija unos objetivos en cuanto a “costes de mala calidad" y
define las acciones necesarias para alcanzarlos.
Posteriormente, aplica el control de calidad durante el proceso de fabricación, tomando
acciones correctoras cuando se aleja de los objetivos. En paralelo con él, va aplicando la
mejora de la calidad sistemáticamente para reducir el nivel de coste de mala calidad.

KAORU ISHIKAWA

Después de trabajar durante una década en la aplicación de la gestión de la calidad en la


dirección y niveles intermedios, en Japón se vio la necesidad de involucrar también a los
operarios. Por ello, en 1962, Ishikawa desarrolló los círculos de calidad.

Definición
“Un círculo de calidad, es un pequeño grupo compuesto por personas voluntarias, que
resuelve los problemas de los niveles más operativos de la organización. Todos sus
componentes pertenecen a la misma área de trabajo y habitualmente es el propio grupo
quien determina el problema a resolver.”
Los círculos de calidad persiguen como objetivo último la obtención de mejoras en el seno de la
organización. Adicionalmente, cumplen otras dos funciones:

Funciones Descripción
Involucrar y aumentar el Herramienta para involucrar a las personas en la
compromiso de las personas obtención de mejoras en su entorno de trabajo, a
con su organización través del análisis de problemas y propuestas de
cambios.
Canal de comunicación A través de los círculos se pueden transmitir
ascendente y descendente sugerencias de mejora a los niveles superiores de la
organización y recibir información de la dirección.
Una de las principales condiciones que debe darse en los círculos de calidad es que estén
apoyados desde la dirección de la organización.

TAIICHI OHNO

Taiichi Ohno, vicepresidente de Toyota Motor, desarrolló el sistema de gestión de la


producción de just in time (JIT) o justo a tiempo. La utilización del JIT está orientada a
mejorar los resultados de la organización con la participación de los empleados a través de la
eliminación de todas las tareas o actividades que no aporten valor (despilfarro).

Los 7 tipos de Ejemplos


Despilfarro
Por exceso de producción Producción no ajustada a los pedidos de los clientes
Por tiempo de espera Máquinas en espera, operarios pasivos, ...
De transporte Manipulación y traslado de materiales, papeles, informes, ...
De proceso Actividades innecesarias, maquinaria en mal estado, ...
Materiales obsoletos, excesos de existencias, almacenes
De existencias
intermedios, ...
De movimiento Movimientos innecesarios de las personas...
Por defectos en el Reclamaciones, garantías, rechazos, procesos, ...
producto o servicio

El Just In Time da lugar a una serie de actividades asociadas, algunas de las cuales se
citan a continuación:
• Formación de las personas.
• Racionalización de los puestos y flujos de producción: fabricación en flujo o células de
trabajo.
• Relación de asociación con proveedores y clientes.
• Eliminación de defectos.
• Minimización de averías (Total Productive Maintenance).
• Empleo de técnicas de cambio rápido de utillaje para reducir los tiempos de cambio
SMED (Single-Minute-Exchange Dye).

MASAAKI IMAI

Es el difusor del HAIZEN, una estrategia de mejora continua, que sintetiza algunas de las
principales teorías sobre la calidad, aplicándolas a todos los ámbitos de la organización.
Kaizen significa KAI, Cambio y ZEN, Bondad.
Los principios básicos que diferencian la estrategia Hairu (innovación) de la Haizen
(mejora) se muestran a continuación:

Principios HAIRU Principios HAIZEN


(innovación) (mejora continua)
Cambios importantes. Pequeños cambios o mejoras

Orientado a especialistas. graduales. Orientada a todas las

Atención a grandes temas. personas.

Información cerrada. Todo es mejorable.

Búsqueda de nuevas tecnologías. Información abierta,


compartida. Uso de la

tecnología existente.
GENICHI TAGUCHI

Para Genichi Teguchi, la no calidad es la pérdida generada a la sociedad por un producto,


desde el momento de su concepción hasta el reciclado, por no haber hecho lo correcto.
El objetivo de la empresa debe ser minimizar la no calidad, pues las pérdidas que los
productos originan a sus usuarios a corto, medio o largo plazo, sin duda, revierten en
perjuicio para la empresa que los fabrica, y otro tanto ocurre con los daños que puedan
originar a la sociedad (medioambiente, etc.). Taguchi ha desarrollado métodos estadísticos para
evaluar esta pérdida y minimizarla.
También ha desarrollado lo que se conoce como ingeniería de la calidad, métodos para el
diseño de productos y desarrollo de procesos de industrialización. Estos métodos buscan la
robustez de los productos, es decir, hacerlos insensibles a:

• La variabilidad debida a las diferentes condiciones de uso que puedan tener.


• La variabilidad que incorporan las materias primas que se utilizan para fabricarlos.
• La variabilidad propia del proceso de fabricación.

Conceptos Descripció
n
Uso de los conceptos estadísticos para realizar
Diseño de experimentos experimentos en condiciones reales de fabricación,
con la máxima eficiencia.
Uso de los conceptos estadísticos para reducir el número
de controles del producto y proceso, mediante el diseño
Robustez del proceso
de un proceso que cubra fácilmente (de forma
robusta) las especificaciones del producto.

KIYOSHI SUZAKI

Una de las principales aportaciones de este autor es su teoría sobre la gestión visual, que
destaca la importancia de la disponibilidad de la información necesaria para cada persona en
su puesto de trabajo.

Una aportación más moderna de este autor es la "minicompañía". Se trata de organizar cada
una de las áreas de trabajo "homogéneas" como si fuera una miniempresa, con sus
proveedores y clientes, objetivos a cumplir, indicadores, planes de trabajo, reuniones, etc.
Toda esta información está disponible y a la vista para todos los componentes de la
minicompañía.

Asimismo, definió un octavo tipo de despilfarro, complementario a los siete de Taiichi


Ohno, la no utilización de la inteligencia, imaginación y creatividad de todas las personas de la
organización, sin duda el más grave y oneroso de todos los despilfarros.

Las 7 Herramientas Básicas de la Calidad

Es una denominación dada a un conjunto fijo de técnicas gráficas identificadas como


las más útiles en la solución de problemas relacionados con la calidad.
Se llaman básicas porque son adecuadas para personas con poca formación en
materia de estadística, también pueden ser utilizadas para resolver la gran mayoría de
las cuestiones relacionadas con la calidad.
Las siete herramientas básicas están en contraste con los métodos más avanzados de
estadística, tales como muestreos de encuestas, muestreos de aceptación, pruebas de
hipótesis, diseño de experimentos, análisis multivariados, y los distintos métodos
desarrollados en el campo de la Investigación de operaciones.

Estas herramientas fueron recopiladas y divulgadas en Japón por Kaoru


Ishikawa, profesor de ingeniería en la Universidad de Tokio y padre de los ‘círculos de
calidad’.
Posteriormente se extendieron a todo el mundo con el nombre de “herramientas
básicas para la mejora de la calidad” o también, “las 7 herramientas básicas de
Ishikawa” y varias denominaciones similares.

La experiencia ha demostrado que el uso de un grupo de sencillas herramientas


permite resolver el 80% de los problemas de las organizaciones. Inicialmente, siete de
ellas fueron recopiladas por Ishikawa y posteriormente se fueron añadiendo otras.
Recientemente se ha recopilado otro grupo llamado "las nuevas herramientas", que
son apropiadas para resolver los problemas de la dirección.
Las herramientas de mejora despliegan su máximo potencial cuando son utilizadas por
grupos de trabajo, aunque también pueden ser empleadas en el ámbito personal o
individual. Cada herramienta se puede utilizar en una o varias etapas del proceso de
mejora PDCA y sirven para analizar, identificar, facilitar decisiones, priorizar, valorar,
etc.
Las herramientas clásicas tienen grandes ventajas:
• Sencillez. Todo el mundo puede usarlas.
• Aplicabilidad en todos los niveles de la organización.
• Utilidad por su gran capacidad de análisis y mejora.

Las nuevas herramientas son más complejas, en general, y requieren mayor formación
para poderlas aplicar.
Las 7 herramientas básicas de calidad
Estas herramientas son:
1. Diagrama Causa – Efecto (también llamado gráfico de Ishikawa o espina de
pescado).
2. Diagrama de flujo (Puede sustituirse por estratificación o por gráfico de ejecución).
3. Hojas de verificación o de chequeo.
4. Diagrama de Pareto.
5. Histogramas.
6. Diagramas o gráfico de control.
7. Diagramas de dispersión.

Diagrama Causa – Efecto

Identifica muchas causas posibles de un efecto o problema y clasifica las ideas en


categorías útiles.
El enunciado del problema, colocado en la cabeza de la espina de pescado, se utiliza
como punto de partida para trazar el origen del problema hacia su causa raíz.
Típicamente, el enunciado describe el problema como una brecha que se debe cerrar o
como un objetivo que se debe lograr. El mecanismo para encontrar las causas consiste
en considerar el problema y preguntarse “por qué” hasta que se llegue a identificar la
causa raíz o hasta que se hayan agotado las opciones razonables en cada diagrama de
espina de pescado.

Diagrama de flujo

Muestran la secuencia de pasos y las posibilidades de ramificaciones que existen en un


proceso que transforma una o más entradas en una o más salidas. Los diagramas de
flujo muestran las actividades, los puntos de decisión, las ramificaciones, las rutas
paralelas y el orden general de proceso.
Los diagramas de flujo pueden resultar útiles para entender y estimar el costo de la
calidad de un proceso. Esto se consigue mediante la aplicación de la lógica de
ramificaciones del diagrama de flujo y sus frecuencias relativas para estimar el valor
monetario esperado para el trabajo conforme y no conforme requerido para entregar la
salida conforme esperada.

Estratificación

La estratificación es una técnica utilizada en combinación con otras herramientas de


análisis de datos. Cuando se han agrupado los datos de una variedad de fuentes o
categorías, el significado de los mismos puede ser imposible de ver. Esta técnica los
separa para que los patrones se puedan ver.

Hojas de verificación

También conocidas como hojas de control, se pueden utilizar como lista de


comprobación a la hora de recoger datos.
Las hojas de verificación se utilizan para organizar los hechos de manera que se facilite
la recopilación de un conjunto de datos útiles sobre un posible problema de calidad.
Son especialmente útiles a la hora de recoger datos de los atributos mientras se
realizan inspecciones para identificar defectos. Por ejemplo, los datos sobre frecuencias
o consecuencias de defectos recogidos en las hojas de verificación se representan a
menudo utilizando diagramas de Pareto.

Diagrama de Pareto

Los diagramas de Pareto son una forma particular de un diagrama de barras verticales
y se utilizan para identificar las pocas fuentes clave responsables de la mayor parte de
los efectos de los problemas.
Las categorías que se muestran en el eje horizontal representan una distribución
probabilística válida que cubre el 100% de las observaciones posibles.
Las frecuencias relativas de cada una de las causas especificadas recogidas en el eje
horizontal van disminuyendo en magnitud, hasta llegar a una fuente por defecto
denominada “otros” que recoge todas las causas no especificadas. Por lo general, el
diagrama de Pareto se organiza en categorías que miden frecuencias o consecuencias.
Histogramas

Son una forma especial de diagrama de barras y se utilizan para describir la tendencia
central, dispersión y forma de una distribución estadística. A diferencia del diagrama de
control, el histograma no tiene en cuenta la influencia del tiempo en la variación
existente en la distribución.

Diagramas o gráficos de control

Se utilizan para determinar si un proceso es estable o tiene un comportamiento


predecible.Los límites superior e inferior de las especificaciones se basan en los
requisitos establecidos previamente. Reflejan los valores máximo y mínimo permitidos.
Puede haber sanciones asociadas al incumplimiento de los límites de las
especificaciones. Los límites de control superior e inferior son diferentes de los límites
de las especificaciones. Estos se determinan mediante la utilización de cálculos y
principios estadísticos estándar para establecer la capacidad natural de obtener un
proceso estable.
Se puede utilizar los límites de control calculados estadísticamente para identificar los
puntos en que se aplicarán medidas correctivas para prevenir un desempeño anormal.
En general la acción correctiva busca el mantener la estabilidad natural de un proceso
estable y eficaz.
Para procesos repetitivos, los límites de control se establecen por lo general en ±3 s
alrededor de una media del proceso, que se establece a su vez en 0 s.
Un proceso se considera fuera de control cuando:

1. Un dato excede un límite de control.


2. Siete puntos consecutivos se encuentran por encima de la media, o
3. Siete puntos consecutivos se sitúan por debajo de la media.

Se puede utilizar los diagramas de control para monitorear diferentes tipos de variables
de salida. Se utilizan con mayor frecuencia para realizar el seguimiento de actividades
repetitivas relativas a la fabricación de lotes.

Diagramas de dispersión

Representan pares ordenados (X, Y) y a menudo se les


denomina diagramas de correlación, ya que pretenden
explicar un cambio en la variable dependiente Y en
relación con un cambio observado en la variable
independiente X.
La dirección de la correlación puede ser proporcional
(correlación positiva), inversa (correlación negativa), o bien
puede no darse un patrón de correlación (correlación cero).
En caso de que se pueda establecer una correlación, se
puede calcular una línea de regresión y utilizarla para estimar cómo un cambio en la
variable independiente influirá en el valor de la variable dependiente.

Herramientas de Confiabilidad

La calidad es un proceso que tiene muchos métodos y herramientas para garantizar


que la calidad este presente a todo momento de hacer algo en la industria, una de las
herramientas son: el AMEF que significa Análisis del Modo y Efecto de la falla
Potencial y se divide en dos AMEF de diseño y de proceso, en AMEF de diseño se usa
para analizar componentes de diseño. Y AMEF de proceso se usa para analizar los
procesos de manufactura y ensamble.

De estas herramientas estadísticas se pueden tener muchas ventajas; una de las


principales es que mejora la calidad, confiabilidad y seguridad de los productos,
servicios maquinarias y procesos, mejora la imagen y competitividad de la compañía
entre otras ventajas cabe mencionar que este documento se encuentra como parte de
ISO 16949.

También se menciona la parte de Modo de efecto de fallas, rango y criterio de


severidad en el cual se muestra los criterios El RCA. Es el Análisis de Causa Raíz.
También una herramienta de gran importancia. La práctica se basa al supuesto de que
los problemas se resuelven mejor al tratar de corregir o eliminar las casusas raíz. Entre
la cual desprenden los temas: Principios generales de análisis causa raíz, Técnicas
para el análisis causa raíz, Método de mapeo de la causa raíz.

Análisis de modo y efecto de falla (AMEF)

Los AMEFs fueron formalmente introducidos a finales de los 40 s mediante el


estándar militar 1629. Utilizados por la industria aeroespacial en el desarrollo de
cohetes, los AMEFs y el todavía más detallado Análisis Crítico del Modo y Efecto de
Falla (ACMEF) fueron de mucha ayuda en evitar errores sobre tamaños de muestra
pequeños en la costosa tecnología de cohetes.

El principal empuje para la prevención de fallas vino durante los 60 s mientras se


desarrollaba la tecnología para enviar un hombre a la luna en la misión Apolo.
Ford Motor Company motivados por los altos costos de demandas de responsabilidad
civil introdujo los AMEFs en la industria automotriz a finales de los 70’s para
consideraciones de seguridad y requisitos regulatorios
En 1993 Chrysler, Ford y GM crearon el documento «Potencial Failure Mode And
Effects Analysis» que cubría los tipos vigentes de AMEF. El documento formo parte de
la norma QS 9000 (Hoy conocida como ISO 16949).

AMEF
Es una metodología de un equipo sistemáticamente dirigido que identifica los modos
de falla potenciales en un sistema, servicio, producto u operación de manufactura /
ensamble causadas por deficiencias en los procesos de diseño o proceso.
También identifica características de diseño o de proceso críticas o significativas que
requieren controles especiales para prevenir o detectar los modos de falla. AMEF es
una herramienta utilizada para prevenir los problemas antes de que ocurran

Beneficios del AMEF

• Mejora la calidad, confiabilidad y seguridad de los productos / servicios


/maquinaria y procesos
• Mejora la imagen y competitividad de la compañía
• Mejora la satisfacción del cliente
• Reduce el tiempo y costo en el desarrollo del producto / soporte integrado al
• desarrollo del producto
• Documentos y acciones de seguimiento tomadas para reducir los riesgos
• Reduce las inquietudes por Garantías probables
• Integración con las técnicas de Diseño para Manufactura y Ensamble
Aplicaciones del AMEF

• Proceso — análisis de los procesos de manufactura y ensamble


• Diseño — análisis de los productos antes de sean lanzados para su
• producción
• Concepto — análisis de sistemas o subsistemas en las primeras
• etapas del diseño conceptual
• Equipo — análisis del diseño de maquinaria y equipo antes de su
• compra
• Servicio — análisis de los procesos de servicio antes de que tengan
• impacto en el cliente

Entradas del AMEF

El amef debe iniciarse con un diagrama de flujo: carta de Flujo del proceso (
actividades) que identifique las

Características del producto o servicio en cada paso de la Operación.


Tipos de S

• AMEF de Diseño: Se usa para analizar componentes de diseños. Se enfoca


hacia los Modos de Falla asociados con la funcionalidad de un componente,
causados por el diseño.
• AMEF de Proceso: Se usa para analizar los procesos de manufactura y
ensamble. Se enfoca a la incapacidad para producir el requerimiento que se
pretende, un defecto. Los Modos de Falla pueden derivar de causas
identificadas en el AMEF de Diseño.

AMEF de Diseño

El AMEF de diseño es una técnica analítica para asegurar que se toman en


consideración , durante la fase de diseño, todos los defectos o fallas posibles del
producto al momento de estarse utilizando ya sea en el proceso de ensamble o
por el cliente final.

El AMEF de diseño nos ayuda a:


• Incrementar la posibilidad de que los modos de falla potenciales y sus efectos
en los sistemas de operación han sido considerados en el diseño y desarrollo
del producto.
• Proporcionar información adicional para ayudar en la planeación de pruebas
de diseño eficientes y completas.
• Establecer prioridades para mejoras de diseño y desarrollo de pruebas.
• Identifica los modos potenciales de falla del diseño relacionados con el
producto.
• Por lo tanto apoya en el proceso de diseño reduciendo el riesgo de fallas a
través de.

Evaluación objetiva de diseño, incluyendo requisitos funcionales y alternativas de


diseño.

Evaluación de requerimientos del diseño inicial para manufactura, ensamble,


servicio.

• Incrementando la probabilidad de que todos los modos de falla y sus efectos


hayan sido considerados durante la etapa de diseño.
• En su forma más rigurosa, un AMEF documenta formalmente el pensamiento
del equipo (incluyendo análisis de cada punto que pudiera salir mal,
basándose en la experiencia y problemas anteriores) en el diseño de un
sistema, subsistema o componente.
Un AMEF de diseño debería empezar con un diagrama de bloques para el ítem a ser
analizado. Este diagrama debe mostrar la relación primaria entre los elementos a ser
analizados y establecer un orden lógico del análisis.

AMFE DE PROCESO

Es el "Análisis de modos de fallos y efectos" potenciales de un proceso de


fabricación, para asegurar su calidad de funcionamiento y, en cuanto de él dependa,
la fiabilidad de las funciones del producto exigidos por el cliente. En el AMFE de
proceso se analizan los fallos del producto derivados de los posibles fallos del
proceso hasta su entrega al Cliente. Se analizan, por tanto, los posibles fallos que
pueden ocurrir en los diferentes elementos del proceso (materiales, equipo, mano de
obra, métodos y entorno) y cómo éstos influyen en el producto resultante.

Hay que tener claro que la fiabilidad del producto final no depende sólo del AMFE de
proceso final, sino también de la calidad del diseño de las piezas que lo componen y
de la calidad intrínseca con que se hayan fabricado las mismas. Sólo puede
esperarse una fiabilidad óptima cuando se haya aplicado previamente un AMFE de
diseño y un AMFE de proceso en proveedores externos e internos. El objetivo del
AMEF de proceso es analizar si la planeación del proceso de fabricación o ensamble
cumple con todas las especificaciones y exigencias para el aseguramiento de la
calidad del producto, el AMEF de proceso nos ayuda a:

• Identificar las causas potenciales de fallas en la manufactura del proceso de


ensamble, identificando las variables relevantes con el objetivo de controlar y
reducir las condiciones de falla.

Modo de efecto de fallas, rango y criterio de severidad

Grado de severidad: Para estimar el grado de severidad, se debe de tomar en


cuenta el efecto de la falla en el cliente. Se utiliza una escala del 1 al 10: el „’1’ indica
una consecuencia sin efecto. El ‘10’ indica una consecuencia grave.
Grado de ocurrencia: Es necesario estimar el grado de ocurrencia de la causa
de la falla potencial. Se utiliza una escala de evaluación del 1 al 10. El “1” indica
remota probabilidad de ocurrencia, el “10” indica muy alta probabilidad de
ocurrencia.

Análisis de causa raíz (RCA o árbol lógico de fallas

El análisis de Causa Raíz es un método sistemático que mediante un esquema en


función de la FUP (Función útil principal) de cada elemento del problema, arriba
usando la lógica a una causa raíz, origen de accidentes, problemas o situaciones
conflictivas. Es ampliamente usado en diagnóstico médico, basta ver las series
médicas en tv, en investigación de accidentes, en solución de cuellos de botella de
plantas industriales, en análisis de crímenes y psicología forense,en diseño de
productos críticos, etc. en toda situación donde debe explorarse los distintos
elementos de un sistema sin dejar de lado causas de importancia ocríticos, que han
sido la causa principal del problema. La práctica de la RCA se basa en el supuesto
de que los problemas se resuelven mejor al tratar de corregir o eliminar las causas
raíz, en vez de simplemente tratar los síntomas evidentes de inmediato. Al dirigir las
medidas correctivas a las causas primarias, se espera que la probabilidad de la
repetición del problema se minimizará. Sin embargo, se reconoce que la prevención
total de la recurrencia de una sola intervención no es siempre posible. Por lo tanto, la
RCA es considerado a menudo como un proceso iterativo, y con frecuencia es usado
como una herramienta de mejora continua.
RCA, en principio es un método reactivo de detección de problemas y solución. Esto
significa que el análisis se realiza después de un evento ha ocurrido.
• Al ganar experiencia en el RCA este se convierte en un método de proactivo.
Esto significa que el RCA es capaz de prever la posibilidad de un evento,
incluso antes de que pudiera ocurrir.
• El análisis de causa-raíz no es una única metodología bien definida, hay
muchas herramientas diferentes, procesos y filosofías para el RCA.
• Sin embargo, la mayoría de estos se pueden clasificar en cinco "escuelas"
que se nombran según su origen:

El análisis de causa-raíz no es una única metodología bien definida, hay muchas


herramientas diferentes, procesos y filosofías para el RCA.
Sin embargo, la mayoría de estos se pueden clasificar en cinco "escuelas" que se
nombran según su origen:
• RCA basado en la seguridad: del análisis de accidentes y la seguridad
ocupacional y la salud.
• RCA basada en la producción: su origen es el ámbito del control de calidad de
manufactura industrial.
• RCA basado en el proceso: es básicamente una continuación de la RCA
basado en la producción, pero con un alcance que se ha ampliado para incluir
los procesos de negocio.
• RCA basado en la falla: tiene sus raíces en la práctica de análisis de fallas
como los usados en ingeniería y mantenimiento.
• RCA basado en los sistemas: ha surgido como una mezcla de las escuelas
anteriores, con ideas tomadas de ámbitos como la gestión de cambios,
gestión de riesgos y análisis de sistemas.

Principios generales de análisis causa raíz

A pesar de la aparente disparidad en cuanto al propósito y la definición entre las


diferentes “escuelas” de análisis de causa raíz, hay algunos principios generales que
podrían ser considerados como universales.
1. Realizar la ejecución de medidas de mejoramiento en las causas raíz es más
efectivo que simplemente tratar los síntomas de un problema.
2. Para ser eficaz, el RCA debe realizarse de forma sistemática, con
conclusiones y causas respaldadas por pruebas documentadas.
3. Generalmente hay más de una causa potencial de un determinado problema.
4. Para ser eficaz, el análisis, debe establecer todas las relaciones causales
conocidas entre la causa(s) y el problema definido.
5. Análisis de causa raíz transforma una antigua cultura que reacciona a
losproblemas a una nueva cultura que resuelve los problemas antes de que
se intensifiquen, creando una reducción de la variabilidad y una actitud para
evitar riesgos.

Técnicas para el análisis causa raíz

Análisis de barrera.
Inferencia bayeciana.
Análisis árbol factor causal.
Análisis de cambio.
Árbol de la realidad actual.
Análisis de los modos de falla y efectos.
Análisis de arbol de fallas.
Los 5 porqué.
Diagrama Ishikawua.
Análisis de pareto.
Diagnóstico de problemas RPR (Rapid Problem Resolution, en TI)

Método de mapeo de la causa raíz

En el método de mapeo de la causa, la palabra raíz en el análisis de causa raíz se


refiere a todas las causas que están por debajo de la superficie.
Centrarse en una sola causa puede limitar el conjunto de soluciones
establecidas resultando que las mejores soluciones se perdieron.
Un Mapa de Causa proporciona una explicación visual simple de todas las
causas que se requieren para producir el incidente.
La raíz es el sistema de causas que revela todas las diferentes opciones para
las soluciones.

Hay tres pasos básicos para el método de Mapeo de la Causa

1. Definir el problema por su impacto a las metas globales


2. Analizar las causas en un mapa visual
3. Prevenir o mitigar cualquier impacto negativo en los objetivos seleccionando
las soluciones más eficaces.

¿Qué es un Mapa de Causas?

Un Mapa de Causas proporciona una explicación visual de por qué se produjo un


incidente. Conecta una relación individual causa-efecto para revelar el conjunto de
causas de un problema. Un Mapa de causa puede ser muy básico y puede ser muy
detallado en función del asunto en cuestión.
¿Cómo se lee un Mapa de Causas

Se inicia por la izquierda. Leer hacia la derecha diciendo que "fue causada por" en
lugar de las flechas. La investigación de una falla comienza con el problema y luego
se retrocede hacia las causas por las preguntas “¿Por qué?”.

Las preguntas comienzan, "¿Por qué sucede este efecto?" La respuesta a esta
pregunta proporciona una causa (o causas), las cuales se escriben a la derecha.

La siguiente pregunta es de nuevo, "¿Por qué sucede este efecto?" La causa que
fue anteriormente escrita se convierte en el efecto para la siguiente pregunta ¿Por
qué?. Cualquiera que haya alguna vez interactuado con un niño de tres años de
inmediato reconoce cómo las preguntas ¿por qué? cambian una causa en un efecto.
Esto es fundamentalmente como causas y efectos se unen

para crear una cadena de eventos. Escribir 5 ¿por qué?, es una gran manera de
iniciar una investigación, porque es muy simple. Si existen las causas
Ejemplo; AMEF de Diseño del Conector de un Faro de un Automovil

Paso 1. En la columna 1 se anotan los diferentes componentes del producto sobre el


que se realiza el AMFE. En el ejemplo se han puesto tres componentes:
o Tornillo de ajuste
o Bombilla
o Cristal difusor
Paso 2. En la columna 2 se anota la función del componente en el producto
analizado.
o Tornillo de ajuste ajustar el ángulo de inclinación
o Bombilla dar luz
o Cristal difusor difundir la luz
Paso 3. En la columna 3 se anotan los posibles modos de fallo del componente
analizado.
o Tornillo de ajuste sus posibles modos de fallo son: que se rompa el tornillo,
que se rompa la rosca, que la esfera no sea totalmente redonda y que se
oxide el tornillo.
o Bombilla sus posibles modos de fallo son: que se calienta en exceso y que se
funda.
o Cristal difuso su posible modo de fallo es que no difunda correctamente la luz.
Paso 4. En la columna 4 se anotan los efectos que producen cada uno de los modos
de fallo analizados.
La rotura del tornillo implica que el faro quede libre angularmente y se mueva
continuamente.
Si se rompe la rosca, el tornillo no se puede apretar o aflojar por lo que resulta
imposible reglar el faro.
De forma análoga se procede con el resto de los modos de fallo.
Paso 5. En la columna 5 se anota la gravedad de cada uno de los fallos. Los fallos
de rotura del tornillo, ovalización de la esfera y oxidación del tornillo, no sólo
producen la degradación del conector, sino que por el movimiento libre del faro
también pueden afectar a éste, por lo que se les asigna una puntuación de 8.El fallo
se rotura de rosca, exige el cambio por parte del cliente, pero no afecta a otros
productos, por lo que se asigna una puntuación de 6.
Paso 6. Siempre que la gravedad sea 9 o 10, y la frecuencia y detección sean
superiores a 1, el fallo se considerará crítico y se marcará en esta columna 6.
Paso 7. En la columna 7 se anotan las posibles causas que motivan que el tornillo
falle de los diferentes modos. Una causa de que se rompa el tornillo puede ser la
mala calidad del material. Se procede, de forma análoga, analizando las posibles
causas que motivan la aparición de los diferentes fallos.
Paso 8. El siguiente paso es definir la probabilidad de que el fallo ocurra, los
controles actuales orientados a detectarlo y/o prevenirlo y la probabilidad de no
detectarlo si ocurre.
En la columna 8 se anota la probabilidad de ocurrencia para cada modo de fallo. En
este caso, es el siguiente:
o Rotura del tornillo: El material de construcción del tornillo es el mismo que se
ha usado en otro producto, que debe soportar unas tensiones similares y cuya
fiabilidad había sido determinada. Se le asigna una puntuación de 4.
o Rotura de las roscas: Se le asigna una puntuación de 3 porque el tipo de
rosca ha sido usado previamente, en entornos diferentes, y con el mismo
material.
o Ovalización de la esfera: Se sabe que la máquina que mecaniza el tornillo
tiene una fiabilidad determinada siempre y cuando se vigile adecuadamente.
Se le asigna una puntuación de 5.
o Oxidación del tornillo: El material de fabricación se había utilizado
anteriormente en otros tornillos con cuya mayor protección contra los agentes
atmosféricos. Se le asigna una puntuación de 4. Se procede de forma
análoga con el resto de modos de fallo.
Paso 9. En la columna 9 se anota el tipo de controles existentes, o previstos, para
detectar los modos de fallo, cuando éstos se producen o para prevenir la ocurrencia
de las causa. En este caso, está previsto un muestreo estadístico para inspeccionar
cada uno de los modos de fallo del tornillo de ajuste, y el autocontrol automático y
certificados del Proveedor para el resto de modos de fallo de la bombilla y del cristal
difusor.
Pasó 10. En la columna 10 se anota la probabilidad de no detectar el fallo. Para el
tornillo, como el muestreo estadístico es el mismo para todos y la probabilidad de no
detectar el fallo es de un 35%, se les asigna la puntuación de 5.
Pasó 11. A continuación se calcula el Número de Prioridad del Riesgo, para lo cual
se multiplican las columnas 5, 8 y 10, y el resultado se refleja en la columna 11.
Pasó 12. Dado que algunos valores del NPR son más altos de lo que se desea
(100), se proponen diversas acciones correctoras para reducirlos:
o Para asegurar la calidad del material, en vez de controlar estadísticamente la
homogeneidad de entrada, se procede a la homologación del Proveedor. Esto
reduce la probabilidad de ocurrencia, que se puede asimilar a una puntuación
de 2. Se mantiene el sistema de detección (5).
o Dado que la configuración de la rosca es difícil de modificar se mantiene el
grado de ocurrencia (3) y se decide implantar, un sistema de autocontrol
automático que asegure la detección del fallo, cada vez que se produzca. Se
le asigna, una puntuación de 1 para la probabilidad de detección.
o Para mejorar el NPR del modo de fallo ovalización de la esfera, se decide
implantar un programa de mantenimiento preventivo en la máquina, con
objeto de asegurar su correcto mantenimiento. De esta forma, la probabilidad
de ocurrencia se puede asimilar a una puntuación de 2. Se mantiene el grado
de ocurrencia (5).
o Para evitar la oxidación del tornillo, se decide cambiar el material por otro que
se había utilizado con anterioridad. A la probabilidad de ocurrencia del fallo le
corresponde una puntuación de 2. Se mantiene el grado de detección (5).
Cada una de las acciones correctoras mencionadas se refleja en la columna
12.
Paso 13. Se designan los responsables de su implantación, anotándolos en la
columna 13.
Paso 14. En la columna 14 se anotan las acciones realmente implantadas.
Paso 15. A continuación, se anotan el nuevo valor de la gravedad, la nueva
probabilidad de ocurrencia, y la probabilidad de no detección en las columnas 15, 16
y 17. Se calculan los nuevos NPR, obteniendo las puntuaciones de 80, 18, 80 y 80,
para cada modo de fallo, respectivamente, que se reflejan en la columna 17. Los
valores obtenidos, en los nuevos NPR, son satisfactorios, por lo que se da por
concluido el AMFE, se anota el nombre del responsable del AMFE, la fecha de
realización y la persona encargada de su revisión. Si los valores obtenidos, en los
nuevos NPR, no hubieran sido satisfactorios, sería necesario continuar el proceso
AMFE hasta identificar las acciones correctoras que permitan conseguir los valores
adecuados de NPR. A continuación se presenta el AMFE correspondiente al caso
anterior.
Conclusión

Con las herramientas de confiabilidad AMEF Y RCA, son las herramientas para la
solución de problemas en el área de mantenimiento. Gracias a estas herramientas
podemos obtener un alcance mayora alas posibles fallas defectos etc. en la calidad
de producción, servicio, fabricación o proceso de fabricación es de importancia
actuar antes de la falla que con ayuda de esas herramientas podremos identificarlas
de una manera más relevante. Los ejemplos de estas herramientas ayudan mucho
para su aplicación. Como el ARC análisis de causa raíz que se trata de que los
problemas se resuelvan de raíz y que es mucho mejor que tratar los síntomas.

También podría gustarte