Está en la página 1de 63

UNIDAD 1.

FILOSOFIA Y TECNICAS
INTERNACIONALES DE LA CALIDAD

1.1INTRODUCCION

La Calidad es una filosofía de la administración actual. La calidad es una prioridad


competitiva.

La administración de la calidad total (TQM) insiste en 3 principios:


Satisfacción del cliente, involucramiento del empleado y mejoramiento continúo de
la calidad.

Las gerencias deben buscar formas innovadoras de incrementar la productividad


empresarial, pues manejan recursos cada vez más escasos.

Objetivo empresarial tradicional y muy actual: Reducción de costos. La Calidad


total ayuda a cumplir dicho objetivo

1.1.1 DEFINICIONES BASICAS

Calidad: Es satisfacer plenamente las necesidades del cliente:


• Cumplir las expectativas del cliente y algunas más.
• Despertar nuevas necesidades del cliente
• Lograr productos y servicios con cero defectos
• Hacer bien las cosas desde la primera vez
• Dar respuestas inmediatas alas solicitudes de los clientes

Diseñar, producir y entregar un producto de satisfacción total:


• Producir un artículo o servicio de acuerdo a las normas establecidas
• Sonreír a pesar de las adversidades
• Una categoría tendiente siempre a al excelencia
• Es la totalidad de los rasgos y características de un producto o un servicio
que se sustenta en su habilidad para satisfacer las necesidades
establecidas implícitas

1.2EPISTEMOLOGIA DE LA CALIDAD

La historia de la humanidad está directamente ligada con la calidad desde los


tiempos más remotos, el hombre al construir sus armas, elaborar sus alimentos y
fabricar su vestido observa las características del producto y enseguida procura
mejorarlo.
La práctica de la verificación de la calidad se remonta a épocas anteriores al
nacimiento de Cristo. En el año 2150 A.C., la calidad en la construcción de casas
estaba regida por el Código de Hammurabi, cuya regla # 229 establecía que "si un
constructor construye una casa y no lo hace con buena resistencia y la casa se
derrumba y mata a los ocupantes, el constructor debe ser ejecutado".

Los fenicios también utilizaban un programa de acción correctiva para asegurar la


calidad, con el objeto de eliminar la repetición de errores. Los inspectores
simplemente cortaban la mano de la persona responsable de la calidad
insatisfactoria.
En los vestigios de las antiguas culturas también se hace presente la calidad,
ejemplo de ello son las pirámides Egipcias, los frisos de los templos griegos, etc.
Sin embargo, la Calidad Total, como concepto, tuvo su origen en Japón donde
ahora es una especie de religión que todos quieren practicar.

Durante la edad media surgen mercados con base en el prestigio de la calidad de


los productos, se popularizó la costumbre de ponerles marca y con esta práctica
se desarrolló el interés de mantener una buena reputación (las sedas de damasco,
la porcelana china, etc.) Dado lo artesanal del proceso, la inspección del producto
terminado es responsabilidad del productor que es el mismo artesano.
Con el advenimiento de la era industrial esta situación cambió, el taller cedió su
lugar a la fábrica de producción masiva, bien fuera de artículos terminados o bien
de piezas que iban a ser ensambladas en una etapa posterior de producción.

La era de la revolución industrial, trajo consigo el sistema de fábricas para el


trabajo en serie y la especialización del trabajo. Como consecuencia de la alta
demanda aparejada con el espíritu de mejorar la calidad de los procesos, la
función de inspección llega a formar parte vital del proceso productivo y es
realizada por el mismo operario (el objeto de la inspección simplemente señalaba
los productos que no se ajustaban a los estándares deseados.)

A fines del siglo XIX y durante las tres primeras décadas del siglo XX el objetivo es
producción. Con las aportaciones de Taylor la función de inspección se separa de
la producción; los productos se caracterizan por sus partes o componentes
intercambiables, el mercado se vuelve más exigente y todo converge a producir.
El cambio en el proceso de producción trajo consigo cambios en la organización
de la empresa. Como ya no era el caso de un operario que se dedicara a la
elaboración de un artículo, fue necesario introducir en las fábricas procedimientos
específicos para atender la calidad de los productos fabricados en forma masiva.
Dichos procedimientos an ido evolucionando durante los ultimos tiempos.

El control de la calidad se practica desde hace muchos años en Estados Unidos y


en otros países, pero los japoneses, enfrentados a la falta de recursos naturales y
dependientes en alta grado de sus exportaciones para obtener divisas que les
permitieran comprar en el exterior lo que no podían producir internamente, se
dieron cuenta de que para sobrevivir en un mundo cada vez más agresivo
comercialmente, tenían que producir y vender mejores productos que sus
competidores internacionales como Estados Unidos, Inglaterra, Francia y
Alemania.

Lo anterior los llevó a perfeccionar el concepto de calidad. Para ellos debería


haber calidad desde el diseño hasta la entrega del producto al consumidor,
pasando por todas las acciones, no sólo las que incluyen el proceso de
manufactura del producto, sino también las actividades administrativas y
comerciales, en especial las que tienen que ver con el ciclo de atención al cliente
incluyendo todo servicio posterior.

William Edwards Deming nació en 1900 Wyoming, EU., al inicio de su carrera se


dedicó a trabajar sobre el control estadístico de la calidad, pero la entrada de los
EU. a la Segunda Guerra Mundial y la demanda excesiva de productos por parte
de los aliados provocó que las empresas americanas se orientarán a la producción
en masa satisfaciendo dicha demanda en un mercado muy estandarizado y muy
cerrado, dejando de lado las ideas de Shewhart, Deming y otros precursores. Las
autoridades japonesas vieron en los trabajos de este estudioso el motor de
arranque de la catastrófica situación en que había quedado el país tras su derrota
militar. Japón asumió y desarrollo los planteamientos de Deming, y los convirtió en
el eje de su estrategia de desarrollo nacional. En 1950 W. Edward Deming visitó
Japón, invitado por la JUSE (Unión de Científicos e Ingenieros Japoneses) dando
una serie de conferencias sobre Control

Punto uno: Crear constancia en el propósito de mejorar el producto y el servicio.


Dr. Deming sugiere una nueva definición radical del papel que desempeña una
compañía. En vez de hacer dinero, debe permanecer en el negocio y proporcionar
empleo por medio de la innovación, la investigación, el constante mejoramiento y
el mantenimiento.
Punto dos: Adoptar la nueva filosofía.
Estamos en una nueva era económica. Para la nueva Gerencia, la palabra control
significa conocimiento, especialmente conocimiento de la variación y de los
procesos. La nueva filosofía comprende educación continua, entrenamiento y
alegría en el trabajo.

Punto tres: No depender más de la inspección masiva.

La inspección que se hizo con el animo de descubrir los productos malos y


botarlos es demasiado tardía, ineficaz y costosa manifiesta el Dr. Deming. La
calidad no se produce por la inspección sino por el mejoramiento del proceso.

La Calidad debe ser diseñada en el producto desde el principio, no puede crearse


a través de la Inspección. La inspección provee información sobre la calidad del
producto final, pero el costo de los defectos son pasados al consumidor aunque
este solo reciba productos de primera calidad.
La inspección hace que el trabajador desplace la responsabilidad de la Calidad al
inspector. La inspección no detectará problemas empotrados en el sistema. El
grueso de los problemas son del Sistema y este es responsabilidad de la
Gerencia.

Punto cuatro: Acabar con la práctica de adjudicar contratos de compra


basándose exclusivamente en el precio.
Tiene tres serias desventajas: La primera es que , casi invariablemente, conduce a
una proliferación de proveedores. La segunda es que ello hace que los
compradores salten de proveedor en proveedor. Y la tercera, que se produce una
dependencia de las especificaciones, las cuales se convierten en barreras que
impiden el mejoramiento continuo.

Punto cinco: Mejorar continuamente y por siempre el sistema de producción y de


servicios.
Cuando UD. mejora un proceso, UD. mejora su conocimiento del proceso al
mismo tiempo. Mejoramiento del producto y el proceso van mano a mano con
mayor comprensión y mejor teoría.

Punto seis: Instituir la capacitación en el trabajo.


Es muy difícil borrar la capacitación inadecuada, dice el Dr. Deming: Esto
solamente es posible si el método un trabajo diferente. nuevo es totalmente
diferente o si a la persona la están capacitando en una clase distinta de
habilidades para eso.

Punto siete: Instituir el liderazgo.


Liderazgo requiere conocimiento de las causas comunes y las causas especiales
de variación; conocer la diferencia entre la descripción de lo que sucedió en el
pasado y la teoría que nos permita predecir. Un Líder reconoce las destrezas, los
talentos y las habilidades de los que trabajan con él. No es un juez. Debe saber
cuando alguien está fuera del sistema y tomar la acción adecuada.

Punto ocho: Desterrar el temor.


Nueve de los catorce puntos tienen que ver con el miedo. Sólo eliminándolo puede
la gente trabajar en forma efectiva a favor de la Empresa. El miedo viene de una
fuente conocida. La ansiedad viene de una fuente desconocida.

Punto nueve: Derribar las barreras que hay entre las áreas de staff.
Cuando los departamentos persiguen objetivos diferentes y no trabajan en
equipo para solucionar los problemas, para fijar las políticas o para trazar nuevos
rumbos. Aunque las personas trabajen sumamente bien en sus respectivos
departamentos, dice el Dr. Deming, si sus metas están en conflictos, pueden
arruinar a la compañía.

Punto diez: Eliminar los slogan, las exhortaciones y las metas numéricas
para la fuerza laboral.
Los slogan, dice el Dr. Deming generan frustraciones y resentimientos. Una meta
sin un método para alcanzarla es inútil. Pero fijar metas sin describir como han de
lograrse es una practica común entre los gerentes norteamericanos.
Un trabajador no puede lograr mejor Calidad de lo que el Sistema le permite. Las
exhortaciones crean una reacción adversa por cuanto el 94% de los problemas de
Calidad son causados por el Sistema (causas comunes), y sólo 6% por causas
especiales. El rol de la Gerencia es trabajar sobre el sistema para mejorarlo
continuamente, con la ayuda de todos.

Punto once: Eliminar las cuotas numéricas.


Las cuotas u otros estándares de trabajo tales como el trabajo diario calculado
sostiene el Dr. Deming, obstruyen la calidad más que cualquier otra condición de
trabajo. Los estándares de trabajo garantizan la ineficiencia y el alto costo. A
menudo incluyen tolerancia para artículos defectuosos y para desechos, lo cual es
una garantía de que la gerencia los obtendrá.

Punto doce: Derribar las barreras que impiden el orgullo de hacer bien un
trabajo.
Una de las prácticas más perniciosas es la evaluación anual por méritos,
destructor de la motivación intrínseca y de la gente; una forma fácil de la Gerencia
para eludir su responsabilidad.

Punto trece: Instituir un programa vigoroso de educación y reentrenamiento.


Se puede lograr productividad en varias formas: Mejorando la maquinaria
existente, rediseñando los productos y el flujo de trabajo, mejorando la forma en
que las partes trabajan juntas, pero el conocimiento y destrezas de los individuos
son la verdadera fuente del mejoramiento y los mismos son necesarios para la
planificación a largo plazo.

Punto catorce: Tomar medidas para lograr la transformación.


Una Empresa que emprende la ruta del mejoramiento continuo tiene que cambiar
sus percepciones, no solamente los principios corrientes de negocio, sino los
aspectos fundamentales de como funciona el mundo, sus creencias y sus
prácticas empresariales. Una mariposa no puede mantener 100 patas y todavía
volar como es debido, o es mariposa o es gusano.

En los años 60's Philp B. Crosbry, propuso un programa de catorce pasos


tendiente a lograr la meta de "cero defectos". El programa de Crosby planteaba la
posibilidad de lograr la perfección mediante la motivación de los trabajadores por
parte de la dirección de la organización, dándole un gran peso a las relaciones
humanas en el trabajo.
Calidad como conformidad con las especificaciones
Las empresas despilfarran recursos realizando incorrectamente procesos y
repitiéndolos
• Definir la calidad como el cumplimiento de los requisitos establecidos
• El sistema que causa la calidad es la prevención
• El único estándar de rendimiento válido es el cero defectos
• La única medida válida de la actuación de la organización es el coste de
calidad
• CALIDAD 100%

LOS CATORCE PUNTOS DE CERO DEFECTOS

Estos catorce pasos son los siguientes:


1.- Compromiso de la dirección: la alta dirección debe definir y comprometerse en
una política de mejora de la calidad.
2.- Equipos de mejora de la calidad: se formarán equipos de mejora mediante los
representantes de cada departamento.
3.- Medidas de la calidad: se deben reunir datos y estadísticas para analizar las
tendencias y los problemas en el funcionamiento de la organización.
4.- El coste de la calidad: es el coste de hacer las cosas mal y de no hacerlo bien
a la primera.
5.- Tener conciencia de la calidad: se adiestrará a toda la organización enseñando
el coste de la no calidad con el objetivo de evitarlo.
6.- Acción correctiva: se emprenderán medidas correctoras sobre posibles
desviaciones.
7.- Planificación cero defectos: se definirá un programa de actuación con el
objetivo de prevenir errores en lo sucesivo.
8.- Capacitación del supervisor: la dirección recibirá preparación sobre cómo
elaborar y ejecutar el programa de mejora.
9.- Día de cero defectos: se considera la fecha en que la organización experimenta
un cambio real en su funcionamiento.
10.- Establecer las metas: se fijan los objetivos para reducir errores.
11.- Eliminación de la causa error: se elimina lo que impida el cumplimiento del
programa de actuación error cero.
12.- Reconocimiento: se determinarán recompensas para aquellos que cumplan
las metas establecidas.
13.- Consejos de calidad: se pretende unir a todos los trabajadores mediante la
comunicación.
14.- Empezar de nuevo: la mejora de la calidad es un ciclo continuo que no
termina

Nace en Rumania en 1904 y es otra de las grandes figuras de la calidad. Se


traslada a Minnesota en 1912. Es contemporáneo de Deming. Después de la II
Guerra Mundial trabajó como consultor. Visita Japón en 1954 y convierte el
Control de la Calidad en instrumento de la dirección de la empresa. Imparte su
conferencia sobre: "Gestión Sistemática del Control de Calidad". Se le descubre a
raíz de la publicación de su libro, desechado por otras editoriales: "Manual de
Control de Calidad".

Describe la calidad como la "adecuación de los Productos y Servicios al uso para


el cual han sido concebidos" y desarrolló una trilogía de calidad: Establecer un
Plan de Calidad, efectuar el Control de Calidad e implantar la Mejora de la
Calidad. Su fundamento básico de la calidad, es que sólo puede tener efecto en
una empresa cuando ésta aprende a gestionar la calidad. La calidad hay que
incorporarla dentro del propio proceso productivo.

El representante emblemático del movimiento del Control de Calidad en Japón es


el Dr. Kaoru Ishikawa. Nacido en 1915 en el seno de una familia de amplia
tradición industrial, se graduó en la Universidad de Tokio el año 1939 en Química
Aplicada. De 1939 a 1947 trabaja en la industria y en la Armada. Fue profesor de
ingeniería en la misma Universidad, donde comprendió la importancia de los
métodos estadísticos, ante la dispersión de datos, para hallar consecuencias.
En 1949 participa en la promoción del Control de Calidad y, desde entonces
trabajó como consultor de numerosas empresas e instituciones comprometidas
con la estrategia de desarrollo nacional.Se incorpora a la JUSE: Unión Científicos
e Ingenieros Japoneses. El año 1952 Japón entra en la ISO (International
Standard Organization), Asociación internacional encargada de establecer los
estándares para las diferentes industrias y servicios.
Desarrolla el Diagrama Causa-Efecto como herramienta para el estudio de las
causas de los problemas. Parte de que los problemas no tienen causas únicas,
sino que suelen ser, según su experiencia, un cúmulo de causas. Sólo hay que
buscar

Ishikawa hizo muchas aportaciones, entre las cuales se destacan:


Creación del diagrama causa-efecto, o espina de pescado de Ishikawa, o en inglés
"Fishbone Diagrama"

Demostró la importancia de las 7 herramientas de calidad.

Trabajó en los círculos de calidad.


Su concepción conceptual al concebir su Diagrama Causa-Efecto (Espina de
Pescado de Ishikawa) se puede resumir en que cuando se realiza el análisis de un
problema de cualquier índole y no solamente referido a la salud, estos siempre
tienen diversas causas de distinta importancia, trascendencia o proporción.
Algunas causas pueden tener relación con la presentación u origen del problema y
otras, con los efectos que este produce.

El diagrama de Ishikawa ayuda a graficar las causas del problema que se estudia
y analizarlas. Es llamado "Espina de Pescado" por la forma en que se van
colocando cada una de las causas o razones que a entender originan un
problema. Tiene la ventaja que permite visualizar de una manera muy rápida y
clara, la relación que tiene cada una de las causas con las demás razones que
inciden en el origen del problema. En algunas oportunidades son causas
independientes y en otras, existe una íntima relación entre ellas, las que pueden
estar actuando en cadena.

La mejor manera de identificar problemas es a través de la participación de todos


los miembros del equipo de trabajo en que se trabaja y lograr que todos los
participantes vayan enunciando sus sugerencias. Los conceptos que expresen las
personas, se irán colocando en diversos lugares. El resultado obtenido será un
Diagrama en forma de Espina de Ishikawa.

Ideado en 1953 se incluye en él los siguientes elementos:

El problema principal que se desea analizar, el cual se coloca en el extremo


derecho del diagrama. Se aconseja encerrarlo en un rectángulo para visualizarlo
con facilidad.

Las causas principales que a nuestro entender han originado el problema.

Gráficamente está constituida por un eje central horizontal que es conocida como
"línea principal o espina central". Posee varias flechas inclinadas que se extienden
hasta el eje central, al cual llegan desde su parte inferior y superior, según el lugar
adonde se haya colocado el problema que se estuviera analizando o
descomponiendo en sus propias causas o razones. Cada una de ellas representa
un grupo de causas que inciden en la existencia del problema. Cada una de estas
flechas a su vez son tocadas por flechas de menor tamaño que representan las
"causas secundarias" de cada "causa" o "grupo de causas del problema".

El Diagrama que se efectúe debe tener muy claramente escrito el nombre del
problema analizado, la fecha de ejecución, el área de la empresa a la cual
pertenece el problema y se puede inclusive colocar información complementaria
como puede ser el nombre de quienes lo hayan ejecutado

ELEMEMNTOS CLAVE DEL PENSAMIENTO DE ISHIKAWA

La calidad empieza con la educación y termina con la educación.


El primer paso a la calidad es conocer lo que el cliente requiere.
El estado ideal de la calidad es cuando la inspección no es necesaria.
Hay que remover la raíz del problema, no los síntomas. El control de la calidad es
responsabilidad de todos los trabajadores.

No hay que confundir los medios con los objetivos.


Primero poner la calidad y después poner las ganancias a largo plazo.
El comercio es la entrada y salida de la calidad.
Los altos ejecutivos de las empresas no deben de tener envidia cuando un obrero
da una opinión valiosa.
Los problemas pueden ser resueltos con simples herramientas para el análisis.
Información sin información de dispersión es información falsa.

La teoría de Ishikawa era manufacturar todo a bajo costo. Postuló que algunos
efectos dentro de empresas que se logran implementando el control de calidad
son la reducción de precios, bajar los costos, establecer y mejorar la técnica, entre
otros.
No es en vano que a Ishikawa se le deba mucha gratitud por sus ideas que
revolucionaron el mundo de la industria, la administración, el comercio y los
servicios. De su capacidad y sus teorías se nutrió el Japón y llegó a ser lo que
todos vemos hoy día.

El Dr. Genichi Taguchi nació en Japón en 1924, graduándose en la Escuela


Técnica de la Universidad Kiryu, y más tarde recibió el Doctorado en la
Universidad Kyushu en 1962. Trabajó en el Astronomical Department Of. the
Navigation Institute del entonces Imperio Japonés; más tarde trabaja en el
Ministerio de Salud Pública y en el Institute of Statistical Mathematics. Sin
embargo, su principal etapa profesional ha sido dentro de la Electrical
Communication Laboratory (ECL) de la Nippon Telephone and Telegraph Co.
(1948-1961) en donde se enfocó a la mejora de la productividad en la
investigación y desarrollo.

Posterior a esto, es profesor para la Universidad Aoyama Gaukin de Tokio y


consultor para empresas tan importantes como Toyota Motors y Fuji Films. Es
miembro de la Japan Association for Quality Control, la Japan Association for
Industrial Engineering, la Japan Association for Applied Statistics y la Central
Japan Quality Control Association.

La contribución más importante del Dr. Taguchi, ha sido la aplicación de la


estadística y la ingeniería para la reducción de costos y mejora de la calidad en el
diseño de productos y los procesos de fabricación. En sus métodos emplean la
experimentación a pequeña escala con la finalidad de reducir la variación y
descubrir diseños robustos y baratos para la fabricación en serie. Las aplicaciones
más avanzadas de los Métodos Taguchi, permiten desarrollar tecnología flexible
para el diseño y fabricación de familias de productos de alta calidad, reduciendo
los tiempos de investigación, desarrollo y entrega del diseño.

Además de la rápida mejora del diseño de productos y procesos, los métodos del
Dr. Taguchi proporcionan un lenguaje común y un enfoque que mejora la
integración del diseño del producto y los procesos de fabricación. La formación de
ingenieros de diseño y de personal de fabricación en estos métodos proporciona
perspectivas y objetivos comunes (un gran paso adelante para derribar las
tradicionales barreras entre estos dos grupos). Los métodos del Dr. Taguchi se
introdujeron en los Estados Unidos en los años 1980–82, con AT&T Bell
Laboratorios, Ford Motor Company y Xerox Corporación como pioneros.

Ayudó a la fundación del American Supplier Institute (ASI) para facilitar una amplia
diseminación de sus métodos e ideas, que ahora están siendo adoptadas y
puestas en práctica por cientos de industrias en los Estados Unidos, Europa y
muchos otros países. ASI Internacional España se fundó en 1989, con una
licencia en exclusiva de ASI Incorporated para la formación y asesoramiento en
Métodos Taguchi®, Quality Función Deployment (QFD), Total Quality
Management (TQM) y otras sistemáticas de calidad desarrolladas por ASI.

El Dr. Taguchi ha sido durante más de 30 años líder y miembro activo de la Japan
Association for Quality Control, la Japan Association for Industrial Engineering, la
Japan Association for Applied Statistics y la Central Japan Quality Control
Association. Ha sido Editor Jefe de la revista “Quality”, así como Vocal del Quality
Control Research Group de la Japanese Standard Association.
Ha publicado más de 40 libros y varios cientos de artículos y ponencias. Además
del Premio Deming en 1990 por aplicaciones en calidad, el Dr. taguchi ha recibido
otros tres Premios Deming por literatura sobre calidad en 1951, 1953 y 1984. Ha
recibido la Medalla Willard F. Rockwell durante el Congreso Internacional en
Tecnología e Intercambio Tecnológico, en 1986.

El Dr. Taguchi fue admitido en el Hall of Fame for Engineering Science and
Tecnóloga en el Congreso Internacional de Tecnología e Intercambio Tecnológico
de 1989. En Mayo de 1989 fue condecorado con la medalla con banda púrpura, al
Avance Tecnológico y Económico, por Akihito, Emperador de Japón. El
pensamiento de Taguchi se basa en dos conceptos fundamentales: *Productos
atractivos al cliente.

• Ofrecer mejores productos que la competencia: Los productos deben ser


mejores que los de la competencia en cuanto a diseño y precio.
• Estos conceptos se concretan en los siguientes puntos.
• Función de pérdida: La calidad se debe definir en forma monetaria por
medio de la función de pérdida, donde a mayor variación de una
especificación con respecto al valor nominal, mayor es la pérdida monetaria
transferida al consumidor.
• Optimización del diseño del producto.
• Mejora continua: la mejora continua del proceso productivo y la reducción
de la variabilidad son indispensables para subsistir en la actualidad.
• La mejora continua y la variabilidad: La mejora continua del proceso esta
íntimamente relacionada con la reducción de la variabilidad con respecto al
valor objetivo.
• La variabilidad puede cuantificarse en términos monetarios.
• *Diseño del producto: Se genera la calidad y se determina el costo final del
producto.

Además, desarrollo una metodología que denomino ingeniería de la calidad que


divide en línea y fuera de línea. Ingeniería de calidad en línea: son actividades de
ingeniería de calidad en línea, el área de manufactura, el control y la corrección de
procesos, así como el mantenimiento preventivo.
• Ingeniería de calidad fuera de línea: se encarga de la optimización del
diseño de productos y procesos. El control de calidad desde la etapa del
diseño del producto.
• Desarrollo sus propios métodos estadísticos al trabajar en una compañía
de teléfonos, lo aplicó al incremento de la productividad y calidad en la
industria.
Aportación de Taguchi.
Creó el concepto de “diseño robusto”, este excedía sus expectativas de calidad,
para así lograr la satisfacción del cliente.

DISEÑO ROBUSTO
Cada vez que se diseña un producto, se hace pensando en que va a cumplir con
las necesidades de los clientes, pero siempre dentro de un cierto estándar, a esto
se le llama “calidad aceptable”, y así cuando el cliente no tiene otra opción mas
que comprar, pues a la empresa le sale mas barato reponer algunos artículos
defectuosos, que no producirlos. Pero no siempre será así, por que en un tiempo
la gente desconfiara de la empresa y se irán alejando los clientes.

El tipo de diseño que Taguchi propone es que se haga mayor énfasis en las
necesidades que le interesan al consumidor y que a su vez, se ahorre dinero en
las que no le interesen, así rebasara las expectativas que el cliente tiene del
producto. Asegura que es más económico hacer un diseño robusto que pagar los
controles de calidad y reponer las fallas.

Al hacer un diseño robusto de determinado producto maximizamos la posibilidad


de éxito en el mercado. Y aunque esta estrategia parece costosa, en realidad no
lo es, por que a la vez que gastamos en excedernos en las características que de
verdad le interesan al consumidor, ahorramos en las que no les dan importancia.
Función de perdida de Taguchi.
Con esto, Taguchi trató de orientar a los productores a que redujeran las
variaciones en la calidad. Para poder reinventar esta perdida, se utiliza una
ecuación cuadrática que se ajusta a los datos de costos y desempeño del
producto. Conforme el desempeño del producto se vaya alejando la ecuación va
aumentando de valor y se incrementa el costo de calidad para la sociedad.

1.3.1 CIRCULOS DE CALIDAD

La idea básica de los Círculos de Calidad consiste en crear conciencia de calidad


y productividad en todos y cada uno de los miembros de una organización, a
través del trabajo en equipo y el intercambio de experiencias y conocimientos, así
como el apoyo recíproco. Todo ello, para el estudio y resolución de problemas que
afecten el adecuado desempeño y la calidad de un área de trabajo, proponiendo
ideas y alternativas con un enfoque de mejora continúa.

Las definiciones siguientes son expuestas en el libro de Phillip C. Thompson,


Círculos de Calidad, Como hacer que funcionen, y se refieren a las distintas
maneras como se define el concepto en el texto: Un Círculo de Calidad es un
pequeño grupo de personas que se reúnen voluntariamente y en forma periódica,
para detectar, analizar y buscar soluciones a los problemas que se suscitan en su
área de trabajo.
Un Círculo de Calidad está formado por pequeños grupos de empleados que se
reúnen e intervienen a intervalos fijos con su dirigente, para identificar y solucionar
problemas relacionados con sus labores cotidianas.

Un Círculo de Calidad está integrado por un reducido número de empleados de la


misma área de trabajo y su supervisor, que se reúnen voluntaria y regularmente
para estudiar técnicas de mejoramiento de control de calidad y de productividad,
con el fin de aplicarlas en la identificación y solución de dificultades relacionadas
con problemas vinculados a sus trabajos.

El Círculo de Calidad es un grupo pequeño que desarrolla actividades de control


de calidad voluntariamente dentro de un mismo taller. Este pequeño grupo lleva a
cabo continuamente, como parte de las actividades de control de calidad en toda
la empresa, auto desarrollo y desarrollo, mutuo control y mejoramiento dentro del
taller, utilizando técnicas de control de calidad con participación de todos los
miembros.

Un grupo pequeño de empleados que realizan tareas similares y que


voluntariamente se reúnen con regularidad, en horas de trabajo, para identificar
las causas de los problemas de sus trabajos y proponer soluciones a la gerencia.
A pesar de ser muchas las definiciones atribuidas al concepto de Círculos de
Calidad es conveniente dejar claro que para los efectos que nos competen
definiremos Círculo de Calidad como: “Grupo natural de trabajo, conformado por
empleados de una misma institución o empresa que realizan tareas similares y
que voluntariamente se reúnen con regularidad, en horas de trabajo, para
identificar las causas de los problemas de sus trabajos y proponer soluciones a la
gerencia”.

La popularidad de los Círculos de Calidad, se debe a que favorecen que los


propios trabajadores compartan con la administración la responsabilidad de definir
y resolver problemas de coordinación, productividad y por supuesto de calidad.
Adicionalmente, propician la integración y el involucramiento del personal con el
objetivo de mejorar, ya sea productos, servicios o procesos.

En otras palabras los Círculos de Calidad se dan cuenta de todo lo erróneo que
ocurre dentro de una empresa, dan la señal de alarma y crean la exigencia de
buscar soluciones en conjunto.

Los empleados de cada Círculo forman un grupo natural de trabajo, donde las
actividades de sus integrantes están de alguna forma relacionadas como parte de
un proceso o trabajo. La tarea de cada uno de ellos, encabezada por un
supervisor consiste en estudiar cualquier problema de producción o de servicio
que se encuentre dentro del ámbito de su competencia. En la mayoría de los
casos, un Círculo comprende un proyecto de estudio que puede solucionarse en
tres meses aproximadamente y que no tomará arriba de un semestre (seis
meses).

La misión de un Círculo pueden resumirse en: Contribuir a mejorar y desarrollar a


la empresa.
Respetar el lado humano de los individuos y edificar un ambiente agradable de
trabajo y de realización personal.
Propiciar la aplicación del talento de los trabajadores para el mejoramiento
continuo de las áreas de la organización.
El término Círculo de Calidad tiene dos significados. Se refiere tanto a una
estructura y a un proceso como a un grupo de personas y a las actividades que
realizan. Por consiguiente, es posible hablar de un proceso de Círculo de Calidad
al igual que de la estructura del mismo.

Estructura: La estructura de un Círculo de Calidad es fundamentalmente la forma


como esta integrado el grupo y se define dé acuerdo con la posición de los
miembros dentro de una organización empresarial. En la práctica, los Círculos de
Calidad requieren de un periodo prolongado de labores bajo la tutela de un
Asesor.

Proceso: el proceso de un Círculo de Calidad está dividido en los pasos


siguientes.
a) Identificación del problema.
b) Análisis del problema y recopilación de información.
c) Búsqueda de soluciones.
d) Selección de una solución.
e) Presentación de la solución a la gerencia.
f) Ejecución de la solución.
g) Evaluación de la solución.

PROCESO PARA LA SOLUCIONDE LOS PROBLEMAS EN LOS CIRCULOS


DE CALIDAD

Por otra parte, existen personajes encargados del desarrollo de los Círculos de
Calidad:

El Facilitador.- El o ella, es el responsable para dirigir las actividades de los


Círculos y atender sus juntas. Sirve como un enlace o vía entre los Círculos y el
resto de la institución y reporta a una alta autoridad que apoya la idea de los
círculos de control de calidad.

Otras responsabilidades incluyen el entrenamiento de líderes y la formación de


otros círculos dentro de la organización.

Consigue asistencia técnica externa cuando se requiera

El Líder del Círculo de Calidad.- Es el jefe natural del grupo de trabajo y a la vez
el símbolo del respaldo de la gerencia, dirección o jefatura. Su ausencia de los
Círculos de Calidad, de una u otra forma, es siempre perjudicial para el proceso.
Con el tiempo, los integrantes del Círculo de Calidad elegirán al líder que más
prefieran según sus acuerdos; mientras tanto y hasta que esto suceda, el
supervisor será el generalmente elegido.

Las actividades del líder comprenden:


• Crear un ambiente en las reuniones que aliente la participación.
• Utilizar técnicas de interacción que dan a cada uno la oportunidad de hablar
a fin de que se escuchen todos los puntos de vista.
• Trabajar con el equipo para ayudarles a tomar decisiones sin conflictos.
• Asegurar que alguien se encargue de llevar a cabo las decisiones y
acuerdos tomados por el Círculo de Calidad.
• Dar seguimiento a las propuestas y resoluciones tomadas.

CATRACTERISTICAS DE LOS CIRCULOS DE CALIDAD

Los Círculos de Calidad son grupos pequeños. En ellos pueden participar desde
cuatro hasta quince miembros. Ocho es el número ideal. Se reúnen a intervalos
fijos (generalmente una vez a la semana) con un dirigente, para identificar y
solucionar problemas relacionados con sus labores cotidianas.

Todos sus miembros deben laborar en un mismo taller o área de trabajo. Esto le
da identidad al Círculo y sentido de pertenencia a sus integrantes.

Los integrantes deben trabajar bajo el mismo jefe o supervisor, quien a su vez es
también integrante del Círculo.
Por lo regular, el jefe o supervisor es también jefe del Círculo. Este no ordena ni
toma decisiones, son los integrantes en conjunto quienes deciden.
La participación es voluntaria, tanto para el líder como para los miembros. De ahí
que la existencia de los Círculos depende de la decisión de cada integrante.
Los Círculos se reúnen una vez a la semana durante las horas acordadas con los
superiores jerárquicos inmediatos.

Lo ideal es que las reuniones se celebren en lugares especiales alejados del área
de trabajo.
Los miembros del Círculo deben recibir capacitación especial para participar
adecuadamente, tanto previa a la creación del Círculo, como continua durante su
operación.
Los miembros del grupo y no la gerencia son quienes eligen problema y los
proyectos sobre los cuales habrá de trabajarse.
En forma ideal el proceso de selección no se lleva a cabo por votación
democrática (por mayoría de votos), sino por consenso; en esta forma todos los
participantes convienen en los problemas que es necesario resolver.
Los Círculos deben recibir asistencia o asesoría para analizar un problema y
decidir al respecto.

La Dirección General y los expertos técnicos deben comprometerse a brindar su


ayuda a los Círculos de Calidad.
Los Círculos habrán de recibir el apoyo de un Asesor (interno o externo), que
asistirá a todas las reuniones, pero que no es miembro del Círculo.
Las exposiciones preparadas para la Dirección serán previamente presentadas a
los gerentes y los expertos técnicos quienes normalmente tienen la autoridad para
tomar una decisión acerca de la viabilidad de la propuesta.

La empresa debe efectuar evaluaciones periódicas para comprobar si se


proporciona lo necesario para la operación de los Círculos de Calidad, así como
para la ejecución de las propuestas que de Éstos se deriven.

Los Círculos de Calidad no son para sostenerlos durante un tiempo y luego


abandonarlos, sino que hay que mantenerlos permanentemente en operación,
procurando siempre su mejoramiento.

ESTABLECIMIENTO DE LOS CIRCULOS DE CALIDAD

Para la introducción de los Círculos de Calidad en una empresa o institución se


requiere fundamentalmente llevar a cabo las siguientes fases o etapas:
• Convencer y comprometer a la Dirección General en el proceso.
• Establecer la organización necesaria para la administración de los Círculos
de Calidad, a partir de una unidad administrativa encargada de coordinar su
introducción y operación.
• Comprometer a los empleados.
• Desarrollar un plan de trabajo para la introducción de los Círculos de
Calidad, a efecto de que éstos formen parte de la operación de la empresa
o institución.
• Reglamentar la forma de operación de los Círculos de Calidad.
• Desarrollar los Sistemas de Apoyo para los Círculos de Calidad.
• Aplicar programas de capacitación a todo el personal y niveles de la
empresa, para que se tenga un conocimiento y metodología de trabajo
homogéneos.
• Disponer de los apoyos didácticos y logísticos para las tareas de los
Círculos de Calidad. Al vender la idea de los Círculos de Calidad, es
necesario proceder de arriba hacia abajo. Primero se debe involucrar a los
ejecutivos, después a los gerentes de nivel medio y, finalmente, a los
empleados. Posteriormente, durante el establecimiento de los Círculos de
Calidad, es conveniente comenzar por el nivel medio capacitando a los
gerentes o jefes de departamento,

Al vender la idea de los Círculos de Calidad, es necesario proceder de arriba hacia


abajo. Primero se debe involucrar a los ejecutivos, después a los gerentes de nivel
medio y, finalmente, a los empleados. Posteriormente, durante el establecimiento
de los Círculos de Calidad, es conveniente comenzar por el nivel medio
capacitando a los gerentes o jefes de departamento, según sea el caso, con el fin
de que comprendan cuales son los objetivos del programa, la función que ellos
deben desempeñar y los beneficios que disfrutarán. Después se debe capacitar a
los jefes o supervisores como jefes de los Círculos de Calidad. Finalmente se
debe enseñar a los empleados las técnicas para solucionar problemas en grupo y
los métodos para la toma de decisiones en conjunto.

En la operación de los Círculos de Calidad se distinguen dos etapas:

Primera Etapa.- Se ubica en el nivel de los empleados, quienes identifican un


problema, lo analizan y presentan una solución a la gerencia mediante un
planteamiento viable, estructurado y documentado.

Segunda Etapa.- Se realiza a nivel gerencial, al ser éstos quienes escuchen las
propuestas emanadas de los Círculos de Calidad, las evalúan y deciden por lo
general después de dos o tres reuniones- si puede ser puesta en práctica o no. Si
la decisión es favorable, elaboran un plan para ejecutar la propuesta y lo ponen en
marcha con la mayor brevedad posible.
• Propiciar un ambiente de colaboración y apoyo recíproco en favor del
mejoramiento de los procesos operativos y de gestión.
• Fortalecer el liderazgo de los niveles directivos y de supervisión.
• Mejorar las relaciones humanas y el clima laboral.
• Motivar y crear conciencia y orgullo por el trabajo bien hecho.
• Concientizar a todo el personal sobre la necesidad de desarrollar acciones
para mejorar la calidad.
• Propiciar una mejor comunicación entre los trabajadores y los directivos o
gerentes.
• Dar a conocer los avances y obstáculos a vencer para lograr una mejora
constante.

DESARROLLO DE LOS CÍRCULOS DE CALIDAD

Por otra parte, existen personajes encargados del desarrollo de los Círculos de
Calidad:

El Facilitador.- El o ella, es el responsable para dirigir las actividades de los


Círculos y atender sus juntas. Sirve como un enlace o vía entre los Círculos y el
resto de la institución y reporta a una alta autoridad que apoya la idea de los
círculos de control de calidad.

Otras responsabilidades incluyen el entrenamiento de líderes y la formación de


otros círculos dentro de la organización. Consigue asistencia técnica externa
cuando se requiera.

El Líder del Círculo de Calidad.- Es el jefe natural del grupo de trabajo y a la vez
el símbolo del respaldo de la gerencia, dirección o jefatura. Su ausencia de los
Círculos de Calidad, de una u otra forma, es siempre perjudicial para el proceso.
Con el tiempo, los integrantes del Círculo de Calidad elegirán al líder que más
prefieran según sus acuerdos; mientras tanto y hasta que esto suceda, el
supervisor será el generalmente elegido.

Las actividades del líder comprenden:


• Crear un ambiente en las reuniones que aliente la participación.
• Utilizar técnicas de interacción que dan a cada uno la oportunidad de hablar
a fin de que se escuchen todos los puntos de vista.
• Trabajar con el equipo para ayudarles a tomar decisiones sin conflictos.
• Asegurar que alguien se encargue de llevar a cabo las decisiones y
acuerdos tomados por el Círculo de Calidad.
• Dar seguimiento a las propuestas y resoluciones tomadas.

Instructor.- Organiza y realiza los cursos de capacitación para el personal


operativo, supervisores y jefes de los círculos, así como para los empleados
miembros de los círculos y asesores. Inicialmente, los cursos están dirigidos a
explicar las funciones de cada cual debe desempeñar dentro del proceso, después
la capacitación se orienta al manejo de herramientas y técnicas para la
identificación y resolución de problemas.

Asesor.- Aconseja a los Círculos y en particular a los líderes, sobre la manera


como deben de manejarse las reuniones, solucionar los problemas y hacer la
presentación de los casos a la gerencia. El asesor asiste a todas las reuniones de
los Círculos que le han sido asignados, se reúne en privado con sus líderes antes
y después de cada reunión con el propósito de ayudarles a organizar y evaluar su
progreso, y brinda su apoyo en lo que se refiere a material de estudio.

El experto.- Es aquél que por su conocimiento científico o técnico está facultado


para dictaminar la factibilidad de la solución o medida propuesta por el Círculo de
Calidad.

CAPACITACION
Dentro del desarrollo de los círculos la capacitación juega un papel muy
importante.
Las primeras acciones de capacitación deben dirigirse al facilitador y los gerentes.
El facilitador a su vez entrena a los líderes, quienes a su vez entrenarán a los
miembros del Círculo.

Los temas en los cuales los miembros son instruidos incluyen principios de
técnicas de solución de problemas, tormenta de ideas, análisis de problemas,
toma de decisiones, diagramas de Ishikawa, diagramas de Pareto, histogramas,
cartas de control de procesos, hojas de revisión, técnicas de muestreo,
presentación de resultados y casos de estudio, entre otras.
El programa de capacitación para los Círculos de Calidad está dirigido a habilitar
al personal que formará parte de los éstos, enfatizando en las funciones
principales de cada integrante:
• La del miembro de un Círculo.
• La del Jefe de un Círculo. La del Experto
• La del Asesor

OBJETIVOS DE CAPACITACION

• Dar a conocer a los participantes el proceso de los Círculos de Calidad y


sensibilizarlos de las ventajas que conlleva tanto para ellos como para la
empresa.
• Despejar cualquier temor o duda que pueda tenerse acerca de los Círculos
de Calidad.
• Convencer a los participantes para que colaboren voluntariamente.
• Prepararlos para desempeñar su papel como miembros de un Círculo de
Calidad.
• Habilitarlos en el manejo de las técnicas para solucionar problemas en
grupo.
• Estimularlos para que asuman su compromiso como responsables de la
organización y sostenimiento del Círculo.

TECNICAS UTILIZADAS EN LOS CIRCULOS PARA SOLUCIONAR


PROBLEMAS
• Improvisación de ideas en grupo.
• Diagramas de flujo.
• Análisis de Pareto.
• Diagramas de causa efecto.
• Histogramas.
• Gráficos.
• Cuadros de control.
• Hojas de verificación.
• Matrices para decisiones.

OTROS ELEMENTOS
Para la adecuada operación del trabajo en grupo es conveniente enfatizar en el
uso correcto de los siguientes elementos:

Agendas
Una agenda clara para las reuniones proporciona a los miembros un esquema
de trabajo en el cual operar. La Agenda debe entregarse por anticipado a cada
miembro. Debe incluir la hora (de inicio y terminación), el lugar y el objetivo de la
reunión. Asimismo puede acompañarse de material de apoyo.
Procedimientos claros
Cuando se llega a un acuerdo común sobre las reglas o la metodología de la
reunión, todo el mundo se siente más cómodo con la manera como se conduce las
reuniones. La participación en la elaboración induce al compromiso.

Objetivos claramente establecidos


A fin de que los participantes dirijan y concentren sus esfuerzos, todos deben
conocer y participar en la definición de los objetivos del grupo de trabajo, y
actualizarlo o validarlos periódicamente.

Tiempo de reflexión
El tiempo de reflexión puede tomar la forma de un descanso corto para permitir
que todos tomen un respiro; también. En ocasiones, cuando surge un conflicto o la
situación se pone difícil, es muy productivo conceder un tiempo de silencio para
que los miembros se serenen y aclaren sus ideas.

Asignación de acciones y responsabilidades


El líder debe revisar las asignaciones de acciones y responsabilidades antes del
final de la reunión y éstas deben registrarse en la minuta.

Minutas
Las minutas se utilizan para comunicar las decisiones y con base en éstas, llevar a
cabo el seguimiento de las acciones correspondientes. Durante la reunión, alguien
deberá ser responsable de registrar lo que sucede. Después de la reunión, la
minuta debe distribuirse a los miembros de equipo y a cualquier otra persona que
necesite saber lo que ocurrió.

Ambiente Idóneo para las Reuniones de los Círculos de Calidad


El ambiente más adecuado de una reunión es aquel que propicia el que cada
miembro esté dispuesto a participar y a aportar. Escuche a los demás y se
comprometa de lleno en el trabajo del equipo.
• Debe darse un ambiente especial según se trate de:
• Preparación de la Reunión.
• Disposición para escuchar
• Apertura
• Desarrollo de la confianza

Disposición para escuchar.


Esta es quizá la habilidad más importante para trabajar en equipo. Escuchar es
algo que hacemos todos los días; no escuchar es también algo que hacemos
todos los días.
En las reuniones, un buen oyente se esforzará por comprender la intención y el
contenido de lo que los demás están diciendo, sin distraerse con su estilo de
hablar. Debe verse más allá de la forma e ir al fondo del expuesto, evitando
preenjuiciarse por estilos personales.

Consolidación de los Círculos de Calidad.


Puede decirse que los Círculos de Calidad están firmemente establecidos cuando:
• Cubren la totalidad de la organización en todos los niveles.
• Son permanentes.
• Son promovidos, capacitados y sustentados por los niveles medios de la
gerencia.

Contribuciones de los Círculos (Cómo medir su efectividad)


Número de presentaciones hechas a la gerencia.
Tipos de propuestas presentadas.
Porcentaje de propuestas presentadas (número anual de propuestas presentadas
por cada Círculo).
Porcentaje de propuestas aprobadas (número de propuestas aceptadas por la
gerencia).

Resultados empresariales (Qué se obtiene con su implementación)


• Cambio en el porcentaje de producción.
• Cambio en el porcentaje de defectos.
• Cambio en el porcentaje de productos rechazados, o servicios deficientes.
• Cambio en el porcentaje de fricciones.
• Cambio en el porcentaje de tiempo perdido.
• Cambio en el porcentaje de motivos de queja.
• Cambio en el índice de accidentalidad.
• Ahorro calculado en costos.
• Proporción entre los ahorros en los costos y los gastos generados por el
programa.
• Mejores resultados personales.

Finalmente, los logros de los Círculos de Calidad deben publicarse en los


boletines de la empresa o institución o fijarse en los tableros, de tal manera que
los participantes reciban reconocimiento por sus esfuerzos, tanto de la dirección o
gerencia donde laboran como de sus compañeros de trabajo, y a la vez conozcan
los avances e impacto de las propuestas desarrolladas.

1.3.2 CERO DEFECTOS

Philip Crosby, Mr. "Cero Defectos"


Acuñó el concepto "cero defecto" como objetivo a alcanzar por las organizaciones
en sus procesos de calidad.
Consultor y autor estadounidense, especialista en management de calidad, ante el
avance de las corporaciones japonesas sobre el mercado norteamericano, Philip
Crosby (1926-2001) elaboró una serie de consejos para mejorar la calidad de los
productos estadounidenses. Este gurú es autor de célebres frases como "cero
defecto" y "hacerlo bien la primera vez".

Según Crosby, la filosofía en que debe basarse un buen management de


calidad puede sintetizarse en cuatro principios:

La calidad consiste en satisfacer las exigencias de los clientes


Prevenir es mejor que inspeccionar
El objetivo a alcanzar es un estándar de "defecto cero"
La calidad se mide monetariamente

Sobre estos cimientos, Crosby construyó un programa de 14 pasos que


debe seguir toda empresa que desee mejorar la calidad de sus productos:

Para alcanzar una buena calidad de producto, es necesario un compromiso


absoluto del management
Crear equipos de mejoramiento de calidad con representantes de los distintos
departamentos de la empresa
Realizar una medición permanente de los procesos para prever potenciales
problemas de calidad
Evaluar los costos monetarios de la baja calidad
Incrementar la conciencia de los empleados sobre problemas de calidad
Resolver los problemas que vayan siendo detectados
Monitorear constantemente el progreso de las mejoras de calidad
Capacitar a los supervisores de calidad
Organizar en la empresa "días de cero defecto"
Motivar a los empleados para que se sumen a la lucha por alcanzar el ideal del
"cero defecto"
Incentivar a los empleados a que sugieran al management posibles formas de
superar los obstáculos a la calidad
Reconocer y valorar sinceramente el esfuerzo que realizan los participantes
Crear comités de calidad
Hacer todo de nuevo: la mejora de calidad es una tarea que nunca se termina

Además de su lucha por la calidad de producto, en su obra "Organización


Permanentemente Exitosa" Crosby describe las características de la empresa
ideal:

1) La gente hace las cosas bien desde el principio

2) La gerencia anticipa el cambio y lo usa a su favor


3) El crecimiento es constante y rentable

4) Los nuevos bienes y servicios surgen cuando el público los demanda

5) Todos están contentos de trabajar allí

1.3.3BENCHMARKING

En la actualidad las empresas tienen que competir no sólo con empresas de la


misma región, sino que se presenta una competencia cada vez mayor con otras
empresas de otros lugares y países, lo anterior debido a la globalización que se ha
estado presentando. Es por lo anterior que las empresas deben buscar formas o
fórmulas que las dirijan hacia una productividad y calidad mayor para poder ser
competitivos. Una de estas herramientas o fórmulas es el Benchmarking.

PERSPECTIVA HISTORICA

La cronología que se presenta aquí es la de Xerox Corporation. Xerox tuvo la


fortuna de descubrir y aplicar benchmarking a principios de su campaña para
combatir la competencia. La experiencia de Xerox muestra la necesidad y la
promesa de benchmarking.
En 1979 Xerox inició un proceso denominado benchmarking competitivo.
Benchmarking se inició primero en las operaciones industriales de Xerox para
examinar sus costos de producción unitarios. Se hicieron comparaciones de
productos seleccionados y se hicieron comparaciones de la capacidad y
características de operación de máquinas de copiar de los competidores y se
desarmaron sus componentes mecánicos para analizarlos. Estas primeras etapas
de benchmarking se conocieron como comparaciones de calidad y las
características del producto.

El benchmarking se formalizó con el análisis de las copiadoras producidas por Fuji


- Xerox, la afiliada japonesa de Xerox, y más tarde otras máquinas fabricadas en
Japón. Se identificó que los competidores vendían las máquinas al mismo precio
que a Xerox les costaba producirlas por lo que se cambio el estilo de producción el
EUA para adoptar las metas de benchmark fijadas externamente para impulsar
sus planes de negocios. Debido al gran éxito de identificar los nuevos procesos de
los competidores, los nuevos componentes de fabricación y los costos de
producción, la alta gerencia ordeno que en todas la unidades de negocios se
utilizara el benchmarking y el 1983 el director general ordenó la prioridad de
alcanzar el liderazgo a través de la calidad y benchmarking se contempló, junto
con la participación de los empleados y el proceso de calidad, como fundamental
para lograr la calidad en todos los productos y procesos.

Antes de 1981 la mayoría de las operaciones industriales hacían las


comparaciones con operaciones internas, benchmarking cambió esto, ya que se
empezó a ver la importancia de ver los procesos y productos de la competencia,
así como el considerar otras actividades diferentes a la producción como las
ventas, servicio post venta, etc. como partes o procesos capaces de ser sometidos
a un estudio de benchmarking. Aunque durante esta etapa de benchmarking
ayudó a las empresas a mejorar sus procesos mediante el estudio de la
competencia, no representaba la etapa final de la evolución de benchmarking, sino
que después se comprendió que la comparación con la competencia a parte de
ser difícil, por la dificultad de conseguir y compartir información, sólo nos ayudaría
a igualarlos, pero jamás a superarlos y a ser más competitivos. Fue por lo anterior
que se buscó una nueva forma de hacer benchmarking, que permitiera ser
superiores, por lo que se llegó a la reconocer que benchmarking representa
descubrir las mejores prácticas donde quiera que existan.

DEFINICION DE BENCHMARKING

Se derivó de la experiencia y los éxitos de los primeros días de aplicar las técnicas
de benchmarking al área de fabricación
:
Benchmarking es el proceso continuo de medir productos, servicios y prácticas
contra los competidores más duros o aquellas compañías reconocidas como
líderes en la industria.
Esta definición presenta aspectos importantes tales como el concepto de
continuidad, ya que benchmarking no sólo es un proceso que se hace una vez y
se olvida, sino que es un proceso continuo y constante. Otro aspecto es el de la
medición, ya que esta está implicada en el proceso de benchmarking, pues se
tienen que medir los procesos propios y los de otras empresas para poder
compararlos. También se puede ver en esta definición es que se puede aplicar
benchmarking a todos las facetas del negocio. Y finalmente la definición implica
que el benchmarking se debe dirigir hacia aquellas empresas y funciones de
negocios dentro de las empresas que son reconocidas como las mejores o como
los líderes de la industria.

Esta definición también es informativa y define benchmarking como :


Una marca del agrimensor... de una posición previamente determinada... y que se
usa como punto de referencia... un estándar mediante el cual se puede medir o
juzgar algo.

Sirve para reforzar la idea de que benchmark es un estándar para la comparación


de otros objetos o actividades. Es un punto de referencia a partir del cual se
medirán otros.
Benchmarking es un proceso sistemático y continuo para comparar nuestra propia
eficiencia en términos de productividad, calidad y prácticas con aquellas
compañías y organizaciones que representan la excelencia.

Definición de trabajo.
Es la definición desde el punto de vista de alguien que ha trabajado en el proceso
durante varios años y lo ha puesto en práctica muchas veces, y es :
*Benchmarking es la búsqueda de las mejores prácticas de la industria que
conducen a un desempeño excelente. (Robert C. Camp).

Esta definición es comprensible para las unidades de negocios y funciones


orientadas hacia las operaciones. La atención se centra en las prácticas. Insiste en
las prácticas y la comprensión de las mismas antes de derivar una métrica de
benchmarking.

Las mediciones de benchmarking se contemplan como el resultado de


comprender las mejores prácticas, no como algo que pueda cuantificar primero y
comprender después. Se concentra en lograr el desempeño excelente.
*Benchmarking es la justificación más creíble para todas las operaciones. Es poca
la discusión que pueda existir sobre la posición de un gerente si ha buscado lo
mejor de la industria y lo ha incorporado a sus planes y procesos.

LO QUE ES Y LO QUE NO ES DEL BENCHMARKING

Benchmarking no es un mecanismo para determinar reducciones de recursos. Los


recursosde resignarán a la forma más efectiva de apoyar las necesidades de los
clientes y obtener la satisfacción de los mismos.

*Benchmarking no es una panacea o un programa. Tiene que ser un proceso


continuo de la administración que requiere una actualización constante - la
recopilación y selección constante de las mejores prácticas y desempeño externos
para incorporarlos a la toma de decisiones y las funciones de comunicaciones en
todos los niveles del negocio. Tiene que tener una metodología estructurada para
la obtención de información, sin embargo debe ser flexible para incorporar formas
nuevas e innovadoras.

• Benchmarking no es un proceso de recetas de libros de cocina que sólo


requieran buscar los ingredientes y utilizarlos para tener éxito.
• Benchmarking es un proceso de descubrimiento y una experiencia de
aprendizaje.
• Benchmarking no sólo es una moda pasajera, sino que es una estrategia de
negocios ganadora. Ayuda a tener un desempeño excelente.
• Benchmarking es una nueva forma de hacer negocios. Obliga a utilizar un
punto de vista externo que asegure la corrección de la fijación de objetivos.
• Es un nuevo enfoque administrativo. Obliga a la prueba constante de las
acciones internas contra estándares externos de las prácticas de la
industria.
• Es una estrategia que fomenta el trabajo de equipo al enfocar la atención
sobre las prácticas de *negocios para permanecer competitivos más bien
que en el interés personal, individual. Elimina la subjetividad de la toma de
decisiones.
ASPECTOS Y CATEGORIAS DEL BENCHMARKING

Calidad:
Entre los aspectos tenemos a la calidad, que se refiere al nivel de valor creado de
los productos para el cliente sobre el costo de producirlos. Dentro de este aspecto
el benchmarking puede ser muy importante para saber la forma en que las otras
empresas forman y manejan sus sistemas de calidad, aparte de poder ser usado
desde un punto de vista de calidad conforme a la calidad percibida por los clientes,
la cual es determinada por la relación con el cliente, la satisfacción del mismo y
por último la comparaciones con la competencia. También se puede ver el aspecto
de la calidad conforme a lo que se llama calidad relativa a normas, la cual se
refiere a diseñar sistemas de calidad que aseguren que la calidad resultante de los
mismos se apegará o cumplirá con especificaciones y estándares
predeterminados, lo cual se puede hacer a través de revisar el proceso de
desarrollo y diseño, los procesos de producción y distribución y los procesos de
apoyo como contabilidad, finanzas, etc.

Por último dentro del aspecto de calidad se puede ver lo referente al desarrollo
organizacional en base a que tanto nos enfocamos en lo que hacemos, en el
desarrollo del recurso humano, en el compromiso e involucramiento del mismo, así
como en el entrenamiento.

Productividad:
El benchmarking de productividad es la búsqueda de la excelencia en las áreas
que controlan los recursos de entrada, y la productividad puede ser expresada por
el volumen de producción y el consumo de recursos los cuales pueden ser costos
o capital.

Tiempo:
El estudio del tiempo, al igual que de la calidad, simboliza la dirección del
desarrollo industrial en los años recientes. Flujos más rápidos en ventas,
administración, producción y distribución han recibido una mayor atención como
un factor potencial de mejora de la productividad y la competencia. El desarrollo
de programas enfocados en el tiempo han demostrado una habilidad espectacular
para recortar los tiempos de entrega.

CATEGORIAS DEL BENCHMARKING BENCHMARKING INTERNO

En la mayor parte de las grandes empresas con múltiples divisiones o


internacionales hay funciones similares en diferentes unidades de operación. Una
de las investigaciones de benchmarking más fácil es comparar estas operaciones
internas. Debe contarse con facilidad con datos e información y no existir
problemas de confidencialidad. Los datos y la información pueden ser tan amplios
y completos como se desee. Este primer paso en las investigaciones de
benchmarking es una base excelente no sólo para descubrir diferencias de interés
sino también centrar la atención en los temas críticos a que se enfrentará o que
sean de interés para comprender las prácticas provenientes de investigaciones
externas. También pueden ayudar a definir el alcance de un estudio externo.

BENCHMARKING COMPETITIVO

Los competidores directos de productos son contra quienes resulta más obvio
llevar a cabo el benchmarking. Ellos cumplirían, o deberían hacerlo, con todas las
pruebas de comparabilidad. En definitiva cualquier investigación de benchmarking
debe mostrar cuales son las ventajas y desventajas comparativas entre los
competidores directos. Uno de los aspectos más importantes dentro de este tipo
de investigación a considerar es el hecho que puede ser realmente difícil obtener
información sobre las operaciones de los competidores. Quizá sea imposible
obtener información debido a que está patentada y es la base de la ventaja
competitiva de la empresa.

BENCHMARKING FUNCIONAL

No es necesario concentrarse únicamente en los competidores directos de


productos. Existe una gran posibilidad de identificar competidores funcionales o
líderes de la industria para utilizarlos en el benchmarking incluso si se encuentran
en industrias disímiles. Este tipo de benchmarking ha demostrado ser productivo,
ya que fomenta en interés por la investigación y los datos compartidos, debido a
que no existe el problema de la confidencialidad de la información entre las
empresas disímiles sino que también existe un interés natural para comprender las
prácticas en otro lugar. Por otra parte en este tipo de investigación se supera el
síndrome del "no fue inventado aquí" que se encuentra frecuentemente cuando se
realiza un benchmarking con la misma industria.

BENCHMARKING GENERICO

Algunas funciones o procesos en los negocios son las mismas con independencia
en las disimilitudes de las industrias, por ejemplo el despacho de pedidos. El
beneficio de esta forma de benchmarking, la más pura, es que se pueden
descubrir prácticas y métodos que no se implementan en la industria propia del
investigador. Este tipo de investigación tiene la posibilidad de revelar la mejor de
las mejores prácticas. La necesidad mayor es de objetividad y receptividad por
parte del investigador. Que mejor prueba de la posibilidad de ponerlo en práctica
se pudiera obtener que el hecho de que la tecnología ya se ha probado y se
encuentra en uso en todas partes. El benchmarking genérico requiere de una
amplia conceptualización, pero con una comprensión cuidadosa del proceso
genérico. Es el concepto de benchmarking más difícil para obtener aceptación y
uso, pero probablemente es el que tiene mayor rendimiento a largo plazo.

PROCESO DE BENCHMARKING DE ROBERT C. CAMP (XEROX)

El proceso consiste de cinco fases. El proceso se inicia con la fase de planeación


y continúa a través del análisis, la integración, la acción y por último la madurez.
Fase De Planeación
El objetivo de esta fase es planear las investigaciones de benchmarking. Los
pasos esenciales son los mismos que los de cualquier desarrollo de planes - qué,
quién y cómo.

1.- Identificar que se va a someter a benchmarking. En este paso la clave es


identificar el producto de la función de negocios. Dicho producto puede ser
resultado de un proceso de producción o de un servicio. En este paso no podemos
ayudar mediante la declaración de una misión para la función de negocios que se
va a someter a benchmarking que es un nivel de evaluación alto, una vez hecho
esto se dividen aun más las producciones en partidas específicas a las que aplicar
benchmarking. Es importante el documentar los procesos del negocio y ver los
sistemas de evaluación de desempeño, ya que las variables que estos miden
puede representar las variables importantes del negocio a las cuales se les debe
aplicar el estudio de benchmarking.

2.- Identificar compañías comparables. En este paso es de suma importancia el


considerar que tipo de estudio de benchmarking se quiere aplicar, interno,
competitivo, funcional o genérico, ya que esto determinará en gran manera con
que compañía no habremos de comparar, es importante recordar que sea cual
quiera el tipo de estudio, se deben de buscar las empresas con las mejores
prácticas para compararnos con ellas. Para identificar a esas empresas podemos
auxiliarnos con herramientas como las bases públicas de datos, las asociaciones
profesionales y otras fuentes limitadas tan sólo por el ingenio del investigador.

3.- Determinar el método para recopilación de datos y recopilar los datos. La


recopilación de los datos es de suma importancia, y el investigador puede obtener
datos de distintas fuentes. La información obtenida puede ser :
*Información interna. Resultado de análisis de productos, de fuentes de la
compañía, estudios de combinación de piggybacking (uso de información obtenida
en estudios anteriores) y por parte de expertos.
*Información del dominio público. Proviene de bibliotecas, asociaciones
profesionales o mercantiles, de consultores o de expertos y estudios externos.
*Búsqueda e investigaciones originales. La información se obtiene por medio de
cuestionario directo o por correo, encuestas realizadas por teléfono, etc

*Visitas directas en la ubicación. Son de suma importancia, y por lo tanto debemos


tratar de sacar el mayor provecho de las mismas, por lo que debemos hacer una
preparación de las mismas, establecer los contactos adecuados en las otras
empresas, realizar un itinerario de la visita y planear sesiones de intercambio de
información entre las empresas.

Fase De Análisis
Después de determinar qué, quién y cómo, se tiene que llevar a cabo la
recopilación y el análisis de los datos. Esta fase tiene que incluir la comprensión
cuidadosa de las prácticas actuales del proceso así como las de los socios en el
benchmarking.
4.- Determinar la brecha de desempeño actual. En este paso se determina la
diferencia de nuestras operaciones con las de los socios de benchmarking y se
determina la brecha existente entre las mismas. Existen tres posibles resultados
que son:

Brecha negativa. Significa que las operaciones externas son el benchmarking.


Significa que las prácticas externas son mejores.
Operaciones en paridad. Significa que no hay diferencias importantes en las
prácticas.

Brecha positiva. Las prácticas internas son superiores por lo que el


benchmarking se basa en los hallazgos internos. Dicha superioridad se puede
demostrar de forma analítica o en base a los servicios de operación que desea el
mercado.

5.- Proyectar los niveles de desempeño futuros. Ya que se definieron las


brechas de desempeño es necesario establecer una proyección de los niveles del
desempeño futuro, el cual es la diferencia entre el desempeño futuro esperado y lo
mejor en la industria. En este paso se puede hacer uso de la gráfica Z la cual nos
muestra en forma gráfica el tamaño de la brecha, así como el alcance completo de
la brecha, en la actualidad y en el futuro.
Es útil basar la gráfica en una sola estadística resumida que muestre la función o
el desempeño global de la unidad de negocios. Esta gráfica se divide en tres
componentes esenciales. Se muestra la tendencia de la productividad histórica, o
reducción del costo. Después se muestra el tamaño de la brecha, y por último se
muestra traza la productividad futura proyectada.

Productividad Histórica. Lo más probable es que sea cierto que ninguna


empresa ha permanecido completamente estática si no que, de hecho, ha tenido
algún nivel de productividad con el transcurso del tiempo. Se supondrá que se ha
buscado algún nivel de productividad histórica, que se puede medir y por lo tanto
representar gráficamente. Es lo que muestra primero la gráfica Z. Se traza como
una línea inclinada que asciende hasta el momento de la medición de la brecha.

Brecha de Benchmarking. La brecha se muestra como una función de un paso


por una sola vez, que es necesario cerrar para alcanzar la paridad. Se basa en el
efecto sumario de la diferencia entre el desempeño actual y de la industria. Se
muestra como una línea vertical al momento del estudio.

Productividad Futura. Se presenta como una línea inclinada que sigue la


medición de la brecha. Es el nivel de productividad que se proyecta para el futuro
de manera que se logre alcanzar primero la paridad y después la superioridad. Es
una medida comparativa entre la operación interna y la productividad supuesta de
la industria. A continuación se muestra una gráfica "Z“.

Integración
La integración es el proceso de usar los hallazgos de benchmarking para fijar
objetivos operacionales para el cambio. Influye la planeación cuidadosa para
incorporar nuevas prácticas a la operación y asegurar que los hallazgos se
incorporen a todos los procesos formales de planeación.

6.- Comunicar los hallazgos de benchmarking y obtener aceptación. Los


hallazgos de benchmarking se tienen que comunicar a todos los niveles de la
organización para obtener respaldo, compromiso y propiedad. Para la
comunicación primeramente se debe determinar el auditorio y sus necesidades, se
selecciona un método de comunicación y por último, se deben presentar los
hallazgos en una forma ordenada. En el proceso de obtención de aceptación es
importante establecer una estrategia de comunicación en múltiples facetas, aparte
de la declaración de una misión y de principios operacionales, así como el ver a
benchmarking como una iniciativa de cambio al mostrar las mejores prácticas y
explicar la forma en que estas operan. Diferentes.

7.- Establecer metas funcionales. En este punto se tratan de establecer metas


funcionales con respecto a los hallazgos de benchmarking, y convertir dichas
metas en principios de operación que cambien los métodos y las prácticas de
manera que se cierre la brecha de desempeño existente.
Acción
Se tiene que convertir en acción los hallazgos de benchmarking y los principios
operacionales basados en ellos. Es necesario convertirlos en acciones específicas
de puesta en práctica y se tiene que crear una medición periódica y la evaluación
del logro.

8.- Desarrollar planes de acción. En este punto se incluyen dos consideraciones


principales. La primera tiene que ver con las tareas en la planeación de la acción
las cuales tienen que ver con el qué, cómo, quién y cuándo. Específicamente
incluyen.
*Especificación de la tarea.
*Poner en orden la tarea.
*Asignación de las necesidades de recursos.
*Establecimiento del programa.
*Determinación de las responsabilidades.
*Resultados esperados.
Supervisión.

9.- Implementar acciones específicas y supervisar el progreso. Dicha


implementación se puede realizar por medio de alternativas tradicionales como
son la administración el línea o la administración de proyectos o programas. Otra
es la alternativa de implantación mediante equipos de desempeño o por los más
cercanos al proceso y que tienen la responsabilidad de operación del mismo ; y
por último la alternativa de nombrar un "zar del proceso" que sería el responsable
de la implementación del programa. De igual manera es importante el supervisar
el proceso y realizar informas del progreso que nos ayuden a aumentar el éxito del
benchmarking.
10.- Recalibrar los benchmarks. Este paso tiene como objetivo el mantener los
benchmarks actualizados en un mercado con condiciones cambiantes de manera
que se asegure el desempeño excelente. Es importante el realizar una evaluación
en áreas como la comprensión del proceso de benchmarking, la comprensión de
las mejores prácticas, la importancia y valor, lo adecuado para fijar metas y la
comunicación de benchmarking dentro de la empresa para ver que aspecto
necesita una recalibración de benchmarks por medio de una planeación bien
realizada y la repetición del proceso de 10 pasos hasta llegar a la
institucionalización del benchmarking.

MADUREZ
Será alcanzada la madurez cuando se incorporen las mejores prácticas de la
industria a todos los procesos del negocio, asegurando así la superioridad.
También se logra la madurez cuando se convierte en una faceta continua, esencial
y auto iniciada del proceso de administración, o sea que se institucionaliza.

1.3.4 JUSTO A TIEMPO

Justo a Tiempo ó Justo in Time fue desarrollado por Toyota inicialmente para
después trasladarse a muchas otras empresas de Japón y del mundo, ha sido el
mayor factor de contribución al impresionante desarrollo de las empresas
japonesas. Esto ha propiciado que las empresas de otras latitudes se interesen
por conocer como es esta técnica.

El ideólogo del asunto, Taiichi Ohno, creía que la sobreproducción generaba


desperdicio en otras áreas, en tal sentido ideó un sistema de producción con dos
características JIT (justo a tiempo) y jidohka (automatización), como apoyo a dicho
sistema, Ohno desarrollo el "kamban" (procedimientos etiquetados en el producto).

La primera razón que está detrás de este concepto, es que puede reducir
inventarios, tiempos y costos de producción, así como mejorar la calidad de los
productos y servicios.
Just in Time es el intento de establecer un alineamiento cliente - proveedor
automático e inteligente teniendo los procedimientos en el producto
preprogramados.

La idea básica del Just in Time es producir un artículo justo a tiempo para que este
sea vendido o utilizado por la siguiente estación de trabajo en un proceso de
manufacturas.

Debido a que el inventario es considerado la raíz de muchos problemas en las


operaciones, este debe ser eliminado o reducido al mínimo.

Se le ha dado el enfoque principal de disminuir inventarios lo cual ha llevado a


varias empresas
a tener faltantes tanto de materias primas como de productos terminados en el
momento en que se necesitan. Analizando esta metodología, algunos opinan que
su enfoque esta dirigido a disminuir el desperdicio (en tiempo, dinero, trabajo y
esfuerzo) y obviamente donde es muy fácil encontrar que sobra algo es en
inventarios. Para que esta metodología funcione hay que apoyarse en algunas
otras del desarrollo organizacional.

El Justo a Tiempo puede reducir la necesidad de inventarios lo bastante para


reducir las fuentes de incertidumbre o diseñar un sistema más flexible para
enfrentar las necesidades de cambio. De ahí que la orientación del Justo a Tiempo
sea diferente de los sistemas tradicionales.
Para reducir inventarios y producir el artículo correcto en el tiempo exacto, con la
cantidad adecuada, se requiere de información acerca del tiempo y el volumen de
los requerimientos de producción de todas las estaciones de trabajo.

El Justo a Tiempo suministra esta información, no a través de un caro y sofisticado


sistema de cómputo, sino a través del uso de una orientación de "pull" (orientación
de jalar) en lugar de la orientación convencional de "push" (de empujar).
La orientación "push" comienza con una orden en el centro de trabajo inicial. Una
vez que el trabajo es completado en la primera estación de trabajo, este se mueve
al siguiente centro de trabajo, este proceso continua hasta el final de la estación
de trabajo. Como puede advertirse, el trabajo es disparado al completarse el
trabajo de la estación precedente y no en relación a las necesidades de la
siguiente estación de trabajo.

Por el contrario, en la orientación "pull" o de jalar, las referencias de producción


provienen del precedente centro de trabajo. Entonces la precedente estación de
trabajo dispone de la exacta cantidad para sacar las partes disponibles a
ensamblar o agregar al producto. Esta orientación significa comenzar desde el
final de la cadena de ensamble e ir hacia atrás hacia todos los componentes de la
cadena productiva, incluyendo proveedores y vendedores. De acuerdo a esta
orientación una orden es disparada por la necesidad de la siguiente estación de
trabajo y no es un artículo innecesariamente producido.
La orientación "pull" es acompañada por un sistema simple de información
llamado KANBAN que es una tarjeta que es pasada de una subsecuente estación
de trabajo hacia su precedente y esta señala una corrida de producción.

Así, la necesidad de un inventario para el trabajo en proceso se ve reducida por el


empalme ajustado de la etapa de fabricación. Esta reducción ayuda a sacar a la
luz cualquier pérdida de tiempo o de material, el uso de refacciones defectuosas y
la operación indebida del equipo.
Con el Justo a Tiempo, el ensamblado general de producción dicta el ritmo y los
requerimientos de producción para los procesos precedentes.
No obstante, la programación del ensamble debe ser tan "suave" y repetitiva como
sea posible. Cualquier fluctuación en la mezcla de artículos producidos en el
proceso general, podría crear variaciones en los requerimientos de producción de
las estaciones precedentes. Variaciones grandes en cualquier centro de trabajo,
necesitan indeseables grandes inventarios en proceso o capacidades productivas
que permitan enfrentar los picos de demandas.

VENTAJAS DE JUSTO A TIEMPO


Estos beneficios se derivan de la experiencia de diversas industrias, que han
aplicado esta técnica.

Reduce el tiempo de producción.


Aumenta la productividad.
Reduce el costo de calidad.
Reduce los precios de material comprado.
Reduce inventarios (materiales comprados, obra en proceso, productos
terminados).
Reduce tiempo de alistamiento.
Reducción de espacios.
Reduce la trayectoria del producto entre el fabricante, el almacén y el
cliente.
Se puede aplicar a cualquier tipo de empresa que reciba o despache
mercancías.
Se basa en el principio de que el nivel idóneo de inventario es el mínimo
que sea viable.
Es una metodología más que una tecnología que ha ganado mucha
aceptación, sin embargo pocas empresas han creado la disciplina y los
sistemas necesarios para aplicarlo efectivamente.

APLICACIONES DE JUSTO A TIEMPO A NIVEL EXTERNO E INTERNO DE LA


EMPRESA

Las aplicaciones del JAT, se explica como sigue:

1. Producción o procesos de producción.


a. Utilizar máquinas de múltiples propósitos, en las que fácilmente se pueda pasar
de la producción de un componente a otro.
b. Aplicar las técnicas de grupos o celdas, donde las series de componentes se
puedan producir juntas, esto permite reducir los períodos de planificación.
c. Trazar un esquema en U, en el cual los materiales se colocan en un costado de
la U, y los productos terminados en el otro costado, permitiendo la reducción del
movimiento del material.
d. Utilizar órdenes de compra generales, que autoricen a un proveedor a
suministrar una cierta cantidad de material durante un período de tiempo, esto
evita las órdenes individuales, ahorrando tiempo y esfuerzo. Reduciendo los
costos operativos.

Niveles de inventario reducidos


a. Utilizar un sistema para hacer que los materiales fluyan de acuerdo con los
requerimientos de producción / trabajo, conocido también como sistema de
afluencia antes de un sistema de almacenado.

Mejoramiento del control de calidad


a. Insistir en los detalles de calidad de los proveedores o fuentes.
b. Adoptar un sistema de control de calidad total, comenzando con la calidad de
los artículos suministrados por el proveedor, poniendo énfasis en la calidad en la
línea de producción de los artículos manufacturados y en la calidad del servicio
que presta el colaborador.

Mejoramiento de la calidad y la fiabilidad


a. Diseñar calidad y fiabilidad en el producto. Utilizar técnicas de ingeniería del
valor, diseño para la fabricación y diseño para el montaje. El objetivo es eliminar el
descarte y todos los defectos, para que los clientes reciban una calidad superior
con menos reparaciones de garantía.

Flexibilidad del producto


La menor cantidad de trabajo en proceso permite una mayor capacidad para
responder rápido a los cambios en las demandas del consumidor para diferentes
artículos.

Responsabilidad en la distribución.
Al utilizar el sistema de afluencia y el control de calidad total permite dar una mejor
respuesta a los clientes, en cuanto a una distribución puntual de productos y de
servicios de calidad.

Utilización de los activos


a. Reducir la inversión de capital.
Al reducir los inventarios y contar con un manejo más eficiente, se requieren
menos activos para los procesos actuales. Esto permite reducir los gastos
operativos de las instalaciones actuales o brinda más espacio para la expansión
del negocio.

Utilización del personal


a. Promover la capacitación cruzada del personal para trabajar en diferentes áreas
de producción. Los empleados familiarizados con el proceso contribuyen al
mejoramiento continuo; pues poseen más sentido de propiedad con respecto al
producto o servicio.

Utilización del personal


a. Promover la capacitación cruzada del personal para trabajar en diferentes áreas
de producción. Los empleados familiarizados con el proceso contribuyen al
mejoramiento continuo; pues poseen más sentido de propiedad con respecto al
producto o servicio

MINIMINIZACION DE LOS COSTOS


a. Reducir el inventario.
b. Reducir el desperdicio de material y el desaprovechamiento de la mano de obra
debido a los defectos.
c. Establecer cuotas de trabajo simplificadas que significan menores costes por
primas.
d. Reducir los costes mediante el mejoramiento del mantenimiento preventivo.
e. Simplificar los procesos administrativos para reducir el trabajo por empleado

1.3.5 REINGENIERIA

Michael Hammer, Profesor de Ciencias de Computación, se ha convertido en el


misionero del cambio organizacional masivo. Utiliza él termino "Reingeniería", para
abogar por el trabajo del diseño radical.
Hace unos 12 años aproximadamente Hammer junto con Champy empieza a
observar que unas pocas compañías habían mejorado espectacularmente su
rendimiento en unas áreas de su negocio, cambiando radicalmente las formas en
que trabajaban. No habían cambiado el negocio a que se dedicaban, habían
alterado en forma significativa los procesos que seguían y todos los
procedimientos. Poco a poco examinaron las experiencias de muchas compañías
y pudieron discernir los patrones que no los lograron, y gradualmente vieron surgir
una serie de procedimientos que efectuaba el cambio radical. Con el tiempo, le
dieron a esta serie de procedimientos un nombre de "Reingeniería".

DEFINICION
"Es el método mediante el cual una organización puede lograr un cambio radical
de rendimiento medido por el costo, tiempo de ciclo, servicio y calidad, mediante la
aplicación de varias herramientas y técnicas enfocadas en el negocio como una
serie de procesos del producto principal del negocio,
Si analizamos el párrafo anterior, nos damos cuenta que los señores Hammy &
Champy focalizan el concepto de la Reingeniería en cuatro palabras claves:

Fundamental:
Al comenzar el proceso de Reingeniería de un negocio cualquiera, el individuo
debe hacerse las preguntas más básicas sobre su compañía y como funciona, lo
cual obliga a la persona a examinar todas y cada unas de las reglas tácitas y los
supuestos en que se basa el manejo del negocio

Radical:
Esta palabra proviene del latín RADIX (raíz). Rediseñar de manera radical significa
llegar hasta la raíz de las cosas, vale decir, no efectuar cambios superficiales ni
tratar de arreglar lo que existe; es simplemente abandonar lo viejo. Al hablar de
Reingeniería, el rediseño radical consiste en destacar todas las estructuras y los
procedimientos existentes e Inventar nuevas maneras el realizar de trabajo.
Rediseñar es Reinventar, no mejorar ni modificar.
Espectacular:
La Reingeniería no es cuestión de hacer mejoras marginales o increméntales, sino
de dar salto gigantesco en rendimiento. Se debe apelar la Reingeniería
únicamente cuando exista la necesidad de desaparecer todo; la mejora marginal
requiere una afinación de sumo cuidado, mientras que la mejora espectacular
exige cambiar los viejo por algo totalmente nuevo.

Procesos:
Los procesos en un negocio están definidos como un conjunto de actividades que
recibe uno o más insumos para crear un producto o servicio. El objetivo de
cualquier proceso es satisfacer con éxito a los clientes y sus necesidades. Para
lograrlo, es preciso obtener una retroalimentación continua de los rendimientos.
Otro objetivo es entregar rendimiento mejor, más rápido y más barato que la
competencia.

La mejora de calidad busca el mejoramiento incremental del desempeño del


proceso. La Reingeniería, como lo hemos visto, busca avances decisivos, no
mejorando los procesos existentes sino descartándolos por completo y
cambiándolos por otros enteramente nuevos. La Reingeniería implica, igualmente,
un enfoque de gestión del cambio diferente del que necesitan los programas de
calidad.

TIPOS DE EMPRESAS QUE REQUIEREN DE REINGENIERIA

Según Hammer & Champy existen tres tipos de empresas donde puede aplicarse
la Reingeniería de tres maneras distintas y alcanzar éxito, siempre y cuando estas
se atrevan a afrontar el reto.
*En primer lugar están aquellas empresas que se encuentran en graves
dificultades, es decir, no tienen mas remedio. Por ejemplo: si en este tipo de
empresas los costos se encuentran sumamente elevados, si el servicio a los
clientes es sumamente defectuoso y esto viven quejándose, si la competencia se
encuentra un 500% mas arriba que dicha empresa definitivamente son requeridas
mejoras inmensas, vale decir Reingeniería.
En segundo lugar están las compañías que todavía no se encuentran con ningún
problema de importancia, pero tienen la capacidad de avisarlos. En dichas
compañías, los resultados financieros podrían ser satisfactorios, pero pueden ser
detectadas calamidades como las siguientes: competidores, requisitos cambiantes
de la clientela, cambios económicos drásticos, etc. Para que este tipo de
compañías siga por el buen camino por el que están

OBJETIVOS DE LA REINGENIERIA
La Reingeniería persigue definir criterios de simplificación y optimización que
permiten alcanzar las metas del cambio:
*Racionalizar las operaciones
*Reducir los costos
* Mejorar la calidad
*Aumentar los ingresos
PRINCIPIOS DE REINGENIERIA

*Habilidad para utilizar el cambio con eficiencia


*Utilizar el cambio de manera continua; habilidad de cambiar con rapidez para
ganar ventaja competitiva. Desarrollo de enfoques para aplicar Reingeniería, con
base en el concepto de cambio continuo y dirigido (Paradigma Cambiante)
*Paradigma Cambiante
*Consiste en orientar la operación hacia un cambio continuo, y sostiene que
calidad y eficiencia solo pueden mejorarse mediante una constante evolución. La
gerencia debe evaluar de manera continua las razones para competir en todos los
mercados y dentro de cada ramo del negocio, y de igual manera estar abierta a la
investigación de oportunidades.
*Comenzar sobre una base limpia

Organizar con base en resultados, no en tareas


Este principio sugiere que una persona ejecute todos los pasos de un proceso.
Diseñar el trabajo de esa persona con base en objetivo o resultados en vez de una
sola tarea.

Unir actividades paralelas en lugar de integrar sus resultados


Este principio llama a crear nexos entre funciones paralelas y a coordinarlas
durante el proceso en si, no después de que el mismo haya terminado. (Las redes
de comunicación bases de datos compartidas y la teleconferencia pueden unir a
los grupos independientes para que la coordinación sea progresiva.

El centro de la toma de decisiones debe estar en donde se ejecuta el trabajo, y


debe crearse un control dentro del proceso
Sugiere que la misma gente que realiza el trabajo debe ser responsable de tomar
sus propias decisiones y que el proceso en si puede poseer controles.

Piense en grande
Nadie en una organización quiere llevar a cabo un proceso de reingeniera. Crea
confusión y afecta las costumbres de la gente si la gerencia mayor respalda el
esfuerzo y sobrevive a los cínicos como podría la gente tomar en serio la
Reingeniería. Si los gerentes poseen una visión adecuada, la Reingeniería
proveerá el cambio.

Cultura Corporativa
Los proyectos de cambio, pueden adoptar como meta el cambio de la cultura
corporativa, cuando se intenta muchos cambios. Pero al mismo tiempo prevalece
o se impone sobre estos la cultura, se generan problemas de resistencia a los
cambios organizacionales y problemas con el personal. Si se identifica el problema
con el personal. Si se identifica el problema, la cultura corporativa o institucional
podría cambiarse, pero con mucha dificultad y/o con ayuda experta.
DIAGRAMA DE PARETO DEFINICIÓN
El Diagrama de Pareto consiste en un gráfico de barras similar al histograma que
se conjuga con una ojiva o curva de tipo creciente y que representa en forma
decreciente el grado de importancia o peso que tienen los diferentes factores que
afectan a un proceso, operación o resultado.

UTILIDAD
Al identificar y analizar un producto o servicio para mejorar la calidad.
Cuando existe la necesidad de llamar la atención a los problemas o causas de una
forma sistemática.
Al analizar las diferentes agrupaciones de datos (ejemplo: por producto, por
segmento del mercado, área geográfica, etc.)
Al buscar las causas principales de los problemas y establecer la prioridad de las
soluciones.
Al evaluar los resultados de los cambios efectuados a un proceso (antes y
después).
Cuando los datos puedan agruparse en categorías.
En casos típicos, los pocos vitales (pasos, servicios, ítems, problemas, causas)
son responsables por la mayor parte en el impacto negativo sobre la calidad.
Un equipo puede utilizar la Gráfica de Pareto para varios propósitos durante un
proyecto para lograr mejoras:
• Para analizar las causas
• Para estudiar los resultados.
• Para planear una mejora continua
• Como fotos de "antes y después" para demostrar que progreso se ha
logrado.

EJEMPLOS DE APLICACION
Encontrar el o los motivos de devoluciones del Foco Ahorrador de 65W de marca
comercial conocida en el año 2005.

Total de venta en el año 2005: 1500 unidades


Precio del foco para la venta: $8.90
Total de foco devueltos:167 unidades.
De los 82 clientes directos que adquieren el producto, determinamos que 19
clientes son los que nos han devuelto el producto en el transcurso del año 2005.

DEVOLUCIÓN DE FOCO AHORRADOR DE 65W EN UNIDADES

El objetivo del ejemplo es obtener las posibles causas de la devolución del


producto, lo cual analizaremos a los 19 clientes de acuerdo al Principio y
Diagrama de Pareto.

PRIMER PASO: Ordenar a los clientes de acuerdo a la frecuencia de devolución


en forma descendente.
SEGUNDO PASO: Calcular el porcentaje, en lo cual debemos dividir el valor de la
frecuencia de cada cliente por el total de devolución.
TERCER PASO: Calculamos elporcentaje acumulado.
Con la tabla completa ya podemos construir el Diagrama de Pareto

CONCLUSIÓN DEL EJEMPLO:


Al analizar el porque las devoluciones de los 5 clientes intermediarios que
aparecen en el principio del diagrama se determinó que el 10% era por defectos
de fábrica.
Pero, el 90% de la cantidad que nos devuelven pertenece a 2 casos particulares:
El cliente intermediario no tiene cuidado con el producto (frágil) en sus bodegas.
Receptan artículos defectuosos por parte del consumidor final (mal uso, caídas,
etc.) y nos envía con el justificativo de defectos de fábrica.
Por este motivo se determinó que al momento de despachar a los clientes
intermediarios ya mencionado el producto se verifique por unidad por parte del
personal técnico.

DIAGRAMA CAUSA-EFECTO
Los Diagramas Causa-Efecto ayudan a los estudiantes a pensar sobre todas las
causas reales y potenciales de un suceso o problema, y no solamente en las más
obvias o simples. Además, son idóneos para motivar el análisis y la discusión
grupal, de manera que cada equipo de trabajo pueda ampliar su comprensión del
problema, visualizar las razones, motivos o factores principales y secundarios,
identificar posibles soluciones, tomar decisiones y, organizar planes de acción.

El Diagrama Causa-Efecto es llamado usualmente Diagrama de "Ishikawa" porque


fue creado por Kaoru Ishikawa, experto en dirección de empresas interesado en
mejorar el control de la calidad; también es llamado "Diagrama Espina de
Pescado" por que su forma es similar al esqueleto de un pez: Está compuesto por
un recuadro (cabeza), una línea principal (columna vertebral), y 4 o más líneas
que apuntan a la línea principal formando un ángulo aproximado de 70º (espinas
principales). Estas últimas poseen a su vez dos o tres líneas inclinadas
(espinas), y así sucesivamente (espinas menores), según sea necesario.

COMO INTERPRETAR UN DIAGRAMA CAUSA-EFECTO


El diagrama Causa-Efecto es un vehículo para ordenar, de forma muy
concentrada, todas las causas que supuestamente pueden contribuir a un
determinado efecto. Nos Permite, por tanto, lograr un conocimiento común de un
problema complejo, sin ser nunca sustitutivo de los datos. Es importante ser
conscientes de que los diagramas de causa-efecto presentan y organizan teorías.
Sólo cuando estas teorías son contrastadas con datos podemos probar las causas
de los fenómenos observables.
Errores comunes son construir el diagrama antes de analizar globalmente los
síntomas, limitar las teorías propuestas enmascarando involuntariamente la causa
raíz, o cometer errores tanto en la relación causal como en el orden de las teorías,
suponiendo un gasto de tiempo importante.
ELABORACION DE UN DIAGRAMA DE ISHIKAWA
Definir claramente el efecto o síntoma cuyas causas han de identificarse.
Encuadrar el efecto a la derecha y dibujar una línea gruesa central apuntándole.
Usar Brainstorming o un enfoque racional para identificar las posibles causas.
Distribuir y unir las causas principales a la recta central mediante líneas de 70º.
Añadir subcausas a las causas principales a lo largo de las líneas inclinadas.
Descender de nivel hasta llegar a las causas raíz (fuente original del problema).
Comprobar la validez lógica de la cadena causal.
Comprobación de integridad: ramas principales con, ostensiblemente, más o
menos causas que las demás o con menor detalle.

EJEMPLO:
El ejemplo se basa en el proceso de fabricación de mayonesa, para así explicar
los Diagramas de Causa-Efecto:

La variabilidad de las características de calidad es un efecto observado que tiene


múltiples causas. Cuando ocurre algún problema con la calidad del producto, se
debe investigar a fin de identificar las causas del mismo. Para hacer un Diagrama
de Causa-Efecto se siguen los siguientes pasos:
Se decide cuál va a ser la característica de calidad que se va a analizar. Por
ejemplo, en el caso de la mayonesa podría ser el peso del frasco lleno, la
densidad del producto, el porcentaje de aceite, etc.
Se traza una flecha gruesa que representa el proceso y a la derecha se escribe la
característica de calidad:

Se indican los factores causales más importantes y generales que puedan generar
la fluctuación de la característica de calidad, trazando flechas secundarias hacia la
principal. Por ejemplo: Materias Primas, Equipos, Operarios, Método de Medición,
etc.

Se incorporan en cada rama factores más detallados que se puedan considerar


causas de fluctuación. Para hacer esto, se pueden formular estas preguntas:
¿Por qué hay fluctuación o dispersión en los valores de la característica de
calidad? Por la fluctuación de las Materias Primas. Se anota Materias Primas
como una de las ramas principales.
¿Qué Materias Primas producen fluctuación o dispersión en los valores de la
característica de calidad? Aceite, Huevos, sal, otros condimentos. Se agrega
Aceite como rama menor de la rama principal Materias Primas.
¿Por qué hay fluctuación o dispersión en el aceite? Por la fluctuación de la
cantidad agregada a la mezcla. Agregamos a Aceite la rama más pequeña
Cantidad.
¿Por qué hay variación en la cantidad agregada de aceite? Por funcionamiento
irregular de la balanza. Se registra la rama Balanza.
¿Por qué la balanza funciona en forma irregular? Por que necesita mantenimiento.
En la rama Balanza colocamos la rama Mantenimiento.
Así se sigue ampliando el Diagrama de Causa-Efecto hasta que contenga todas
las causas posibles de dispersión.

Finalmente se verifica que todos los factores que puedan causar dispersión hayan
sido incorporados al diagrama. Las relaciones Causa-Efecto deben quedar
claramente establecidas y en ese caso, el diagrama está terminado.
Un diagrama de Causa-Efecto es de por si educativo, sirve para que la gente
conozca con profundidad el proceso con que trabaja, visualizando con claridad las
relaciones entre los Efectos y sus Causas.
Sirve también para guiar las discusiones, al exponer con claridad los orígenes de
un problema de calidad. Y permite encontrar más rápidamente las causas
asignables cuando el proceso se aparta de su funcionamiento.

HISTOGRAMA
El histograma es una gráficas de barras que permite describir el comportamiento
de un conjunto de datos en cuanto a su tendencia central, forma y dispersión. El
histograma permite que de un vistazo se pueda tener una idea objetiva sobre la
calidad de un producto, el desempeño de un proceso o el impacto de una acción
de mejora. La correcta utilización del histograma permite tomar decisiones no solo
con base en la media, sino también con base en la dispersión y formas especiales
de comportamiento de los datos. Su uso cotidiano facilita el entendimiento de la
variabilidad y favorece la cultura de los datos y los hechos objetivos.

CONSTRUCCION DE UN HISTOGRAMA
Para decidir correctamente y detectar posibles anormalidades en los datos se
procede a lo siguiente para construir un histograma:
Paso 1. Determinar el rango de datos. La diferencia entre el dato máximo y el dato
mínimo.
Paso 2. Obtener el número de clases (NC) o barras. Ninguno de ellos es exacto,
esto depende de cómo sean los datos y cuantos sean . Un criterio usado es del
número de clases, debe ser aprox. Igual a la raíz cuadrada del numero de datos.
Paso3. Establecer la longitud de clase (LC).Se establece de tal manera que el
rango pueda ser cubierto en su totalidad por NC. Una forma directa de obtener la
LC es dividiendo el rango entre el numero de clases, LC= R/NC.

Paso 4. Construir los intervalos de clase. Resultan de dividir el rango (original o


ampliado) en NC e intervalos de longitud LC.
Paso 5. Obtener la frecuencia de cada clase. Se cuentan los datos que caen en
cada intervalo de clase.
Paso 6.Graficar el histograma. Se grafican en barras, en las que su base es el
intervalo de clase y la altura sean las frecuencias de las clases

INTERPRETACION DE UN HISTOGRAMA
Lo que se aprecia en el histograma como tendencia central, variabilidad y
comportamientos especiales será una información valiosa. Observándolo se
pueden contestar varias preguntas tales como:
¿Hay un comportamiento simétrico?, ¿Hay Sesgo?, ¿Hacia que lado? Para esto
basta que se observe la forma del histograma; cuando es resultado de una
muestra grande, hay un sesgo significativo pude ser que haya algún problema,
como calentamiento de los equipos o instrumentos de medición descalibrados.

¿Esta centrado el proceso? Con un tamaño de muestra grande es muy fácil ver
mediante un histograma si un proceso esta centrado o no, ya que basta observar
la posición del cuerpo del histograma respecto a la calidad optima y a las
especificaciones, si no esta centrado la calidad que se produce no es adecuada.

¿Hay acantilados? Las posibles causas que motivan la presencia de acantilados


están: un lote de articulo previamente inspeccionados al 100% donde se excluyo a
los artículos que no cumplen con alguna medida mínima o que exceden una
medida máxima, problemas con el equipo de medición y errores en la inspección.
Un acantilado es anormal y debe buscarse la causa del mismo.
Estratificación. Cuando se obtienen datos que proceden de diferentes maquinas,
proveedores u operadores, se hace un histograma por cada fuentes y así se podrá
encontrar la maquina o proveedor más problemático.

EJEMPLO :
A una fabrica de envases de vidrio, un cliente le está exigiendo que la capacidad
de cierto tipo de botella sea de13 ml., con una tolerancia de más menos 1 ml.. La
fábrica establece un programa de mejora de calidad para que las botellas que se
fabriquen cumplan con los requisitos del cliente.
Muestreo =
11,12,13,12,13,14,14,15,11,12,13,12,14,15,11,12,16,16,14,13,14,14,13,15,15
1. Rango: 16 –11 = 5
2. Ö25 = 5
3. 5/5 = 1

DIAGRAMA DE DISPERSION

Definición
Representación gráfica del grado de relación entre dos variables cuantitativas

Un Diagrama de Dispersión es la forma mas sencilla de definir si existe o no una


relación causa efecto entre dos variables y que tan firme es esta relación, como
estatura y peso. Una aumenta al mismo tiempo con la otra.

El Diagrama de Dispersión es de gran utilidad para la solución de problemas de la


calidad en un proceso y producto, ya que nos sirve para comprobar que causas
(factores) están influyendo o perturbando la dispersión de una característica de
calidad o variable del proceso a controlar.

Los motivos mas comunes de este tipo de diagrama son analizar:

La relación entre una causa y un efecto.


La relación entre una causa y otra.
La relación entre una causa y otras dos causas.
Un efecto y otro efecto.

La primera forma de describir una distribución bivariante es representar los pares


de valores en el plano cartesiano. El gráfico obtenido recibe el nombre de nube de
puntos o diagrama de dispersión.

Un diagrama de dispersión es una representación gráfica de la relación entre dos


variables, muy utilizada en las fases de Comprobación de teorías e identificación
de causas raíz y en el Diseño de soluciones y mantenimiento de los resultados
obtenidos. Tres conceptos especialmente destacables son que el descubrimiento
de las verdaderas relaciones de causa-efecto es la clave de la resolución eficaz de
un problema, que las relaciones de causa-efecto casi siempre muestran
variaciones, y que es más fácil ver la relación en un diagrama de dispersión que
en una simple tabla de números.
Línea De Tendencia
La línea de tendencia es la herramienta básica más importante con la que cuenta
el analista técnico.
Es una línea o conjunto de líneas que se trazan en el gráfico uniendo con una
misma pendiente series sucesivas de puntos mínimos (líneas de tendencia alcista)
o de puntos máximos (línea de tendencia bajista).
Sirve para determinar en primer lugar la dirección del mercado y establecer sus
objetivos de proyección.

Marca los niveles de soporte o de resistencia que están proyectando los precios.
Permite analizar en cada momento el nivel de Beneficio/Riesgo que se puede
tomar al iniciar o cerrar una posición, tomando como referencia el precio actual
respecto a línea de tendencia y su proyección.
La ruptura de una línea de tendencia al alza o la baja es una de las señales que
confirma un cambio en la dirección de los precios.
Son la base para trazar los canales que encuadran el posible movimiento de los
precios.
Según sea la dispersión de los datos (nube de puntos) en el plano cartesiano,
pueden darse alguna de las siguientes relaciones, Lineal, Logarítmica,
Exponencial, Cuadrática, entre otras.

MODELO MATEMÁTICO

Llamado también ajuste de curvas es una ecuación dada en un grafico,


dependiendo del grado de correlación que mas se ajuste al conjunto de datos.
• AJUSTE LINEAL: Y=BX+A
• AJUSTE LOGARITMICO: Y=B Ln X+A
• AJUSTE EXPONENCIAL: Y=AC BX
• AJUSTE PARABOLICO, CUADRATICO O POLINOMIAL: Y= AX2 + BX + A
Estima una valoración aproximada basada en datos de periodos anteriores (datos
históricos o estadísticos) a través de muestreos.
Pronósticos
• Es estimar un valor de y dado o supuesto un valor de x. También se puede
decir que es prever el futuro.
Enuncie Los Pasos Para Ajustar Un Conjunto De Datos Y Crear Un
Conjunto Su Modelo Matemático
Tener tabulado un conjunto de datos Xi, Yi cuyas variables tengan relación
• Utilidades vs. Costos
• Costos vs. Cantidad Producida
• Utilidades vs. Mes
• Costos vs. Semanas
• Ingresos vs. Año

MÉTODO DE FLUJO DE PROCESO


Con este método de construcción, la línea principal del diagrama de Ishikawa
sigue la secuencia normal del proceso de producción o de administración. Los
factores que pueden afectar la característica de calidad se agregan en el orden
que les corresponde, según el proceso. La figura siguiente muestra un diagrama
construido con este método.
Con frecuencia el diagrama de flujo del proceso es la primer etapa para entender
un proceso de manufactura o de cualquier otro tipo. Para ir agregando, en el orden
del proceso, las causas potenciales, se puede realizar la siguiente pregunta: La
variabilidad en esta parte del proceso afecta el problema especificado? Este
método permite explorar formas alternativas de trabajo, detectar cuellos de botella,
descubrir problemas ocultos, etcétera.

GRÁFICOS DE CONTROL
La Gráfica de Control es un tipo especial de gráfica que se dirige a la posibilidad
de interpretar información derivada de un proceso creando una imagen de las
fronteras o límites de variación permisibles.
Permite de manera objetiva determinar si un proceso se encuentra “en control” o
“fuera de control”.
Es una herramienta útil para establecer fronteras de variación dentro de un
proceso. Muestra cuando estas fronteras se sobrepasan y entonces buscar las
claves que lleven a las causas para resolverlas.

ELABORACION

A) Determine lo que va a medirse:


• Será necesario identificar una medida clave que quiera medir a través del
tiempo o contra algún otro factor. Esta medida deberá ser un indicador de
calidad /productividad (cliente externo o proceso interno) que nos de
información útil para la toma de decisiones.
• Algunos factores de medición posibles son los siguientes:
o Volumen: Por ejemplo qué tanto dentro de un período específico.
o Tiempo del ciclo: Qué tanto tiempo toma el realizar o llevar a cabo
algo.
B) Recolecte los datos:
• Algunas sugerencias para recolectar la información:
• Utilice una muestra que contenga al menos 50 unidades / artículos o
elementos inspeccionados o factibles de ser revisados, (la muestra debe
ser lo suficientemente grande como para dar un promedio de 3 o más
defectos por muestra). Evite tomar muestras al través de períodos
prolongados (por ejemplo reduzca las muestras grandes en períodos más
manejables de 2 a 4 horas en lugar de uno de 24 horas). Evite variar el
tamaño de las muestras. Utilice un mínimo de 20 muestras.

• Después de haber tomado un mínimo de 20 muestras y calculado el


porcentaje de defectos de cada una, elabore la escala en el eje vertical de
la gráfica . La escala debe reflejar lo que sea apropiado de acuerdo a la
medida que usted ha seleccionado. Elabore el eje horizontal con un
marcaje por cada fecha de la muestra. Grafique el porcentaje de defectos.
A continuación calcule el porcentaje promedio todos los porcentajes de
defectos y divida el resultado entre el total de muestras sumadas. Dibuje
una línea horizontal en la con el valor resultante y nómbrela “P”.

C) Calcule los Límites de Control


• Los límites de control le dirán si su proceso tiene un control estadístico ( en
el ejemplo sólo se denota variación por causa común, o la cantidad de
variación de día a día que podría esperarse por causas comunes tales
como alguna diferencia en materiales, métodos, equipo, etc.). Piense que
los límites de control son fronteras invisibles. Mientras que los puntos se
encuentren entre las estas frontera de control, todo estará bien. Sin
embargo, cuando los puntos rebasan estas fronteras se deberá investigar
las causas por las que se han rebasado. Las fórmulas que se utilizan para
calcular los límites de control son:

Donde:
o P es el promedio del número de defectos obtenido.
o N es el tamaño de la muestra
o LSC es el Límite Superior de Control
o LIC es el Límite Inferior de control
o SEGUIMIENTO: Decida sobre las siguientes acciones:
o Si los puntos se encuentran dentro de los límites de control:
o Continúe sin hacer cambios significativos.

b) Vuelva a hacer un ejercicio de tablero de control después de un tiempo para


verificar que el proceso está funcionando.

c) Lleve a cabo mejoras en el proceso que logren reducir las pequeñas


variaciones en el desempeño que ha encontrado. Haga un seguimiento para
asegurarse de que los cambios que ha efectuado han tenido un efecto positivo.

B) Si los puntos se encuentran fuera de los límites de control:


Investigue y tome las acciones necesarias para eliminar la(s) causa (s).
Haga un seguimiento para asegurarse de que los cambios efectuados hayan
tenido efectos positivos y que se hayan eliminado las causas de las variaciones en
el proceso.

Tome muestras nuevas y haga un nuevo ejercicio de gráfica de control utilizando


los límites que se deriven de la nueva información.

3. Formato
Formato para el registro de la información

4. Ejemplo
Se encuentra en una situación en la que en un Hospital existen quejas de los
diferentes departamentos por material de curación que se recibe como
“defectuoso” y se detecta al ser utilizado por diferentes áreas .
Existen reportes de las quejas presentadas. Para este efecto se ha decidido
elaborar una gráfica de control usando promedios, identificar los tipos de defectos
máximos y posteriormente definir las acciones que pueden llevarse a cabo

En el ejemplo antes citado, el porcentaje de defectos encontrados por cada


muestra se calcula sumando el tipo de defectos encontrados, por 100 y divididos
entre el “ No. inspeccionado”.

En el caso de este ejemplo en la muestra obtenida el 1º de junio:


8+1+1=10 teniendo la suma se procede a hacer el siguiente cálculo:
10x 100/50=20%.

Para el caso de este ejemplo el promedio total se obtiene de la suma de la


columna “Defectos
Encontrados” entre el número de casos presentados.
Así P= 245/9=27.22 (figura1)

Ya habiendo calculado los Límites de Control Superior e Inferior se grafican y se


observa, en el caso del ejemplo, que el proceso se encuentra “en control” ya
Que dichos límites no se rebasan.(figura 2)

Para el caso del ejemplo los cálculos se realizan de la siguiente forma:


Límite Superior de Control (LSC) =

En las formulas la simbología que se aplica es la siguiente:


P Promedio del porcentaje de defectos obtenido
N Tamaño de la muestra
LSC Limite Superior de Control
lic. Limite Inferior de Control
Decida sobre las siguientes acciones, si los puntos se encuentran dentro de los
límites de control (que es el caso del ejemplo, vea Fig. 2):
Continúe sin hacer cambios significativos.
Vuelva a hacer un ejercicio de gráfica de control después de un tiempo para
verificar que el proceso está funcionando Lleve a cabo mejoras en el proceso que
logren reducir las pequeñas variaciones en el desempeño que ha encontrado.
Haga un seguimiento para asegurarse de que los cambios que ha efectuado han
tenido un efecto positivo.

HOJA DE VERIFICACION
Una Hoja de Verificación (también llamada "de Control" o "de Chequeo") es un
impreso con formato de tabla o diagrama, destinado a registrar y compilar datos
mediante un método sencillo y sistemático, como la anotación de marcas
asociadas a la ocurrencia de determinados sucesos. Esta técnica de recogida de
datos se prepara de manera que su uso sea fácil e interfiera lo menos posible con
la actividad de quien realiza el registro.

Ventajas.
Supone un método que proporciona datos fáciles de comprender y que son
obtenidos mediante un proceso simple y eficiente que puede ser aplicado a
cualquier área de la organización.
Las Hojas de Verificación reflejan rápidamente las tendencias y patrones
subyacentes en los datos.

Utilidades.
En la mejora de la Calidad, se utiliza tanto en el estudio de los síntomas de un
problema, como en la investigación de las causas o en la recogida y análisis de
datos para probar alguna hipótesis.
También se usa como punto de partida para la elaboración de otras herramientas,
como por ejemplo los Gráficos de Control

EJEMPLO
Verificación para radiografías defectuosas en la clínica médica“w”. La hoja de
registro es útil cuando se desea registrar el tipo de problemas y frecuencia con
que se presentan Además indica de forma objetiva y permanente a la dirección
cuales son los principales problemas, lo que orienta a la generación de planes
para reducirlos Así mismo esta hoja sirve para evaluar los planes de mejora.

Es importante considerar que el uso excesivo de la hoja verificación puede llevar a


obtener datos sin ningún objetivo concreto e importante Para evitar esto, debe
considerarse que cada hoja con la que se obtienen datos en una empresa, tenga
un objetivo claro y de importancia.

METODO DE ESTRATIFICACION
La idea de este método de construcción del diagrama de Ishikawa es ir
directamente a las principales causas potenciales de un problema. La selección de
estas causas muchas veces se hace a través de una sesión de lluvia de ideas.
Con la idea de atacar causas reales y no consecuencias o reflejos, es importante
preguntarse un mínimo de cinco veces el porqué del problema, con lo que se
profundizará en la búsqueda de las causas y la construcción del diagrama de
Ishikawa partirá de este análisis previo, con lo que el abanico de búsqueda será
más reducido y los resultados más positivos.
Esta manera de construir el diagrama de Ishikawa es natural cuando las
categorías de las causas potenciales pueden subdividirse. Por ejemplo, un
producto terminado puede dividirse fácilmente en sus subensambles. En la figura
siguiente se muestra un diagrama de Ishikawa construido con este método.
El método de estratificación contrasta con el método 6M, ya que en éste se va de
lo muy general a lo particular, mientras que en aquél se va directamente a causas
potenciales del problema.

1.5.1 INTRODUCCION
La Ingeniería de la Calidad está diseñada para generar procesos de calidad.

Basado en los fines de la Ingeniería de la calidad, TAGUCHI desarrolló una


aproximación al diseño de experimentos con el objetivo de reducir los costos
emanados de la experimentación, esta aproximación es más práctica que teórica y
se interesa más por la productividad y los costos de producción que por las reglas
estadísticas.
Los conceptos de estas técnicas están basados en las relaciones de costos y
ahorros.

Existen algunos factores de ruido que afectan los procesos, y son aquellos que
causan que una característica funcional se desvíe de un valor objetivo, estos son
causantes de variabilidad y pérdida de calidad.
De acuerdo con TAGUCHI esta pérdida de calidad constituye a largo plazo, una
pérdida de tiempo y dinero tanto para el consumidor como para el fabricante.
Dentro de las actividades del control de la calidad, la Ingeniería de la calidad
consta de las actividades dirigidas a la reducción de la variabilidad y de las
pérdidas.
Dentro de las actividades del control de la calidad, la ingeniería de calidad consta
de las actividades dirigidas a la reducción de la variabilidad y de las pérdidas.
Los resultados del ANOVA para dos factores pueden ser extendidos a un caso
general en donde son los niveles del factor, A,B son los factores del nivel C, y así
sucesivamente los cuáles pueden ser arreglados en un experimento en el cual el
número de replicas es n.
Esta diseñada para generar procesos de calidad TAGUCHI desarrollo una
aproximación al diseño de experimentos con el objetivo de reducir los costos
emanados de la experimentación, esta aproximación es más práctica que teórica y
se interesa más por la productividad y los costos de producción que en las reglas
estadísticas. Los conceptos de estas técnicas están basados en las relaciones de
costos y ahorros
Diseñar un sistema de manufactura para elaborar un producto requiere de
conocimientos técnicas además de una gran experiencia en el área a la cual
pertenece el producto.
Los diseños factoriales son ampliamente utilizados en experimentos en los que
intervienen varios factores para estudiar el efecto conjunto de estas sobre una
respuesta.
En los últimos años se ha observado un creciente interés por las ideas del
profesor Genichi Taguchi acerca del diseño experimental y su aplicación al
mejoramiento de la calidad.
El diseño factorial fraccionaria 2 Kb se usa en experimentos rutinarios para
identificar con rapidez y de manera eficiente el subconjunto de factores que son
activos y para obtener alguna información sobre interacción.

1.5.1.1 FUNCION DE PÉRDIDA

El control de calidad ha obtenido como objetivo controlar la variación funcional y


los problemas relacionados con esto.
El objetivo de la función de pérdida es evaluar cuantitativamente la perdida de
calidad debido a variaciones funcionales.
El Dr. Taguchi ha descubierto que la representación cuadrática de la función de
pérdida, es una forma eficiente y efectúa para establecer la pérdida debido a la
desviación de una característica de calidad del valor meta; esto es la pérdida
debido a la mala calidad.
Es importante recordar que:

1.-Conforme con los límites de especificaciones es un indicador inadecuado de la


calidad o pérdida debido a la mala calidad.
2.- La pérdida de la calidad es causada por la insatisfacción del consumidor.
3.- La pérdida de la calidad es una pérdida financiera.
4.- La pérdida de la calidad puede relacionarse con las características del
producto.
5.- La función de pérdida es una herramienta excelente para evaluar la pérdida en
la etapa inicial del desarrollo del producto.
Índice CPM o Índice Taguchi.

Es de todos conocidos el índice de capacidad potencial (Cp)


Y el índice de capacidad real (Cpk) para los cuales lo más importante es reducir la
variabilidad y cumplir con las especificaciones. Sin embargo del proceso el CPM
mide mejor el Cpk el centrado del proceso y la variabilidad.
Si el CPM es mayor que 1.33 entonces la media del proceso estará dentro de la
quinta parte media del rango de especificaciones función de pérdida de Taguchi
usa es una aproximación de una expansión de la serie de Taylor alrededor de un
valor meta “m”.
La función de pérdida de calidad se expresa con la ecuación:
L (y) = K (y-m)
En donde:
L (y) = Pérdida en dinero por unidad de producto cuando las características de
calidad son iguales a 41 y 55 y = valor de la característica de calidad, esto es,
longitud, anchura etc.

1.5.1.2 LOS SIETE PUNTOS DE LA INGENIERIA DE LA CALIDAD


SEGÚN TAGUCHI

• Definición de la calidad en forma monetaria por medio de la función perdida.


• El proceso de mejora continua y la reducción de la variabilidad son
indispensables para seguir subsistiendo en la actividad.
• El proceso de mejora continua esta últimamente relacionado con la
reducción de la variabilidad en enfocada hacia el valor objetivo.
• La variabilidad en el funcionamiento del producto provoca una perdida al
usuario este puede medirse como el cuadrado de la diferencia entre el
funcionamiento real y el valor objetivo.
• Es en la fase de diseño donde se genera la calidad y se determina el costo
final del producto.
• Se puede diseñar un producto basándose en la parte no lineal de su
respuesta
• Disminuir la variabilidad.

1.5.2DISEÑOS DE EXPERIMENTOS

Introducción

¿Qué se entiende por "diseño de un experimento"?


Diseñar un experimento significa planear un experimento de modo que reúna la
información pertinente al problema bajo investigación.
El diseño de un experimento es la secuencia completa de pasos tomados de
antemano para asegurar que los datos apropiados se obtendrán de modo de
modo que permitan un análisis objetivo que conduzca a deducciones válidas con
respecto al problema establecido.
La necesidad de un diseño de experimento surge de la necesidad de responder a
preguntas como:
• ¿Cómo se va a medir el efecto? ó ¿Cuáles son las características a
analizar?
• ¿Qué factores afectan las características que se van a analizar?
• ¿Cuáles son los factores que se estudiaran en esta investigación?
• ¿Cuántas veces deberá ejecutarse el experimento?
• ¿Cuál será la forma de análisis?
• ¿A partir de que valores se considera importante el efecto?

Objetivos de un diseño de experimentos


Proporcionar la máxima cantidad de información pertinente al problema bajo
investigación.
El diseño, plan o programa debe ser tan simple como sea posible.
La investigación debe efectuarse lo más eficientemente posible; ahorrar tiempo,
dinero, personal y material experimental. "Proporcionar la máxima cantidad de
información al mínimo costo"
Principios básicos del diseño de experimentos
• Reproducción.
Aleatorización.
Control Local.
• Reproducción.

Repetición del experimento porque:


Proporciona una estimación del error experimental.
Permite obtener una estimación más precisa del efecto medio de cualquier factor.

Unidad Experimental
Unidad a la cual se le aplica un solo tratamiento (que puede ser una combinación
de muchos factores) en una reproducción del experimento.
Error Experimental

Describe la situación de no llegar a resultados idénticos con dos unidades


experimentales tratadas idénticamente y refleja:
Errores de experimentación
Errores de observación
Errores de medición

Variación del material experimental (esto es, entre unidades experimentales)


Efectos combinados de factores extraños que pudieran influir las características en
estudio, pero respecto a los cuales no se ha llamado la atención en la
investigación.

El error experimental puede reducirse:


Usando material experimental más homogéneo o por estratificación cuidadosa del
material disponible.

Utilizando información proporcionada por variables aleatorias relacionadas


Teniendo más cuidado al dirigir y desarrollar el experimento
Usando un diseño experimental muy eficiente.

Confusión
Dos o más efectos se confunden en un experimento si es posible separar sus
efectos, cuando se lleva a cabo el subsecuente análisis estadístico.

Aleatorización.
Asignación al azar de tratamiento a las unidades experimentales. Una suposición
frecuente en los modelos estadísticos de diseño de experimentos en que las
observaciones o los errores en ellas están distribuidos independientemente. La
aleatorización hace válida esta suposición.

Agrupamiento.
Colocación de un conjunto de unidades experimentales homogéneas en grupos,
de modo que los diferentes grupos puedan sujetarse a distintos tratamientos.

Bloqueo.
Distribución de las unidades experimentales en bloques, de manera que las
unidades dentro de un bloqueo sean relativamente homogéneas, de esta manera,
la mayor parte de la variación predecible entere las unidades queda confundida
con el efecto de los bloques.

Balanceo.
Obtención de las unidades experimentales, el agrupamiento, el bloqueo y la
asignación de los tratamientos a las unidades experimentales de manera que
resulte una configuración balanceada.
Tratamiento o combinación de tratamientos.
Conjunto particular de condiciones experimentales que deben imponerse a una
unidad experimental dentro de los confines del diseño seleccionado.

Control local.
Cantidad de balanceo, bloqueo y agrupamiento de las unidades experimentales
que se emplean en el diseño estadístico adaptado.
Proposición de la técnica experimental y el diseño.
Examen de sucesos posibles y referencias en que se basan las razones para la
indagación que asegure que el experimento proporcionará la información
requerida y en la extensión adecuada.

Consideración de los posibles resultados desde el punto de vista de los


procedimientos estadísticos que se aplicarán y para asegurar que se satisfagan
las condiciones necesarias para que sean válidos estos procedimientos.

Factor.
Una variable independiente. En la mayoría de las investigaciones se trata con más
de una variable independiente y con los cambios que ocurren en la variable
independiente, cuando varia una o mas de las variables independientes.
Etapas de un diseño de experimentos.
Enunciado o planteamiento del problema.
Formulación de hipótesis.
Ejecución del experimento.
Aplicación de las técnicas estadísticas a los resultados experimentales.
Extracción de conclusiones con medidas de la confiabilidad de las estimaciones
generadas. Deberá darse cuidadosa consideración a la validez de las
conclusiones para la población de objetos o eventos a la cual se van a aplicar.
Valoración de la investigación completa y contrastación con otras investigaciones
del mismo problema o similares.
Lista de comprobación para planear programas de pruebas.
Obtenga un enunciado claro del problema
Identifique la nueva e importante área del problema.
Determine la relación del problema particular con la investigación total o desarrollo
del programa
Reúna la información básica disponible.
Investigue todas las fuentes de información posible.
Tabule los datos pertinentes para planear el nuevo problema.
Diseñe el programa de prueba
Subraye el problema específico dentro de sus limitaciones usuales.
Defina el propósito exacto del programa de prueba.
Sostenga una conferencia respecto a todas las partes concernientes.
Enuncie las proposiciones por probar.
Especifique respecto a la magnitud de las diferencias que usted considere que
valen la pena.
Esboce las alternativas posibles de los sucesos.
Escoja los factores por estudiar.
Determine el rango práctico de estos factores y los niveles específicos a los qie se
harán las pruebas.
Escoja las mediciones finales que van a hacerse.
Considere el efecto de variabilidad de muestreo y de la precisión de métodos de
prueba.

Considere las posibles interrelaciones (o interacciones) de los factores.


Determine las limitaciones de tiempo, costo, materiales, potencia humana,
instrumentación y otros factores y de condiciones extrañas tales como condiciones
meteorológicas.
Considere los aspectos de las relaciones humanas del programa.
Diseñe el programa en forma preliminar.
Prepare una cédula sistemática y completa.
Proporcione las etapas de ejecución o adaptación de la cédula si es necesario.
Elimine los efectos de las variables que no están en estudio.
Reduzca al mínimo el número de ejecuciones de los experimentos.
Elija el método de análisis estadístico.
Haga las indicaciones prudentes para una acumulación ordenada de datos.
Revise el diseño con todo lo concerniente.
Ajuste el programa de acuerdo con los comentarios.
Desglose en términos precisos los pasos a seguir.
Registre el avance del programa.
Analice los datos.
Reduzca los datos registrados a forma numérica, si es necesario.
Aplique las técnicas adecuadas de la Estadística Matemática.
Planee y lleve a cabo el trabajo experimental.
Desarrolle métodos, materiales y equipo.
Aplique los métodos o técnicas.
Supervise y cheque los detalles modificando los métodos si es necesario.
Registre cualquier modificación al diseño del programa.
Sea cuidadoso en la colección de datos.
Interprete los resultados.
Considere todos los datos observados.
Limite las conclusiones a deducciones estrictas a partir de la evidencia obtenida.
Pruebe, mediante experimentos independientes, las controversias que susciten los
datos.
Llegue a conclusiones, tanto respecto al significado técnico de resultados como
respecto a significancia estadística.
Especifique lo que implican los resultados para su aplicación y para trabajos
posteriores.
Tome en cuente las limitaciones impuestas por los métodos usados.
Describa claramente el trabajo dando antecedentes, aclaraciones pertinentes del
problema y del significado de los resultados.
Use métodos gráficos y tabulares para la presentación de los datos en forma
eficiente para usos futuros.
Suministre información suficiente para que el lector pueda verificar resultados y
sacar sus propias conclusiones.
Limite las conclusiones a un resumen objetivo, tal que el trabajo evidencie su uso
para consideraciones rápidas y acciones decisivas.

Enuncie los resultados en términos de probabilidades verificables.


Prepare el reporte

VENTAJAS Y DESVENTAJAS DE LOS EXPERIMENTOS DISEÑADOS


ESTADISTICAMENTE

Ventajas
Se requiere una estrecha colaboración entre los estadísticos y el investigador o
científicos con las consiguientes ventajas en el análisis e interpretación de las
etapas del programa.
Se enfatiza respecto a las alternativas anticipadas y respecto a la PRE-planeación
sistemática, permitiendo aun la ejecución por etapas y la producción única de
datos útiles para el análisis en combinaciones posteriores.
Debe enfocarse la atención a las interrelaciones y a la estimación y cuantificación
de fuentes de variabilidad en los resultados.
La comparación de los efectos de los cambios es más precisa debido a la
agrupación de resultados.
La exactitud de las conclusiones se conoce con una precisión matemáticamente
definida.
El número de pruebas requerido puede determinarse con certeza y a menudo
puede reducirse.

Desventajas de los experimentos diseñados estadísticamente.

Tal diseño y sus análisis, usualmente están acompañados de enunciados basados


en el lenguaje técnico del estadístico. Sería significativos a la generalidad de la
gente, además, el estadístico no debería subestimar el valor de presentarnos los
resultados en forma gráfica. De hecho, siempre debería considerar a la
representación gráfica como un paso preliminar de un procedimiento más
analítico.

Muchos diseños estadísticos, especialmente cuando fueron formulados por


primera vez, se han criticado como demasiado caros, complicados y que requieren
mucho tiempo. Tales críticas, cuando son válidas, deben aceptarse de buena fe y
debe hacerse un intento honesto para mejorar la situación, siempre que no sea en
detrimento de la solución del problema.

Conclusiones
En este trabajo podemos darnos cuenta de la importancia del diseño de
experimentos, o dicho de otra manera, el planear paso a paso las operaciones
para así obtener un resultado satisfactorio a nuestro problema planteado.
Para el diseño de un experimento debemos tener en cuenta los efectos y las
características de nuestro problema a resolver. Como se puede apreciar un diseño
debe de ser lo más sencillo posible y así poder ahorrar tiempo, inversión y
personal, pero no por eso se deben de olvidar considerar los principios básicos en
el diseño.

Observamos el trabajo conjunto de los investigadores con los estadísticos que nos
llevan a obtener una mejor planeación del experimento, aunque tiene sus
desventajas se puede notar que actuando de manera correcta se puede cambiar
la forma de ver de los inconvenientes que puede representar el alto costo que se
tiene con los estadísticos.
Podemos estar seguros de que si llevamos a cabo todos los elementos de la lista
de comprobación tendremos una planeación efectiva de nuestro experimento y así
obtener los resultados esperados.

1.5.2.1 DISEÑOS FACTORIALES 2K


DISEÑOS FACTORIALES A DOS NIVELES
DISEÑOS FACTORIALES GENERALES Y DISEÑOS A DOS
NIVELES

Para realizar un diseño factorial general, el investigador selecciona un número fijo


de niveles (o versiones) para cada conjunto de variables (factores) y luego hace
experimentos con todas las combinaciones posibles. Si hay m sub. 1 niveles para
la primera variable, m sub. 2 para la segunda y ......m sub. k para la k-ésima
variable, el conjunto de todas las m sub. uno por m sub. dos por ...........m sub. k
condiciones experimentales se llama diseño factorial.
Por ejemplo, un diseño factorial 2 x 3 x 5 comprende 2 x 3 x 5 = 30 factores
Experimentales elementales y un diseño 2 x 2 x 2= 2 ³ comprende 8
experimentos elementales.

Un ejemplo de un experimento factorial a dos factores es el que estudia la


supervivencia de cuatro animales a los que se ha asignado al azar tres venenos y
cuatro tratamientos.
El diseño factorial es un 3 x 4 y se repite cuatro veces,. Ya que ambos factores,
venenos y tratamientos son de igual interés, podría interesar si existe interacción
entre ellos.
Tiempo de supervivencia (unidad igual a 10 horas) de los animales en un
experimento factorial 3 x 4 con 4 repeticiones.

(Los valores están multiplicados por 1000)

• Los diseños factoriales son importantes por varias razones


• Requieren relativamente pocos experimentos elementales para cada
factor, y permiten explorar factores que pueden indicar tendencias y así
determinar una dirección prometedora para experimentos futuros.
• Si existe interacción entre los factores estudiados permite medirla .
• Cuando el número de factores (variables) suelen ser importantes para
estudiar todas las variables, los diseños factoriales fraccionados permiten
estudiarlas a todas para estudiarlas superficialmente en lugar de hacer
experimentos mas pequeños que pueden no incluir las variables
importantes.
• Estos diseños y sus correspondientes fraccionados pueden ser utilizados
en bloques para construir diseños de un grado de complejidad que se
ajuste a las necesidades del problema.
• La interpretación de las observaciones producidas por estos diseños se
puede realizar en gran parte a base de sentido común y aritmética
elemental.

Ejemplo de un diseño factorial 2³ en una planta piloto.


La tabla siguiente representa un experimento factorial 2³ en el que hay dos
variables cuantitativas - temperatura y concentración y una cualitativa catalizador.
La respuesta es la cantidad de producto. Los datos se obtuvieron de una
investigación en una planta piloto de un proceso. En las variables cuantitativas un
menos significa el nivel mas bajo y un más el nivel más alto. Para variables
cualitativas las dos versiones, ó niveles, se pueden codificar también con signos
menos y más. Una tabla de este tipo se llama matriz de diseño.

Experimento T C K T C K
1 - - - 0 0 0
2 + - - 1 0
3 - + - 0 1 0
4 + + - 1 1 0
5 - - + 0 0 1
6 + - + 1 0 1
7 - + + 0 1 1
8 + + + 1 1 1

Experimento de la planta piloto

Temperatura ( -) 160 (+) 180


Concentración ( - ) 20 (+) 40
Catalizador (-)A (+) B

En general es importante la replica de los experimentos elementales ya que


permite estimar la variación total que afecta a las observaciones. La
aleatorización garantiza que las repeticiones sean genuinas.
Por ello a los experimentos factoriales generalmente se los puede realizar en
forma completamente aleatorizado ó en bloques.

1.5.2.2 DISEÑOS FACTORIALES 3K

Diseño Factorial Fraccionado 3k-p


A menudo se desea un fraccionamiento mayor del diseño 3k para valores de
moderados a grandes de k. En general, puede construirse una fracción (1/3) P de
un diseño 3k para p < k, donde la fracción 3k-2 es la fracción (1/9), el 3k-3
consiste en seleccionar p componentes de interacción, y usar estos efectos para
descomponer las 3 k combinaciones de tratamientos de 3p bloques. Cada bloque
constituye ahora un diseño factorial fraccionario 3k-p.
La relación 1 define cualquier fracción, consta de los p efectos elegidos
inicialmente y de sus (3p-2p-1) / 2 interacciones generalizadas. Los alias de
cualquier efecto principal o componente de interacción se determinan
multiplicando el efecto por 1 e 12 módulo 3.

Ejemplo:
La salida máxima de voltaje de un tipo particular de batería, se piensa que puede
ser influenciado por el material usado en los platos y por la temperatura en la
localización en la cual la batería es colocada. Se hacen cuatro replicas en el
experimento en un experimento factorial, para tres tipos de temperatura y tres
materiales. los resultados son:

Primero se hace la suma de los cuadrados de todas las muestras, menos la suma
del total de renglones y columnas, entre la multiplicación de renglones de
columnas * # de muestras
n=4 a=3 b=3

Después se hace la suma de los totales al cuadrado del factor, a:

Ahora sumamos las cuatro muestras de cada combinación y las evaluamos igual.
Eso es la suma de cuadrados de la intersección ab ejemplo: 130+155+74+180
=539

el material tipo 2 se comporta más estable. da mejor voltaje a las diferentes


temperaturas.

a) Los datos reflejan evidencias suficientes que el tipo de material se afecta al


voltaje de salida, considerado al nivel de significancia del 5%
b) Los datos presentan evidencias suficientes que las temperaturas usada -5 en
los experimentos si afectan al voltaje de salida, considerando un nivel de
significancia del 5%

c) Los datos demuestran evidencias suficientes ove el tipo de material usado y las
temperaturas consideradas en el experimento tienen efecto conjunto sobre el
voltaje de salida considerado k un nivel de significancia del 5%
y en cada una de las hipótesis aceptamos h1.

Definición
Se entiende por diseño experimental la realización de una serie de experimentos
previamente diseñados donde se varían los valores de las variables de entrada de
un proceso o sistema y se miden los valores de la respuesta de salida
Imaginemos que en la figura No 1 tenemos un proceso de vulcanización por
inyección donde e (entrada) es el compuesto que se introduce en la máquina, x1 a
x4 son las variables con las que vamos a trabajar en el diseño de experimentos,
que pueden ser por ejemplo:

X1: Temperatura del molde


X2: Temperatura de la cámara de precalentamiento de material
X3: Cantidad de acelerante secundario
X4: Cantidad de reductor de viscosidad agregado en la formulación

Z1...si son otras variables que intervienen en el proceso y que nosotros


intentaremos mantener constantes durante el experimento, como por ejemplo la
temperatura a la que entra el compuesto en el inyector, el ciclo de venteo, etc.
Finalmente, y será la respuesta de salida que deseamos estudiar, por ejemplo, la
cantidad porcentual de material defectuoso por la suma de distintos tipos de fallas
de llenado.

Concretando, intentaremos conocer como varía el porcentaje de material


defectuoso en función de la temperatura del molde, temperatura de la cámara de
calentamiento de material, del porcentaje de acelerante secundario utilizado y del
porcentaje de reductor de viscosidad agregado a la formulación básica,
manteniendo constantes otros valores que. también podrían actuar como
variables, tales como la temperatura de entrada del compuesto a la máquina y sus
ciclos de venteo.

Generalizando, podemos aplicar el diseño de experimentos para:


• Determinar que variables tienen mayor influencia en los valores de
respuesta
• Determinar el mejor valor de las variables x para tener un valor cercano al
valor de respuesta deseado.
• Determina el mejor valor de las variables para que el valor de la respuesta
tenga la menor variabilidad.

ice Douglas Montgomery en el primer capítulo de su libro titulado Diseño y Análisis


de Experimentos lo siguiente : “ Para que un experimento se realice en la forma
más eficiente, es necesario emplear métodos científicos en su planeación. El
diseño estadístico de experimentos es el proceso de planear un experimento para
obtener datos apropiados que puedan ser analizados mediante métodos
estadísticos, con objeto de producir conclusiones válidas y objetivas .Se requiere
de un enfoque estadístico del diseño de experimentos para obtener conclusiones
significativas a partir de los datos. La metodología estadística es el único enfoque
objetivo para analizar un problema que involucre datos sujetos a errores
experimentales. Así que hay dos aspectos en cualquier problema experimental: el
diseño del experimento y el análisis estadístico de los datos “

A efectos de poder dar un enfoque estadístico al diseño se deberán respetar tres


principios básicos en el diseño de experimentos:
• Replicación, o repetición de ensayos
• Aleatorización de experimentos
• Análisis por bloques.

El problema más importante para la aplicación del diseño experimental en la


industria es que la enorme mayoría de los técnicos no conoce en profundidad
sobre estadística, y consecuentemente menos sobre su aplicación al diseño
experimental.

Sin embargo, esto ha dejado de ser un problema con el acceso generalizado a la


computación, que nos provee de herramientas altamente eficientes en el tema y
nos permite dedicarnos prácticamente con exclusividad al análisis de resultados,
como veremos más adelante, abriendo las puertas masivamente a este tipo de
tecnologías.
Para poder realizar un programa de experimentos, es necesario previamente
comprender el problema que se desea estudiar, elegir las variables más
apropiadas y sus niveles de uso, elegir la o las salidas de respuesta a evaluar, el
modelo de diseño experimental a utilizar, realizar el experimento, analizar los
datos y sacar las conclusiones correspondientes.

Respecto de las variables a utilizar durante el experimento, juegan un papel de


gran importancia la experiencia previa del experimentador como su nivel de
conocimientos tecnológicos específicos. La elección inapropiada de los niveles de
las variables se traduce en la obtención de respuestas fuera de los niveles
esperados. Por ejemplo, la elección de niveles inapropiados de negro de humo en
un compuesto determinado dará resultados de tensión de rotura fuera del rango
que buscamos.

La elección inapropiada de los niveles de las variables se traduce en la obtención


de respuestas fuera de los niveles esperados. Por ejemplo, la elección de niveles
inapropiados de negro de humo en un compuesto determinado dará resultados de
tensión de rotura fuera del rango que buscamos.

En relación al modelo de diseño experimental a utilizar, existe una gran variedad


desarrollados en base al uso de las técnicas estadísticas y su aplicación de
cálculos en forma manual, o histórica, como pueden verse en la lista siguiente:

• Diseños por bloques aleatorizados


• Cuadrados latinos
• Diseños por bloques incompletos

Diseño factorial 2K
• Diseños fraccionarios de 2 niveles
• Diseños factoriales 3K
• Diseños factoriales 3k fraccionarios
• Diseños Jerárquicos
• Análisis de regresión lineal
• Superficie de Respuesta
• Diseños por bloques incompletos
• Diseño factorial 2K
• Diseños fraccionarios de 2 niveles
• Diseños factoriales 3K
• Diseños factoriales 3k fraccionarios
• Diseños Jerárquicos
• Análisis de regresión lineal
• Superficie de Respuesta

Todas estas técnicas han dado un significativo aporte a la historia de la


investigación. Sin embargo casi todas ellas, salvo el estudio de superficies de
respuesta adolecen del error de simplificación que implica suponer que las
variaciones de respuesta son lineales con las de las variables. Esto significa que
se supone que las respuestas no tienen curvatura y pueden ser representadas por
ecuaciones de primer grado.
El esquema de Superficie de Respuesta asume en principio que todas las
variables son de segundo grado, lo que implica una mayor complejidad en la
resolución de los temas relacionados al análisis estadístico. Su principio
fundamental es trabajar con el concepto de línea de regresión, aplicado a una
ecuación de segundo grado, que cuando se usa para dos variables
independientes se transforma en una superficie de respuesta, de donde toma su
nombre.
.
La ecuación fundamental para dos variables se representa de la siguiente forma:
Y = A11X1^2 + A1X1 + A22X2^2 + A2X2 + A12X1X2 + A0 (1)
Donde Y es la respuesta que estudiamos, X1 y X2 las variables que modificamos y
los diversos Ají los coeficientes de la ecuación que definen el proceso.

Existen varios programas de computación específicamente desarrollados para


este tema, entre los cuales podemos citar los producidos por:

• Design Experto
• E-Chip
• JMP
• Minitab
• Statgraphics
• Statistica

Para poder utilizar Excel es necesario conocer los fundamentos estadísticos del
diseño de experimentos y plantear sus ecuaciones para determinación de errores,
análisis de variancia y cálculo matricial.

A efectos de resolver el cálculo matricial arriba presentado, existen en Excel


funciones como MDETERM, MINVERSA, MMULT, TENDENCIA, etc.

1.5.2.3 DISEÑO DEL PROCESO

Concepto: Secuencia de operaciones que transforman inputs en outputs.


Resultado de la implementación de una tecnología: forma concreta de hacer
trabajar en equipo a unos inputs combinados en una proporción dada influencia
en:
• Estructura de costes
• Calidad del producto
• Tiempos de entrega
• Flexibilidad de las operaciones
TIPOS DE PROCESO

TIPO DE PROCESO LINEAL CONTRA INTERMITENTE


• Secuencia prescrita
• Acoplamiento de tareas individuales
• Equipo muy especializado (Economías de Escala)
• Productos muy estandarizados
• Eficientes pero inflexibles

PROYECTO
• Existe una serie de tareas a realizar que hay que programar teniendo en
cuenta las relaciones de precedencia
• Producto único (gran componente de creatividad)
• No fáciles de automatizar
• Muy flexible

TIPOS DE PROYECTOS
• Proyectos:
• Edificios, carreteras, diques, puentes, agencias de publicidad, hospitales,
películas, etc.
• Es decir es un producto único

DISTRIBUCION
Ordenación y ubicación de los factores productivos para integrar los diferentes
elementos en un sistema productivo que consiga los objetivos propuestos.

INDICIOS QUE REQUIEREN UNA REDISTRIBUCION


• Falta de espacio
• Cuellos de botella
• Accidentes laborales
• Acumulación de materiales en proceso
• Distancias excesivas a recorrer en el proceso
• Malestar de los trabajadores

CORRESPONDENCIA ENTRE TIPO DE PROCESO Y DISTRIBUCION


TIPOS DE DISTRIBUCION
Los componentes se ordenan según las etapas progresivas a través de las que
avanza la fabricación
Unos a continuación de otros. Se minimiza el transporte, movimiento interno
Equilibrado de la línea

TIPOS DE DISTRIBUCION
• POSICIÓN FIJA
• PROYECTOS

Todos los factores se trasladan al lugar donde el producto está inmovilizado


según se van requiriendo
Programación y control del proyecto

DISTRIBUCION EN FORMA DE U
Se suele utilizar para células de trabajo.
Son pequeñas líneas de fabricación, es decir conjunto de máquinas y trabajadores
que realizan una serie de operaciones sobre una serie de productos o piezas.
Las piezas siguen un camino secuencial (la U) pero los operarios no.
Intenta compatibilizar los objetivos de eficiencia y flexibilidad.

1.5.2.4 NIVELES DE CALIDAD

Nivel 1: Inspección. En este nivel se asume que la empresa produce defectos de


calidad y existe un equipo o departamento que se dedica única y exclusivamente a
separar los productos defectuosos de los buenos. Tipos de inspecciones hay
muchos. Éstos van desde los más sencillos, inspección total, a inspecciones más
evolucionadas basadas en parámetros estadísticos, muestreos e inspecciones
selectivas. Pero por muy evolucionada que sea la inspección, si ésta es la única
herramienta utilizada para conseguir productos de calidad, estaremos en el nivel
bajo de los sistemas de calidad. En los sistemas de calidad más evolucionados
existe también la inspección, pero la filosofía es totalmente distinta.

No se trata de inspeccionar para eliminar los productos defectuosos sino para


comparar la calidad obtenido con la calidad planificada, estudiar las desviaciones y
corregir el proceso para obtener la calidad deseada. Los sistemas de calidad más
ambiciosos como el Seis Sigma ni tan siquiera aceptan la posibilidad de productos
defectuosos. En estos sistemas se puede eliminar la inspección final
substituyéndola por inspecciones del proceso. Si el proceso está controlado, la
calidad final será la planificada.

Nivel 2: Control de Calidad. La aplicación de técnicas estadísticas a los procesos


productivos nos permite la obtención de informaciones muy valiosas sobre los
procesos de producción. Podemos determinar la capacidad de un proceso, es
decir, demostrar si el proceso está suficientemente bien preparado para producir
sin defectos de calidad en condiciones normales. También nos permite determinar
las causas especiales de fallo que afectan al proceso, es decir, aunque el proceso
sea capaz, puede haber una causa especial (operario, material defectuoso, avería,
etc.) que provoque la aparición de productos defectuosos.

Nivel 3: Aseguramiento de la Calidad. El aseguramiento de la calidad supone un


paso más en la evolución de los sistemas de calidad porque en estos sistemas se
involucra a todos los departamentos de la empresa, no sólo al de calidad, se da
mayor importancia al factor humano en la empresa y la dirección de la empresa
empieza a tomar el papel de liderazgo en la consecución de los objetivos de
calidad. No obstante, los sistemas de aseguramiento de la calidad no son los
sistemas de calidad más evolucionados que se conocen porque tienen un objetivo
de calidad determinado y se limitan a asegurar ese nivel de calidad sin
preocuparse por superarlo.

Aunque en los sistemas de aseguramiento de la calidad más conocidos como el


ISO 9000 y otros se anime a la mejora continua, estos sistemas no son
suficientemente evolucionados para conseguir mejoras permanentes en los
procesos.
El hecho de que las empresas propongan un objetivo de porcentaje de defectos
aceptables y se limiten a conseguirlo ha sido muy criticado por los gurús de la
calidad como Deming, Juran y otros, ya que es poco ambicioso y evita la mejora
de la competitividad.

Nivel 4: Calidad Total. La calidad total integra todos los elementos de calidad de
los niveles anteriores pero la amplia a todos los niveles de la empresa y a todo su
personal. Se caracteriza por una búsqueda constante de mejora en todos los
ámbitos de la empresa y no sólo los aspectos productivos. La calidad llega hasta
la propia elección estratégica de la empresa teniendo en cuenta todos los
escenarios competitivos y poniendo la voz del cliente en el lugar más importante,
que es el que le corresponde. Es en éste nivel en el cual operan las empresas que
han implementado el Sistema Just-in-Time.

En la actualidad conviven en la arena competitiva empresas con sistemas de


calidad de distintos niveles, no obstante el incremente de la competencia y la
globalización de los mercados están empujando inexorablemente a las empresas
a desarrollar sistemas de calidad más evolucionados.