Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ALUMNOS:
CASTAÑEDA GUZMAN OSCAR ARMANDO
CRUZ MONREAL JESSICA
DELGADILLO GALVEZ PEDRO DE JESUS
GONZALEZ CAMACHO ALEXIS JAVIER
IBARRA ZAMORANO KEILA JIREH
OTILIO CASTILLO JOSE LUIS
NAVA RAMIREZ RODRIGO
SECUENCIA
4AV70
PROFESOR:
GONZALEZ BERMEJO JUAN JOSE.
Ajustar (A). En función de los resultados obtenidos, y una vez analizados por la
dirección, ésta marcará una serie de nuevas acciones correctoras para mejorar
aquellos aspectos de los procesos en los que se han detectado debilidades o
errores. En consecuencia, se tiene que “Actuar” (“Act” en inglés) para estandarizar
las soluciones, mejorar la actividad global de la organización y la satisfacción del
cliente.
Para cerrar el ciclo, la dirección, haciendo un análisis global del ciclo completo,
volverá a planificar una serie de objetivos aplicables a la siguiente iteración del
bucle.
1.2 ENFOQUE DE LOS PROCESOS Y EL EMPLEO DE LAS HERRAMIENTAS
BÁSICAS DE CALIDAD
ENFOQUE DE PROCESOS
• Un proceso es un conjunto de actividades que están relacionadas entre sí,
o que interactúan entre sí. Los procesos utilizan recursos para trasformar
insumos en productos o servicios.
Recopilación de la información.
Hoja de control.
Las hojas de control o también llamadas hojas de registro o recogida de datos son
formas estructuradas que facilitan la recopilación de información, previamente
diseñadas con base en las necesidades y características de los datos que se
requieren para medir y evaluar uno o varios procesos.
Una hoja de registro es un formato pre impreso en el cual aparecen los ítems que
se van a registrar, de tal manera que los datos puedan recogerse fácil y
concisamente. (Vasco & Kumen, 1992).
Las Hojas de Recogida de Datos son impresos que se utilizan para reunir datos
que, en general, se anotan de forma tabular o en columnas. Normalmente
requieren de un proceso adicional, una vez recogidos los datos, utilizando una
herramienta de análisis de los mismos.
Se puede afirmar que las hojas de control son las herramientas bases para la
recolección y análisis de datos, que permiten realizar seguimientos en el proceso
de resolución de problemas.
Hojas de Comprobación
Las hojas de comprobación (también llamadas “de verificación”, “de control” o “de
chequeo”) son impresos con formato de tabla o diagrama, destinados a registrar
datos relativos a la ocurrencia de determinados sucesos, mediante un método
sencillo.
Esta técnica de recogida de datos se prepara de manera que su uso sea fácil. Que
no interfiera lo menos posible con la actividad de quien realiza el registro. En
la mejora de la Calidad, se utiliza tanto en el estudio de los síntomas de un
problema, como en la investigación de las causas o en la recogida y análisis de
datos para probar alguna hipótesis.
Las hojas de comprobación centran la atención en los hechos. Es decir, objetiva
un problema sobre la base de datos que ofrezcan una perspectiva realista.
Los datos a coleccionar pueden ser de muy distinta naturaleza, así como los
fenómenos a estudiar. Los tipos de formatos de hojas de comprobación también
pueden ser muy diversos, de modo que se ajusten al problema o hipótesis a
analizar.
1. Determinar el objetivo
4. Tomar datos
Una vez diseñada la hoja de comprobación se procede a iniciar la toma de datos.
Ventajas:
· Es un método que proporciona datos fáciles de comprender y que son obtenidos
mediante un proceso simple y eficiente que puede ser aplicado a cualquier área
de la organización.
· Estas hojas reflejan rápidamente las tendencias y patrones derivados de los
datos.
· Proporciona registros históricos, que ayudan a percibir los cambios en el tiempo.
· Facilita el inicio del pensamiento estadístico.
· Ayuda a traducir las opiniones en hechos y datos.
Características:
A continuación se citan una serie de características que ayudan a comprender
la naturaleza de la herramienta.
· Sencillez: Una Hoja de Comprobación permite registrar los datos de forma simple
y directa.
· Comunicación de información: Permite ver si hay una tendencia en los datos
según se va completando la hoja. Permite un análisis visual de dichas tendencias
o comportamientos.
· Flexibilidad: La forma en la que presentan los datos, permite utilizar, los mismos
para múltiples análisis posteriores y contestar diferentes preguntas.
· Disponibilidad: Permiten tener los datos reunidos de forma ordenada y sencilla
para su posterior utilización.
Usos y aplicaciones:
La hoja de recogida de datos se construye en función de los objetivos y de la
finalidad, que pueden ser muy diversos de una situación a otra:
· Problemas relacionados con la seguridad
· Tipo y número de defectos.
· Cantidad de producto fuera de las especificaciones.
· Respeto de una secuencia de operaciones.
· Valoración completa o en detalle de un problema.
· Grado de influencia sobre un problema de aspectos tales como el turno,
los materiales, las maquinas, etc.
Tipos y ejemplos:
Hoja de control para la distribución de frecuencias:
Para estudiar la distribución de los valores característicos de un proceso, se usan
normalmente histogramas. Una manera más sencilla es clasificar los datos
exactamente en el momento de recogerlos; para ello se utiliza una hoja de control
en la cual se coloca una marca cada vez que se realiza una medición, de manera
que el histograma esté listo cuando se acaben de hacer las mediciones.
Para ello, Kaoru Ishikawa, experto en control de calidad comprobó que muchos de
los problemas con los que se topan las empresas día a día tienen 4 categorías:
Personas.
Materiales.
Maquinaria.
Procesos o métodos.
Estos cuatro elementos cubren casi todas las potenciales causas que dan origen a
un problema empresarial.
DESCRIPCIÓN
Pareto enunció el principio basándose en el denominado conocimiento empírico.
Estudió que la gente en su sociedad se dividía naturalmente entre los «pocos de
mucho» y los «muchos de poco»; se establecían así dos grupos de proporciones
80-20 tales que el grupo minoritario, formado por un 20% de población, ostentaba
el 80% de algo y el grupo mayoritario, formado por un 80% de población, el 20%
de ese mismo algo. En concreto, Pareto estudió la propiedad de la tierra en Italia y
lo que descubrió fue que el 20% de los propietarios poseían el 80% de las tierras,
mientras que el restante 20% de los terrenos pertenecía al 80% de la población
restante.
Estas cifras son arbitrarias; no son exactas y pueden variar. Su aplicación reside
en la descripción de un fenómeno y, como tal, es aproximada y adaptable a cada
caso particular.
VENTAJAS
APLICACIONES
EN CONTROL DE CALIDAD:
El principio de Pareto permite utilizar herramientas de gestión, como el diagrama
de Pareto, que se usa ampliamente en cuestiones relacionadas con el control de
calidad (el 20% de los defectos afectan en el 80% de los procesos). Así, de forma
relativamente sencilla, aparecen los distintos elementos que participan en un fallo
y se pueden identificar los problemas realmente relevantes, que acarrean el mayor
porcentaje de error.
EN INGENIERÍA DEL SOFTWARE:
De la misma manera, en el mundo de la ingeniería del software el principio de
Pareto puede ser enunciado de diferentes formas:
5. Así por ejemplo cuando hablamos de los costes de desarrollo podríamos
decir que «el 80% del esfuerzo de desarrollo (en tiempo y recursos)
produce el 20% del código, mientras que el 80% restante es producido con
tan solo un 20% del esfuerzo».
6. Si hablamos de pruebas de software, el principio nos dice que «el 80% de
los fallos de un software es generado por un 20% del código de dicho
software, mientras que el otro 80% genera tan solo un 20% de los fallos».
FINANZAS PERSONALES:
Por dónde empezar para generar nuevos ingresos? Dicho de otra manera, si
tienes que recortar tus gastos, si en tu empresa tienes que eliminar costos
superfluos, si no todos los productos que vendes te dejan la misma
ganancia, ¿qué hacer si vives al día con tu sueldo y te sientes atrapado?
Hace más de un siglo, alguien observó algo muy interesante sobre la relación
causa-efecto. Esta regla no es exacta, pero vale la pena tener en cuenta esta
visión del mundo y sus consecuencias.
El Principio de Pareto es también conocido como la regla 80-20. Estas cifras son
arbitrarias; no son exactas y pueden variar. Su aplicación reside en la descripción
de un fenómeno y, como tal, es aproximada y adaptable a cada caso particular.
Ejemplos:
Entonces cabe preguntarse: ¿Dónde hay que poner el foco? Me preocupo por el
80 o por el 20? La respuesta mágica es: depende. Hay muchos que hicieron
fortunas trabajando solo con la venta de los mejores libros (best sellers), o con las
mejores películas, o con la mejor música. Seguramente, éstos son el 20 por ciento
que genera el 80 por ciento del dinero en un mercado. ¿Qué pasa con el resto?
Como dicen algunos: “estamos dejando dinero sobre la mesa”.
Hay muchos autores desconocidos que tienen una audiencia, también reducida. El
punto es que son muchos; pequeños, pero muchos.
Antes existían menos de una decena de canales de televisión, solo trasmitidos por
antena y disponibles en la zona geográfica donde uno vivía; luego apareció la
televisión por cable, agregando así más de 100 canales. Hoy en día, con internet,
existen cientos de miles de canales.
Para tu economía personal, la reflexión de este principio es: que es común que
tengas pocas fuentes de ingresos (generalmente tenemos una) y, que de ellas,
emane la mayor parte del monto total de tus gastos.
Figura 1.
Estratificando esos datos se pueden obtener informaciones útiles; por ejemplo, si
ese departamento trabaja en dos turnos, puede resultar útil, estratificar los datos
entre los dos turnos y observar si existen diferencias. En el caso que se analizará,
como se refleja en los dos histogramas de las figuras 2 y 3, se observa que la
dispersión del primer turno es mayor que la del segundo. Ese hecho nos
proporciona la clave de la lectura de la situación: efectivamente, nos dice que el
primer turno ofrece una situación menos positiva. Eso servirá de base para un
análisis más profundo, aunque limitado al primer turno.
Figura 2.
Figura 3.
Otro ejemplo, si en una empresa mecánica existen tres maquinas fresadoras
cuya producción total tiene unos rechazos del 10%, se puede proceder a una
estratificación de los rechazos por tipo de maquina recogiendo los datos durante
una semana. Estratificando de esta manera se puede poner de manifiesto, por
ejemplo, que una de las tres maquinas genera por sí sola el 9% de los rechazos,
mientras que cada una de las otras dos provoca unos rechazos del 0,5%.
El objetivo de la estratificación es el de hacer que hablen los datos, es decir,
definir el factor (o los factores) más significativos en cuanto a los datos que
representan cierto fenómeno.
Características
Proceso
Paso 1: Elaborar una teoría admisible y relevante sobre la supuesta relación entre
dos variables. Este paso previo es de gran importancia, puesto que el análisis de
un Diagrama de Dispersión permite obtener conclusiones sobre la existencia de
una relación entre dos variables, no sobre la naturaleza de dicha relación.
Paso 2: Obtener los pares de datos correspondientes a las dos variables al igual
que en cualquier otra herramienta de análisis de datos, estos son la base de las
conclusiones obtenidas, por tanto cumplirán las siguientes condiciones:
Información completa: Anotar las condiciones en que han sido obtenidos los
datos.
Paso 3: Determinar los valores máximo y mínimo para cada una de las variables.
Paso 4: Decidir sobre qué eje representará a cada una de las variables
EJEMPLO
Con el ejemplo base que hemos expuesto podemos analizar que la variable
tiempo de egreso de la IPS, después del alta médica, está relacionada con los
días estancia en la institución, con el tipo de patología, la condición del paciente;
para nuestros fines se analizara la primera consecuencia que es la estancia que
ocasiona el paciente por sus variantes expuestas.
Tipos de histogramas:
Posibilidades:
La curva de distribución normal del proceso coincide o está dentro de los límites
establecidos por la industria (bien en las normas de calidad desarrolladas o bien
en las recomendaciones establecidas por las asociaciones). En este caso el
proceso opera con eficacia y se pueden realizar trabajos de alta exigencia con
respecto a la variable controlada.
La curva de distribución supera los límites establecidos por la industria. En este
caso puede que estén operando causas asignables de variación o que existen
limitaciones debidas a los recursos y equipos empleados por lo que no es posible
realizar trabajos exigentes con respecto a la variable controlada hasta que no se
hayan eliminado las causas especiales de variación o no se dispongan de los
recursos y equipos adecuados.
El histograma generado no muestra las características básicas de una distribución
normal. En este caso están claramente actuando causas asignables de variación
que habrá que resolver si queremos conseguir un alto grado de fiabilidad del
proceso y realizar trabajos de alta exigencia.
2.4 Gráficas de control
Se trata de características que no pueden medirse, pero que sin embargo hay que
controlar.
Las características de calidad que no pueden ser medidas con una escala
numérica, se juzga a través de un criterio más o menos subjetivo.
Los datos se presentan con periodicidad a la gerencia y con ellos se integran
números índices, que son muy importantes en el desarrollo de una empresa, estos
pueden referirse al producto, desperdicio rechazo de materiales.
· De un criterio
· De una prueba
· De una decisión
CP.
μ media
CPK.
Ayudar en el programa de
calidad total.
Identificar oportunidades de
mejora
Implantar programas de de mejora.
Diagrama de Relaciones
Esta es quizás una de las herramientas más sencillas, aunque no por eso menos
útil. Permite obtener una visión sistemática del problema (razón por la que también
se lo conoce como Diagrama Sistemático). Su estructura es similar a la del
organigrama de una organización en el que se plantea una relación jerárquica. En
el nivel superior se coloca el objetivo principal a alcanzar y luego se va
desglosando en ramas. De cada objetivo se van desprendiendo los medios
posibles para alcanzarlo y un nuevo objetivo del cual se desprenderán nuevos
medios, y así sucesivamente. Una mejor comprensión puede obtenerse a través
del siguiente esquema:
Diagrama de Matriz
Es quizás la mejor manera de volcar gráficamente la relación que hay entre dos
aspectos o variables a analizar. Se pueden vincular opciones con criterios, causas
con efectos, etc. Uno de los aspectos se coloca en las filas de la matriz, y el otro
en las columnas. En la celda que resulta de la intersección de ambas se coloca
generalmente un símbolo que suele representar el grado de relación existente:
fuerte, media o débil. Esto nos permite tener referencia del grado de vinculación o
conexión que existe entre ambos aspectos.
Matriz de Priorización
Es una herramienta, también conocida por las siglas PDPC (Process Decision
Program Chart) muy útil para detectar posibles obstáculos o inconvenientes al
implementar un plan de acción, permitiéndonos tomar decisiones a tiempo para
solucionarlos. Se parte desde la actividad inicial y se va descendiendo. En primer
lugar encontramos a las fases, que son las tareas fundamentales que deben
realizarse para alcanzar el objetivo. De cada una de ellas se plantean problemas
que puedan surgir (problemas potenciales) los cuales aparecen en el nivel
inmediato inferior. Para cada problema se determinan medidas para
contrarrestarlos. Las medidas aparecen en el nivel inferior. Si la medida es
efectiva, se coloca un círculo (O) debajo. Si no lo es, una cruz (X). Se
implementan, entonces, sólo las medidas que llevan un círculo.
Diagrama de Flechas
Como en todos los casos, antes de comenzar el grupo de trabajo debe identificar
claramente cuál es el objetivo del uso de la herramienta y definir los límites y el
alcance. Los eventos o situaciones son representados por círculos y las
actividades necesarias para pasar de un evento a otro, por flechas.
3.2 LAS 5’ S.
Los primeros en asumir este compromiso son los Gerentes y los Jefes y la aplicación de esta es el ejemplo
más claro de resultados acorto plazo.
Resultado de Aplicación de las 5 S
Estudios estadísticos en empresas de todo el mundo que tienen implantado este sistema demuestran
que:
Aplicación de 3 primeras S :
-Reducción del 40% de sus costos de Mantenimiento.
-Reducción del 70% del número de accidentes.
-Crecimiento del 10% de la fiabilidad del equipo.
-Crecimiento del 15% del tiempo medio entre fallas.
¿QUÉ BENEFICIOS APORTAN LAS 5S?
La implantación de las 5S se basa en el trabajo en equipo.
Los trabajadores se comprometen.
Se valoran sus aportaciones y conocimiento.
LA MEJORA CONTINUA SE HACE UNA TAREA DE TODOS.
Conseguimos una MAYOR PRODUCTIVIDAD que se traduce en:
Menos productos defectuosos.
Menos averías.
Menor nivel de existencias o inventarios.
Menos accidentes.
Menos movimientos y traslados inútiles.
Menor tiempo para el cambio de herramientas.
Lograr un MEJOR LUGAR DE TRABAJO para todos, puesto que conseguimos:
Más espacio.
Orgullo del lugar en el que se trabaja.
Mejor imagen ante nuestros clientes.
Mayor cooperación y trabajo en equipo.
Mayor compromiso y responsabilidad en las tareas.
Mayor conocimiento del puesto.
Seiri (selección):
Distinguir entre aquellas cosas que se necesitan y aquellas que pueden esperar.
Seiton (organización):
Organizar las cosas para que luego sea más fácil encontrarlas.
Seiso (limpieza):
Disponer de un sitio de trabajo limpio, cómodo y debidamente ordenado.
Seiketsu (Estandarización):
Mantener las 3 primeras s (selección, organización y limpieza).
Shitsuke (hábitos):
Disciplina, constancia; realizar las acciones correctas como parte de nuestra rutina.
KAI: Modificaciones
ZEN: Para mejorar
Los anteriores son tan solo algunos ejemplos de los casos en los cuales aplica la
ejecución de un evento Kaizen.
Criterio de bajo o nulo costo: El Kaizen es una filosofía de mínima inversión que
complementa la innovación, de ninguna manera estimula que un parámetro de
gestión se mejore mediante el uso intensivo de capital dejando de lado la mejora
continua. Las alternativas de inversión que propone se centran en la creación de
mecanismos de participación y estímulo del personal.
Para tal fin existen herramientas como el ciclo de Deming o PDCA, o herramientas
como MOVE WorkShop. Explicaremos en este caso el ciclo sistemático de
Deming.
1. Planificar (Plan)
Esta etapa es de selección del objeto de mejora, en ella se explican las razones
de dicha elección y se definen unos objetivos claros que se deben alcanzar.
Situación actual
Análisis de información (Datos del objeto)
Objetivo
2. Hacer (Do)
Six sigma o seis sigma, como es conocida en español, es una filosofía de trabajo
que nació como una metodología de mejora y solución de problemas complejos.
Su creador fue el doctor Mikel Harry, el cual la desarrolló como una herramienta
de control y disminución de la variación en los procesos. A partir de ese entonces
su concepto ha evolucionado a través de múltiples aportes hasta convertirse en
una filosofía puesta en práctica en los procesos de más alto desempeño.
En el ámbito organizacional fueron Motorola, General Electric y Honeywell quienes
popularizaron la metodología, con participación activa de su creador.
Desde un punto de vista estadístico: Six sigma es una métrica que permite
medir y describir un proceso, producto o servicio con una capacidad de proceso
extremadamente alta (precisión del 99,9997%). Six sigma significa "seis
desviaciones estándar de la media", lo cual se traduce matemáticamente a menos
de 3,4 defectos por millón.
Lo anterior significa que un proceso que implemente six sigma dejará de utilizar el
promedio como métrica para evaluar los resultados globales; en cambio utilizará la
desviación estándar, la cual representa la variación de un conjunto respecto a su
media, de manera que el proceso deberá cumplir de forma "consistente" con las
especificaciones de calidad, cambiando el paradigma de promediar buenos y
malos resultados.
Desde un punto de vista estratégico: Six sigma es una filosofía (estrategia y
disciplina) que ajusta los procesos con la mínima tolerancia posible como una
forma de reducir los desperdicios, los defectos y las irregularidades tanto en los
productos como en los servicios.
Estrategia: se enfoca en la satisfacción del cliente.
Disciplina: Sigue un modelo formal y sistemático de mejora continua, DMAIC.
El principal propósito del Six sigma es lograr la satisfacción de los clientes, en ese
orden se enfoca en comprender sus necesidades, recolectar información, y por
medio de un análisis estadístico encontrar oportunidades de mejora, una mejora
consistente.
Debe trabajarse desde las características críticas hasta asegurar todas las
variables de lo procesos. (AMEF)
En primer lugar se debe considerar que Lean Manufacturing y Six sigma son
estrategias diferentes; mientras Lean Manufacturing tiene un enfoque orientado en
la productividad, Six sigma tiene un enfoque orientado en la reducción de la
variación.
Se obtienen datos y mediciones del proceso. Es usual que esta fase se soporte
en mapas de valor y observación. Deben medirse y documentarse aspectos
claves, datos relevantes, contemplar todas las variables y los parámetros que
afectan los procesos.
ANALIZAR
Tal como afirma el especialista Oskar Olofsson: "Si las estadísticas no apoyan una
relación causa y efecto, DMAIC de Six sigma no ofrece una solución."
CONTROLAR
“La reingeniería de procesos es, por definición, el método mediante el cual una
organización puede lograr un cambio radical de rendimiento medido por el costo,
tiempo de ciclo, servicio y calidad, por medio de la aplicación de varias
herramientas y técnicas enfocadas en el negocio, orientadas hacia el cliente, en
lugar de una serie de funciones organizacionales, Todas las personas deben
entender las metas finales, la manera de alcanzarlas y los indicadores que
medirán el éxito”.
De acuerdo a este enfoque, la empresa debe orientar sus esfuerzos hacia el logro
de metas que consideren al cliente y sus criterios de valor. Para esto los
indicadores de actuación que se establecen son:
Calidad.
Tiempo de fabricación
Costo.
Servicio.
Permite que los esfuerzos del Just in Time (JIT) y el Total Quality Management
(TQM) se vean incrementados.
Son tres los tipos de reingeniería de procesos que pueden ser implementados por
una empresa:
Mejorar costos
Lograr “ser el mejor de su clase”
Realizar un punto de innovación radical
Los trabajos tienen múltiples versiones, las cuales son aplicadas de acuerdo a las
circunstancias
El trabajo se lleva a cabo en el sitio razonable Los controles y verificaciones son
reducidos
La coalición se minimiza
Un gerente de caso ofrece un solo punto de contacto
Prevalecen las operaciones híbridas centralizadas – descentralizadas
3.5.2 KANBAN.
3. Distribución del trabajo. Una cómoda visión general de los trabajos en curso y
menos tiempo dedicado a la distribución y presentación de los trabajos. Las
estimaciones son imperfectas, por consiguiente, un flujo constante de tareas
reducirá su tiempo de espera y el tiempo dedicado a la asignación de tareas.
Usted selecciona sus tareas, por tanto no tendrá que esperar a que la tarea vaya
hacia usted.
3.5.3 POKA YOKE.
El sistema Poka-Yoke puede diseñarse para prevenir los errores o para advertir
sobre ellos:
1- Función de control:
En este caso se diseña un sistema para impedir que el error ocurra. Se busca la
utilización de formas o colores que diferencien cómo deben realizarse los
procesos o como deben encajar la piezas.
2- Función de advertencia:
En este caso asumimos que el error puede llegar a producirse, pero diseñamos un
dispositivo que reaccione cuando tenga lugar el fallo para advertir al operario de
que debe corregirlo. Por ejemplo, esto se puede realizar instalando barreras
fotoeléctricas, sensores de presión, alarmas, etc.
– Flechas e indicaciones del tipo “a-> <-a“, “b-> <-b“… para indicar dónde va
encajada cada pieza y cuál es su orientación.
Pues se entiende como just in time a la filosofía que busca la eliminación de todo
lo que implique desperdició en el proceso de producción, desde las compras hasta
la distribución.
Se basa en que tanto el material intermedio como los productos acabados deben
estar en su sitio justo cuando sea necesario y no antes. Además, la cantidad de
material intermedio, como de producto terminado, debe ser la justa para satisfacer
las necesidades del cliente.
roducir bajo stock se considera un aumento en los costes de producción.
Hasta esa época, este método se conocía como el método japonés, pero que al
ser estudiado para una propia implementación en los países de occidente,
principalmente de Estados Unidos, pasó a recibir el nombre de just in time o justo
a tiempo.
Reducir los niveles de stock produciendo justo la cantidad que nos indica la
operación inmediatamente posterior
Disminución de inventarios de productos intermedios al mínimo; así se
detectarán cuellos de botella y permitirán su mejora.
Simplificación de toda la tarea administrativa del aprovisionamiento.
Conseguir un flujo de producción nivelado y equilibrado.
3.5.5 BENCHMARKING.
El benchmarking es un proceso continuo por el cual se toma como referencia los
productos, servicios o procesos de trabajo de las empresas líderes, para
compararlos con los de tu propia empresa y posteriormente realizar mejoras e
implementarlas.
No se trata de copiar lo que está haciendo tu competencia, si no de aprender que
están haciendo los líderes para implementarlo en tu empresa añadiéndole
mejoras. Si tomamos como referencia a aquellos que destacan en el área que
queremos mejorar y estudiamos sus estrategias, métodos y técnicas para
posteriormente mejorarlas y adaptarlas a nuestra empresa, conseguiremos
alcanzar un nivel alto de competitividad.
TIPOS DE BENCHMARKING
Existen diferentes tipos de benchmarking: competitivo, interno y funcional. El
objetivo común de los tres tipos es ayudar a los managers a que miren hacia
fuera de sus departamentos, de sus organizaciones, hacia su competencia o hacia
otros sectores en las que hay compañías que son las mejores en su clase.
-Competitivo
El benchmarking competitivo busca medir los productos, servicios, procesos y
funciones de los principales competidores para realizar una comparación con
nuestra empresa y poder detectar y llevar a cabo mejoras que superen a las de
nuestros competidores.
Quizás sea el más complicado de llevar a cabo de los tres tipos, puesto que el
análisis y el estudio como ya he mencionado se realizan sobre los principales
competidores. Al considerarse tu competencia directa, en la gran mayoría de los
casos no están interesados en colaborar. ¿Esto quiere decir que si no colaboran
no lo podamos llevar a cabo? Por supuesto que no, pero obviamente en la
recopilación de los datos necesarios se deberán emplear más recursos, y por
tanto será mucho más costosa.
-Interno
El benchmarking interno se lleva a cabo dentro de la misma empresa. Se suele
llevar a cabo en empresas grandes que cuentan con diferentes departamentos o
también con grupos empresariales que están formados por varias empresas. En el
proceso se identifica un departamento o área que sea un ejemplo a seguir por sus
buenos resultados para poder llevar a cabo un benchmark con los demás
departamentos internos de la compañía.
Es el más fácil de realizar dentro de compañías con estructuras con un cierto
tamaño, además normalmente es el que menos recursos necesita para llevarlo a
cabo, ya que la información se obtiene de la propia empresa.
-Funcional
El benchmarking funcional identifica las mejores prácticas de una empresa que
sea excelente en el área que se quiere mejorar. No es necesario que esta
empresa sea competidora o incluso que pertenezca al mismo sector.
Normalmente es muy productivo, dado que al no tratarse de organizaciones que
no son competidoras directas no existe un problema de confidencialidad y se suele
ofrecer la información necesaria para el estudio.
ETAPAS DEL BENCHMARKING
Para diseñar y hacer correctamente un proceso de benchmarking en tu empresa,
recomiendo seguir los siguientes pasos: planificación, recopilación de datos,
análisis, acción y seguimiento.
1.Planificación
El objetivo principal de esta primera etapa es planificar la investigación que se va
realizar. En esta etapa hemos de responder a tres preguntas:
-¿Qué quiero medir? Toda investigación tiene que tener un porqué, y éste debe
estar relacionado con un área de nuestra empresa que queremos mejorar.
-¿A quién voy a medir? Para responder a esta segunda pregunta hemos de
plantearnos qué tipo de benchmarking vamos a seguir: competitivo, interno o
funcional. Una vez hayamos tomado la decisión sabremos si nos compararemos
con un departamento propio o con una empresa de dentro o fuera del sector.
-¿Cómo vamos hacerlo? Para llevar a cabo el proyecto hemos de crear un equipo
de trabajo para que sea responsable de la organización y de la dirección del
mismo.
2. Datos
La recopilación de datos es fundamental para el benchmarking, de ello dependerá
en gran medida el éxito o el fracaso de todo el proceso. Podemos obtener datos
de diferentes fuentes: interna, asociaciones profesionales o investigaciones
propias entre otras.
3. Análisis
Una vez hemos recopilado la información necesaria, hemos de analizar los
elementos que causan las diferencias entre nuestra compañía y las empresas
estudiadas, para poder identificar las oportunidades de mejora.
Una vez hemos identificado la magnitud de las diferencias, es el momento de
proponer las mejoras que vamos a llevar a cabo. Hay que tener en cuenta que
únicamente seleccionaremos aquellas mejoras que por tamaño, recursos e
infraestructura sea viable llevar a cabo por nuestra empresa.
4.Acción
El siguiente paso después de analizar la información y de haber seleccionado los
aspectos de referencia en las empresas seleccionadas, es el momento de
adaptarlos a nuestra empresa pero siempre implementando mejoras.
Dicho de otro modo, después de analizar la información y de lograr identificar los
mejores aspectos de las empresas que hemos seleccionado, los tomamos como
puntos de referencia para adaptarlos a nuestra empresa pero siempre añadiéndole
alguna mejora o alguna ventaja que le aporte valor a nuestros clientes.
5.Seguimiento y mejora
En esta última etapa se debe hacer un informe con toda la información destacada
del proceso. Esto ayudará a retomar el trabajo en proyectos posteriores. La idea
es que se convierta en un ejercicio de la empresa sostenido en el tiempo para
adoptar una mejora continua.
EJEMPLOS DE BENCHMARKING
Uno de los mejores ejemplos que se ha llevado a cabo en los últimos años, es el
protagonizado por Starbucks. La inestabilidad económica y la apuesta por
potenciar las ventas de café por parte de empresas de fast food como McDonalds,
han hecho que Starbucks haya iniciado un proceso de benchmarking.
¿Qué decidieron mejorar para paliar esta situación? Uno de los aspectos vitales
para su modelo de negocio es el tiempo de la preparación de sus cafés. Como
hemos visto anteriormente, se necesita una empresa líder en quien fijarse para
implementar posteriormente las mejoras. La empresa elegida: el fabricante
automovilístico japonés Toyota. Sin duda un gran ejemplo a seguir en la
optimización del tiempo de fabricación de sus productos.
Al parecer el 30% del tiempo empleado en la preparación de los famosos cafés de
Starbucks se pierde en el tiempo utilizado por los empleados en agacharse, andar
o escoger los ingredientes. Después de realizar un análisis de los benchmarks,
implementaron un plan de acción basado en la optimización de los procesos para
preparar sus cafés, un rediseño del espacio de trabajo, junto con una nueva
disposición de los utensilios y las maquinas necesarias para la preparación de sus
productos. Aspectos aparentemente tan simples como acercar y mejorar la
disposición de los ingredientes más utilizados en sus cafés, hicieron que se
mejorara casi en un 20% el tiempo de elaboración de sus productos.
CONCLUSIÓN GENERAL
Consideramos que al desarrollar todos los tópicos incluidos en estas unidades
temáticas, nos brindan los conocimientos necesarios y esperados para lo cual se
elaboró dicho programa. Todos los temas se adaptan al propósito y obtenemos
conocimientos bastos en cuanto a los procesos se refiere.
Se abarcaron temas como la identificación y la importancia del papel que juega la
calidad en los procesos, y como esta representa todo el trabajo y la planeación
que se la da a la elaboración de dichos procesos y su ejecución.
Siempre buscando una mejora continua para poder elevar la calidad en cada
proceso y obtener así mayor efectividad.
También se pretende mitigar los errores y las causas de las cuales se deriva en
pérdidas y a la falla en procesos, ya sea por variables internas a dicho proceso o a
factores externos. Que de igual forma se le debe dar la misma prioridad para
detectar los puntos flacos y trabajar en ellos para su correcta ejecución.
Concluimos que son temas bastante interesantes y de los cuales se les puede
sacar mucho provecho y sobre todo porque cuentan con un amplio campo de
ejecución, lo cual nos da mayor versatilidad a la hora de salir al campo laborar y
poseer conocimiento sobre todas estas técnicas y que sin duda podremos
aplicarlas para dar mayores beneficios a la industria o a cualquier ámbito que la
apliquemos.
EJEMPLOS RESUELTOS.
Ejercicio diagrama de Pareto.
SOLUCIÓN Y DIAGRAMA.
Ejercicio diagrama de Pareto.
Ejercicio diagrama de Pareto.
Ejercicio histograma.
Ejercicio histograma.
Ejercicio histograma.
Ejercicio grafica u
Ejercicio grafica u
Un operario inspecciona la calidad de unos circuitos impresos (arañazos, bandas
incorrectas, grosor no uniforme, etc.). Los circuitos que inspecciona son muy
diversos. Según el tipo de circuito se apunta su superficie y el número de
defectos. Tras inspeccionar 12 placas obtiene los datos de la tabla.
Superficie cm2 50 50 34 38 54 22 22 25 50 34 34 38
Nº de defectos 4 3 4 4 4 3 5 3 4 2 2 4
Ejercicio grafica u
Grafica p
Grafica p
FIAGRAMA DE PARETO.
GRAFICAS DE CONTROL
Todos los días se tomaban muestras de las formas llenas, de un departamento en
particular, en una compañía de seguros para revisar la calidad del desempeño de
ese departamento. Con el fin de establecer una norma tentativa para el
departamento, se tomó una muestra de 300 unidades al día (n=300) durante 10
días, obteniendo los siguientes resultados:
Desarrolle una gráfica de
proporciones o gráfica p
utilizando un intervalo de
confianza de un 90% para las 10
muestras recolectadas. ¿Qué
comentarios puede hacer sobre
el proceso?. ¿Qué sucede ahora
si los límites de control se
definen a un σ del promedio de
defectos?.
CASOS PRACTICOS.
APLICACIÓN DEL MODELO DE EXPERIMENTACION TAGUCHI EN UN
INGENIO AZUCARERO DEL VALLE DEL CAUCA
RESUMEN
1. INTRODUCCIÓN
Una herramienta que permite el mejoramiento tanto de los productos como de
procesos con el objetivo de que los bienes producidos se adecuen de la mejor
manera posible a las exigencias del mercado es el Diseño de Experimentos,
campo cuyo pionero fue Ronald A. Fisher, matemático y actuario, quien en
1919 realizó los primeros avances en este campo en la agricultura. Los
métodos estadísticos y las técnicas de diseños experimentales con
aplicaciones a problemas industriales fueron desarrollados principalmente en
Estados Unidos y Gran Bretaña por científicos del área aplicada (según
Lawson. Madrigal y Erjavec, 1992). Una de las ventajas de estos métodos es
que permite el estudio de diferentes variables simultáneamente. Además, son
empíricos y no requieren la definición de modelos matemáticos para describir
situaciones físicas. En lugar de eso, involucran planes de experimentos con
procedimientos definidos que agilizan la determinación de soluciones e
interpretación de datos. Un experimento es una prueba o ensayo. El
experimento diseñado es una prueba o serie de pruebas en las cuales se
inducen cambios deliberados en la variable de entrada de un proceso o
sistema, de manera que sea posible observar e identificar las causas de los
cambios en la respuesta de salida (según Montgomery, 1996). Un proceso o
sistema puede ser representado por medio de una caja negra .
2. METODOLOGIA TAGUCHI
El Diseño de Experimentos es una herramienta que también puede llegar a ser
usada en las etapas de diseño de productos y procesos con el objetivo de
minimizar la variación del desempeño de éstos en manos de los consumidores
finales con respecto a los factores ambientales como medio para mejorar la
calidad. La idea de diseñar productos y procesos cuyo desempeño sea
insensible a las condiciones ambientales (robustez del sistema) y realizar esto
en las etapas de diseño a través del uso de Diseño de Experimentos ha sido la
piedra angular de la metodología Taguchi. Las fortalezas de la metodología de
Taguchi son las siguientes:
Evaporación: En la etapa anterior del proceso se produjo jugo claro. Este jugo
es una mezcla de azúcar disuelta en agua en presencia de algunas impurezas.
Cuando se ha quitado ya la mayor cantidad de éstas, resta eliminar el agua.
Refinación: En esta etapa del proceso se refina el tamaño y la pureza del grano
presente en el licor proveniente de la etapa de cristalización y centrifugación.
4. FACTORES EXPERIMENTALES
Antes de entrar de lleno al análisis de los resultados experimentales es
importante realizar una breve descripción de los factores estudiados.
(a) Variedad de caña; (b) Tipo de corte; y (c) Materia extraña. De este primer
análisis se concluyó que la variable ruido más significativa era el Tipo de corte
de la caña al momento de ser alimentado el tándem de molienda.
(b) En la segunda fase experimental se involucraron el ajuste del molino 1; la
presión hidráulica en los cabezotes del molino 1 y las velocidades de las
picadoras I y II, junto con el Tipo de corte como variable ruido más importante,
en un gran experimento que serviría como herramienta de mejoramiento del
proceso de molienda.
Ejercicios
1.- Durante una semana se ha medido diariamente el contenido de humedad
correspondiente a 24 paquetes de un determinado producto, tomados al azar a la
salida de una línea de envasado. Los resultados obtenidos son :
4.- Hace unos años en una revista editada en la Escuela Técnica, aparecía una
nota de la Dirección de la Escuela en la que se informaba que en el primer parcial
de ese curso se había gastado el 75% de todo el papel de examen que se
necesito en el curso anterior. Se incluía también la siguiente tabla:
Desde el punto de vista de la economía de la escuela y con el único objetivo de
disminuir al máximo el consumo de papel, si solo se pudiera llamar la atención a
un departamento. Cual habría escogido usted?
Justifique su respuesta realizando el grafico que le parezca mas adecuado.
6.- (univ)Un equipo de proyecto estudia el costo que implican las descomposturas
en una línea para embotellar bebidas refrescantes. El análisis de datos en miles
de dólares correspondientes a un periodo de tres meses son: regulador de
presión, 30; ajuste del gusano de alimentación, 15; atoramiento de la cabeza de
cobre, 6; perdidas de enfriamiento, 52; reemplazo de válvula, 8; otras 5, Construya
el diagrama de Pareto y analice la información.
Por un lado, la mejora en la calidad viene dada por una hamburguesa fresca, la
cual es mucho más sabrosa. Recordemos que en el viejo esquema de
McDonald’s, las hamburguesas estaban pre-cocidas a la espera del pedido de un
cliente. Con la aplicación del JIT, esto logra modificarse, permitiendo a la empresa
contar con productos de mayor calidad. Además, dado que ahora esperan el
pedido concreto del cliente antes de empezar a preparar la orden, los empleados
no entran en pánico ante un requerimiento fuera de lo esperado (como una
hamburguesa sin condimentos). Por último, el JIT permite a McDonald´s adaptarse
a la demanda un poco mejor: dado que pueden producir hamburguesas en un
tiempo récord, no deben preocuparse por tener gran stock de seguridad.
Listas de chequeo. Son ideales para seguir los procesos de la manera adecuada,
las listas de chequeo es un Poka Yoke de clasificación de secuencia.
Llegar a la raíz del problema. Se realiza una investigación para saber la causa
original del problema y saber a dónde atacar.