Está en la página 1de 44

CALIDAD Y MEJORA CONTINUA

SEGUNDO PASO: COLECTA DE DATOS (PA


Calidad y Mejora Continua

SEMANA 6
SEGUNDO PASO: COLECTA DE DATOS (PARTE I)
Veamos con mucha atención el siguiente vídeo y
luego comentemos…

https://www.youtube.com/watch?v=w4vsFKMO7XA
ÍNDICE

 Presentación Inicial
 Reflexión
 Índice
 Introducción al Big Data
 Big Data
 Componentes del Big Data
 Impacto en la Analytics del Negocio
 Big Data del mañana
 Hoja de Verificación
 Diagrama de Flujo
 Diagrama de Estratificación
 ¿Qué aprendimos hoy?
 Referencias Bibliográficas
Objetivos de la sesión

 Comprender la importancia del Big Data.


 Reconocer las principales herramientas de calidad para colecta de
datos.
Metodología DMAIC
INTRODUCCIÓN

Las organizaciones buscan constantemente las mejora continua pero


cada vez se generan mayor cantidad de información que es necesaria
ser analizada para comprender los errores pasados y plantear
estrategias futuras que nos ayuden a ser reconocida como una
empresa de clase mundial.

En esta unidad comprenderemos los conceptos de gran cantidad de


datos y su contribución con la métrica sigma de las organizaciones.
¿Qué es Big Data?
• De una forma muy general podríamos definir el Big Data como
“grandes volúmenes de datos” o “datos masivos”, y todas las cosas
que se pueden hacer con estos datos pero a gran escala.
• Podríamos decir que el Big Data se reparte entre “los datos” y todos
los procesos que se agrupan alrededor de estos datos, desde la
recogida de los mismos, el almacenamiento y su posterior
procesamiento o análisis, todo ello con objetivo de extraer valor de
los mismos.
¿Qué es Big Data?
• Para Big Data existen tres características que marcan la diferencia
frente a otros conceptos como el Datamining o el Business
Intelligence, estas son:
– Volumen (cantidad),
– Velocidad (en la creación y utilización)
– Variedad (fuentes de datos heterogéneas)

• También llamadas “3V”. Estas tres características constituyen la


verdadera revolución del Big Data. Adicionalmente a las “3V”, IBM
añade una cuarta y quinta característica del Big Data de notoria
importancia:
– Valor (eficiente y rentable)
– Veracidad (fiable con datos intrínsecamente imprecisos).
Componentes Big Data
• Volumen: Hoy en día las empresas y el sector público generan
cantidades de datos imposibles de imaginar hace unos años, se ha
pasado en poco tiempo de los Gigabytes a los Terabytes, a los
Petabytes y recientemente a los Zettabytes (1.099.511.627.776
Gigabytes) y quizás en un futuro no muy lejano a los Yottabytes.
Hacia el año 2020 se prevé alcanzar los 44 zettabytes de información
almacenada en todo el mundo . En 2008 solo Google procesaba 24
Petabytes de datos al día , la cantidad de datos almacenados crece
de forma exponencial cada año.
Volumen
Componentes Big Data
• Velocidad: La velocidad se ha impuesto en
la obtención de los datos, internet ha
contribuido en gran medida a ello, cada vez
es más fácil obtener datos o mediciones con
una frecuencia mayor.
• De la misma manera la velocidad es
sumamente importante en la transmisión y
en el procesamiento y análisis de los datos,
5 minutos pueden llegar a ser excesivos
para detectar un posible fraude en una
transacción, otras veces el análisis de la
información exige hacerse en tiempo real, la
no disponibilidad de la información en el
momento oportuno no solo resta valor a la
misma sino que inutiliza su aplicación.
Componentes Big Data

• Variedad: Big Data se nutre de fuentes de datos muy heterogéneas,


con Big Data se introduce la capacidad de combinar datos de
orígenes distintos y de formatos no homogéneos ni predefinidos, esto
aumenta exponencialmente las posibilidades de análisis y da juego a
la creatividad.
Componentes Big Data

• Valor: Quizás la característica más importante y el propósito final de los


datos, es el hecho de combinarlos, transformarlos y analizarlos lo que
permite extraer el valor latente que hay en ellos, las organizaciones
buscan la forma de convertir los datos en información de forma fiable,
pero la explotación de los datos siempre debe ser coherente, pensada y
alineada con la estrategia de la empresa para que pueda ser
aprovechable, rentable y eficiente, en caso contrario se puede llegar a
incurrir en unos sobrecostos sin crear valor para la organización.
Componentes Big Data

• Veracidad: Referida al nivel de fiabilidad


asociada a los datos, obtener datos de
calidad es indispensable para la correcta
obtención de información, el concepto
“Garbage in, garbage out” muy utilizado
en el campo de la información significa
que la entrada de datos sin sentido
provoca la salida de información también
sin sentido, este concepto junto con otro
más novedoso, “Garbage in, gospel out”
en donde se tiende a aceptar
ciegamente los datos o información de
salida informatizada aunque provenga
de datos pobres.
Impacto en el negocio de
la Analytics
Se consideran 4 formas que Big data afecta el negocio:

1.Procesos de negocio para Lean Management

 Gestión esbelta se trata de mejorar la calidad y reducir costos.


 El análisis Big data ayuda a mejora la calidad en industrias donde las
inconsistencias son difíciles de reducir.
 Los conceptos justo a tiempo en la gestión de inventarios y la
reducción de desperdicios pueden contribuir en gran medida a
mantener los principios de mejora continua en los procesos de
negocios.

2. Mejora de segmentación de objetivos

 La segmentación incluye la personalización de la experiencia del


usuario con ofertas orientadas a la audiencia correcta. Esto puede ser
aprovechado por el departamento de marketing para mejorar las
ventas.
Impacto en el negocio de
la Analytics
 Se consideran 4 formas que Big data afecta el negocio:
 3. Catálogo de datos y gobierno.
 Las organizaciones tienen que lidiar con la creación, recuperación,
almacenamiento y análisis de datos, se deben considerar
herramientas de análisis de big data para mejorar los pronósticos.

 4. Procesos de retención de empleados más inteligentes a través del


análisis predictivo
 Se espera que la toma de decisiones para contratar personal sea
reemplazado por toma de decisiones basada en evidencia como
Xerox.
Impacto en el negocio de
la Analytics

● Como resultado, se logró el


aumento de los ingresos y la
reducción los costos.

● Según las encuestas, aquellas


organizaciones capaces de
cuantificar sus ganancias
generaron un aumento
promedio de 8% en ingresos y
reducción 10% en costos.
Big Data para el mañana
Big Data todavía está en un estado inicial de
adopción, las grandes empresas y las empresas de
tipo tecnológico llevan el liderazgo en la adopción
del Big Data, pero aún queda mucho recorrido para
consolidar Big Data en las empresas. Al día de hoy
hay bastantes áreas relacionadas con el Big Data
en un estado exploratorio, por lo que aún podemos
esperar nuevas innovaciones tanto en el
almacenamiento como en tratamiento y explotación
de los datos, de la misma manera que un iceberg,
del Big Data solo estamos viendo la pequeña parte
que sobresale por encima del agua, la gran mayoría
de datos que se poseen todavía están sin explotar,
a estos se les añadirán la geolocalización, los
sensores integrados, el internet de las cosas, la
posibilidad de integrar una SIM en todos los
dispositivos, las ciudades inteligentes…
Big Data para el mañana
Los datos masivos están, y van a seguir
transformando muchos aspectos de
nuestra sociedad, obligando a cambios
de valores, nuevas profesiones, nuevas
formas de pensar, nuevos empleos,
nuevos negocios y nuevas
legislaciones. Los gobiernos tendrán
que abordar retos como gestionar y
explotar sus datos, regular la privacidad
o el valor de los datos, también habrá
que pensar en los datos como un activo
intangible para las empresas que pueda
reflejarse en los balances de estas. Con
el enfoque de Big Data se pasa a un
enfoque de análisis exploratorio, los
departamentos de TI proveen tecnología
y las herramientas para que los usuarios
con conocimiento de negocio exploren
de forma creativa qué preguntas se
pueden responder.
Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

Hoja de Verificación
Calidad y Mejora Continua

Introducción • Herramientas de calidad I

Hoja de Verificación
Un aspecto fundamental en la mejora de procesos es
contar con información objetiva que facilite las acciones
y decisiones basadas en datos. En las empresas, en
ocasiones no hay información, no se sabe cómo ha
evolucionado la calidad, la productividad, la magnitud
de los problemas principales, las razones de las quejas
de los clientes, etc. En otros casos, el problema no es
la escasez de datos, por el contrario, abundan
(reportes, informes, registros); el conflicto es que tales
datos están archivados, se registraron demasiado
tarde, se recabaron de manera inadecuada o,
finalmente, no se analizaron ni se utilizan de modo
sistemático para tomar decisiones. Por lo tanto, en
ambos casos el problema es el mismo: no se tiene
información para dirigir de forma objetiva y adecuada
los esfuerzos y lasactividades en una organización.
Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

Hoja de Verificación

Es un formato construido para colectar


datos, de forma que su registro sea
sencillo, sistemático y que sea fácil de
analizarlos. Te debe permitir
visualmente un análisis de las
principales características de la
información buscada.
Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

Hoja o lista de verificación

Se puede utilizar para:

 Describir el desempeño o los resultados de


un proceso.

 Clasificar las fallas, quejas o


defectos detectados, con el
propósito de identificar sus
magnitudes, razones, tipos de
fallas, áreas de donde proceden,
etc

 Analizar o verificar operaciones y


evaluar el efecto de planes de
mejora.
Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

Hoja o lista de verificación

Las hojas de verificación son tipos especiales de formas para recopilar datos en las
cuales los resultados se pueden interpretar directamente sobre la forma, sin necesidad de
un procesamiento adicional.

– ¿Porqué se recaban datos?


– ¿Qué datos se deberán recabar?
– ¿En qué parte del proceso deberán
Aspectos recabarse los datos?
relacionados – ¿Cómo se realizarán las mediciones?
en la – ¿Cuándo, con qué frecuencia, y durante
recolección cuánto tiempo se deberá recabar los datos?
de datos: – ¿Quién recabará e informará de los datos?
– ¿Se requiere algún tipo de capacitación?
Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

Procedimiento
Una tabla de chequeo o verificación se elabora (por lo menos) siguiendo
el siguiente procedimiento:

 Determinar el propósito de la toma de datos (si es para conocer el


estado actual, para fines analíticos o para supervisión).

 Identificar los ítems a chequear (los elementos de seguimiento).

 Fijar la periodicidad de los datos a recolectar.

 Diseñar el formato de la hoja de recogida de datos de acuerdo a la


cantidad de información a recoger.

 Anotar la cantidad de ocurrencias con marcas sencillas.


Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

5.1 Ejemplo
Hoja de verificación de artículos
defectuosos

Fuente: K. Ishikawa, Guide to Quality Control


Calidad y Mejora Continua

Hoja de Verificación • Herramientas de calidad I

5.1 EjemploHoja de verificación para distribución de procesos


Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Diagrama de Flujo
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Diagrama de Flujo

Representación visual de las etapas de un proceso.

Ventajas de su uso:

 Proporciona comprensión del proceso.


 Ayuda a identificar cuellos de botellas.
 Facilita capacitación a terceros.
 Identifica fácilmente puntos de
modificación y mejora.
 Da a conocer responsables y
responsabilidades.
 Ayuda en la detección de áreas a
mejorar.
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Simbología

El Instituto Nacional de Normalización Estadounidense –ANSI por sus


siglas en inglés- es una organización privada sin fines lucrativos que
administra y coordina la normalización voluntaria y las actividades
relacionadas a la evaluación de conformidad en los Estados Unidos.

El ANSI ha desarrollado una simbología para que sea empleada en los


diagramas orientados al procesamiento electrónico de datos –EDP- con
el propósito de representar los flujos de información, de la cual se han
adoptado ampliamente algunos símbolos para la elaboración de los
diagramas de flujo dentro del trabajo de diagramación administrativa,
dicha simbología se muestra en el cuadro a continuación:
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Simbología (ANSI)
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Modelo 1
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Modelo 1
Calidad y Mejora Continua

Diagrama de Flujo • Herramientas de calidad I

Modelo 2
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación

• Diagrama de Estratificación
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación

• Diagrama de Estratificación

Método para buscar las causas clasificando los datos obtenidos y los objetos
que se desean estudiar en varias clases o estratos y comparando sus
diferencias.
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación

• Diagrama de Estratificación

Estratificar es analizar problemas, fallas, quejas o datos, clasificándolos o


agrupándolos de acuerdo con los factores que, se cree, pueden influir en la
magnitud de los mismos, a fin de localizar buenas pistas para mejorar un
proceso. Por ejemplo los problemas pueden analizarse de acuerdo con tipo de
fallas, métodos de trabajo, maquinaria, turnos, obreros, materiales o cualquier
otro factor proporcione una pista acerca de donde centrar los esfuerzos de
mejora los cuales son las causas vitales.

 Personal
 Materiales
 Maquinaria y equipo
 Áreas de gestión
 Tiempo
 Entorno
 Localización geográfica
 otros
Calidad y Mejora Continua

Pasos Diagrama de
• Herramientas de calidad I
Estratificación

• Diagrama de Estratificación

1. A partir de un objetivo claro e importante, determinar con discusión y


análisis las características o factores a estratificar.

2. Mediante la recolección de datos, evaluar la situación actual de las


características seleccionadas. Expresar gráficamente la evaluación de las
características (diagrama de Pareto, histograma).

3. Determinar las posibles causas de la variación en los datos obtenidos con la


estratificación, esto puede llevar a estratificar una característica más
específica.

4. Ir más a fondo en alguna característica y estratificarla.

5. Seguir estratificando hasta donde sea posible y obtener conclusiones de


todo el proceso.
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación

• Diagrama de Estratificación

En una empresa del ramo metal-mecánico se quiere evaluar cuáles son los
problemas más importantes por los que las piezas metálicas se rechazan
cuando se inspeccionan. Este rechazo se da en diversas fases del proceso y
en distintos departamentos. Se requiere elaborar un diagrama de
estratificación que ilustre este problema para su análisis.
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación

• Diagrama de Estratificación
Calidad y Mejora Continua

Diagrama de
• Herramientas de calidad I
Estratificación

• Diagrama de Estratificación
¿Qué aprendimos hoy?
Bibliografía
• Anderson, David. Sweedy, Dennis (2011). Métodos cuantitativos para la
producción. México D.F.: Cengage Learning
• Camisón C. Cruz S. Gonzáles T. (2006). Gestión de la calidad: conceptos,
enfoques, modelos y sistemas. Madrid. Pearson Education
• Gutierrez Pulido, Humberto (2005). Calidad total y productividad. México
D.F.: McGraw-Hill
• Evans, James R., William M. Lindsay (2008). Administración y control de
la calidad, 7a. Edición
• Socconini, Luis (2008). Lean Manufacturing – Paso a Paso. Tlalnepantla.
Estado de Mexico.: Norma ediciones S.A
• Crosby, Philip B (2001) La calidad no cuesta: El arte de cerciorarse de la
calidad. México D.F
• “The QC Problem Solving Approach”, de Katsuya Hosotani
• http://www.todobi.com/2015/11/big-data-para-dummies.html

También podría gustarte