Documentos de Académico
Documentos de Profesional
Documentos de Cultura
El análisis de lubricantes (taladrina) es una de las tareas que no pueden faltar dentro
del plan de mantenimiento predictivo de una planta industrial. Los fluidos refrigerantes y
lubricantes juegan un papel clave en el proceso de mecanizado. Disponer de un modelo de
comportamiento de las taladrinas, que se anticipe a la aparición de problemas malos olores
y presencia de microorganismos, corrosión en máquina o en piezas, acabado superficial
defectuoso.
En el desarrollo de esta Cuarta Revolución Industrial, hay tecnologías que están siendo
claves para optimizar los procesos industriales permitiendo que estos sean más eficientes.
La digitalización a través de sistemas de información y sensores (big data), está
otorgando nuevas ventajas a la fabricación de productos.
Para mejorar el proceso de análisis de lubricantes se pretende diseñar y desarrollar una
solución innovadora que modelizará el comportamiento de las taladrinas y sus relaciones
con las condiciones del entorno (temperatura, humedad, viscosidad) y las variables de
máquina (velocidad de giro, material procesado, consumo energético, degradación),
permitiendo actuar sobre las mismas con garantías. Esta supervisión inteligente es fruto de
la incorporación de modelos capaces de aprender para adaptarse al problema, patrones de
comportamiento y elaboración de predicciones mejor conocido como (C) y de la toma e
integración de datos cuantitativos/cualitativos y complejos de distintas fuentes (Big Data):
estado de los fluidos en situaciones y momentos diversos, condiciones ambientales y el
estado de la máquina. Se desarrollarán dos modalidades de la solución, para adaptarse a las
diferentes circunstancias de los potenciales usuarios: embebida en máquina para nuevas
adquisiciones o como accesorio modular, para máquinas ya operativas, facilitando su
gestión interna o por terceros.
La implantación de la monitorización y gestión avanzada de operaciones en máquinas
inteligentes representará una revolución de la producción en términos de innovación, ahorro
de costes y tiempo. La supervisión de las operaciones en la producción inteligente en
máquinas traerá consigo numerosas ventajas sobre la producción y fabricación
convencional traduciéndose en mejoras en la flexibilidad, productividad y sostenibilidad.
2.OBJETIVOS
2.2 ESPECIFICO:
1. Proponer una herramienta de supervisión inteligente con modelos capaces de
aprender para adaptarse al problema
2. Detectar las necesidades y expectativas de los mecanizadores para gestionar de
manera eficiente y sostenible un elemento imprescindible en su labor, como es la
taladrina.
3. Reconstruir el modelo tradicional de mantenimiento preventivo por uno que se
anticipe a la aparición de problemas.
2.1INTRODUCCION
Piensa en una máquina capaz de adelantar sus necesidades futuras, solicitar una pieza o
analizar el lubricante que usa.
El mantenimiento predictivo ha evolucionado en los últimos años gracias a la incorporación
de nuevas aplicaciones tecnológicas y a la importancia del análisis avanzado de datos con
técnicas de inteligencia artificial (IA).
Estos avances ofrecen nuevos beneficios al sector industrial, como la posibilidad de
establecer parámetros para mediciones automatizadas de las características de los
lubricantes, con toda la importancia que tiene esta tarea para el día a día de una planta
industrial.
Así, el resultado del proyecto es una solución inteligente que se adapta a las necesidades y
expectativas de los mecanizadores para gestionar de manera eficiente y sostenible un
elemento imprescindible en su labor, como es la taladrina. Por otra parte, esta solución de
mantenimiento preventivo permitirá seguir avanzado en el diseño y desarrollo de máquinas
herramienta de alta tecnología que contribuyan a la transición ecológica y digital del sector
industrial y en la implementación de servicios avanzados de gestión inteligente de
lubricantes.
¿Qué ventajas tiene el análisis de lubricantes para el mantenimiento predictivo?
Incluir el análisis de lubricantes en el plan de mantenimiento predictivo permite:
3.2MODELO DE MANTENIMIENTO
Se planea desarrollar un programa autónomo que sea capaz de medir los cambios dentro de
la maquina asignando valores bace para así controlar el mantenimiento, Mónica Gonzales
explica de qué manera podríamos hacer esto., El primer modelo que se desarrolló en este
proyecto tiene como finalidad anticipar o predecir las posibles averías de una máquina
industrial partiendo del análisis de datos procedentes de distintos sensores que monitorizan
el estado del equipo. Este tipo de aplicaciones se conocen como mantenimiento predictivo,
PdM o, Predictive Maintenance, y está cobrando cada vez más importancia en las empresas,
pues busca maximizar la utilización de activos y minimizar los costos operativos. La
mayoría de las empresas confían en el mantenimiento correctivo, donde las piezas se
reemplazan cuando fallan. El mantenimiento correctivo garantiza que las piezas se utilicen
por completo y, por tanto, no desperdicia la vida útil de los componentes, pero le cuesta a la
empresa tiempo de inactividad, mano de obra y requisitos de mantenimiento no
programados fuera de horario laboral o en ubicaciones inconvenientes. Por otro lado, el
mantenimiento preventivo determina la vida útil de una pieza, y la mantiene o reemplaza
antes de una avería. El mantenimiento preventivo evita averías no programadas y
catastróficas. Pero los altos costos del tiempo de inactividad programado, la infrautilización
del componente antes del final de su vida útil y la mano de obra aún siguen siendo grandes
hándicaps. El objetivo del PdM es optimizar el equilibrio entre el mantenimiento correctivo
y el preventivo, al permitir el reemplazo justo a tiempo de los componentes. Este enfoque
sólo reemplaza esos componentes cuando están cerca de una avería. Al extender la vida útil
de los componentes, en comparación con el mantenimiento preventivo, reducir el
mantenimiento no programado y los costes laborales por encima del mantenimiento
correctivo, las empresas pueden obtener ahorros y ventajas competitivas, Se facilitó un data
set de más de 5.000 muestras de sensores de distintos tipos que clasificamos en dos
categorías: • Medioambientales: temperatura y presión. • Parámetros eléctricos: intensidad,
tensión, potencia activa, potencia reactiva, potencia aparente, frecuencia y cos phi en cada
una de las fases, puesto que la máquina es trifásica. Cada muestra dispone de un valor de
cada uno de los sensores y un campo, a mayores, donde se indica la fecha y hora de la
muestra. La frecuencia de muestreo es de una hora, y los datos abarcan casi nueve meses de
funcionamiento de la máquina. Cada muestra indica si la máquina está, o no, averiada, con
un uno o un cero respectivamente. En el data set detectamos quince averías, es decir, quince
ráfagas de unos. Nos encontramos con varios problemas a la hora de analizar el conjunto de
datos. Enumero los más destacables: • Hay períodos de distinta duración, que van desde
horas hasta las dos semanas, donde no hay disponibles datos. El período de dos semanas se
corresponde a la parada anual de la fábrica, pero en los otros períodos se desconoce el
motivo. • Ni se ofrece información sobre el rango de funcionamiento de los sensores ni de
las unidades de medida. Tampoco si los valores de distintos sensores del mismo tipo están
en las mismas unidades. Por ejemplo, uno de los sensores de temperatura registra medidas
en un rango de medidas positivas a medidas negativas durante unos días, el resto de días
muestra sólo valores positivos. Desconocemos si es debido a un mal funcionamiento del
sensor. • No disponemos de un identificador de avería que nos permita saber si la avería que
presenta la máquina en una muestra es la misma que la de la hora siguiente. Sucede,
igualmente, con averías que se producen en días consecutivos, o en períodos muy
próximos. El criterio que se ha seguido es considerar que las averías en horas consecutivas
son la misma, mientras que las que no lo son, se tratan como una avería distinta. • Se
desconoce por completo cualquier dato relativo a las averías. Por ejemplo, si es debida a un
fallo eléctrico, al fin de vida útil de alguna pieza, etc. • No hay datos de la máquina, tales
como el tiempo que lleva en funcionamiento o la cantidad que produce. No se sabe si la
producción es constante o tiene picos. • No hay datos del personal encargado de la
máquina.
GÓMEZ, M. G. (2019). Aplicaciones industriales Big Data para mantenimiento predictivo y control
de calidad. TRABAJO.
3.3IMPLEMENTAR EL BIG DATA EN UN PROCESO DE
MANTENIMIENTO
Pérez, M. Á. L., Piña, I. B., & Álvarez, G. V. (2021). Diseño de una metodología de mantenimiento
predictivo para asegurar procesos de producción de la industria 4.0. South Florida Journal of
Development, 2(1), 1009-1017.
Neira, M. C., Jiménez, F., & D'León, L. F. P. (1980). Influencia de la constante dieléctrica en la
solubilización del diazepam. Revista Colombiana de Ciencias Químico-Farmacéuticas, 3(4), 37-61.
3.6MACHINE LEARNING
Machine Learning es una disciplina científica del ámbito de la Inteligencia Artificial que
crea sistemas que aprenden automáticamente. Aprender en este contexto quiere decir
identificar patrones complejos en millones de datos. La máquina que realmente aprende
es un algoritmo que revisa los datos y es capaz de predecir comportamientos
futuros. Automáticamente, también en este contexto, implica que estos sistemas se mejoran
de forma autónoma con el tiempo, sin intervención humana. Veamos cómo funciona.
Big Data y Machine Learning aplicado a la empresa
Una empresa de telefonía quiere saber qué clientes están en “peligro” de darse de baja de
sus servicios para hacer acciones comerciales que eviten que se vayan a la competencia.
¿Cómo puede hacerlo? La empresa tiene muchos datos de los clientes, muchísimos:
antigüedad, planes contratados, consumo diario, llamadas mensuales al servicio de atención
al cliente, últimos cambios de planes contratados… pero seguramente los usa solo para
facturar y para hacer estadísticas. ¿Qué más puede hacer con esos datos? Se pueden usar
para predecir cuándo un cliente se va a dar de baja y gestionar la mejor acción que lo evite.
En pocas palabras, con Machine Learning se puede pasar de ser reactivos a ser
proactivos. Los datos históricos del conjunto de los clientes, debidamente organizados y
tratados en bloque, generan una base de datos que se puede explotar para predecir futuros
comportamientos, favorecer aquellos que mejoran los objetivos de negocio y evitar aquellos
que son perjudiciales.
Esa cantidad ingente de datos son imposibles de analizar por una persona para sacar
conclusiones y menos todavía para hacer predicciones. Los algoritmos en cambio sí
pueden detectar patrones de comportamiento contando con las variables que le
proporcionamos y descubrir cuáles son las que han llevado, en este caso, a darse de baja
como cliente. La siguiente imagen es un ejemplo de una predicción simplificada basada en
datos de una compañía de telefonía ficticia, pero usando una herramienta de Machine
Learning real:
Cleverdata. https://cleverdata.io/que-es-
machine-learning-big-data/
3.7BIGDATA
Una encuesta realizada por LogLogic encuentra que el 49% de las organizaciones están
algo o muy preocupados por la gestión de Big Data, pero que el 38% no entiende lo que es,
y el 27% dice que tiene una comprensión parcial [10]; además, la encuesta encontró que
59% de las organizaciones carecen de las herramientas necesarias para gestionar los datos
de sus sistemas de TI [10]. Khera explicó que: "Big Data se trata de muchos terabytes de
datos no estructurados", donde "La información es poder, y Big Data, si se gestiona
correctamente, puede proporcionar una cantidad de conocimiento…" [10]. Según la
encuesta, el 62% mencionó que ya había gestionado más de Conociendo Big Data un
terabyte de datos; eso indica que el volumen de datos en el mundo está aumentando a un
ritmo casi incomprensible.
Señala Beyer de Gartner y otros expertos que: "los grandes volúmenes de datos, o Big Data,
requieren grandes cambios en el servidor, la infraestructura de almacenamiento y la
arquitectura de administración de la información en la mayoría de las empresas" [11].
2) Variedad: Se puede mencionar que va muy de la mano con el volumen, pues de acuerdo
con éste y con el desarrollo de la tecnología, existen muchas formas de representar los
datos; es el caso de datos estructurados y no estructurados; estos últimos son los que se
generan desde páginas web, archivos de búsquedas, redes sociales, foros, correos
electrónicos o producto de sensores en diferentes actividades de las personas; un ejemplo
[14] es el convertir 350 mil millones de lecturas de los medidores por año para predecir el
consumo de energía.
3) Velocidad: Se refiere a la velocidad con que se crean los datos, que es la medida en que
aumentan los productos de desarrollos de software (páginas web, archivos de búsquedas,
redes sociales, foros, correos electrónicos, entre otros).
Las tres características tienen coherencia entre sí; por ejemplo [13], analizar 500 millones
de registros de llamadas al día en tiempo real para predecir la pérdida de clientes.
El Big Data crece diariamente, como ya se mencionó, y una de las justificaciones es que los
datos provienen de gran variedad de fuentes, tales como la Web, bases de datos, rastros de
clics, redes sociales, Call Center, datos geoespaciales, datos semiestructurados (XML,
RSS), provenientes de audio y video, los datos generados por los termómetros, datos de
navegación de sitios web durante cierto tiempo, las RFID (Radio Frequency Identification -
identificación por radiofrecuencia) [15].
Existen algunos beneficios del análisis de Big Data para las organizaciones, tal como se
observó en el área de marketing, demostrados en la encuesta realizada por TDWI (The Data
Warehousing Institute), cuando preguntó: "¿Cuál de los siguientes beneficios se produciría
si la organización implementa alguna forma de análisis de Big Data?". El 61% respondió
que influye de manera social; el 45%, que habrá más puntos de vista de negocio; el 37% se
inclinó por las decisiones automatizadas en los procesos en tiempo real; el 29% mencionó
que se mejoraría la planificación y la previsión, y el 27%, que se entendería el
comportamiento del consumidor [16].
Según la misma encuesta, se encontraron ciertos inconvenientes del análisis del Big Data,
entre ellos: la falta de personal y de habilidades del recurso humano (46%), la dificultad en
la arquitectura de un sistema de análisis de Big Data (33%), problemas con el Big Data
utilizable para los usuarios finales (22%), la falta de patrocinio empresarial (38%) y la
deficiencia de un argumento empresarial convincente (28%), la carencia de análisis de
bases de datos (32%), problemas de escalabilidad de Big Data (23%), rapidez en las
consultas (22%) y dificultad para cargar los datos lo suficientemente rápido (21%), entre
otros [16].
Ante la pregunta sobre cada cuánto realizan análisis de Big Data, se halló que anualmente,
el 15%; mensual, el 35%; semanal, el 14%; diario, 24%; cada poca hora, 5%; cada hora,
4%; en tiempo real, 4%. Lo anterior fue el resultado de 96 entrevistados [16].
El objetivo del análisis de datos es examinar grandes cantidades de datos con una variedad
de clases, con el fin de descubrir información que sea relevante y útil para la empresa, de
manera que le permita tomar las mejores decisiones y obtener ventajas competitivas en
comparación con otras de su clase.
El análisis de datos se realiza con tecnologías de bases de datos como NoSQL, Hadoop y
MapReduce, las cuales soportan el procesamiento del Big Data.