Está en la página 1de 5

VOLUMEN

Big data analytics as an operational excellence approach to enhance sustainable supply


chain performance Surajit Baga , Lincoln C. Woodb,c, *, Lei Xud,e , Pavitra Dhamijaf ,
Yaşanur Kayikcig

La participación de un gran volumen de datos en casi todas las esferas de las


organizaciones contemporáneas aumenta la dificultad del desarrollo de los empleados
(Shah et al., 2017). Tiwari et al. (2018) revisaron seis años de investigación para investigar
la aplicación de BDA en la gestión de la cadena de suministro sobre el abastecimiento y la
adquisición estratégicos hasta la planificación de la demanda y las actividades logísticas.
También se ha identificado tal amplitud de aplicaciones, con el beneficio de BDA, en
particular con fines de planificación, pero que a menudo requieren habilidades de
personal especializado (Wood et al., 2017). Zhong et al. (2016) revisaron las aplicaciones
de BDA en múltiples áreas comerciales y sugirieron que el futuro de BD se centrará en una
infraestructura inteligente basada en la nube

Examining the Nexus between the Vs of Big Data and the Sustainable Challenges in the
Textile Industry Rosangela de Fátima Pereira Marquesone * and Tereza Cristina Melo de
Brito Carvalh

El volumen de datos brinda innumerables posibilidades a las empresas comerciales,


ofreciendo la capacidad de extraer valor de cantidades masivas de datos, mejorar la
proceso de toma de decisiones, comprender mejor a sus consumidores y desarrollar
modelos de negocio innovadores [34]. Para lograr estos resultados, el gran volumen de
datos da como resultado la necesidad de nuevas tecnologías para recopilar, almacenar y
procesar datos, como Hadoop, Spark y Tecnologías NoSQL, para que los datos puedan ser
procesados de acuerdo con el rendimiento requerido,
incluso a escala de terabyte o petabyte [17]. Además, las empresas deben ser innovadoras.
en sus estrategias de recopilación, almacenamiento y gestión de datos, identificando
soluciones que les permitiría hacer frente al creciente volumen de datos de forma
oportuna y rentable manera

Big data applications in operations/supply-chain management: A literature review


Richard Addo-Tenkorang ⇑ , Petri T. Helo

Según Min, Shiwen y Yunhao (2014), los macrodatos normalmente comprende masas de
datos no estructurados que necesitan más tiempo real análisis. Manyika et al. (2011)
definió el big data como la próxima frontera para la innovación, la competencia y la
productividad (Intel IT Center – Investigación entre pares, 2012). Ricardo et al. (2011) en su
documento técnico de IDC declaró que la tecnología de big data podría describirse como
una nueva generación de tecnologías y arquitecturas, diseñada para que la empresa
organizaciones podrían extraer valor económicamente de muy grandes volúmenes de una
amplia variedad de datos al permitir la captura, el descubrimiento, el almacenamiento y el
análisis a alta velocidad. Esta definición es en gran parte acordado por muchos
investigadores y gerentes de I+D industrial empresarial (Seref y Duygu, 2013; Min et al.,
2014; Manyika et al., 2011; Janusz, 2013), aunque también es obvio que otros tienen
puntos de vista diferentes

La investigación de big data surgió en la década de 1970, pero ha visto una explosión de
publicaciones desde 2008. Aunque el término "big data" es comúnmente asociado con la
informática, la investigación muestra que se aplica a muchas disciplinas diferentes,
incluyendo la tierra, la salud, ingeniería, artes y humanidades y ciencias ambientales.
Además, los sistemas informáticos centrales se están desvaneciendo con la aumento en el
volumen de datos con la búsqueda de espacio de almacenamiento y procesamiento. Esto
ha motivado constantemente una mayor y continua investigación sobre las tendencias y
perspectivas de big data y explica la eficacia con la que ha evolucionado la zona a lo largo
de los años.

Towards Sustainable Textile and Apparel Industry: Exploring the Role of Business
Intelligence Systems in the Era of Industry 4.0
Sumera Ahmad 1 , Suraya Miskon 2 , Rana Alabdan 3 and Iskander Tlili 4,5

Según Trieu [12], la carrera hacia la Industria 4.0 persuade a las industrias para que
integren tecnologías digitales, como Internet de las cosas (IoT), identificación por
radiofrecuencia (RFID), robots, realidad aumentada, fabricación aditiva y tecnología en la
nube [13] .
A pesar de invertir en tecnologías avanzadas y de alto costo, las industrias no pueden
aprovechar la verdadera sostenibilidad con estas tecnologías y sistemas [2,14]. El alto nivel
de automatización, conectividad y digitalización en la Industria 4.0 produce grandes
volúmenes de conjuntos de datos estructurados y no estructurados a diario y es imposible
obtener verdadero valor y sostenibilidad sin convertir estos grandes conjuntos de datos en
información útil. Es esencial analizar y acceder a cantidades tan grandes de datos para
diseñar planes de fabricación/producción de T&A, pronosticar ventas y demandas,
administrar la cadena de suministro, comercializar rápidamente y administrar el inventario,
para competir con los desafíos internacionales de sustentabilidad en el mercado global
[15]. Una innovación que tiene la capacidad de análisis e integración de datos
estructurados para apoyar a todas las partes interesadas de la industria con información
valiosa para la toma de decisiones son los sistemas de inteligencia empresarial (BIS
VELOCIDAD
Examining the Nexus between the Vs of Big Data and the Sustainable Challenges in the
Textile Industry Rosangela de Fátima Pereira Marquesone * and Tereza Cristina Melo de
Brito Carvalh

la velocidad se considera un factor clave en el contexto de Big Data, refiriéndose a la


velocidad con la que se generan los datos actualmente, así como la velocidad con la que se
deben analizar y utilizar en el proceso de toma de decisiones [15]. Las soluciones de
procesamiento en tiempo real son cada vez más demandadas, para que las empresas
puedan desarrollar estrategias que mejoren la experiencia del cliente, reduce su riesgo y
puede predecir el mejor curso de acción [57]. En este contexto, los sistemas de
procesamiento en tiempo real y el análisis de transmisión de Big Data han recibido una
gran atención, como Spark Streaming, Storm y Flink, como una forma de manejar grandes
datos en movimiento, por ejemplo, desde fuentes de flujo de datos de Internet. contexto
de las cosas (IoT) [58,59].

Data learning from big data José L. Torrecilla a, *, Juan Romo B

Es necesario desarrollar nuevas herramientas y arquitecturas para procesar de manera


adecuada el volumen de datos desestructurados y en rápido aumento. Esto representa un
cambio de paradigma que afecta todos los aspectos del procesamiento de datos que
deben ser reconsiderados (Jagadish et al., 2014). Quizás, los indicadores más conocidos de
estos cambios sean la transición de la computación secuencial a la paralela/en la nube y la
aparición de bases de datos no relacionales. Ya se han dedicado esfuerzos sustanciales a la
paralelización veloz en todos los niveles.

Plataformas como Amazon Web Services, Azure o Google ofrecen servicios de big data y
proporcionan la infraestructura ''en la nube'' bajo demanda y con equilibrio de carga
elástico, lo que resuelve muchos de los problemas relacionados con la escalabilidad y el
mantenimiento de un clúster físico ( Hashem et al., 2015). Más allá del cloud computing,
softwares como Cloudera o Hortonworks proporcionan un amplio catálogo de servicios
paralelizados (almacenamiento, pipelines, bases de datos, procesamiento de datos) y
controlan la comunicación entre ellos. La mayor parte de este software se basa en Apache
Hadoop (2008), un marco de software que permite el almacenamiento distribuido y
Procesamiento de datos con MapReduce.

Además, las bases de datos no relacionales o NoSQL surgen de la necesidad tanto de tratar
y buscar los datos de forma rápida como de organizar la información no estructurada.
Estos modelos van un paso más allá de la paralelización de bases de datos relacionales
convencionales (que es posible mediante Hive o HBase) al proponer nuevos enfoques que
permiten mayor dinamismo y facilitan el mantenimiento y la escalabilidad.

Podríamos profundizar en estos puntos, que son de gran interés, y hablar de otras
dificultades técnicas relacionadas con la velocidad (por ejemplo, en la visualización o con
la consistencia de los datos), pero aquí la tarea central de los estadísticos es, en primer
lugar, el desarrollo de algoritmos computacionalmente eficientes. Este aspecto, que suele
olvidarse o pasarse por alto en la literatura estadística, es fundamental en este contexto
porque incluso un algoritmo óptimo es completamente inútil si no se puede aplicar.

Big data applications in operations/supply-chain management: A literature review


Richard Addo-Tenkorang ⇑ , Petri T. Helo

Aplicación de big data en SCM: esta investigación intenta centrarse específicamente en la


aplicación de big data en operaciones o SCM. Además, la investigación también investiga
las tendencias y perspectivas de big data en esta área específica e intenta recomendar un
"big data II" factible o un marco de valor agregado de big data IoT para la aplicación
efectiva y eficiente de big data en SCM industrial. mejorando así la velocidad del análisis
de datos requerido al proporcionar una plataforma habilitadora para analizar datos
grandes para agregar valor.

Agregación de valor de big data en SCM: el análisis y la aplicación de big data son las
etapas finales y más esenciales de la agregación de valor de big data. Estas etapas pueden
proporcionar un valor enorme y útil al permitir la toma de decisiones estratégicas e
informadas, mejorando así el flujo de la aplicación (Velocity) y Veracity, combinándose
para formar valor agregado a partir de la aplicación estratégica de big data.

VARIEDAD
Examining the Nexus between the Vs of Big Data and the Sustainable Challenges in the
Textile Industry Rosangela de Fátima Pereira Marquesone * and Tereza Cristina Melo de
Brito Carvalh

La variedad de datos permitió el desarrollo de un vasto campo de productos y servicios


basados en datos por parte de las empresas, que comenzaron a extraer e integrar datos
con un enfoque en generar nuevos conocimientos para el proceso de toma de decisiones.
Además, la variedad de datos también permitió mejorar la comprensión de las
necesidades de los consumidores, con base en los datos disponibles de fuentes como
redes sociales y sitios de reseñas. Ahora, las empresas pueden ofrecer experiencias
personalizadas basadas en recomendaciones generadas en algoritmos que procesan los
datos capturados del comportamiento del consumidor. Sumado a esto, estos
conocimientos también permiten predecir tendencias y proporcionar servicios basados en
datos, como sistemas de recomendación y análisis de sentimientos. Pech y Vrchota
también destacan que no solo Big Data, sino también la digitalización y las tecnologías de
la industria 4.0 permiten integrar flujos de datos de diferentes etapas en el diseño de un
producto, además de permitir que los sensores y los productos inteligentes se utilicen
como recursos clave en el proceso de personalización del producto

Big Data technologies: A survey Ahmed Oussous a , Fatima-Zahra Benjelloun a , Ayoub


Ait Lahcen a,b,⇑ , Samir Belfkih

Big Data se genera a partir de varias fuentes distribuidas y en múltiples formatos (por
ejemplo, videos, documentos, comentarios, registros). Los grandes conjuntos de datos
consisten en datos estructurados y no estructurados, públicos o privados, locales o
distantes, compartidos o confidenciales, completos o incompletos, etc.

Big data applications in operations/supply-chain management: A literature review


Richard Addo-Tenkorang ⇑ , Petri T. Helo

Fuentes de adquisición de big data en SCM: Las adquisiciones de big data en SCM
provienen de una variedad de fuentes en el SC. Estas fuentes incluyen la fuente de flujo
ascendente, que es el lado de los proveedores, a través de la fuente de flujo intermedio,
que es el lado de los fabricantes y los puntos de consolidación o almacenamiento, y
finalmente el lado descendente, que es el lado de logística y distribución y/o minorista.

También podría gustarte