Está en la página 1de 16

Unidad 4

1 //Escenario
Escenario27
Lectura fundamental
Fundamental

Big datade un plan de comunicación


Etapas
estratégica

Contenido

1 Big data

2 Características e importancia de big data

3 Ecosistema de big data, desafíos y casos de uso

Palabras clave: big data, variedad, volumen, velocidad, business intelligence, ecosistema de big data.
1. Big data
El término big data se usa constantemente cuando se habla de IoT (Internet of Things) y de
cloud computing. Por ello, este Escenario explica qué es, sus características, su importancia, los
componentes que integran su sistema y cómo se relacionan, y los desafíos que enfrenta. Al final, esta
Lectura fundamental expone los conceptos desde algunos casos de uso.

1.1. ¿Qué es Big data?

Hay muchas definiciones de big data (BD por su sigla en inglés); dos de las más reconocidas son:

• Según la Unión Internacional de las Telecomunicaciones (UIT, 2015) es “un paradigma para
hacer posible la recopilación, el almacenamiento, la gestión, el análisis y la visualización,
potencialmente en condiciones de tiempo real, de grandes conjuntos de datos con
características heterogéneas” (p.2). Si se profundiza en la definición, en primer lugar, un
paradigma es un ejemplo o modelo de algo; es decir, que big data es un modelo que facilita el
tratamiento de grandes y heterogéneos volúmenes de datos producidos instantáneamente.
Ahora, surge el interrogante de ¿qué o quién está en capacidad de producir grandes y
heterogéneos volúmenes de datos en tiempo real? Son los millones de usuarios y dispositivos
conectados a través de Internet. Entonces, se puede decir que big data es un modelo que facilita
el tratamiento de los petabytes que generan los usuarios y dispositivos conectados a esta red
cada segundo.

• Por otra parte, Gartner (s.f.) (empresa consultora y de investigación de las tecnologías de la
información) define big data como “un gran volumen, velocidad o variedad de información que
demanda formas costeables e innovadoras de procesamiento de información que permitan
ideas extendidas, toma de decisiones y automatización del proceso”. En esta definición,
Gartner plantea la necesidad que se crea cuando se tienen un gran volumen de información,
potencialmente valiosa, y no se puede usar porque su procesamiento implica altos costos en
recursos y tiempos; por ello, big data busca optimizar, en esos dos aspectos, el procesamiento de
la información. Adicional a este concepto, Gartner también hace referencia a la utilidad que
se le puede dar a la información procesada, al indicar que “Big data consiste en consolidar
toda la información de una organización y ponerla al servicio del negocio” (Gartner, s.f.).

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 2
Esta definición comprende la importancia y aplicación de la big data. ¿Qué sentido tiene
recopilar y procesar información si esta no genera valor para un negocio? Es decir, si no es
posible capitalizar los resultados de una decisión de negocio tomada de manera oportuna con
base en los análisis y predicciones de big data.

1.2. ¿Cuál es la conexión de big data con IoT?

Las empresas necesitan entender la información generada por sus clientes y, a su vez, conocerlos,
para construir productos o servicios a la medida. Así, pueden ofrecer ofertas personalizadas, atender
los requerimientos rápidamente o medir el impacto de los productos y/o servicios con respecto a la
demanda en el mercado. Esto lo pueden hacer ahora gracias a la big data. Sin embargo, es necesario
garantizar la recolección de la información y es allí donde el IoT (Internet of things) ayuda a realizar
automáticamente la recopilación de grandes volúmenes de datos.

Almacenamiento, Visualización
Recopilación gestión y análisis
Figura 1. ¿Qué es Big data?
Fuente: elaboración propia

2. Características e importancia de Big data

2.1. ¿Cuáles son las características de Big data?

En 2001, Doug Laney, analista de Gartner, publicó el artículo 3D Data Management: Crontrolling
Data Volume, Velocity and Variety, en el que se hizo referencia a las 3 dimensiones de big data, mejor
conocidas como las 3 V. Hasta hoy, estas han sido aceptadas por los investigadores y estudiosos del
tema. Tanto la UIT como Gartner coinciden en que las 3 V, volumen, velocidad y variedad, son las
características o dimensiones de big data.

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 3
Volumen

BIG
DATA

Figura 2. Dimensiones de Big data


Fuente: elaboración propia

2.1.1. Volumen

Según la UIT (2015), es “la cantidad de datos recopilados, almacenados, analizados y visualizados,
que las tecnologías de big data necesitan resolver” (p.3). Para mencionar un solo ejemplo sobre la
manera vertiginosa en que se genera información en internet, se puede indagar sobre los usuarios de
las redes sociales. De acuerdo con el sitio web especializado en estadística https://www.statista.com ,
el número de usuarios de redes sociales alrededor del mundo aumentó un 135 % en 6 años, pasando
de 0,97 billones en 2010 a 2,28 billones en 2016, y se proyecta que en el 2021 llegue a 3,02 billones.
Esto representa un gran volumen de datos (terabytes o petabytes) generados por las interacciones de
dichos usuarios cada segundo. Antes, las tecnologías convencionales no procesaban estos datos en un
tiempo razonable; por esto, evolucionó la tecnología de big data.

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 4
2.1.2. Variedad

Según la UIT (2015), la variedad comprende los “diferentes tipos de datos y formatos de datos
procesados por tecnologías de big data” (p.3). Hay tres clases de datos:

• Datos estructurados (structured data): son aquellos que tienen un formato y una longitud
definida y pueden ser almacenados en tablas.

• Datos no estructurados (unstructured data): son aquellos que no pueden ser almacenados en
una tabla, como fotografías, videos, posts, grabaciones de audio, entre otros.

• Datos semiestructurados (semistructured data): son aquellos que no se limitan a campos


determinados, pero que contienen marcadores para separar diferentes elementos, por ejemplo,
HTML, XML o JSON.

2.1.3. Velocidad

Según la UIT (2015), es “la rapidez con que se recopilan los datos y a la velocidad con que las
tecnologías de big data procesan los datos para obtener los resultados esperados” (p.4). La mayoría
de sistemas convencionales no pueden analizar de forma inmediata grandes volúmenes de datos. Los
sistemas de big data lo hacen e, incluso, realizan mediciones en tiempo real.

Otros autores y estudiosos agregan características adicionales, como veracidad, valor, viabilidad y
visualización, las cuales se explican a continuación.

• Veracidad: es la confianza de los datos. No toda la información generada en internet es


confiable; hay mucha que es falsa. En consecuencia, es necesario analizar los datos y determinar
su veracidad.

• Valor: es la importancia o valor que un negocio le da a la información que se genera por análisis
de big data. De acuerdo con sus objetivos, cada organización define qué tipo de información es
fundamental o clave para sus intereses.

• Viabilidad: es la capacidad que tienen las compañías de usar de manera eficiente y eficaz el gran
volumen de datos que manejan.

• Visualización: es la manera de representar los datos para que sean legibles y fáciles de entender.

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 5
A continuación, se presenta un breve resumen de las características de big data.

Tabla 1. Principales características de big data

Características Definición

Volumen Tamaño de los datos


Velocidad Rapidez con lo que los datos son recolectados y procesados
Variedad Diferentes fuentes y tipos de datos
Veracidad Confiabilidad de los datos
Valor Potencial de los datos
Viabilidad Capacidad de usar los datos
Visualización Presentación atractiva y comprensiva de los datos

Fuente: elaboración propia

2.2. Importancia de Big data

Los investigadores de la NASA, Michael Cox y David Ellswoth utilizaron el término big data por
primera vez, en 1997, cuando identificaron que los sistemas informáticos de ese momento no tenían
la capacidad de procesar y visualizar conjuntos de datos bastante grandes y, a raíz de esto, publicaron
un artículo llamado Application-Controlled Demand Paging for Out-of-Core Visualization.

Doce años después, en 2009, Tim Berners-Lee, director del World Wide Web Consortium, utilizó
el término “datos vinculados” (data linked) para referirse a la información que se estaba generando y
no se aprovechaba; esto llevó a la aparición de un nuevo concepto, business intelligence o inteligencia
de negocio. Desde entonces, las empresas comenzaron a utilizar nuevas tecnologías para analizar
grandes volúmenes de datos y generar valor en la toma de decisiones estratégicas.

Así, si big data fue desarrollándose para dar solución a problemas puntuales de procesamiento de
datos, surge la pregunta: ¿qué hace big data que no puedan hacer otras tecnologías? Hay que recordar

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 6
que Gartner (s.f.) amplía el concepto de big data al decir que “(…) consiste en consolidar toda la
información de una organización y ponerla al servicio del negocio”. Pero, ya se mencionó que hay otra
disciplina complementaria llamada business intelligence (BI), la cual tiene una definición similar: “La
Inteligencia de Negocio (BI) es un término genérico que incluye las aplicaciones, la infraestructura
y las herramientas, y las mejores prácticas que permiten el acceso y el análisis de la información para
mejorar y optimizar las decisiones y rendimiento” (Gartner, s.f.). Aunque para algunos investigadores
big data y bussiness intelligence son complementarias, es necesario señalar las diferencias entre las dos
para tener un punto de partida que lleve a entender la importancia de big data en la actualidad.

Tabla 2. Diferencias entre big data y business intelligence

Atributo Business intelligence (BI) Big data

Almacenamiento Servidor centralizado Sistema de ficheros distribuidos


Funciones de datos Lleva datos a las funciones Lleva funciones de proceso a los datos
Estructurados, no estructurados,
Tipo de datos Estructurados
semiestructurados
Tipo información Históricos Históricos/tiempo real
Procesamiento Integración de datos Procesamiento paralelo masivo (MPP)

Fuente: elaboración propia

Big data es utilizada por diferentes disciplinas, como el marketing y los estudios sociales (política,
economía, finanzas); es decir, que no solo las empresas, sino los gobiernos están interesados en tomar
decisiones apoyados en los análisis de big data por las siguientes razones:

• Nueva información: big data permite recopilar y tratar una gran cantidad de información que
antes era desconocida porque no tenía un formato y una longitud específica, dado que provenía
de fuentes variadas (sensores, smart phones, PC, redes sociales, etc.) en diferentes formatos
(audio, video, mail, etc.). Por ejemplo, las opiniones de los consumidores en redes sociales, las
tendencias de búsqueda en Google, las opiniones y recomendaciones de Facebook, entre otras.
Toda esa información que se produce cada instante, pero que debe ser recolectada y tratada de
manera especial porque no tiene un formato específico, puede tratarse de un like en Facebook,
un estado de Whatsapp, una fotografía en Instagram, un video en Youtube, un comentario en un
foro, etc.

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 7
• Valor al instante: otras herramientas, como business intelligence (BI), permiten procesar
información y generar indicadores clave de desempeño del negocio (KPIs Key Performance
Indicators) para tomar decisiones; sin embargo, big data no solo amplía las fuentes (internet,
redes sociales) y tipos de datos que pueden ser analizados (datos no estructurados), sino que
también hace un análisis más robusto e instantáneo para ofrecer resultados en tiempo real con
el fin de que la toma de decisiones sea oportuna. Actualmente, las compañías necesitan tener
sus KPI actualizados al instante y qué mejor que una solución de big data, la cual permite un
análisis en tiempo real, aprovechando las ventajas del almacenamiento distribuido y la velocidad
de procesamiento, al llevar funciones de proceso a los datos.

• Predecir el futuro: los análisis de BI se basan en el aprendizaje de series históricas para estimar
tendencias futuras, pero requieren interpretación y se quedan cortos al tratar de simular
escenarios o de responder preguntas como: ¿qué pasa si surge un evento no contemplado o si
hay un cambio en una de las variables relacionadas con una tendencia? Por su parte, big data
emplea poderosas técnicas de análisis que ayudan a las compañías a responder interrogantes
como, ¿por qué se está llegando a un resultado determinado y cómo se puede cambiar? El valor
de tener esa información, hace que tomen mejores decisiones sobre su futuro.

Al estar clara la importancia de big data, es necesario exponer sus ventajas y desventajas.

Ventajas:

• Estrategias más enfocadas (posicionamiento de marca, desarrollo de marca, monitoreo de


competidores).

• Nuevos productos y servicios personalizados ajustados a las necesidades específicas de los


clientes.

• Toma de decisiones rápida y oportuna; la información es analizada en tiempo real para tomar
decisiones basadas en predicciones.

• Reducción de costos; big data almacena datos en la nube, en ficheros distribuidos, lo que ahorra
costos de implementación y mantenimiento de servidores.

• Mejora continua; el monitoreo en tiempo real permite prevenir futuras quejas y tomar acciones
preventivas para reducirlas.

• Actualización y optimización de inventarios en tiempo real.

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 8
Desventajas:

Privacidad de la información: se comercializan los datos, hábitos, búsquedas y preferencias de cada


persona, dispositivo y sensor conectado a internet. El uso de internet y redes sociales no es gratuito,
contrario a lo que muchos usuarios piensan; todos dejan valiosas “huellas” en la red que son explotadas
por data brokers o intermediarios de datos.

Seguridad de la información: comprende dos aspectos. En primer lugar, la confiabilidad de


la información, ya que, al provenir de tan variadas fuentes y formatos, puede ser manipulada
intencionalmente para generar un resultado premeditado; por ejemplo, las noticias falsas (fake news)
y su impacto en la opinión y en las elecciones de dirigentes políticos. Por otro lado, la información, al
estar almacenada en la nube, es más susceptible a los ataques informáticos y sabotajes.

3. Ecosistema de big data, desafíos y casos de uso

3.1. Ecosistema de big data

La recomendación Y.3600, Big data –Cloud computing based requirements and capabilities (UIT,
2015), menciona que big data requiere un ecosistema o la interacción de tres roles:
• Proveedor de datos (data provider)
• Proveedor de servicios de big data (big data service provider)

• Cliente de servicio de big data (big data service customer)

Dispositivo
vo
Sensoress Proveedor
Pro edor Proveedor
Prov or de Cliente
C final:
de datos
tos servicio BD
ser Empresas
Emp / Gobiernos
Redes sociales/apps
s/apps

IBM, HP, Teradata, Oracle,


SAP, EMC2, Amazon,
Microsoft, Google, VMware,
Cloudera, Hortonworks,
Splunk, 10Gen, MapR

10101110010101 Metadata Almacenamiento KPI


01001001111000 Gestión/Análisis Estadísticas
Visualización Predicciones
Privacidad
Seguridad

Figura 3. Ecosistema de big data


Fuente: elaboración propia

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 9
• El proveedor de datos es el encargado de generarlos y agregar información de metadata.
Generalmente, el proveedor comercializa la licencia permitiendo el uso de los datos actuando
como un agente o corredor de datos (data broker) o a través de un tercero, intermediario de
datos.

• El proveedor de servicios de big data es el encargado de buscar fuentes de datos, almacenarlos


en un repositorio y asegurar las interfaces para su cargue y procesamiento en un sistema
determinado; además, proporciona las herramientas para el análisis y visualización de dichos
datos. El proveedor también se encarga de garantizar su procedencia (confiabilidad) y seguridad.
Los mayores proveedores de servicios de big data a nivel mundial son: IBM, HP, Teradata,
Oracle, SAP, EMC2, Amazon, Microsoft, Google, VMWare, Cloudera, Hortonworks, Splunk,
10Gen, MapR.

• El cliente del servicio de big data es el usuario final (empresa, gobierno, sistema, etc.), quien
utiliza los resultados generados por el proveedor de servicios de big data. Generalmente, el
cliente retroalimenta al proveedor de servicios de big data, en la medida en que solicita nueva
información o plantea cambios en la forma de visualizarla.

3.2. ¿Qué desafíos enfrenta big data?

Las organizaciones que quieren aprovechar los beneficios de big data en tiempo real tienen que
superar cinco retos, los cuales se mencionan en la siguiente tabla.

Tabla 3: Desafíos de big data

Aspecto Descripción

Las organizaciones no están acostumbradas a tomar decisiones basadas


en la información que se produce en tiempo real y mucho menos
Análisis en tiempo real saben cómo reaccionar y operar cuando se deben producir cambios en
procesos de manera instantánea; por ello, trabajar con big data supone
un reto en la cultura organizacional de las empresas.

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 10
Los costos iniciales de implementar una herramienta de big data pueden
parecer altos en comparación con las soluciones a la medida y con las
Inversión en
limitaciones a las que están acostumbradas las empresas, en especial,
infraestructura
las pymes. Muchas compañías no tienen, a la fecha, presupuesto para
soluciones de big data.

Cada año, las corporaciones sufren ataques informáticos. En 2017,


HBO fue hackeado y algunos capítulos de Game of Thrones, una de las
series con mayor audiencia en el mundo, fueron robados y publicados
antes de su estreno. Otras compañías, como Yahoo, han aceptado que
Seguridad fueron víctimas de ataques y que la información de sus usuarios fue
expuesta. Muchas empresas alrededor del mundo han experimentado
violaciones de seguridad en los últimos años; todo por el valor que puede
generar la información hackeada. Los servicios de big data se ofrecen en
la nube, lo que los hace más vulnerables a ataques.

Es posible perder una considerable cantidad de recursos cuando se


trabaja con una gran cantidad de información que en realidad no es
importante. El reto para las organizaciones es determinar cuál sí lo es y
Seleccionar información
cuál no, ya que el exceso de información inútil es tan perjudicial como
relevante
tener información insuficiente o errada. Big data pone al alcance de las
organizaciones un gran volumen de información analizada que debe ser
rigurosamente filtrada y seleccionada.

Big data ofrece predicciones y análisis de escenarios basándose en


nuevas maneras de analizar la información. ¿Las organizaciones están
Confiar en las
preparadas para creer en las predicciones y dejar que la “máquina” tome
predicciones
decisiones? A ese dilema se enfrentan las personas que usan soluciones
de big data.

Fuente: elaboración propia

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 11
3.3. Casos de uso

Uno de los casos de aplicación de big data que más ha sonado en los últimos años es el de Target, la
cadena de supermercados norteamericana que logró determinar que una de sus clientas estaba en
embarazo gracias al estudio de sus hábitos de compra (Lane, 2012). La cadena utilizó esa información
para enviar cupones a la casa de la adolescente en Minneapolis. El padre se molestó al ver que la
tienda le ofrecía a su hija descuentos en productos para bebé; sin embargo, fue mayor su sorpresa
cuando se dio cuenta que la tienda supo antes que él acerca del embarazo de su hija.

A continuación, se exponen otros ejemplos de aplicación de big data.

Tabla 4: Aplicaciones de big data

Área/Sector Aplicación

Organizaciones dedicadas al estudio del medio ambiente utilizan


plataformas, como Vertica Analytics de HP, para monitorear cámaras
Medio ambiente y sensores ubicados en zonas claves alrededor de todo el planeta; así,
obtienen mediciones en tiempo real de precipitaciones, temperatura,
humedad, etc. y pueden llegar a predecir cambios en el clima global.

La información de pacientes, cobertura de salud, planes y red de


atención no es fácil de tratar. Por eso, la tecnología de análisis de
datos es tan importante en este sector. El sitio web Google Flu Trends
Salud
fue capaz de predecir la pandemia de gripe porcina gracias al análisis
de los resultados de las búsquedas de usuarios sobre síntomas de la
enfermedad.

La recopilación y el monitoreo en tiempo real de diferentes variables


Ciudades inteligentes asociadas a la infraestructura, los servicios públicos, la movilidad, entre
otras, para garantizar a los ciudadanos la operación de las ciudades.

La detección de fallas o anomalías en la prestación de servicios básicos


Servicios (acueducto, energía, transporte, salud, telecomunicaciones) para
prevenir cortes, interrupciones o fallas de estos.

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 12
Uno de los sectores en el que es importante la experiencia instantánea
Turismo del cliente es el turismo, dado que una corrección posterior de las fallas
no tiene sentido, porque ya se generó una mala percepción.

La masificación del uso de dispositivos, como teléfonos, relojes


inteligentes y otros con tecnología de localización GPS, ofrece la
Publicidad
oportunidad de ubicar a los consumidores cuando están cerca de una
tienda o establecimiento y, así, poderles enviar promociones a la medida.

Amazon es el líder del mercado en ventas cruzadas. Su éxito está basado


en la minería de datos masiva de patrones de compra de un usuario
Mercadeo cruzados con los datos de compra de otros usuarios, para generar
ofertas personalizadas y sugerencias prediciendo aquello que el usuario
puede querer en un momento dado.

Big data ayuda a entender el ciclo de vida de los clientes para orientar
Medios y estrategias de mercadeo que se adapten a sus preferencias. Netflix le
entretenimiento sugiere series y películas a sus usuarios, basándose en el perfil de otros
que ya accedieron a determinados contenidos.

Las redes sociales se han convertido en un canal de atención de clientes.


Dada la facilidad de acceso y el impacto que puede generar una opinión
Servicio al cliente
negativa, se tornan en un medio eficiente que puede beneficiar o
perjudicar la imagen de un negocio instantáneamente.

Se utiliza análisis de big data para evaluar el riesgo y tomar medidas


correctivas. Algunos bancos están empleando la información que
Mercados financieros
publican sus clientes en redes sociales para predecir si tienen riesgo de
caer en mora.

Los logs de TI se usan para mejorar la solución de problemas frecuentes,


Tecnología e información detectar infracciones de seguridad y monitorear el desempeño de las
redes corporativas.

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 13
Big data es aplicada en la lucha contra el terrorismo y crimen
organizado (redes de narcotráfico, trata de personas, lavado de activos,
Defensa y seguridad
contrabando, etc.) para detectar el funcionamiento de estructuras
criminales y prevenir futuros delitos.

Análisis de transacciones financieras online (compras, movimientos


Detección y prevención
bancarios, inversiones, seguros) para detectar comportamientos
de fraude
riesgosos y restringir transacciones peligrosas.

Fuente: elaboración propia

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 14
Referencias bibliográficas
Camargo Vega, J. y Camargo Ortega, J. y Joyanes Aguilar, L. (2015). Conociendo Big data. Facultad
de Ingeniería, 24(38), 63-77. Recuperado de http://www.redalyc.org/articulo.oa?id=413940775006

Cox, M. y Ellsworth, D. (1997). Application-Controlled Demand Paging for Out-of-Core Visualization.


Recuperado de https://www.nas.nasa.gov/assets/pdf/techreports/1997/nas-97-010.pdf

Gartner, Inc. (s.f.).IT Glossary. Recuperado de https://www.gartner.com/it-glossary/

Lane, M. (23 de abril de 2012). ¿Cómo se entera una tienda antes que tus padres de que estás
embarazada? CNN. Recuperado de http://cnnespanol.cnn.com/2012/04/23/como-se-entera-una-
tienda-antes-que-tus-padres-de-que-estas-embarazada/

Laney, D. (6 de febrero de 2001). 3D Data Management: Controlling Data Volume, Velocity, and
Variety [Mensaje en un blog]. Recuperado de https://blogs.gartner.com/doug-laney/files/2012/01/
ad949-3D-Data-Management-Controlling-Data-Volume-Velocity-and-Variety.pdf

Unión Internacional de las Telecomunicaciones. (2015). Recomendación Y.3600. Recuperado de


http://handle.itu.int/11.1002/1000/12584

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 15
INFORMACIÓN TÉCNICA

Módulo: Internet de las cosas


Unidad 4: Industria 4.0 y big data
Escenario 7: Big data

Autor: John Olarte Ramos

Asesor Pedagógico: Angie Laiton


Diseñador Gráfico: Henderson Jhoan Colmenares López
Asistente: Alejandra Morales Eslava

Este material pertenece al Politécnico Grancolombiano. Por


ende, es de uso exclusivo de las Instituciones adscritas a la Red
Ilumno. Prohibida su reproducción total o parcial.

POLITÉCNICO
POLITÉCNICO GRANCOLOMBIANO
GRANCOLOMBIANO 16

También podría gustarte