Está en la página 1de 5

ENSAYO DE BIG DATA

LUZ KARINE PATERNINA MELENDEZ

Asignatura:
Ingeniería de Negocios

Semestre:
X de Ingeniería de Sistemas

Profesara:
Laura Paternina

Corporación Unificada Nacional de educación superior


CUN
02/Septiembre/2017
Resumen
El ensayo presenta una investigación sobre Big Data y la importancia del análisis de datos
como parte fundamental y estratégica para obtener el éxito cuando se "habla de Big Data,
no solo se "habla de almacenamiento de datos, sino generar información y obtener
conocimiento para poder potenciar el negocio en las empresas. Contar con un científico
de datos es importante, ya que es la persona que analiza los datos "haciendo uso de sus
conocimientos en matemáticas, estadística, tecnología, área a la que está enfocada la
empresa para así potenciar a la empresa y obtener estrategias de negocio, se debe contar
con información depurada para lograr obtener un análisis eficiente.
Introducción
En la actualidad vivimos una realidad en la que estamos conectados la mayoría del tiempo
al internet compartiendo fotos, documentos, vivencias y experiencias. En las últimas
décadas la cantidad de información que debemos manejar, constantemente se ha
multiplicado, generándose así cada vez! más y más datos que analizar y debido a que la
sociedad hoy por hoy da mayor importancia a dicha información no es raro afirmar que
esta viene siendo y será el pilar que sustente la toma de decisiones para las
organizaciones y empresas en los años próximos, enmarcando así un nuevo campo de
estudio y preparación para los profesionales en ingeniería de sistemas.
¿Qué es Big Data?
“Conjuntos de datos cuyo tamaño va más allá de la capacidad de captura, almacenado,
gestión y análisis de las herramientas de base de datos”.
“Big data son activos de información caracterizados por su alto volumen, velocidad y
variedad, que demandan soluciones innovadoras y eficientes de procesado para la mejora
del conocimiento y toma de decisiones en las organizaciones”.
Se denomina Big Data a la administración y análisis de cantidades gigantescas de data que
no deben de tratarse de manera normal ya que rebasan las capacidades y límites de
herramientas de software que son usadas normalmente para la gestión, captura y
procesamiento de datos.
Historia de Big Data
El Big Data y la analítica de datos es algo que hoy en día está muy de moda, pero también
es algo que no surgió hace un par de días. En 1930 ya se llevaba a cabo las primeras tareas
de análisis de datos, aunque no con el volumen como el que ahora se mueve.
La predictibilidad de la analítica, desde el siglo XX ha cambiado mucho, tanto así que era
usada en la II Guerra Mundial para descifrar mensajes. “La analítica predictiva se está
convirtiendo en la tecnología del siglo XXI”, comenta Andrew Jennings, director de
analítica de Fico Labs. “Se puede mirar hacia atrás y ver su importancia en el pasado, pero
hemos llegado a un punto en el que el Big Data, el cloud computing y la tecnología de
analítica está llevándonos a una innovación masiva y disrupción en el mercado”. Según los
resultados de Fico Labs, todos los días se crean 2,0 trillones de bytes relacionados con big
data, esto explicaría claramente que la venta de soluciones de analítica haya pasado de
facturar 11.000 millones de dólares en 2000 a 35.000 millones de dólares en 2012 y
además, el número de puestos de trabajo relacionados con estas soluciones haya crecido
un 15.000 entre 2011 y 2012.
Características de Big Data
Las características de Big Datas hacen referencia a las tres “Vs” (3Vs): Volumen, variedad y
velocidad, sin embargo existen algunas empresas que han incursionado en big data han
ampliado la definición original, incorporando dos características nuevas: valor del dato y
veracidad, por lo tanto se puede consideran cinco “Vs” (5Vs).
Volumen
Cuando se habla de Big Data se consideran grandes volúmenes de datos, refiriéndose a
Terabytes o Petabytes que superan a la gestión de estos datos en sistemas tradicionales,
es por esto que el avance tecnológico ha dado el surgimiento al aparecimiento de big data
que permite manejar los enorme cantidades de datos y gestionarlos.
Variedad
Esta característica se refiere a incluir varias fuentes de datos de diferentes a las que se
manejan en el sistema tradicional, pudiendo ser obtenida de redes sociales, de
dispositivos electrónicos que se encuentran conectados y cada vez en un número mayor,
sensores que permiten conocer movimientos y hábitos cotidianos, es decir, diversas
fuentes externas que obtienen datos.
Velocidad
Esta característica se basa en la rapidez con la que se reciben los datos, procesan y se
toma decisiones en función de estos. En la mayoría de sistemas tradicionales es imposible
analizar los grandes volúmenes de datos de forma inmediata los en el momento de
receptarlos, pero big data este concepto es imprescindible por ejemplo en sistemas de
detención de fraude o realizar ofertas personalizadas de clientes, entre otros.
Veracidad
Esta característica no hay que dejarla de lado, es la confianza de los datos, extrayendo los
datos de calidad y eliminado la imprevisibilidad de algunos, por ejemplo en el tiempo,
economía, etc. De esta forma se puede llegar a obtener la información precisa para tomar
decisiones correctas.
Valor del Dato
Esta característica se refiere a la importancia del dato en el negocio, se debe tener en
claro que datos se van analizar, apareciendo el científico de datos (data scientists) un
profesional con perfil científico, tecnológico y con visión del negocio, el cual será el
encargado de analizar los datos y prestando servicio tanto a los clientes como a los
ejecutivos para la toma de decisiones.
Tipos de análisis predictivos
Los tipos análisis predictivos que se mencionan son: modelos predictivos, modelos
descriptivos, modelos de decisión.
Modelo Predictivo
Los modelos predictivos examinan resultados anteriores para estimar una probabilidad del
comportamiento específico en un futuro ya sea de un cliente o un posible candidato para
ser empleado. Comprende también los modelos que buscan patrones discriminatorios de
datos para contestar preguntas ya sea sobre el comportamiento de empleados con el
perfil buscado o comportamientos del cliente, tales como la detección de tipos de fraudes,
los modelos de predicción a menudo realizan cálculos en tiempo real durante las
operaciones.
Modelo Descriptivo
Los modelos descriptivos especifican los vínculos que se dan en los datos para poder
diferenciar y separar a las personas en grupos según su comportamiento. Los modelos
descriptivos determinan los diferentes vínculos entre personas o productos. Aunque los
modelos descriptivos no clasifican a los clientes según su probabilidad de tomar una
acción en particular.
Modelo de Decisión
Los modelos de decisión explican las diferentes relaciones entre todos los elementos de
una decisión, los datos que se conocen, la decisión y el plan de variables y valores que
determina la decisión, con el fin de revelar los resultados de las decisiones de muchas
variables. Estos modelos pueden ser utilizados en optimización.
Objetivo de Big Data
El objetivo principal de Big Data, como los sistemas analíticos convencionales, es el de
transformar los datos en información para sí facilitar la toma de decisiones a tiempo real.
La importancia no es solo en cuestión de tamaño sino en una oportunidad de negocio. Las
empresas que utilizan Big Data lo hacen para obtener el perfil del cliente, sus empleados y
futuros empleados y comprender las necesidades, factores clave y patrones de gente
empleada, esto adquiere una especial relevancia y permite a la empresa adecuar la forma
de interacción con los clientes en saber cómo les prestan el servicio y con los interesados
en ser empleados el perfil que están buscando. EI concepto de manejar grandes
volúmenes de datos no es nuevo y no es bueno asociar este concepto Big Data, existen
varias empresas que llevan bastante tiempo operando volúmenes muy grandes de data a
través de Data Qarehouses y herramientas analíticas con potencial que les hace posible el
tratar apropiadamente esos tamaños de volumen.
Utilidad de Big Data
Las personas estamos constantemente creando y guardando información de todo tipo en
volúmenes gigantescos. Esta información la podemos obtener ya sea en industrias,
compañías que mantienen volúmenes grandes de data transaccionales, agrupando
información acerca de sus empleados, proveedores, clientes operaciones, entre otros. Y
así mismo pasa con el sector público. En diferentes lugares del mundo bases de data que
contienen data de censo de población, registros médicos, impuestos, etc... Son
almacenados y si aparte se le agrega transacciones financieras realizadas en línea o por
celular, análisis de redes sociales (twitter tiene aproximadamente 12 terabytes de tweets
diariamente y Facebook guarda aproximadamente 100 peta bytes de fotos y videos).
Conclusiones
El crecimiento de volúmenes de datos no es un limitante para big data, la información
crece cada día en terabytes hasta Petabytes, es evidente que si se proyecta se tendría un
incremento de aproximadamente un 40% teniendo en cuenta que los datos no solo se
producen con sistemas de las empresas, sino que viene de diversas fuentes con redes
sociales, sensores, teléfono inteligentes, etc. Es importante tener un análisis de los datos
en un tiempo real para poder consumir la información en tiempo real. El tratamiento de la
información no se limita a los datos estructurados, no solo fila y columnas sino se extiende
a un análisis de información de cualquier tipo de datos que van desde archivos pdf, videos,
hojas de cálculo, fotos, etc. Las empresas deben considerar el contar con científicos de
datos que son los encargados de analizar la información, contemplar nuevas fuentes datos
para poder extraer información que aportar en mayor valor agregado, visón al negocio y
contratar a la gente adecuada. En el mundo actual estamos interconectados lo que hace
que se exija velocidad en procesos y a través de big data se procesa información en
tiempo real en grandes volúmenes de información por lo que se requiere que el análisis de
datos sea Optimo y que se optimicen algoritmos para análisis de lenguaje natural,
inteligencia artificial, evitando errores en el procesamiento.

También podría gustarte