Está en la página 1de 15

“Big Data”

Materia: Factor Humano


Nombre Profesor: Fernando Javier Rau
Nombre alumno: Camila Fernández
Fecha: 28 de Abril de 2016
Índice

Resumen 3
Introduccion 3
Que es Big Data? 4
Historia del Big Data 4
Características de Big Data 5
Tipos de análisis predictivos 6
Modelo Predictivo 6
Modelo Descriptivo 7
Modelo de Decisión 7
Objetivo de Big Data 8
Filosofía para adoptar Big Data 8
Utilidad de Big Data 9
Big Data y el análisis de datos 9
Data y la Nube 11
Big Data en Recursos Humano 12
Consideraciones 13
Conclusiones 14
Citas 15
Bibliografía 15
Resumen

El ensayo presenta una investigación sobre Big Data y la importancia del análisis
de datos como parte fundamental y estratégica para obtener el éxito cuando se
habla de Big Data, no solo se habla de almacenamiento de datos, sino generar
información y obtener conocimiento para poder potenciar el negocio en las
empresas. Contar con un científico de datos es importante, ya que es la persona
que analiza los datos haciendo uso de sus conocimientos en matemáticas,
estadística, tecnología, área a la que esta enfocada la empresa para así potenciar
a la empresa y obtener estrategias de negocio, se debe contar con información
depurada para lograr obtener un análisis eficiente.
El crecimiento acelerado y la producción de datos día a día, los datos generados
pueden ser estructurados y semiestructurados, la limitación de las herramientas
tradicionales han dado lugar al aparecimiento de Big Data, siendo este para las
empresas un desafío tecnológico ya que pueden tener dificultades para
analizarlos, capturarlos y explotarlos, los cuales brindarán importantes
recompensas a las empresas.

Introduccion

En la actualidad vivimos una realidad en la que estamos conectados la mayoría


del tiempo al internet compartiendo fotos, documentos, vivencias y experiencias.
En las últimas décadas la cantidad de información que debemos manejar,
constantemente se ha multiplicado, generándose así cada vez más y más datos
que analizar y debido a que la sociedad hoy por hoy da mayor importancia a dicha
información no es raro afirmar que esta viene siendo y será el pilar que sustente la
toma de decisiones para las organizaciones y empresas en los años próximos,
enmarcando así un nuevo campo de estudio y preparación para los profesionales
en ingeniería de sistemas.
En este ensayo se verán las siguientes interrogantes: “¿Qué es Big Data? Y
¿Cómo podemos implementar Big Data?”
Con el correr de los años han sido muchas las técnicas, métodos, herramientas
que han sido desarrolladas para la recopilación y procesamiento de datos
obtenidos en diferentes escalas y diversas temáticas o campos de estudio. Una de
estas técnicas y se podría decir que es la más utilizada debido a que la
información que genera fácilmente puede ser visualizada como datos estadísticos,
es la minería de datos cuyo objetivo es capturar información de un grupo de datos
y transformar esta información en una estructura que sea comprensible para uso
posterior.
¿Qué es Big Data?

“Conjuntos de datos cuyo tamaño va más allá de la capacidad de captura,


almacenado, gestión y análisis de las herramientas de base de datos” [1]. Esta
definición se introdujo con la popularización de este término, la cual no describe el
objetivo concreto del término, por lo que ha esta definición se le han acotado
algunos términos.
Uno de los significados mas completos y que será usado como punto base para
este ensayo es el significado por Gartner. 
“Big data son activos de información caracterizados por su alto volumen, velocidad
y variedad, que demandan soluciones innovadoras y eficientes de procesado para
la mejora del conocimiento y toma de decisiones en las organizaciones” [2]
Se denomina Big Data a la administración y análisis de cantidades gigantescas de
data que no deben de tratarse de manera normal ya que rebasan las capacidades
y limites de herramientas de software que son usadas normalmente para la
gestión, captura y procesamiento de datos.
Este concepto incluye tecnologías, infraestructuras y servicios creados para dar
soluciones a procesamientos enormes de conjuntos de datos estructurados, no
estructurados o semiestructurados, estos pueden provenir de sensores, archivos
de audio, micrófonos, cámaras, escáneres médicos, imágenes, teléfonos
inteligentes entre otros.

Historia de Big Data

El Big Data y la analítica de datos es algo que hoy en dia esta muy de moda, pero
también es algo que no surgió hace un par de dias. En 1930 ya se llevaba a cabo
las primeras tareas de análisis de datos, aunque no con el volumen como el que
ahora se mueve.
La predictibilidad de la analítica, desde el siglo XX ha cambiado mucho, tanto asi
que era usada en la II Guerra Mundial para descifrar mensajes. “La analítica
predictiva se está convirtiendo en la tecnología del siglo XXI”, comenta Andrew
Jennings, director de analítica de Fico Labs. “Se puede mirar hacia atrás y ver su
importancia en el pasado, pero hemos llegado a un punto en el que el Big Data, el
cloud computing y la tecnología de analítica está llevándonos a una innovación
masiva y disrupción en el mercado”.
Según los resultados de Fico Labs, todos los dias se crean 2,5 trillones de bytes
relacionados con big data, esto explicaría claramente que la venta de soluciones
de analítica haya pasado de facturar 11.000 millones de dólares en 2000 a 35.000
millones de dólares en 2012 y ademas, el número de puestos de trabajo
relacionados con estas soluciones haya crecido un 15.000% entre 2011 y 2012.
Características de Big Data

Las características de Big Datas hacen referencia a las tres “Vs” (3Vs): Volumen,
variedad y velocidad, sin embargo existen algunas empresas que han
incursionado en big data han ampliado la definición original, incorporando dos
características nuevas: valor del dato y veracidad, por lo tanto se puede
consideran cinco “Vs” (5Vs).
Volumen
Cuando se habla de Big Data se consideran grandes volúmenes de datos,
refiriéndose a Terabytes o Petabytes que superan a la gestión de estos datos en
sistemas tradicionales, es por esto que el avance tecnológico ha dado el
surgimiento al aparecimiento de big data que permite manejar los enorme
cantidades de datos y gestionarlos.
Variedad
Esta característica se refiere a incluir varias fuentes de datos de diferentes a las
que se manejan en el sistema tradicional, pudiendo ser obtenida de redes
sociales, de dispositivos electrónicos que se encuentran conectados y cada vez en
un número mayor, sensores que permiten conocer movimientos y hábitos
cotidianos, es decir, diversas fuentes externas que obtienen datos.
Es importante recalcar que los datos que puede manejar big data pueden ser
estructurados y semiestructurados. La gestión de la información desestructura,
precisa el uso de tecnologías que permitan tomar decisiones basadas en
información obtenida con gran exactitud, los algoritmos para el tratamiento de los
datos utilizan lógica difusa.
Velocidad
Esta característica se basa en la rapidez con la que se reciben los datos, procesan
y se toma decisiones en función de estos. En la mayoría de sistemas tradicionales
es imposible analizar los grandes volúmenes de datos de forma inmediata los en
el momento de receptarlos, pero big data este concepto es imprescindible por
ejemplo en sistemas de detención de fraude o realizar ofertas personalizadas de
clientes, entre otros.
Veracidad
Esta característica no hay que dejarla de lado, es la confianza de los datos,
extrayendo los datos de calidad y eliminado la imprevisibilidad de algunos, por
ejemplo en el tiempo, economía, etc. De esta forma se puede llegar a obtener la
información precisa para tomar decisiones correctas.
Valor del Dato
Esta característica se refiere a la importancia del dato en el negocio, se debe tener
en claro que datos se van analizar, apareciendo el científico de datos (data
scientists) un profesional con perfil científico, tecnológico y con visión del negocio,
el cual será el encargado de analizar los datos y prestando servicio tanto a los
clientes como a los ejecutivos para la toma de decisiones. Esta profesión es una
del futuro, en pocos años aumentará el requerimiento de estos profesionales para
el análisis de datos. Es de vital importancia formar a gente con este perfil de
innovación en las tendencias actuales.
Big data proveerá en el futuro de negocio que producirá grandes cantidades de
dinero, es necesario contar con científicos de datos (data scientists) que son
especialistas en analizar y correlacionar big data para así obtener ventajas
competitivas en las compañías; Amazon, Facebook, LinkedIn, Google, Youtube
constantemente se busca como usar la enorme cantidad de datos que se
producen a diario, para aprovechar las oportunidades de negocio basado en el
análisis de los datos y las oportunidades de mercado. Los científicos de datos no
solo están centrados en el análisis de datos, sino también en las necesidades de
usuarios y ayudar los ejecutivos hacer nuevos productos.
Existen varios modelos de análisis de datos, orientados al análisis de datos de
miles de datos y actualmente se habla de millones de datos aún falta por obtener
nuevos modelos análisis aplicables para hoy en día.
Se necesita formar emprendedores para estas nuevas tendencias hay que salir del
estado de trance en el que de cada profesional se dedica a lo que sabe, se
quedan en una área de confort sin el objetivo del querer cambiar las cosas,
involucrándose en nuevos retos y proyectos.
Hay varios retos que resolver y uno de esos son el almacenamiento, discos de
estado sólido como se está usando actualmente, procesamiento de datos,
administración de información a través de bases NoSQL.
En este ensayo se va a realizar algunas revisiones orientadas al análisis
predictivos usadas en big data, la importancia de big data es obtener información
de los datos que se almacenan con el objetivo de producir la información para la
toma de decisiones, por lo que es imprescindible contar con un científico de datos
en la empresa para lograr los objetivos fijados proyectándose sobre el resto de
empresas, siendo efectivas y productivas.

Tipos de análisis predictivos

Los tipos análisis predictivos que se mencionan son: modelos predictivos, modelos
descriptivos, modelos de decisión.

Modelo Predictivo

Los modelos predictivos examinan resultados anteriores para estimar una


probabilidad del comportamiento especifico en un futuro ya sea de un cliente o un
posible candidato para ser empleado.
Comprende también los modelos que buscan patrones discriminatorios de datos
para contestar preguntas ya sea sobre el comportamiento de empleados con el
perfil buscado o comportamientos del cliente , tales como la detección de tipos de
fraudes, los modelos de predicción a menudo realizan cálculos en tiempo real,
durante las operaciones.
Fig 1. “Como se desarolla un modelo predictivo”
Fuente: www.scoremind.com

Modelo Descriptivo

Los modelos descriptivos especifican los vínculos que se dan en los datos para
poder diferenciar y separar a las personas en grupos según su comportamiento.
Los modelos descriptivos determinan los diferentes vínculos entre personas o
productos. Aunque los modelos descriptivos no clasifican a los clientes según su
probabilidad de tomar una acción en particular. Los modelos descriptivos
normalmente son usados “offline” un ejemplo de esto seria el clasificar a los
clientes por sus preferencias de los productos según su etapa de vida.

Modelo de Decisión

Los modelos de decisión explican las diferentes relaciones entre todos los
elementos de una decisión, los datos que se conocen, la decisión y el plan de
variables y valores que determina la decisión, con el fin de revelar los resultados
de las decisiones de muchas variables. Estos modelos pueden ser utilizados en
optimización.
Objetivo de Big Data

El objetivo principal de Big Data, como los sistemas analíticos convencionales, es


el de transformar los datos en información para si facilitar la toma de decisiones a
tiempo real. La importancia no es solo en cuestión de tamaño sino en una
oportunidad de negocio.
Las empresas que utilizan Big Data lo hacen para obtener el perfil del cliente, sus
empleados y futuros empleados y comprender las necesidades, factores clave y
patrones de gente empleada, esto adquiere una especial relevancia y permite a la
empresa adecuar la forma de interacción con los clientes en saber cómo les
prestan el servicio y con los interesados en ser empleados el perfil que están
buscando.
EL concepto de manejar grandes volúmenes de datos no es nuevo y no es bueno
asociar este concepto Big Data, existen varias empresas que llevan bastante
tiempo operando volúmenes muy grandes de data a través de DataWarehouses y
herramientas analíticas con potencial que les hace posible el tratar
apropiadamente esos tamaños de volumen. La evolución de la tecnología ha dado
el surgimiento de Big data, el bajo costo de almacenamiento han creado que los
volúmenes que se operan por estas aplicaciones han aumentado de manera
importante permitiendo la toma de decisiones convirtiendo los datos en
información.

Filosofía para adoptar big data

Para adoptar correctamente la filosofía Big Data en una empresa hay que tener en
cuenta que no sólo es una cuestión solamente tecnológica, la empresa requiere
tener una visión lo suficientemente transparente de los beneficios que le genera el
basar el negocio en data, el valor del conocimiento que se extraerá,
englobando los datos internos como los externos.
Es muy importante el poder contar con gente profesional en este campo que
cuenten con conocimientos que les permitan traspasar esa barrera entre los
factores técnicos y los de negocio, por lo que da cabida nuevamente y recobra
importancia el sentido de la posición del científico de datos. 
Sean Owen de Cloudera define al científico de datos como “una persona que
entiende la estadística mejor que un ingeniero software y es mejor en ingeniería
software que cualquier estadístico”. A parte de estas herramientas que sin duda
son indispensables se debe agregar la experiencia del negocio y capacidad para
proyectar las preguntas convenientes.
Las opiniones son diversas y no coincidentes, pero la mejor forma de comenzar a
“realizar Big Data” es un paso a la vez, tomando el tiempo necesario e incluyendo
proyectos cuyos objetivos deben ser enfocados. Los candidatos indicados para
probar con esta tecnología son los procesos que tienen un cuello de botella,
existen diferentes situaciones que surgen de la necesidad de innovar, a través del
vinculo de data externa o también el diseño de los productos basados en la data.
Se puede citar un buen ejemplo como es la iniciativa de Big Data desde el Centro
de Innovación BBVA que proporciona información agregada sobre transacciones
de tarjetas de crédito.
La fuente más importante de donde extraer los datos es la obtenida en las redes
sociales, los datos están marcados por la heterogeneidad que ofrece, es una de
las fuentes de datos que plantea varios retos.

Utilidad de Big Data

Las personas estamos constantemente creando y guardando información de todo


tipo en volúmenes gigantescos. Esta información la podemos obtener ya sea en
industrias, compañias que mantienen volúmenes grandes de data transaccionales,
agrupando información acerca de sus empleados, proveedores, clientes
operaciones, entre otros. Y asi mismo pasa con el sector publico. En diferentes
lugares del mundo bases de data que contienen data de censo de población,
registros médicos, impuestos, etc.. son almacenados y si aparte se le agrega
transacciones financieras realizadas en línea o por celular, análisis de redes
sociales ( twitter tiene aproximadamente 12 terabytes de tweets diariamente y
Facebook guarda aproximadamente 100 peta bytes de fotos y videos), zona
geográfica usando coordenadas GPS, lo que quiero decir, todas las actividades
que realizamos dia con dia con nuestros “Smartphone”, se habla de que se crean
aproximadamente 2.5 quintinillones de bytes diariamente en el mundo.
Toda esa gran cantidad de información es tomada por las empresas ya sean
privadas públicas, gubernamentales para ser rotulada entre confiable y poco
confiable para luego ser tratada por herramientas de procesamiento de grandes
cantidades de datos como son: hadoop, pentaho, netezza, vertica, DataFlux,
Greenplum entre otros. Con la finalidad de obtener un tipo de información
relevante para la actividad de la empresa y dependiendo de los intereses de la
misma.

Big Data y el análisis de datos

Las organizaciones y entidades de información hasta hace poco se enfocaban


principalmente al almacenamiento de información para ser utilizada por los
usuarios. La visión más “agresiva” se le da a través de los profesionales de
información que no sólo toman la data o los volúmenes grandes de información,
pero que realizan informes, producto de análisis, los cuáles facilitan la conversión
de grandes cantidades de datos en información sintetizada y confiable. El análisis
de información ayuda y ha transformado la toma de decisiones, en una tarea cada
vez más dinámica y que requiere de una base informativa bien sustentada.
El estudio de información empieza en la simple recolección y lectura de textos
hasta la interpretación, el objetivo se basa en adquirir ideas, obtenidas de las
diferentes fuentes de información permitiendo manifestar el contenido sin
confusiones, con la meta de guardar y recuperar la data contenida.
Fig 4. “Big Data y Análisis de Datos”
Fuente: http://www.breva.biz/big-data-y-analisis-de-la-informacion/

Para analizar la información surgen tecnologías como data warehouse, (almacén


de datos) es un conjunto de data dirigida a un ámbito determinado, en los
sistemas data warehouse la información no se cambia ni se desecha, ya que un
dato se guarda, éste es convertido en información de lectura, y se mantiene para
consultas futuras, los cambios producidos en la data a lo largo del tiempo quedan
inscritos para que las interpretaciones que se hagan puedan reflejar estas
variaciones, que ayudarán a la toma de decisiones.
El almacenamiento de la data no se usa con data de uso actual. En los almacenes
de data se podría encontrar volúmenes grandes de información que se clasifican a
veces en unidades lógicas mas chicas que dependen del subsistema de la entidad
de la que proceden o para el que sea necesario, existe un inconveniente en los
data warehouses convencionales y su almacenamiento no se puede escalar hasta
Terabyte de datos y soportar analítica avanzada.
Las diferentes tecnologías de la información han creado grandes e importantes
crecimientos desde los años 50, a una velocidad en el que la potencia de la
informática crece enormemente año con año y a la par de este crecimiento de la
informática está acompañada la información, cuyos volúmenes están haciendo
cada vez más indescifrables.
El análisis de datos es vital en big data, puesto que sólo el almacenamiento de
datos en bruto no nos ofrece nada, se lo puede ejemplificar como una mina donde
para extraer el oro se debe procesar cantidades de roca para obtener el valioso
metal. En la cotidianidad de la vida real sucede algo similar, una cadena de
farmacias, puede tener almacenada las ventas de cinco años y antes de desechar
toda esa información podría analizarla como por ejemplo saber en cuáles regiones
se compran qué medicamento con mayor demanda que otros, en qué temporada
un medicamento tiene una mayor demanda, qué factores externos influyen en la
demanda de productos, que sucursales de determinadas regiones, son factibles
de tener personal médico, etc.
Encontrar y emplear científicos de data es totalmente decisivo para el éxito de
cualquier proyecto de Big Data pues proporciona el talento de definir, entender,
manejar y contextualizar data de varias fuentes en varios formatos. El científico de
datos tiene como reto aplicar su experiencia y conocimiento que en la actualidad
este es ajeno a la mayoría de los departamentos de tecnología informática y
también para la mayor parte de las corporaciones.

El 45% de los planes de  Business Intelligence fallan por escases de conocimiento


de los datos del personal de las empresas. Así lo concluyó una encuesta realizada
por GigaOm, “los requisitos de los conocimientos de Big Data son más rigurosos
que los de la mayoría de los proyectos de business intelligence, lo que significa
que los índices de fracaso debido a la falta de conocimientos deben ser aún
mayores”. Según la definición de IBM, la ciencia de los datos requiere
capacitación en ciencias de la computación, aplicaciones, modelado de datos,
estadística, analítica y matemáticas avanzadas. También requiere capacitación en
procesos o manejo de negocios con el fin de identificar los requisitos de la
organización y los datos que podrían empatarlos. “Un científico de datos no
simplemente recolecta y genera reportes de datos, sino que también los analiza
desde muchos ángulos, determina su significado y luego recomienda formas de
aplicarlos”.
F. BIG

Data y la nube

Uno de los mayores inconvenientes que las empresas enfrentan es no poder


costearse la infraestructura física para interpretar grandes volúmenes de datos
desestructurados. Actualmente existen proveedores de almacenamiento de datos
que ofrecen soluciones en la nube con una gama de productos, comercializan
soluciones asequibles y accesibles. Lo aconsejable será que las empresas
alquilen espacio de almacenamiento en potentes servidores que pueden acceder
en línea, es decir la infraestructura será provista por la nube como cimientos
estables que sustentarán a Big Data, permitiendo contar con servidores con
aplicaciones que han sido diseñadas especialmente para manejar grandes
volúmenes de datos, y para conseguir resultados rápidos, en tiempo real dando
una solución accesible a las empresas.
La infraestructura que ofrece la nube son:
Nube privada: ofrece una infraestructura virtualizada y específica dentro del
firewall.
Nube privada externa: ofrece una infraestructura común, aunque personalizada,
que se alberga fuera del firewall
Nube pública: ofrece una infraestructura compartida que alberga un tercero.
Híbrida: ofrece un entorno mixto de dispositivos en las instalaciones, nube privada
(interna y externa) y nube pública
Big Data en Recursos Humanos

A la aplicación de de Analytics y Big Data en RRHH se conoce como Talent


Analytics y habla de un grupo de herramientas clave y procesos estadísticos que
se basan en las cantidades enormes de información ya mencionadas y que de
acuerdo a los análisis que se necesitan llevar a cabo, permiten resolver diferentes
preguntas y agilizar procesos de RRHH. Los datos necesitados existen y se
actualizan diario, la clave es saber procesarlos para tomar la mejor decisión
posible.

Hoy en dia, por el gran desequilibrio de talento y la recesion global, las


organizaciones se están concentrando en intercambiar los sistemas
convencionales de RRHH por el razonamiento de la analítica aplicada al talento.
Como se muestra en la siguiente figura, las las evoluciones se empieza por
conocimiento básico e informes y crece hacia el análisis predictivo y precisamente
esto es lo que esta ocurriendo en RRHH.

Fig. 3 “el inevitable cambio RRHH y analítica del talento”


Fuente: http://www.peopletreespain.com/big-data-en-rr-hh-porque-esta-aqui-y-lo-que-significa-i/

El Dr. John Sullivan dice que “el Big Data no se usa en la mayoría de las funciones
de RR.HH. (que todavía se basan en Small Data) parece que le espera un gran
desarrollo hasta el punto que Bersin dice que “Big Data y Analytics van a cambiar
la gestión de los RR.HH” y su uso va a igualarse al que se aplica en otros campos
como las finanzas o el marketing. Y es que precisamente, los departamentos de
RR.HH. generan una gran cantidad de datos que bien recogidos pueden ser de
gran utilidad.” Como utilidad el Dr. Sullivan opina que que el Big Data en RRHH
puede ayudar a “identificar problemas de productividad, predecir cuándo va a
haber problemas en la facturación, ayudar a aumentar la innovación, y hacer a
tus líderes más efectivos”.

El uso de Big Data en RRHH es una estrategia que puede ayudar o facilitar a
contestar las preguntas mas comunes que surgen los departamentos de RRHH,
como: Cuál es el mejor candidato para ocupar la vacante?, Cuáles factores son los
que determinan la rotación de empleados?, Cuáles son los empleados con el
mejor desempeño?, Qué empleados tienen mayor potencial? Y Qué factores se
repiten en nuestro perfil ideal de empleado?

Un muy buen ejemplo del uso de Big Data en recursos humanos para citar es el
de Josh Besin, consultor y especialista en RRHH de Forbes, para una
organización financiera estadounidense, que mediante el uso de Big Data y
análisis estadístico se estudiaron los datos de ventas y rotación de vendedores
donde se incluyo con el desempeño total de la compañía, variables de factores
demográficos y tasas de retención anuales para asi poder identificar a sus
empleados con mejor desempeño y hacer una selección de los mejores aspirantes
para asi mejorar sus indicadores de productividad y poder fortalecer su
departamento comercial.
Con los resultados obtenidos se creo un nuevo sistema en la política de RRHH y
con su empleo se aumento el ingreso de la organisacion en 4 millones de solares
anuales. Con este ejemplo podemos decir que en la mayor parte de las empresas
de contratación, la promoción, las decisiones de gestión y las recompensas se
siguen basando en la experiencia personal, el instituto y los sistemas de creencias
corporativas.

Las organizaciones tienen acceso a millones de datos de todo tipo sobre sus
propios empleados ya sean de rotación laboral, formación, demográficos, historia
académica, índice de rendimiento, etc. Y muchas empresas no la toman en cuenta
o no le dan la importancia necesaria en la toma de decisiones ya sea para
fortalecer la productividad, gestión y competencia.

Consideraciones

Se debe tener en cuenta algunas consideraciones:


Fuente Abierta: es importante contar con conocimientos sólidos cuando se escoge
una herramienta de código abierto como por ejemplo Hadoop tanto si se va contar
en las instalaciones físicas o en la nube.
Almacenamiento y procesamiento de datos: es mportante analizar con qué tipo de
nube se va a contar a la hora de gestionar el almacenamiento y procesamiento de
datos ya que de esto dependerá el acceso que se tenga a los mimos.
Competencias: Contar con especialistas es importante, los científicos de datos son
quienes proporcionarán el conocimiento sobre esos datos
Asistencia: se requiere contar con asistencia sobre la infraestructura que
dependerá del tipo de nube seleccionada ya que si es privada se deberá contar
con un equipo interno que brinde asistencia en el otro caso el proveedor deberá
brindar la asistencia oportuna.
Rendimiento: Se debe gestionar el tráfico de la red ya que esto afectará en el
rendimiento y acceso a los datos, por tratarse de grandes volúmenes de
información por acceder no debe dejarse de lado el rendimiento de aplicaciones y
accesos a datos.
Integración: Es importante la integración del big data en los sistemas internos y
externos, dentro y fuera de la nube, se debe integrar el big data en las
aplicaciones, sistemas y procesos existentes.
Privacidad: A través de Big Data se puede acceder ya sea a fuentes externas
como internas, pero nunca hay q dejar de lado la privacidad de estos datos.

Conclusiones

El crecimiento de volúmenes de datos no es un limitante para biga data, la


información crece cada día en terabytes hasta Petabytes, es evidente que si se
proyecta se tendría un incremento de aproximadamente un 40% teniendo en
cuenta que los datos no solo se producen con sistemas de las empresas, sino que
viene de diversas fuentes con redes sociales, sensores, teléfono inteligentes, etc.
Es importante tener un análisis de los datos en un tiempo real para poder
consumir la información en tiempo real.
El tratamiento de la información no se limita a los datos estructurados, no solo fila
y columnas sino se extiende a un análisis de información de cualquier tipo de
datos que van desde archivos pdf, vídeos, hojas de cálculo, fotos, etc.
Las empresas deben considerar el contar con científicos de datos que son los
encargados de analizar la información, contemplar nuevas fuentes datos para
poder extraer información que aportarán mayor valor agregado, visón al negocio y
contratar a la gente adecuada.
Los usuarios podrán consumir la información de big data, dando la apariencia de
contar con un autoservicio y la tendencia será prescindir de un administrador de
sistemas sino se podrá consumir la información directamente por parte de
usuarios y ejecutivos de negocios.
En el mundo actual estamos interconectados lo que hace que se exija velocidad
en procesos y a través de big data se procesa información en tiempo real en
grandes volúmenes de información por lo que se requiere que el análisis de datos
sea óptimo y que se optimicen algoritmos para análisis de lenguaje natural,
inteligencia artificial, evitando errores en el procesamiento.
Los datos de producen de distintas fuentes y pueden ser capturados para poder
hacer uso en distintas áreas como en el marketing, medir la satisfacción de
clientes, determinar sus necesidades con lo que se potencia la creación de nuevos
servicios, constantemente pueden ser monitoreados los servicios prestados y
mejorarlos.
Biga data ofrece oportunidades para las empresas u organizaciones sean más
eficaces y competitivas y el reto de la empresas es gestionar grandes volúmenes
de datos que van creciendo día a día.
La tecnología debe ser innovadora no se puede usar la misma que se ha trabajado
años atrás, para big data se requiere mayor velocidad, capacidad de
almacenamiento y análisis así como disponer en cualquier momento, por lo que se
puede hablar de la nube como un buen aliado.

Citas

[1] McKinsey Global Insitute (MGI), “Definición Big Data”, Junio de 2011
[2] GARTNER – IT GLOSSARY “Defición Big Data” https://www.gartner.com/it-
glossary/big-data/.

Bibliografia
- FUNDACION BIG DATA - ANALISIS PREDICTIVO disponible en:
http://fundacionbigdata.org/analisis-predictivo
- BIG DATA Y EL ANALISIS DE LA INFORMACIÓN,
- TRANSFORMACION BASADA EN ANÁLISIS,
http://www.atkearney.es/analisis-de-datos/areas-
competencia/capability/-/asset_publisher/BqWAk3NLsZIU/content/analytics-
transformation/10192?redirect=http%3A%2F%2Fwww.atkearney.es
%2Fanalisis-de-datos%2Fareas-competencia%2Fcapability%3Fp_p_id
%3D101_INSTANCE_BqWAk3NLsZIU%26p_p_lifecycle
%3D0%26p_p_state%3Dnormal%26p_p_mode%3Dview%26p_p_col_id
%3Dcolumn-2%26p_p_col_pos%3D1%26p_p_col_count%3D2
- BIG DATA PRESENTE Y FUTURO,
http://www.abc.es/tecnologia/informatica-soluciones/20131207/abci-data-
analisis-201312051430.html
- BIG DATA http://www.wobi.com/es/articles/big-data
- BBVA Innovation Center
https://www.centrodeinnovacionbbva.com/magazines/innovation-
edge/publications/21-big-data/posts/153-big-data-en-que-punto-estamos
- QUË ES BIG DATA, http://www.ibm.com/developerworks/ssa/local/im/que-
es-big-data/
- LA NUBE Y BIG DATA,
http://www.sas.com/offices/europe/spain/sascom/Q32013/Nube_BigData.pd
f
- BIG DATA, EL FUTURO EN LA GESTION DE RECURSOS HUMANOS,
http://www.acsendo.com/es/blog/big-data-el-futuro-en-la-gestion-de-
recursos-de-humanos/

También podría gustarte