Está en la página 1de 21

Nombres:

Jose Ernesto Henriquez Dicen. 23-EICN-1-058


Sergio Gabriel Richiez Tavarez. 23-EICN-1-059
Brayan Roger Pichardo Brito. 23-EICN-1-061
Heriberto Rafael Inoa Ceballos. 23-EICN-1-062
Angel Daniel Matos Polanco. 23-EICN-1-063

SECCION: 0127

MATERIA: Fundamentos de la Tecnología


Índice
Presentación……………………………………………………………………1

Índice………………………………………………………………………………2

Presentación……………………………………………………………………3

Desarrollo………………………………………………………………………….4

Conclusión……………………………………………………………………………13
Introducción
Desarrollo

¿Qué es Big Data?


Cuando hablamos de Big Data nos referimos a conjuntos de datos
o combinaciones de conjuntos de datos cuyo tamaño (volumen),
complejidad (variabilidad) y velocidad de crecimiento (velocidad)
dificultan su captura, gestión, procesamiento o análisis mediante
tecnologías y herramientas convencionales, tales como bases de
datos relacionales y estadísticas convencionales o paquetes de
visualización, dentro del tiempo necesario para que sean útiles.

Aunque el tamaño utilizado para determinar si un conjunto de


datos determinado se considera Big Data no está firmemente
definido y sigue cambiando con el tiempo, la mayoría de los
analistas y profesionales actualmente se refieren a conjuntos de
datos que van desde 30-50 Terabytes a varios Petabytes.

La naturaleza compleja del Big Data se debe principalmente a la


naturaleza no estructurada de gran parte de los datos generados
por las tecnologías modernas, como los web logs, la
identificación por radiofrecuencia (RFID), los sensores
incorporados en dispositivos, la maquinaria, los vehículos, las
búsquedas en Internet, las redes sociales como Facebook,
computadoras portátiles, teléfonos inteligentes y otros
teléfonos móviles, dispositivos GPS y registros de centros de
llamadas.

En la mayoría de los casos, con el fin de utilizar eficazmente el


Big Data, debe combinarse con datos estructurados
(normalmente de una base de datos relacional) de una aplicación
comercial más convencional, como un ERP (Enterprise Resource
Planning) o un CRM (Customer Relationship Management).
¿Por qué el Big Data es tan importante?
Lo que hace que Big Data sea tan útil para muchas empresas es el
hecho de que proporciona respuestas a muchas preguntas que las
empresas ni siquiera sabían que tenían. En otras palabras,
proporciona un punto de referencia. Con una cantidad tan grande
de información, los datos pueden ser moldeados o probados de
cualquier manera que la empresa considere adecuada. Al hacerlo,
las organizaciones son capaces de identificar los problemas de
una forma más comprensible.

La recopilación de grandes cantidades de datos y la búsqueda de


tendencias dentro de los datos permiten que las empresas se
muevan mucho más rápidamente, sin problemas y de manera
eficiente. También les permite eliminar las áreas problemáticas
antes de que los problemas acaben con sus beneficios o su
reputación.

El análisis de Big Data ayuda a las organizaciones a aprovechar


sus datos y utilizarlos para identificar nuevas oportunidades.
Eso, a su vez, conduce a movimientos de negocios más
inteligentes, operaciones más eficientes, mayores ganancias y
clientes más felices. Las empresas con más éxito con Big Data
consiguen valor de las siguientes formas:

Reducción de coste. Las grandes tecnologías de datos, como


Hadoop y el análisis basado en la nube, aportan importantes
ventajas en términos de costes cuando se trata de almacenar
grandes cantidades de datos, además de identificar maneras más
eficientes de hacer negocios.

Más rápido, mejor toma de decisiones. Con la velocidad de


Hadoop y la analítica en memoria, combinada con la capacidad de
analizar nuevas fuentes de datos, las empresas pueden analizar la
información inmediatamente y tomar decisiones basadas en lo
que han aprendido.
Nuevos productos y servicios. Con la capacidad de medir las
necesidades de los clientes y la satisfacción a través de análisis
viene el poder de dar a los clientes lo que quieren. Con la analítica
de Big Data, más empresas están creando nuevos productos para
satisfacer las necesidades de los clientes.

Por ejemplo:

Turismo: Mantener felices a los clientes es clave para la


industria del turismo, pero la satisfacción del cliente puede ser
difícil de medir, especialmente en el momento oportuno. Resorts
y casinos, por ejemplo, sólo tienen una pequeña oportunidad de
dar la vuelta a una mala experiencia de cliente. El análisis de Big
data ofrece a estas empresas la capacidad de recopilar datos de
los clientes, aplicar análisis e identificar inmediatamente
posibles problemas antes de que sea demasiado tarde.

Cuidado de la salud: El Big Data aparece en grandes cantidades


en la industria sanitaria. Los registros de pacientes, planes de
salud, información de seguros y otros tipos de información
pueden ser difíciles de manejar, pero están llenos de información
clave una vez que se aplican las analíticas. Es por eso que la
tecnología de análisis de datos es tan importante para el cuidado
de la salud. Al analizar grandes cantidades de información - tanto
estructurada como no estructurada - rápidamente, se pueden
proporcionar diagnósticos u opciones de tratamiento casi de
inmediato.

Administración: La administración se encuentra ante un gran


desafío: mantener la calidad y la productividad con unos
presupuestos ajustados. Esto es particularmente problemático
con lo relacionado con la justicia. La tecnología agiliza las
operaciones mientras que da a la administración una visión más
holística de la actividad.
Retail: El servicio al cliente ha evolucionado en los últimos años,
ya que los compradores más inteligentes esperan que los
minoristas comprendan exactamente lo que necesitan, cuando lo
necesitan. El Big Data ayuda a los minoristas a satisfacer esas
demandas. Armados con cantidades interminables de datos de
programas de fidelización de clientes, hábitos de compra y otras
fuentes, los minoristas no sólo tienen una comprensión profunda
de sus clientes, sino que también pueden predecir tendencias,
recomendar nuevos productos y aumentar la rentabilidad.

Empresas manufactureras: Estas despliegan sensores en sus


productos para recibir datos de telemetría. A veces esto se
utiliza para ofrecer servicios de comunicaciones, seguridad y
navegación. Ésta telemetría también revela patrones de uso,
tasas de fracaso y otras oportunidades de mejora de productos
que pueden reducir los costos de desarrollo y montaje.

Publicidad: La proliferación de teléfonos inteligentes y otros


dispositivos GPS ofrece a los anunciantes la oportunidad de
dirigirse a los consumidores cuando están cerca de una tienda,
una cafetería o un restaurante. Esto abre nuevos ingresos para
los proveedores de servicios y ofrece a muchas empresas la
oportunidad de conseguir nuevos prospectos.

Otros ejemplos del uso efectivo de Big Data existen en las


siguientes áreas:

Uso de registros de logs de TI para mejorar la resolución de


problemas de TI, así como la detección de infracciones de
seguridad, velocidad, eficacia y prevención de sucesos futuros.

Uso de la voluminosa información histórica de un Call Center de


forma rápida, con el fin de mejorar la interacción con el cliente y
aumentar su satisfacción.
Uso de contenido de medios sociales para mejorar y comprender
más rápidamente el sentimiento del cliente y mejorar los
productos, los servicios y la interacción con el cliente.

Detección y prevención de fraudes en cualquier industria que


procese transacciones financieras online, tales como compras,
actividades bancarias, inversiones, seguros y atención médica.

Uso de información de transacciones de mercados financieros


para evaluar más rápidamente el riesgo y tomar medidas
correctivas.

Beneficios de big data:


 El big data le permite obtener respuestas más

completas, ya que dispone de mayor cantidad de


información.
 La disponibilidad de respuestas más completas
significa una mayor fiabilidad de los datos, lo que
implica un enfoque completamente distinto a la
hora de abordar problemas.

Desafíos de la calidad de datos en Big


Data
Las especiales características del Big Data hacen que su calidad de datos se
enfrente a múltiples desafíos. Se trata de las conocidas como 5 Vs: Volumen,
Velocidad, Variedad, Veracidad y Valor, que definen la problemática del Big Data.

Estas 5 características del big data provocan que las empresas tengan problemas
para extraer datos reales y de alta calidad, de conjuntos de datos tan masivos,
cambiantes y complicados.

Hasta la llegada del Big Data, mediante ETL podíamos cargar la información
estructurada que teníamos almacenada en nuestro sistema ERP y CRM, por ejemplo.
Pero ahora, podemos cargar información adicional que ya no se encuentra dentro de
los dominios de la empresa: comentarios o likes en redes sociales, resultados de
campañas de marketing, datos estadísticos de terceros, etc. Todos estos datos nos
ofrecen información que nos ayuda a saber si nuestros productos o servicios están
funcionando bien o por el contrario están teniendo problemas.

Algunos desafíos a los que se enfrenta la calidad de datos de Big Data son:

Muchas fuentes y tipos de datos


Con tantas fuentes, tipos de datos y estructuras complejas, la
dificultad de integración de datos aumenta.

Las fuentes de datos de big data son muy amplias:

Datos de internet y móviles.

Datos de Internet de las Cosas.

Datos sectoriales recopilados por empresas especializadas.

Datos experimentales.

Y los tipos de datos también lo son:

Tipos de datos no estructurados: documentos, vídeos, audios,


etc.

Tipos de datos semi-estructurados: software, hojas de cálculo,


informes.

Tipos de datos estructurados

Solo el 20% de información es estructurada y eso puede


provocar muchos errores si no acometemos un proyecto de
calidad de datos.

Tremendo volumen de datos


Como ya hemos visto, el volumen de datos es enorme, y eso
complica la ejecución de un proceso de calidad de datos dentro
de un tiempo razonable.

Es difícil recolectar, limpiar, integrar y obtener datos de alta


calidad de forma rápida. Se necesita mucho tiempo para
transformar los tipos no estructurados en tipos estructurados y
procesar esos datos.

Mucha volatilidad
Los datos cambian rápidamente y eso hace que tengan una validez
muy corta. Para solucionarlo necesitamos un poder de
procesamiento muy alto.

Si no lo hacemos bien, el procesamiento y análisis basado en


estos datos puede producir conclusiones erróneas, que pueden
llevar a cometer errores en la toma de decisiones.

No existen estándares de calidad de datos


unificados
En 1987 la Organización Internacional de Normalización (ISO)
publicó las normas ISO 9000 para garantizar la calidad de
productos y servicios. Sin embargo, el estudio de los estándares
de calidad de los datos no comenzó hasta los años noventa, y no
fue hasta 2011 cuando ISO publicó las normas de calidad de
datos ISO 8000.

Estas normas necesitan madurar y perfeccionarse. Además, la


investigación sobre la calidad de datos de big data ha comenzado
hace poco y no hay apenas resultados.

La calidad de datos de big data es clave, no solo para poder


obtener ventajas competitivas sino también impedir que
incurramos en graves errores estratégicos y operacionales
basándonos en datos erróneos con consecuencias que pueden
llegar a ser muy graves.
Cómo construir un plan de Data Governance
en Big data
Gobernabilidad significa asegurarse de que los datos
estén autorizados, organizados y con los permisos de
usuario necesarios en una base de datos, con el
menor número posible de errores, manteniendo al
mismo tiempo la privacidad y la seguridad.

Esto no parece un equilibrio fácil de conseguir, sobre


todo cuando la realidad de dónde y cómo los datos se
alojan y procesan está en constante movimiento

A continuación veremos algunos pasos recomendados al


crear un plan de Data Governance en Big Data.

Acceso y Autorización Granular a Datos


No se puede tener un gobierno de datos efectivo sin controles
granulares.

Se pueden lograr estos controles granulares a través de las expresiones


de control de acceso. Estas expresiones usan agrupación y lógica booleana
para controlar el acceso y autorización de datos flexibles, con permisos
basados en roles y configuraciones de visibilidad.

En el nivel más bajo, se protegen los datos confidenciales, ocultándolos,


y en la parte superior, se tienen contratos confidenciales para
científicos de datos y analistas de BI. Esto se puede hacer con
capacidades de enmascaramiento de datos y diferentes vistas donde se
bloquean los datos en bruto tanto como sea posible y gradualmente se
proporciona más acceso hasta que, en la parte superior, se da a los
administradores una mayor visibilidad.

Se pueden tener diferentes niveles de acceso, lo que da una seguridad más


integrada.
Seguridad perimetral, protección de datos y
autenticación integrada
La gobernabilidad no ocurre sin una seguridad en el punto final de la
cadena. Es importante construir un buen perímetro y colocar un
cortafuegos alrededor de los datos, integrados con los sistemas y
estándares de autenticación existentes. Cuando se trata de autenticación,
es importante que las empresas se sincronicen con sistemas probados.

Con la autenticación, se trata de ver cómo integrarse con LDAP


[Lightweight Directory Access Protocol], Active Directory y otros
servicios de directorio. También se puede dar soporte a herramientas como
Kerberos para soporte de autenticación. Pero lo importante es no crear
una infraestructura separada, sino integrarla en la estructura
existente.

Encriptación y Tokenización de Datos

El siguiente paso después de proteger el perímetro y


autenticar todo el acceso granular de datos que se está
otorgando es asegúrese de que los archivos y la
información personalmente identificable (PII) estén
encriptados y tokenizados de extremo a extremo del
pipeline de datos.

Una vez superado el perímetro y con acceso al sistema,


proteger los datos de PII es extremadamente
importante. Es necesario encriptar esos datos de
forma que, independientemente de quién tenga acceso
a él, puedan ejecutar los análisis que necesiten sin
exponer ninguno de esos datos.
Constante Auditoría y Análisis

La estrategia no funciona sin una auditoría. Ese nivel


de visibilidad y responsabilidad en cada paso del
proceso es lo que permite a la TI "gobernar" los
datos en lugar de simplemente establecer políticas y
controles de acceso y esperar lo mejor. También es
cómo las empresas pueden mantener sus estrategias
actualizadas en un entorno en el que la forma en que
vemos los datos y las tecnologías que utilizamos para
administrarlos y analizarlos están cambiando cada día.

Estamos en la infancia de Big Data e IoT (Internet de


Cosas), y es fundamental poder rastrear el acceso y
reconocer patrones en los datos.

La auditoría y el análisis pueden ser tan simples como el


seguimiento de los archivos de JavaScript Object
Notation (JSON).

El valor y la realidad de big data

Surgieron dos V más durante los últimos


años: valor y veracidad. Los datos poseen un valor
intrínseco. Sin embargo, no tienen ninguna utilidad hasta
que dicho valor se descubre. De igual importancia: ¿Cuán
veraz son sus datos? ¿Cuánto puede confiar en ellos?
Hoy en día, el big data se ha convertido en un activo
crucial. Piense en algunas de las mayores empresas
tecnológicas del mundo. Gran parte del valor que ofrecen
procede de sus datos, que analizan constantemente para
generar una mayor eficiencia y desarrollar nuevos
productos.

Avances tecnológicos recientes han reducido


exponencialmente el costo del almacenamiento y la
computación de datos, haciendo que almacenar datos
resulte más fácil y barato que nunca. Actualmente, con
un mayor volumen de big data más barato y accesible,
puede tomar decisiones empresariales más acertadas y
precisas.

Identificar el valor del big data no pasa solo por


analizarlo (que es ya una ventaja en sí misma). Se trata
de todo un proceso de descubrimiento que requiere que
los analistas, usuarios empresariales y ejecutivos se
planteen las preguntas correctas, identifiquen patrones,
tomen decisiones informadas y predigan
comportamientos.

Historia de big data

Si bien el concepto "big data" en sí mismo es


relativamente nuevo, los orígenes de los grandes
conjuntos de datos se remontan a las décadas de 1960 y
1970, cuando el mundo de los datos acababa de empezar
con los primeros centros de datos y el desarrollo de las
bases de datos relacionales.

Alrededor de 2005, la gente empezó a darse cuenta de


la cantidad de datos que generaban los usuarios a través
de Facebook, YouTube y otros servicios online. Ese
mismo año, se desarrollaría Hadoop, un marco de código
abierto creado específicamente para almacenar y
analizar grandes conjuntos de datos. En esta época,
también empezaría a adquirir popularidad NoSQL.

El desarrollo de marcos de código abierto tales como


Hadoop (y, más recientemente, Spark) sería esencial
para el crecimiento del big data, pues estos hacían que el
big data resultase más fácil de usar y más barato de
almacenar. En los años transcurridos desde entonces, el
volumen de big data se ha disparado. Los usuarios
continúan generando enormes cantidades de datos, pero
ahora los humanos no son los únicos que lo hacen.

Con la llegada del Internet de las cosas (IoT), hay un


mayor número de objetos y dispositivos conectados a
Internet que generan datos sobre patrones de uso de los
clientes y el rendimiento de los productos. El surgimiento
del aprendizaje automático ha producido aún más datos.
Aunque el big data ha llegado lejos, su utilidad no ha
hecho más que empezar. El Cloud Computing ha ampliado
aún más las posibilidades del big data. La nube ofrece
una escalabilidad realmente elástica, donde los
desarrolladores pueden simplemente agilizar clústeres
ad hoc para probar un subconjunto de datos. Además,
las bases de datos de gráficos se vuelven cada vez más
importantes, ya que pueden mostrar enormes cantidades
de datos de forma que su análisis sea rápido e integral.

Casos de uso de big data


El big data puede ayudarle a abordar una serie de
actividades empresariales, desde la experiencia de
cliente hasta la analítica. A continuación, recopilamos
algunas de ellas

Desarrollo de productos. Empresas como Netflix y


Procter & Gamble usan big data para prever la demanda
de los clientes. Construyen modelos predictivos para
nuevos productos y servicios clasificando atributos clave
de productos anteriores y actuales, y modelando la
relación entre dichos atributos y el éxito comercial de
las ofertas. Además, P&G utiliza los datos y el análisis de
grupos de interés, redes sociales, mercados de prueba y
avances de salida en tiendas para planificar, producir y
lanzar nuevos productos.

Mantenimiento predictivo. Los factores capaces de


predecir fallos mecánicos pueden estar profundamente
ocultos entre datos estructurados, como año, marca o
modelo del equipo, o entre datos no estructurados que
cubren millones de entradas de registros, datos de
sensores, mensajes de error y temperaturas de motor.
Al analizar estos indicadores de problemas potenciales
antes de que estos se produzcan, las organizaciones
pueden implantar el mantenimiento de una forma más
rentable y optimizar el tiempo de servicio de
componentes y equipos.
Experiencia del cliente. La carrera por conseguir
clientes está en marcha. Disponer de una vista clara de
la experiencia del cliente es más posible que nunca. El big
data le permite recopilar datos de redes sociales, visitas
a páginas web, registros de llamadas y otras fuentes
para mejorar la experiencia de interacción, así como
maximizar el valor ofrecido. Empiece a formular ofertas
personalizadas, reducir las tasas de abandono de los
clientes y gestionar las incidencias de manera proactiva.

Fraude y conformidad. En lo que a seguridad se refiere,


no se enfrenta a simples piratas informáticos
deshonestos, sino a equipos completos de expertos. Los
contextos de seguridad y requisitos de conformidad
están en constante evolución. El big data le ayuda a
identificar patrones en los datos que pueden ser
indicativos de fraude, al tiempo que concentra grandes
volúmenes de información para agilizar la generación de
informes normativos.

Aprendizaje automático (ML). El aprendizaje


automático es un tema candente en la actualidad. Los
datos, concretamente big data, es uno de los motivos de
que así sea. Ahora, en lugar de programarse, las máquinas
pueden aprender. Esto es posible gracias a la
disponibilidad de big data para crear modelos de machine
learning.
Eficiencia operativa. Puede que la eficiencia operativa
no sea el aspecto más destacado en los titulares, pero es
el área en que big data tiene un mayor impacto. El big
data le permite analizar y evaluar la producción, la
opinión de los clientes, las devoluciones y otros factores
para reducir las situaciones de falta de stock y anticipar
la demanda futura. El big data también puede utilizarse
para mejorar la toma de decisiones en función de la
demanda de mercado en cada momento.

Impulse la innovación. Big data puede brindarle ayuda


para innovar mediante el estudio de las
interdependencias entre seres humanos, instituciones,
entidades y procesos, y, posteriormente, mediante la
determinación de nuevas formas de usar dicha
información. Utiliza las perspectivas que te ofrecen los
datos para mejorar tus decisiones financieras y
consideraciones de planificación. Estudie las tendencias
y lo que desean los clientes para ofrecer nuevos
productos y servicios. Implante políticas de precios
dinámicas. Las posibilidades son infinitas.
Conclusión.
Para concluir con el tema extenso de la Big Data y se
entendio por el tema tratado en este documento que es
una de las cosas mas importantes del siglo actual ya que
que tanto como en plataforma de streaming como redes
sociales utilizan la Big Data para prever lo que el usuario
necesita ya sea un helado, un electrodoméstico o incluso
una consola se utiliza la recopilación de información de la
Big data para dar el servicio de mejor calidad para que
los usuarios esten complacidos además  utiliza los datos y
el análisis de grupos de interés, redes sociales, mercados
de prueba y avances de salida en tiendas para planificar,
producir y lanzar nuevos productos y supongo que con
esto se dio a entender lo crucial y imporante que es la
big data para el complacimiento de cada persona.
Bibliografía

.https://www.powerdata.es/big-data

. https://www.oracle.com/es/big-data/what-is-big-data/

. https://www.computerweekly.com/es/definicion/Big-
data-grandes-volumenes-de-datos

. https://www.mailjet.com/es/blog/marketing/big-data/

. https://www.zendesk.com.mx/blog/big-data-que-es/

. https://www.youtube.com/watch?v=M26iIqmqWkI

También podría gustarte