Está en la página 1de 8

Destino de los datos En el contexto del Big

Data
Índice
• JDBC
• Elastic
• Amazon S3
• Kafka
• Hadoop
Java Database
Connectivity
Java Database Connectivity (en español:
Conectividad a bases de datos de Java), más
conocida por sus siglas JDBC,​es una API que
permite la ejecución de operaciones sobre bases
de datos desde el lenguaje de programación Java,
independientemente del sistema operativo donde
se ejecute o de la base de datos a la cual se
accede, utilizando el dialecto SQL del modelo de
base de datos que se utilice.
Elasticsearch
Elasticsearch es un motor de búsqueda y analítica
distribuido, gratuito y abierto para todos los tipos de
datos, incluidos textuales, numéricos,
geoespaciales, estructurados y no estructurados.
Elasticsearch está desarrollado a partir de
Apache Lucene y fue presentado por primera vez en
2010 por Elasticsearch N.V. (ahora conocido como
Elastic). Conocido por sus API REST simples,
naturaleza distribuida, velocidad y escalabilidad,
Elasticsearch es el componente principal del
Elastic Stack, un conjunto de herramientas gratuitas
y abiertas para la ingesta, el enriquecimiento, el
almacenamiento, el análisis y la visualización de
datos.
Amazon S3
Amazon S3 o Amazon Simple Storage
Service es un servicio ofrecido por Amazon Web
Services que proporciona almacenamiento de
objetos a través de una interfaz de servicio
web. Amazon S3 utiliza la misma infraestructura de
almacenamiento escalable que
utiliza Amazon.com para ejecutar su red de
comercio electrónico. Amazon S3 puede almacenar
cualquier tipo de objeto, lo que permite usos como
almacenamiento para aplicaciones de Internet,
copias de seguridad, recuperación ante desastres,
archivos de datos, lagos de datos para análisis
y almacenamiento en la nube híbrida.
Apache Kafka
Apache Kafka es un proyecto de intermediación de
mensajes de código abierto desarrollado por LinkedIn y
donado a la Apache Software Foundation escrito
en Java y Scala. El proyecto tiene como objetivo
proporcionar una plataforma unificada, de alto
rendimiento y de baja latencia para la manipulación en
tiempo real de fuentes de datos. Puede verse como
una cola de mensajes, bajo el patrón publicación-
suscripción, masivamente escalable concebida como
un registro de transacciones distribuidas, lo que la
vuelve atractiva para las infraestructuras de
aplicaciones empresariales.
El diseño tiene gran influencia de los registros de
transacción.
Hadoop Distributed
File System
Hadoop Distributed File System, es el principal
sistema de almacenamiento de datos utilizado por las
aplicaciones de Apache Hadoop para gestionar
grandes cantidades de datos y dar soporte a las
aplicaciones de análisis de big data relacionadas. El
sistema de archivos de Hadoop está inspirado en la
infraestructura basada en software a gran escala de
Google y se desarrolló principalmente para
proporcionar un almacenamiento rentable y escalable
para las cargas de trabajo de MapReduce. Se suele
utilizar para implementar un sistema de archivos
distribuido que proporciona un acceso de alto
rendimiento a los datos a través de clústeres Hadoop
altamente escalables
• https://es.wikipedia.org/wiki/Java_Database
_Connectivity

Bibliografía • https://www.elastic.co/es/what-is/elasticsea
rch
• https://es.wikipedia.org/wiki/Amazon_S3
• https://es.wikipedia.org/wiki/Apache_Kafka
• https://es.wikipedia.org/wiki/Hadoop_Distri
buted_File_System
• Pdf tema 2

También podría gustarte