Está en la página 1de 2

Ernesto Absalon Cruz Vazquez #19480048

-ETL: ETL es un tipo de integración de datos que hace referencia a los tres pasos
(extraer, transformar, cargar) que se utilizan para mezclar datos de múltiples
fuentes. Se utiliza a menudo para construir un almacén de datos. Durante este
proceso, los datos se toman (extraen) de un sistema de origen, se convierten
(transforman) en un formato que se puede almacenar y se almacenan (cargan) en
un data warehouse u otro sistema. Extraer, cargar, transformar (ELT) es un
enfoque alterno pero relacionado diseñado para canalizar el procesamiento a la
base de datos para mejorar el desempeño.
-PL/PGsql: Es un lenguaje imperativo provisto por el gestor de base de
datos PostgreSQL. Permite ejecutar comandos SQL mediante un lenguaje de
sentencias imperativas y uso de funciones, dando mucho más control automático
que las sentencias SQL básicas.
-Azure: Microsoft Azure (anteriormente Windows Azure y Azure Services Platform)
es un servicio de computación en la nube creado por Microsoft para construir,
probar, desplegar y administrar aplicaciones y servicios mediante el uso de
sus centros de datos. Proporciona software como servicio (SaaS), plataforma
como servicio (PaaS) e infraestructura como servicio (IaaS) y es compatible con
muchos lenguajes, herramientas y marcos de programación diferentes, incluidos
software y sistemas específicos de Microsoft y de terceros.
-Noseql: En informática, NoSQL (a veces llamado "no solo SQL") es una amplia
clase de sistemas de gestión de bases de datos que difieren del modelo clásico
de SGBDR (Sistema de Gestión de Bases de Datos Relacionales) en aspectos
importantes, siendo el más destacado que no usan SQL como lenguaje principal
de consultas.
-Data Wrangler: Los organizadores de datos hacen una copia de seguridad de los
archivos en una sesión de ubicación. Eso puede parecer bastante sencillo, pero
tienen que mantener la cabeza fría porque si no lo hacen correctamente, todo el
trabajo que se ha hecho para capturar la acción podría perderse.
-Data Flow: En informática , el flujo de datos es un concepto amplio, que tiene
varios significados según la aplicación y el contexto. En el contexto de la
arquitectura de software , el flujo de datos se relaciona con el procesamiento de
flujo o la programación reactiva .
-Raw Data: Los datos sin procesar (a veces llamados datos de origen, datos
atómicos o datos primarios) son  datos  que no han sido procesados para su
uso. A veces se hace una distinción entre datos e  información  en el sentido de
que la información es el producto final del procesamiento de datos. Los datos sin
procesar que han sido procesados a veces se denominan  datos cocidos .
-Github: GitHub Es una forja (plataforma de desarrollo colaborativo) para alojar
proyectos utilizando el sistema de control de versiones Git. Se utiliza
principalmente para la creación de código fuente de programas de ordenador.
El software que opera GitHub fue escrito en Ruby on Rails. Desde enero de 2010,
GitHub opera bajo el nombre de GitHub, Inc. Anteriormente era conocida
como Logical Awesome LLC. El código de los proyectos alojados en GitHub se
almacena generalmente de forma pública.
-Agile Scrum: El término ‘Agile’ se refiere a las metodologías ágiles. Recoge
unas técnicas para la gestión de proyectos en las que se utiliza un enfoque
incremental e iterativo para gestionar los proyectos. Deriva del Manifiesto Ágil de
2001 y, aunque surgió en el ámbito del Software, ya se exporta para abarcar
muchos otros proyectos.
Scrum, se trata de un proceso en el que se aplican un conjunto de buenas
prácticas de manera regular. Se trabaja colaborativamente, en equipo y se van
realizando entregas parciales y regulares del producto final.
-Data Mart: Un data mart es una forma sencilla de almacén de datos centrado en
un único asunto o línea de negocio. Con un data mart, los equipos pueden
acceder a los datos y obtener información más rápidamente, ya que no tienen que
dedicar tiempo a buscar en un almacén de datos más complejo o consignar
manualmente datos de diferentes orígenes.
-Big Data: Big Data nos referimos a conjuntos de datos o combinaciones de
conjuntos de datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad
de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis
mediante tecnologías y herramientas convencionales, tales como bases de
datos relacionales y estadísticas convencionales o paquetes de visualización,
dentro del tiempo necesario para que sean útiles.
-Cloud Computing: La computación en la nube, conocida también como
servicios en la nube, informática en la nube, nube de cómputo o simplemente «la
nube», es el uso de una red de servidores remotos conectados a internet para
almacenar, administrar y procesar datos, servidores, bases de datos, redes y
software. 
-Data Driven Cuando una empresa emplea un enfoque “data-driven” (impulsado
por datos), significa que toma decisiones estratégicas basadas en análisis de
datos e interpretación.
Un enfoque data-driven permite que las empresas examinen y organicen sus
datos con el fin de atender mejor a sus clientes y consumidores. Al usar datos
para impulsar sus acciones, una organización puede contextualizar y personalizar
sus mensajes a sus clientes y posibles clientes para un enfoque más centado en
el cliente.

También podría gustarte