Está en la página 1de 24

lOMoARcPSD|7852739

Resumen Desarrollo DE Aplicaciones

Desarrollo de Aplicaciones Con Base de Datos (Universidad Siglo 21)

Studocu no está patrocinado ni avalado por ningún colegio o universidad.


Descargado por luis p (maradentropez@gmail.com)
lOMoARcPSD|7852739

En este módulo, estudiaremos las tendencias de implementación de los


sistemas gestores de bases de datos, en un principio, dentro de las
arquitecturas cliente - servidor, pero, considerando, también, que las
arquitecturas tecnológicas siguen evolucionando y estas arquitecturas de
aplicaciones pueden cambiar de un momento para otro.
Particularmente, en esta lectura, nos vamos a enfocar en los sistemas
distribuidos, específicamente, en la parte del procesamiento distribuido y, a
los datos distribuidos, los postergamos para la siguiente lectura.
Dentro del concepto de procesamiento distribuido podemos incluir lo referido
a distribución de funciones y distribución de procesamiento.
En el siguiente ejemplo, podemos apreciar una red de ordenadores donde, de
acuerdo a las tareas que se realizan, se pueden dividir un conjunto de
ordenadores de la siguiente forma:
LECCIÓN 1 de 3
Introducción
servidor de base de datos: es el único lugar donde, para este
ejemplo, se almacenan los datos que son actualizados por las
Figura 1: Ejemplo de diagrama de red de ordenadores
aplicaciones instaladas en cada uno de los puestos clientes;
servidor de base de datos replicada: es un servidor de base de
datos donde, periódicamente, se refleja la base de datos
transaccional y nunca es actualizada por las aplicaciones
instaladas en cada uno de los puestos clientes;
puestos clientes 1, 2 y 3: son ordenadores, ligeros o pesados,
donde se pueden instalar aplicaciones que se conecten a los
ordenadores para actualizar los datos en la base de datos o,
mediante un explorador web, hacer esa actualización.

Básicamente, dentro de una arquitectura cliente – servidor, las distribuciones


más comúnmente usadas, son las denominadas de capas horizontales.
En esta, las principales capas son las que se describen seguidamente
LECCIÓN 2 de 3
Capas en un sistema de tecnologías de la
información y las comunicaciones

Capa de interfaz de usuario



Es la capa donde se desarrollan las interfaces de usuarios, usada por estos
para poder manipular los datos que impactarán en la base de datos.
Capa de reglas

Esta capa gestiona la lógica de las aplicaciones, basándose en las reglas de
negocio de la organización, pueden ser funciones que, principalmente, garanticen
el cumplimiento de restricciones o reglas explícitas.

Figura 2: Ejemplo teórico de arquitectura multicapa

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Capa de transacciones

Es un subsistema o capa que realiza la interacción entre la capa de interfaz y la
capa de reglas. El diseño de las transacciones puede que haga que las reglas se
agrupen de acuerdo a un dominio en común.
Capa de datos

Es el responsable de gestionar, almacenar y persistir los datos manipulados en
las capas superiores, en la base de datos correspondiente.

Capa de comunicaciones

Esta capa, es la encargada de la comunicación de todas las capas mencionadas
anteriormente.

En estas infraestructuras, cada una de estas capas pueden ser


implementadas en diferentes ordenadores o en distintas particiones de uno
de ellos. Esto reconfirma que cada una de las capas mencionadas
anteriormente, deben ser unidas por la capa de comunicaciones.
En los últimos años, con la aparición de las máquinas virtuales, la capa de
comunicación puede ser, total o parcialmente, externa.
Ejemplos básicos de varios tipos de arquitecturas cliente – servidor, son los:
servidores de correos;
servidores de impresión;
servidores de archivos;
servidores de aplicaciones; y
servidores de bases de datos.
En la figura 1, donde vemos el ejemplo del diagrama de red de ordenadores,
vemos claramente que existen los denominados ordenadores clientes,
donde los usuarios interactúan de forma controlada por las capas
intermedias, con la capa de datos. Estos clientes pueden clasificarse, en
principio, en clientes pesados y clientes ligeros.

Clientes pesados

Debido a las bondades de las herramientas de desarrollo de aplicaciones para la
capa de interfaz, es que se realizan estos módulos aplicando cierta inteligencia o
reglas de negocio en ellas, aunque siempre se debe considerar que la resolución
de estas reglas depende de las características del ordenador, computador
personal, notebook o teléfono móvil que posee el usuario que usa la interfaz.
Estos módulos, considerados dentro de la capa de interfaz, donde se realizan
procesamientos de datos, son considerados clientes pesados.

Clientes ligeros

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Estos tipos de clientes son, justamente, lo contrario a lo explicado bajo el


concepto de clientes pesados. Los clientes ligeros son los módulos usados por
los usuarios finales, donde prácticamente no se realizan procesamientos de
datos.

Trayendo un ejemplo visto en otros módulos de la materia, podemos volver a


leer la situación profesional del complejo de cines de alta tecnología que
desea implementar un sistema que le permita saber la cantidad y calidad o
perfil de personas que concurren a sus instalaciones, registrando los datos
correspondientes a cada uno de ellos, junto con las películas que concurren a
presenciar.
Anteriormente, habíamos diseñado la estructura de las tablas contenidas
dentro de la base datos y, ahora, desde el punto de vista de la arquitectura de
red, los servidores y sus diferentes capas, podemos presentar una
alternativa como la que se observa en la figura 3
Figura 3: Ejemplo aplicado de una arquitectura multicapa
LECCIÓN 3 de 3
Caso práctico profesional
Datos distribuidos

Un sistema de bases de datos distribuida es un sistema de bases de datos


que está fragmentado y sobre diferentes configuraciones de hardware y
software.
Por ejemplo, podemos tener, en un servidor con sistema operativo Linux o
Windows, un sistema gestor de base de datos Oracle; en otro servidor, con
sistema operativo Windows, otro sistema gestor de base de datos MS SQL
Server y que, entre ambos, se transfieran, repliquen y espejen datos.
También, cualquiera de estas configuraciones puede estar en distintas zonas
geográficas pertenecientes a la misma organización, incluso, el avance
tecnológico actual permite realizar una configuración mixta entre sistemas
gestores de bases de datos locales o en data centers propios, conectados
con otros en la nube.
Las distribuciones pueden ser fragmentadas, donde la información
trasladada, de una base de datos a otra, es un subconjunto de una de ellas; o
replicadas, donde la información trasladada, de una base de datos a otras,
es la propia base de datos completa.
LECCIÓN 1 de 7
Datos distribuidos
Figura 1: Ejemplo de diagrama de red de ordenadores con base de datos
replicada
Fuente: elaboración propia.
En caso de realizar una combinación de sistemas gestores de bases de
datos instalados en data centers locales y otros instalados en data
centers en la nube, hay que considerar las distintas posibles configuraciones
que los proveedores de este tipo de servicios nos ofrecen.
“Infraestructura como servicio (IaaS): el proveedor proporciona a los usuarios

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

acceso a recursos de cálculo como servidores, almacenamiento y redes. Las


empresas utilizan sus propias plataformas y aplicaciones en la
infraestructura de proveedor de servicios” (IBM, s.f., t.ly/dgBw).El cliente es
el encargado de administrar la infraestructura.
“Plataforma como servicio (PaaS): los usuarios [desarrolladores] pueden
utilizar un conjunto de herramientas prediseñadas para desarrollar,
personalizar y probar sus propias aplicaciones”(IBM, s.f., t.ly/dgBw).
Software como servicio (SaaS): los usuarios no instalan las
aplicaciones en sus dispositivos locales. En vez de eso, las
aplicaciones residen en una red de nube remota a la que se
accede por medio de la web o de una API. Por medio de la
aplicación, los usuarios pueden almacenar y analizar los datos,
además de colaborar en proyectos. (IBM, s.f., t.ly/dgBw).
Además, desde el punto de vista de la forma de despliegue y seguridad, a su
vez, podemos caracterizar el servicio de la siguiente forma:
nube pública: es el modelo más utilizado que se presenta como
opción. La infraestructura es operada por el proveedor del servicio,
en el cual, el usuario no puede administrar ni mantener el hardware.
Este tipo de nube está disponible para todos y genera ahorros
importantes en costos, dado que son aprovechadas las ventajas de
la economía de escala que supone tener equipos de alta calidad y
prestación en modalidad compartida;
nube privada: los servicios están dedicados, exclusivamente, a una
sola empresa o cliente. La seguridad de acceso está restringida a
todas las personas autorizadas por la empresa que cumplen los
requisitos funcionales y de segregación que se determinen;

nube comunitaria: similar al despliegue privado, pero se otorga a


un conjunto de organizaciones con similares necesidades y
objetivos comunes, que trabajan juntas y se facilitan el desarrollo,
la gestión y el trabajo colaborativo; y

nube híbrida: este modelo combina las mejores características del


público, del privado y del comunitario, lo que permite a las
empresas implementar soluciones en la ubicación más adecuada.

Los usuarios finales que utilizan las aplicaciones no deberían percibir dónde
se ubican los datos, ya sea que estos estén en uno o más servidores, uno o
más sistemas operativos o en un mismo o diferente tipo de data center.
LECCIÓN 2 de 7
Transparencia

Los usuarios finales que utilizan las aplicaciones no deberían percibir dónde
se ubican los datos, ya sea que estos estén en uno o más servidores, uno o
más sistemas operativos o en un mismo o diferente tipo de data center.

Ubicación transparente

Para los usuarios, no es necesario tener conciencia del lugar o ubicación donde

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

se encuentren las bases de datos. Los desarrollos de las aplicaciones deben ser
realizadas de tal forma que los usuarios no se den cuenta de dónde están
ubicados los datos, estos pueden trasladarse de un sitio a otro, sin invalidar
cualquiera de los programas o actividades existentes.
.
Fragmentación transparente

Los usuarios no necesitan saber cómo se fragmentan los datos.

Replicación transparente

Los usuarios no deberían ser conscientes de cómo se replican los datos.

Ventajas en el uso de los datos distribuidos


La gestión de los sistemas con bases de datos distribuidas es más compleja
que la gestión con bases de datos centralizadas, pero, realizadas de forma
correctas, obtenemos los siguientes beneficios:
LECCIÓN 3 de 7

emulación de la estructura de la organización: en algunas


organizaciones, es necesario emular la distribución geográfica de
las sucursales de la organización, de esta forma, si la empresa es
nacional o internacional, la fragmentación de las bases de datos
puede emular la división en departamentos, sectores, sucursales,
etcétera:
mayor fiabilidad: si garantizamos el correcto proceso de
replicación de datos, se puede incrementar la fiabilidad de los
sistemas. Dejar los datos donde son necesarios incrementa la
disponibilidad del sistema;
mejor rendimiento: se incrementa el rendimiento de los sistemas,
si se lleva a cabo una distribución equilibrada de la carga sobre los
sistemas gestores de bases de datos; y
crecimiento más fácil: un entorno distribuido puede mejorar la
capacidad de una organización para expandir su infraestructura de
datos.

LECCIÓN 4 de 7
Tipos de bases de datos distribuidos
Sistemas homogéneos: los datos se distribuyen sobre el mismo
hardware, sistema operativo y sistema gestor de base de datos
Sistemas heterogéneos: los datos se distribuyen sobre distintas
configuraciones y combinaciones de hardware, sistema operativo y
sistema gestor de base de datos.
Sistemas federados: está compuesto por diferentes bases de
datos autónomas e independientes.

LECCIÓN 5 de 7

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Sistemas Gestores de bases de datos distribuidos


El catálogo del sistema o diccionario de datos de una base de datos
distribuida tiene que ser más complejo que en una base de datos
centralizada, por ejemplo, tiene que almacenar los detalles sobre la
localización de los fragmentos y las réplicas.
En estos, se multiplican los problemas de concurrencia, por esto, se
ven los problemas generados con la propagación de
actualizaciones a una serie de sitios diferentes.
El optimizador de consultas, en un sistema realmente distribuido,
debe utilizar información sobre la estructura de la red, para decidir
la mejor forma desatisfacer las consultas.
Los SGBD distribuidos no deberían estar localizados únicamente en
un sitio, es necesario que se distribuyan tanto el software como
datos.

Caso práctico profesional


Trayendo como ejemplo el analizado en la lectura anterior, podemos graficar
una base de datos fragmentada en el propio data center y replicada en una
nube privada, como se observa en la figura 2.
Figura 2: Ejemplo aplicado de una arquitectura multicapa con bases de
datos fragmentadas y replicadas
Fuente: elaboración propia.

Bases de datos paralelas


En este módulo, estudiaremos los objetivos fundamentales de los sistemas de bases de datos
paralelas, las principales diferencias
entre las arquitecturas convencionales de un ordenador y las arquitecturas de ordenador
paralelas, diversas alternativas de arquitecturas y la importancia de los sistemas de bases de
datos sobre estos ordenadores

Base de datos paralelas

Sin considerar las interfaces maquina/hombre, como pueden ser los teclados, los mouses, las
pantallas y las impresoras, podemos considerar que un ordenador está compuesto de un
procesador, una memoria y el dispositivo
de almacenamiento de datos.
Particularmente, el procesador central ha incrementado su rendimiento exponencialmente y, a
su vez, ha reducido su tamaño de forma considerable, además, debido a la tecnología utilizada,
también, bajó sus costos. Los primeros procesadores cumplían instrucciones a un ratio de,
aproximadamente, una instrucción cada milisegundo, mientras que los ordenadores más
rápidos, en la actualidad, pueden alcanzar un ratio que es varios millones de veces
superior a este.
Si bien la memoria principal y el almacenamiento de datos o información también se han
desarrollado de forma exponencial, tanto en velocidad como en capacidad, sin embargo, es
más importante el cambio en la capacidad de los procesadores para tratar con dos niveles de
memoria y la velocidad con la que pueden mover datos entre ellos.
Los más antiguos ordenadores se desarrollaron para aplicaciones científicas y de ingeniería y
han sido estas dos áreas las que, históricamente, han liderado la demanda de ordenadores

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

cada vez más potentes. De allí, surgió el gran inconveniente del cuello de botella de la
memoria, para leer o escribir en el o los discos de almacenamiento.
Figura 1: Ejemplo gráfico de la comunicación entre un procesador, memoria y disco de
almacenamiento, donde se grafica el cuello de botella, justamente, en la memoria
IMAGEN WSP
LECCIÓN 1 de 4

El desarrollo en la tecnología actual de los ordenadores llevó a que, en estos momentos, las
características de los computadores personales, estaciones de trabajo y notebooks posean un
rendimiento que hubiera sido totalmente aceptable en los orígenes de los procesadores,
incluso, para solventar la ineficiencia del cuello de botella producido por la memoria en el
momento de lectura o escritura.
Además, el ratio precio/rendimiento llevó a que estos sistemas sean utilizados en aplicaciones
de bases de datos por individuos o medianas y pequeñas organizaciones, sin tener que invertir
fastuosas sumas de dinero en servidores.
Pero, sin embargo, todavía no son capaces de soportar el gran número de usuarios y las
masivas cantidades de datos que necesitan las grandes organizaciones.
A mediados de los años ochenta, los sistemas de bases de datos relacionales empezaron a
aparecer en el mercado del procesamiento de datos, siendo hoy dominantes. La CPU y las
demandas de I/O de los sistemas de gestión de bases de datos relacionales dan servicio a un
gran número de usuarios simultáneamente o buscan en bases de datos con terabytes de
información.
SISTEMAS MULTIPROCESADORES
La evolución de la tecnología ocasionó que la disponibilidad de computadores personales
usados como ordenadores sea cada vez más elevada y, con ello, aparejada la evolución del
procesamiento en paralelo o del tipo clasificado, como los sistemas de múltiples instrucciones
múltiples datos o MIMD. A su vez, a estos, los podemos clasificar en:

LECCIÓN 2 de 4

Firmemente Acoplados, Acoplamiento Estrecho, Memoria Compartida o Multiprocesadores


Simétricos: En estos tipos de sistemas, cada procesador tiene que ser capaz de direccionar toda
la memoria compartida, cuyo tamaño máximo está limitado por el número de bits de
direccionamiento de la CPU.
Como las CPU típicamente tienen direcciones de 64 bits, hasta hace poco esta limitación no ha
afectado al diseño y la producción de sistemas de memoria compartida. (Beynon-Davies, 2014).
Pobremente Acoplados, Acoplamiento Pobre o Sin Elementos Compartidos:
Los sistemas pobremente acoplados son matrices de nodos donde cada nodo es un ordenador
capaz de ejecutar un programa para procesar los datos procedentes de su propio
almacenamiento. La matriz también posee una red interconectada que permite enviar o recibir
datos a otros nodos en la matriz o desde éstos. (Beynon-Davies, 2014).
Fuente: Beynon-Davies, 2014.
Figura 2: Sistemas de acoplamiento estrecho y acoplamiento pobre

IMAGEN

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Multiprocesadores simetricos
El esquema consiste en tener varios procesadores unidos a una sola memoria compartida que,
a su vez, se une secuencialmente a varios discos, mediante múltiples canales. Como cualquier
sistema multiprocesador, se puede incrementar o aumentar el rendimiento de los cálculos
añadiendo multiprocesadores. Esto incrementa la carga sobre la memoria compartida y el bus
de conexión entre el multiprocesador y la memoria pasa a ser el cuello de botella o tope. Se
puede reducir el acceso a la memoria incluyendo caches que almacenen las ultimas
transacciones realizadas.
Consideramos que las aplicaciones más apropiadas de estas arquitecturas son:

transacciones paralelas donde se ejecutan, al mismo tiempo, muchas consultas SQL sobre
diferentes
procesadores al mismo tiempo;
aplicaciones fácilmente particionadas, divididas por departamentos y a las que se acceda
mediante
una clave;
“Aplicaciones de acceso aleatorio que compitan lo menos posible por los mismos bloques”
(BeynonDavies, 2014); y
“Aplicaciones que actualicen datos disjuntos o actualicen los mismos datos en momentos
diferentes”

Por el contrario, no son aconsejables para aplicaciones donde:

(Beynon-Davies, 2014).
“Altos volúmenes de actualización desde diferentes instancias que afecten a los mismos
bloques.
Aplicaciones de apoyo a la toma de decisiones o ad hoc que requieran inspecciones de toda la
tabla”
(Beynon-Davies, 2014).

DATOS COMPLEJOS

En esta lectura, vamos a ir algo más allá del límite de los datos tradicionales
que se guardan en una base de datos, como enteros, caracteres, date y date
time; y nos excederemos pensando en la necesidad de los sistemas, cada
vez más avanzados, que intentan ayudar a satisfacer las necesidades y
deseos humanos, que llegan a la manipulación de datos más complejos
como, por ejemplo:
imágenes: gráficos y fotografías;
videos: diversas formas de imágenes en movimiento; y
audios: distintos tipos de datos sonoros.
En los sistemas actuales, necesitamos la manipulación de datos y elementos
complejos.
Las organizaciones, en la actualidad, demandan, a los equipos de
desarrolladores, el almacenamiento de documentos (como estándares a
seguir, contratos y procesos)que, dentro de cada uno de ellos, contengan
textos, datos numéricos, imágenes, links, cuadros, etcétera, donde, además,

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

cada organización puede tener un formato particular para cada uno de estos
documentos. Todo esto complejiza el desarrollo e implementación de una
organización a otra.
El cambio más importante, en el mundo de los negocios del último siglo, fue
definir los estándares de almacenamiento y transmisión de la documentación electrónica,
como puede ser el caso de una factura electrónica.
De esta forma, se llega a la necesidad imperiosa de manejar datos
semiestructurados en las bases de datos.
Ante esta necesidad, la industria del software acuña un lenguaje formal,
conocido como XML, denominado lenguaje de marcas extensible.

Documentación electrónica

Imaginemos una relación entre un vendedor de artículos y un comprador,


podríamos, al menos, identificar cuatro paquetes de información que
viajarían entre cada uno de ellos:
el comprador le envía al vendedor un pedido con un listado de
varios artículos;
el vendedor le envía las mercancías al comprador con una nota de
entrega;
el vendedor le agrega a la nota de entrega la factura
correspondiente; y
el comprador realiza el pago al vendedor con la factura y envía una
nota de pago al vendedor.

Figura 1: Principales transacciones entre un vendedor y un comprador


IMAGEN WSP

Tradicionalmente, este tipo de transacciones se estructuraban con


documentos en papel enviados entre ambos. En la actualidad, estas
transacciones son realizadas electrónicamente y toda la documentación
puede ser almacenada en las bases de datos.

SGML – Lenguaje de marcas generalizado estándar

Los documentos electrónicos están compuestos de dos tipos de datos,


principalmente, los datos que representan el contenido y los datos que les
explican a las distintas aplicaciones cómo interpretarlos y plasmarlos en los
medios de salidas, como pantallas o impresoras.
En el caso de los documentos electrónicos, la mayoría de ellos están
compuestos de textos y gráficos, cuya estructura está constituida por un
conjunto de etiquetas que indican cómo debe presentarse el contenido.

El SGML constituye un metalenguaje, es decir que es un lenguaje que


permite definir otros lenguajes con base en este, por lo que consideramos al
SGML un gran conjunto de lenguajes de marcas. El más conocido de estos es
el lenguaje de marcas de hipertexto, conocido por nosotros como HTML.
Este es un estándar para el etiquetado de documentos que puede ser publicado, para su

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

acceso en la web, y está compuesto, posiblemente, por


texto, gráficos, imágenes y clips de audio y video. También, vínculos a otros
documentos en el mismo equipo o a servidores remotos.

Ejemplo de básico de un HTML

<HTML>
<TITLE> Desarrollo de Aplicaciones con Base de Datos</TITLE>
<H1>Datos Complejos</H1>
<H2> Ejemplo de Básico de un HTML</H2>
</HTML>

XML

Lo simple del HTML hace que sea muy utilizado y, justamente, esta característica, su
simplicidad, es la mayor fortaleza que posee, además del hecho de que sea utilizado por una
gran cantidad de usuarios y programadores.
Muchos de los programadores avanzados intentan definir sus propias etiquetas y, de allí, surgió
una extensión del HTML denominada XML, que permite a los usuarios crear sus propias
etiquetas para intercambiar datos.
Mientras el HTML es utilizado para definir cómo se mostrarán los datos, el XML puede ser
utilizado para definir la estructura del documento, por ejemplo, documentos estándares de
mercado como facturas y recibos.

Las principales ventajas del uso del XML son:

XML es razonablemente sencillo; la definición del lenguaje comprende


un documento de menos de50 páginas.

XML no se limita al marcado del texto; su extensibilidad significa que


puede aplicarse para marcar otros datos complejos como son sonido,
imágenes y vídeo.

Como el XML describe la estructura de los datos, potencialmente podría


usarse para definir el esquema de diversas bases de datos. Por lo tanto,
podría llegar a ser un mecanismo útil para definir la estructura de los
datos en sistemas de bases de datos heterogéneas.

XML es independiente de la plataforma y el fabricante; esto hace que


sea más fácil desarrollar sistemas interoperables utilizando el estándar.

XML promueve la reutilización; la naturaleza extensible del XML significa


que se pueden construir librerías de definiciones que se pueden volver a
utilizar por otras aplicaciones.

XML hace que los datos se autodescriban; esto facilita un procesamiento


más eficiente de los datos tanto por los front-end como por los back-end
de los sistemas TIC. (Beynon-Davies, 2014).

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Ejemplo de básico de un XML

<MarcaDelAuto ID = 1234>
<Empresa> ‘FIAT’ </Empresa>
<Modelo> 128 </Modelo >

< Kms > 105000 </Kms>


</MarcaDelAuto>

Datos espaciales

Uno de los casos más destacados del uso de datos complejos son los
sistemas espaciales, por ejemplo, www.google.com, dado que, en las bases
de datos, se almacenan imágenes con muy altas definiciones e información
de prácticamente cada intersección de coordenadas.
Los sistemas de este tipo son denominados sistemas de información
geográfica y a cada uno de los espacios que representa se les vinculan
atributos como:

áreas: son conjuntos de segmentos de líneas que se cierran para


formar unidades discretas;

puntos: objetos representados por un único par de coordenadas de


ubicación: y

líneas: conjunto de puntos conectados y ordenados.

En varias oportunidades, un mismo sistema puede mostrar la información de


diferente forma, como claramente lo realiza Google.

Revisión del módulo

Hasta acá aprendimos

Sistemas distribuidos

Los sistemas distribuidos nos permiten realizar distintos tipos de arquitecturas,
para lograr siempre que los usuarios perciban una experiencia excelente en el
uso de los sistemas.

Datos distribuidos

Las tecnologías de almacenamiento de las bases de datos permiten que los
datos y la información sean almacenados en diferentes lugares, con el fin de
lograr un rendimiento óptimo en el uso de las aplicaciones por parte del usuario.

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Bases de datos paralelas

Las tecnologías de los sistemas gestores de bases de datos, combinadas con las
tecnologías de las distintas arquitecturas cliente - servidor, hacen que los
recursos tecnológicos implementados puedan resolver, de forma paralela, las
peticiones del uso de las aplicaciones para poder responder de forma rápida a
los usuarios.

Datos complejos

La avanzada en el uso de distintas formas de almacenamiento de datos permite
utilizar datos de tipo básico y datos de tipos complejos, lo que lleva a hacer
sistemas cada vez más útiles para usuarios más demandantes.

Almacenes de datos

En este módulo, estudiaremos cómo las bases de datos se han transformado en un corazón
habitual de todo sistema, ya sea transaccional, data whare house o, inclusive, en la actualidad,
en el corazón de los sistemas de big data.

LECCIÓN 1 de 2 Almacenes de datos

Caso práctico profesional

Para ejemplificar de mejor forma los conceptos de los grandes almacenes de datos,
tomaremos, como referencia, el siguiente caso. Trayendo el ejemplo visto en otros módulos de
la materia, podemos volver a leer la situación profesional del complejo de cines de alta
tecnología y, como caso práctico, asumimos que somos contratados para implementar un
sistema que le permita saber el perfil de las personas que acuden a sus salas de cine, el lugar
geográfico de los barrios desde donde acuden y, por último, la preferencia que poseen sobre el
tipo de película que miran. Una arquitectura básica de la implementación de un mercado de
datos puede ser la que se observa en la figura 1.

Figura 1: Ejemplo de una arquitectura de un almacén de datos con varios mercados de datos
dentro

IMAGEN WSP

De la base de datos transaccional al almacén de datos Históricamente, las bases de datos


transaccionales son utilizadas para guardar los datos de las operaciones diarias; como el
registro de ventas, actualización de stocks, gestión de pedidos y los asientos contables. En el
caso del cine del shopping, en la base de datos operativa, almacenamos las funciones
organizadas de las películas que se presentan en la actualidad y las compras de entradas que
realizan los clientes.

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

A partir de estos datos operativos, se puede obtener muchísima información de gestión y,


comúnmente, se utilizaban sistemas específicos para capturar y presentar esa información a los
usuarios. En el último tiempo, se comenzaron a utilizar sofisticadas herramientas de software
que almacenan grandes volúmenes de datos obtenidos de diferentes orígenes de datos
transaccionales, para analizarlos e identificar patrones. Es aquí donde las distintas tecnologías
interrelacionadas, como almacenes de datos, procesamiento analítico en línea y el data
mining desempeñan un papel muy importante.

El proceso denominado data whare housing es el proceso a través del cual se obtienen los
datos operaciones desde distintas fuentes de datos y alimentan distintas herramientas que son
usadas para la toma de decisiones estratégicas. En nuestro caso, estos procesos obtienen
información de las bases de datos operativas de las funciones y ventas y alimentan el almacén
de datos correspondiente.

Almacenes de datos

Particularmente, en esta lectura, nos vamos a enfocar en los almacenes de datos, que son
sistemas de bases de datos diseñados exclusivamente para ayudar en la toma de decisiones
estratégicas. El principal objetivo que poseen es incrementar la productividad y eficiencia de la
toma de decisiones en una organización. Un almacén de datos se diferencia de una base de
datos tradicional, fundamentalmente, en tres aspectos. Un almacén de datos es una colección
de datos orientados a un tema, integrados, variantes con el tiempo y no volátiles, utilizados
para apoyar la toma de decisiones de la dirección (Evaluando Software.com, 2016). ¿Por qué
son orientados a un tema?

Volumen de datos: probablemente, en un almacén de datos se encuentre mucho más


volumen de información que en cualquier base de datos relacional.

Diversas fuentes de datos: posiblemente, los datos almacenados en un almacén de datos hayan
sido obtenidos desde diferentes orígenes de datos, a través de diferentes herramientas y
procesos destinados a tal fin. Posiblemente, pocos de ellos son bases de datos.

Acceso dimensional: los almacenes de datos se diseñan de acuerdo a la forma que los usuarios
desean ver la información para la tomar decisiones, cada una de estas formas son
comúnmente llamadas dimensiones

Un almacén de datos es una colección de datos orientados a un tema, integrados, variantes


con el tiempo y no volátiles, utilizados para apoyar la toma de decisiones de la dirección
(Evaluando Software.com, 2016).

¿Por qué son orientados a un tema?

Un almacén de datos se estructura de acuerdo a las principales áreas que posee la organización
donde este se implementa.

¿Por qué son integrados?

Un almacén de datos posee un repositorio de información que integra datos que pueden
tener, como origen, varios sistemas con diferentes arquitecturas de hardware y software y,
también, cada uno de ellos, a su vez, pueden tener diferentes formatos y tipos de datos.

¿Por qué son variantes en el tiempo?

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Un almacén de datos asocia, específicamente, cada dato o foto de información a un momento


dado, es decir que toda información es válida solo para un momento determinado.

¿Por qué no son volátiles?

Los datos del almacén de datos no se actualizan en tiempo real y en forma constante. Estos se
refrescan periódicamente, a partir de los datos que se manipulan en los sistemas
transaccionales.

Beneficios del uso de un almacén de datos

Principalmente, un almacén de datos beneficia a una organización en:

brinda una estructura sencilla para el almacenamiento de los datos que, luego, se transforman
en información para la toma de decisiones estratégicas;

permite a los usuarios que pertenecen a la organización ejecutar consultas complejas sobre
información que atraviesa diferentes áreas de negocios; y

permite el uso y aplicación de herramientas de inteligencia de negocios, analíticas y de minería


de datos

Dificultades en el uso de un almacén de datos

Los proyectos de creación de almacenes de datos son considerados de gran escala y,


normalmente, lleva varios años analizarlos, desarrollarlos y ponerlos a punto. En el transcurso
de ese tiempo, se presentan algunas dificultados que se deben sortear:

saber de antemano lo que necesitan los usuarios y determinar las fuentes de datos y qué se
extraerá de cada una de ellas;

seleccionar, instalar e integrar diferentes sistemas que poseen varias combinaciones de


hardware y software;

las grandes cantidades y volúmenes de datos que manipula el almacén de datos implica
inversiones en grandes espacios de discos;

identificar, reconciliar y limpiar todos los datos que son obtenidos desde las fuentes externas
de información para, luego, cargarlas en el almacén de datos; y

mantener funcionando de forma correcta y eficaz el proceso de refresco y actualización de los


datos del almacén de datos.

Componentes de un almacén de datos Figura 2:

Componentes de un almacén de datos

IMAGEN WSP

Datos operativos o transaccionales: se pueden obtener datos desde varios orígenes de datos,
bases de datos transaccionales propias de la organización y sistemas externos privados o
públicos.

Funciones de extracción, transformación y carga: estas funciones son las que manipulan los
datos desde las fuentes orígenes y los organizan y ordenan para guardarlos en el lugar
correspondiente del almacén de datos.

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Gestión del almacén: existen varias herramientas para gestionar el almacén y mantener de
forma operativa la consistencia de información, la indexación, la desnormalización, agregación,
copias de seguridad y archivado

Gestión de consultas: las consultas que ofrece el almacén tienen que estar disponibles para
que otras herramientas de consultas, generación de informes, herramientas OLAP y minería de
datos obtengan de forma eficaz lo que necesitan.

Tipos de datos de un almacén de datos

Datos detallados: son datos obtenidos desde las bases de datos operativas con un gran detalle
de transacción, normalmente, no se almacenan en línea, sino que a intervalos definidos de
tiempo.

Datos resumidos: los datos resumidos se desarrollan para hacer más rápidas las consultas que
los utilizan. Los datos pueden estar ligeramente resumidos o fuertemente resumidos. Ambos
deben actualizarse al mismo momento que los datos detallados, para para garantizar la
consistencia de información de todo el almacén.

Metadatos: son datos que se refieren a otros datos dentro del almacén.

Archivado de datos: periódicamente, es necesario archivar de modo off-line información ya


analizada, para garantizar que la base de datos del almacén no crezca demasiado y sea
contraproducente para el rendimiento de las consultas.

Copias de seguridad: de la misma forma que las bases de datos operativas o transaccionales, es
necesario gestionar los backups para que estén disponibles en el momento de su necesidad.

Mercado de datos

Un mercado de datos es un almacén de datos restringido por:

tipo de datos: puede estar limitado a un solo origen de datos;

área de negocios: puede estar diseñado para almacenar información de una sola área de
negocios y no para toda la organización; y

área geográfica: se puede establecer para un área geográfica específica relacionada con lo que
la organización realiza.

Sobre nuestro caso de estudio, el cine del shopping, tenemos diagramados dos mercados de
datos dentro del almacén de datos, uno sobre el tipo de película que los clientes vienen a ver y
otro sobre el origen barrial de cada uno de ellos.

Distintos esquemas de un almacén de datos

El diseño de los esquemas de los almacenes de datos son casos particulares de los diseños de
las bases de datos.

Hay dos aspectos, especialmente, a tener en cuenta que son: el gran volumen de datos y el
gran problema de alcanzar niveles satisfactorios de rendimiento en la restauración.

Esquemas en estrella: es una tabla central rodeada por tablas de referencia que contienen
datos que afectan a determinadas dimensiones de la organización.

Figura 3: Esquema en estrella

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

IMAGEN WSP

Esquemas de copo de nieve: es una variación del esquema en estrella, cada dimensión tiene un
numero de sus propias dimensiones y las tablas de referencia no están desmoralizadas.

Figura 4: Esquema de copo de nieve

IMAGEN WSP

Esquemas de copo de estrella: se encuentran entre los esquemas de estrella y de copo de


nieve, algunas tablas se normalizarán y otras se desnormalizarán.

Figura 5: Esquema de copo de estrella

IMAGEN WSP

Procesamiento analítico en línea

Las aplicaciones OLAP (por sus siglas en inglés, on line analytical processing, un término
definido por Tedd Codd -1993), son herramientas utilizadas para ingresar a grandes bases de
datos a buscar grandes volúmenes de información. Comúnmente, son utilizadas con almacenes
de datos o mercados de datos.

LECCIÓN 1 de 2 Procesamiento analítico en línea

Caso práctico profesional

Para afianzar estos conceptos y llevarlos a la realidad, tomamos, como caso práctico, la
necesidad de una estructura básica de implementación de una herramienta ROLAP, para que, a
través de sus dimensiones, permita saber la preferencia que poseen las personas que acuden a
las salas sobre el tipo de película que miran.

Figura 1: Ejemplo de una arquitectura ROLAP posible de implementar en el Shopping

IMAGEN WSP

El tipo de operaciones analíticas que se pueden realizar con este tipo de herramientas, son:

consolidación (rolling-up): la consolidación hace referencia a la agregación de datos, como las


funciones de un cine son un agregado de las películas disponibles;

búsqueda a fondo (drilling-up): es lo opuesto a la consolidación y consta en la desagregación


de datos, por ejemplo, obtener las funciones del cine con base en las películas disponibles; y

pivoteo: es la capacidad de analizar los datos desde distintos puntos de vista.

Reglas Codd (1993) para las herramientas OLAP

Principalmente, las reglas definidas sirven para considerar las características que deben tener
las herramientas que evaluamos al momento de elegir una.

Vista conceptual multidimensional: proporcionan modelos multidimensionales y cada uno de


ellos se corresponde con una vista específica solicitada por el usuario para la toma de
decisiones.

Transparencia: la tecnología utilizada, la herramienta elegida, las bases de datos propias y las
fuentes de datos externas deben ser transparentes en el uso cotidiano de los usuarios.

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Accesibilidad: deben tener la capacidad de acceder a datos independientemente del formato


de cada uno de ellos; bases de datos relacionales o bases de datos no relacionales.

Rendimiento de informes consistente: el usuario no debe percibir ninguna degradación en el


rendimiento de los reportes cuando se agreguen dimensiones o aumente el tamaño de la base
de datos.

Arquitectura cliente/servidor: las herramientas OLAP deben ser capaces de ser instaladas,
gestionadas y demostrar un eficaz funcionamiento en arquitecturas cliente/servidor.

Dimensionalidad genérica: cada dimensión de la base de datos tiene que ser equivalente en su
estructura como en sus capacidades operativas

Manejo dinámico de matrices dispersas: se deben reorganizar físicamente para adaptarse


físicamente, en pos de optimizar el rendimiento de las matrices dispersas.

Soporte multiusuario: deben tener la capacidad de manejar el acceso concurrente a los datos.

Operaciones interdimensionales no restringidas: deben soportar jerarquías dimensionales y


calcular automáticamente los valores de consolidación dentro y entre dimensiones.

Manipulación de datos intuitiva: deben posibilitar la realización de pivoteo, búsquedas


profundas y consolidación de datos.

Informes flexibles: se deben poder ordenar las filas, las columnas y las celdas para cubrir las
necesidades de los usuarios.

Dimensiones sin límite y niveles de agregación: no deben imponer restricciones al número de


dimensiones o número de agregación en un modelo analítico.

OLAP Multidimensional (MOLAP)

Las herramientas MOLAP utilizan técnicas de almacenamiento eficiente para optimizar el


acceso a los discos, mediante una gestión de datos dispersos.

Comúnmente, requieren un acoplamiento profundo con las capas de presentación de las


arquitecturas cliente/servidor. Desde estas herramientas visuales, se envían las peticiones al
servidor MOLAP, este servidor refresca periódicamente sus datos, desde los sistemas orígenes.

Figura 2: Servidor MOLAP

IMAGEN WSP

OLAP Relacional (ROLAP)

Las herramientas ROLAP son las de mayor crecimiento dentro del conjunto de herramientas
OLAP. ROLAP realiza las conexiones a los diferentes sistemas gestores de bases de datos
relacionales a través de una gran capa de metadatos. Esta capa permite crear vistas
multidimensionales de relaciones bidimensionales

Figura 3: Servidor ROLAP

IMAGEN WSP

Minería de datos

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

La minería de datos se usa en conjunto con los almacenes de datos y mercado de datos,
buscando patrones de datos que se encuentran en los grandes conjuntos de información que
componen este tipo de herramientas.

Cuando mayor tamaño tienen tiene los almacenes o mercados de datos, es más complejo
obtener estos patrones utilizando medios convencionales de consulta y análisis, por lo que, la
minería de datos utiliza algoritmos automáticos para extraer esos datos.

Minería de datos

Caso práctico profesional

Continuamos con el ejemplo del Shopping, para la gestión del complejo de cines de alta
tecnología, deseamos implementar un modelo de minería de datos para buscar patrones sobre
los almacenes de datos ya implementados.

Figura 1: Ejemplo de una implementación de minería de datos sobre el almacén de datos del
Shopping

IMAGEN WSP

La minería de datos ofrece información estratégica para la toma de decisiones, en este caso,
para tomar decisiones estratégicas sobre cómo llevar adelante los cines, con base en la
extracción de patrones comunes en grandes bases de datos. Las principales características de
esta son:

se ocupa de encontrar patrones de datos no esperados u ocultos;

trabaja sobre grandes volúmenes de datos; y

es útil para tomar decisiones estratégicas críticas en la organización.

Este tipo de herramientas nace con base en las aplicaciones especializadas, como la
investigación geológica y meteorológica, y, luego, principios similares se aplicaron en otro tipo
de procesos e industrias.

Técnicas de minería de datos

Hay cuatro operaciones asociadas con la minería de datos. Cada una de ellas se implementa
utiliza variados algoritmos y técnicas.

Cada uno de estos algoritmos o técnicas tiene sus propias fortalezas y debilidades.

Modelo predictivo

El modelado predictivo tiene como objetivo modelar la forma en que los humanos piensan, se
realiza con base en un conjunto de datos existentes para formar un modelo con sus
características esenciales.

A su vez, este modelo se implementa en dos fases claramente definidas:

la primera fase o fase de entrenamiento: se realiza construyendo un modelo utilizando una


muestra de gran tamaño de datos considerada como el conjunto de entrenamiento; y

la segunda fase o fase de comprobación: supone probar el modelo sobre nuevos datos.

Este modelo se asocia, directamente, con las técnicas de clasificación y predicción de valores.

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

La clasificación consiste en determinar una clase por cada fila de la base de datos, esta se
realiza utilizando árboles de decisión o redes neuronales.

Los árboles de decisión representan un problema de clasificación, cada nodo representa alguna
condición y cada rama, una respuesta específica a esa condición. Al final, los nodos hoja
representan el rango de clases en las que se clasificará cada una de las filas.

Por otro lado, las redes neuronales están formadas por un conjunto de nodos, estos se dividen
en tres capas

capa de entrada: el nodo de esta capa se activa en función de los datos de entradas a la propia
red neuronal, estos activan automáticamente a los nodos de procesamiento, de acuerdo al
orden que se les dio con base en la prioridad de activación que se les dio;

capa de procesamiento: los nodos de procesamiento definen la importancia de los nodos de


salida en función de sus pesos; y

capa de salida: estos nodos son los que finalizan la red neuronal y son ejecutados de acuerdo al
orden definido por su peso o grado de importancia.

Segmentación de base de datos

En la segmentación de base de datos, se divide esta en varios segmentos o grupos. Cada uno
de ellos está formado por un conjunto de filas con varias propiedades en común.

Estos segmentos se construyen y se refinan usando procesos de aprendizaje no supervisado

Análisis de vínculos

Es una técnica denominada, también, descubrimiento secuencial de patrones. Las asociaciones


se representan ubicando un conjunto de patrones seguido por otro conjunto de datos
importantes.

Detección de desviaciones

Es una técnica denominada, también, descubrimiento secuencial de patrones, las asociaciones


se representan ubicando un conjunto de patrones seguido por otro conjunto de datos
importantes.

Herramientas de minería de datos

Las herramientas para la minería de datos deben poseer la mayoría de las siguientes utilidades:

utilidades para preparar e importar los datos: la herramienta tiene que tener el potencial para
importar datos desde varios entornos que se pueden elegir;

selección de operaciones y técnicas de minería de datos: debe poseer una gran variedad de
algoritmos para identificar patrones;

escalabilidad del producto y rendimiento: debe tener la capacidad de almacenar grandes


volúmenes de datos y esto no le debe afectar en el correcto funcionamiento o rendimiento; y

módulos para visualizar los datos: debe poseer la capacidad de mostrar de diversas formas los
patrones identificados.

IMAGEN WSP

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Bases de datos y la web

Internet, en la actualidad, es una red de conexiones, a través de la cual se comunican, de forma


descentralizada, las computadoras, los teléfonos celulares y cualquier otro dispositivo
tecnológico que lo permita.

Esta conexión se realiza a través de una serie de protocolos a los que se les denomina TCP/IP.

Caso práctico profesional

Para llevar a la realidad los conceptos básicos de la Internet y continuando con lo


implementado en el shopping para la gestión del complejo de cines de alta tecnología,
analizamos, como caso práctico, la implementación de una estructura básica donde alojamos
las páginas web en un servidor, para que los clientes puedan adquirir sus entradas a través de
ella.

Figura 1: Ejemplo básico de una arquitectura de publicación de una página web del Shopping,
para que los clientes puedan adquirir las entradas a las funciones desde allí

IMAGEN WSP

Internet tiene sus inicios en la década de los sesenta. Fue creada por el Departamento de
Defensa de Estados Unidos para tratar de encontrar una alternativa a una posible
incomunicación que se produjera por una guerra atómica.

Al inicio de la década del setenta, fue llevada a cabo la primera demostración al público del
sistema que se creó, gracias al trabajo compartido de un grupo de colaboradores de la
universidad de Utah, con tres universidades del estado de California, a dicha conexión se le
denominó ARPANET (Advanced Research Projects Agency Network).

Tecnológicamente, podemos definir a internet como un conjunto de redes de ordenadores que


se encuentran interconectadas, pero con mucha variación en su arquitectura de hardware y
software, su funcionamiento no se adapta a un solo tipo de ordenador, a un medio físico
privilegiado, a un tipo de red en concreto y a ninguna tecnología inclusiva de conexión, ya que
se trata de una red dinámica y flexible, que puede ser adaptada a distintos contextos,
tecnológicamente hablando.

Cada una de las redes, a su vez, son un mundo particular y complejo, en cada uno de ellos,
podemos encontrar variedad de tecnología de telefonía, imágenes, fibra óptica, satélites,
electrónica, microprocesadores, video, televisión, realidad virtual, hipertexto, etcétera

En este sentido, Internet, la red de redes, es un vehículo de transporte multimedios que


permite a los usuarios tener acceso a servicios existentes, como el correo electrónico, el vídeo,
el sonido, la telefonía móvil y World Wide Web; y a otros nuevos que superan tales servicios
tradicionales (como las redes sociales del tipo de Facebook, Instagram y Twitter).

Infraestructura de Internet

La infraestructura básica de internet está formada por seis elementos, que se desarrollan a
continuación.

Red conmutada de paquetes

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

La red conmutada de paquetes es un método, para dividir o separar cualquier tipo de archivo
de datos en paquetes o porciones más pequeñas, con el objetivo de transmitirlos de forma
eficaz, a través de diferentes redes, incluso, internet.

Los paquetes de datos se dividen en pequeños bloques de datos para ser transferidos a través
de diferentes redes, de forma rápida y eficiente. Los bloques son desarmados en el dispositivo
emisor del paquete y es reensamblado en el dispositivo receptor.

Cada paquete se etiqueta electrónicamente con códigos que indican el origen o emisor y el
destino o receptor del paquete. Los datos viajan, a lo largo de las redes, de ordenador a
ordenador, hasta que alcanzan su destino. Cada ordenador de la red determina la mejor ruta
de envío para los paquetes que recibe y que debe transmitir. El ordenador de destino
recompone los paquetes en el mensaje original.

TCP/IP

Para lograr una segura y eficaz conmutación de paquetes, el mundo informático debió
adaptarse a un estándar que le permita realizar una conmutación de paquetes sin que exista
pérdida de ellos en la comunicación entre cada uno de los ordenadores.

Para desarrollar una conectividad alta entre los sistemas, a principios de la década de 1970, se
decidió utilizar el concepto de sistemas abiertos. Estos se construyen sobre sistemas
operativos, interfaces de usuario, estándares de aplicaciones y estándares de red de dominio
público.

Uno de los ejemplos más antiguos de un modelo de sistemas abiertos para las comunicaciones
es el Protocolo de Control de la Transmisión/Protocolo de Internet, comúnmente, denominado
TCP/IP.

Básicamente, se divide en cinco capas de tareas de red:

capa de aplicación: es la más cercana al usuario de la red. Brinda funcionalidades de


introducción de datos y de presentación al usuario de la red;

capa de transporte/TCP: esta divide los datos de la aplicación en paquetes TCP, conocidos como
datagramas. Cada paquete posee una cabecera que contiene la dirección del ordenador
emisor, datos para recomponer los datos originales y datos de comprobación de errores;

capa de protocolo de internet/IP: esta capa recibe los datagramas procedentes de la capa TCP y
divide, aún más, los paquetes. Un paquete IP contiene un encabezado con una dirección y lleva
información TCP y datos en el cuerpo del paquete. La capa IP enruta los paquetes individuales
desde el emisor al receptor.

capa de red: esta maneja lo concerniente a direccionamiento, normalmente, dentro del


sistema operativo, y, al mismo tiempo, proporciona una interfaz entre el ordenador y la red.

capa física: esta define las características básicas de la señal de transmisión a lo largo de la red
de comunicaciones.

Protocolo de Transferencia de Hipertexto (HTTP)

HTTP es un protocolo orientado a objetos que reglamenta la forma de cómo transmitir la


información en clientes y servidores

Cuando realizamos una transacción HTTP, esta se forma por las siguientes fases:

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

conexión: el procesador cliente establece una conexión con un servidor web;

solicitud: el procesador clientes envía un mensaje de solicitud al servidor web;

respuesta: el servidor web le envía una respuesta al procesador cliente; y

cierre: el servidor web cierra la conexión.

Direcciones IP

Una dirección IP es utilizada para identificar, inequívocamente, un ordenador en Internet. Está


formada por una serie de, como máximo, cuatro números delimitados por un punto. En una
dirección IP de 32 bits, cada uno de los cuatro números puede ir de 0 a 255. Generalmente, el
primero de los cuatro números identifica una red de ordenadores. El resto de los números,
habitualmente, identifican un nodo de esa red.

Localizador universal de recursos

Debido a la complejidad de las direcciones IP para ser recordadas, se introdujeron


identificadores mnemotécnicos que se corresponden uno a uno con cada dirección IP, de ser
necesario.

Los documentos HTML que se encuentran en un ordenador se identifican por un localizador


universal, por lo tanto, pueden usarse para brindar direcciones únicas a cada documento HTML
que alojemos en ese servidor.

La sintaxis de una URL consta, al menos, de dos partes y, como máximo, puede tener hasta
cuatro partes.

Una URL básica, sencilla de dos partes, consta de:

el protocolo utilizado para la conexión (HTTP); y

la dirección en la que se encuentra un recurso en el servidor.

Nombres de dominio

Existe un convenio de cadena de caracteres que se utiliza para darle mayor significado a las
direcciones URL. Un nombre de dominio identifica y localiza un servidor anfitrión o un servicio
en internet.

Un nombre de dominio consta de las siguientes tres partes (tomando como ejemplo
www.universidad.edu.ar):

subdominio: esto constituye un proveedor de un servicio de internet, en el ejemplo dado, sería


universidad;

tipo de dominio: indica el tipo de proveedor, en el ejemplo, edu.

código del país: cada país tiene su propio código, en el ejemplo, ar.

Revisión del módulo

Almacén de datos – Los almacenes de datos nos permiten agrupar datos obtenidos, desde
fuentes internas o externas, y dejarlos disponibles para su explotación, a través de distintas
herramientas de minería de datos, OLAP y big data.

Descargado por luis p (maradentropez@gmail.com)


lOMoARcPSD|7852739

Procesamiento analítico en línea – Las tecnologías OLAP nos permiten buscar, dentro de los
almacenes de datos, grandes cantidades de información para procesarla de forma on line.

Minería de datos – La minería de datos nos permite buscar patrones de comportamiento


dentro de los almacenes y mercados de datos.

Bases de datos y la web – Internet es la gran red de redes. Esta nos permite conectar redes con
cierto tipo de infraestructura con otras redes que no necesariamente poseen las mismas
características.

Descargado por luis p (maradentropez@gmail.com)

También podría gustarte