Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Capa de transacciones
–
Es un subsistema o capa que realiza la interacción entre la capa de interfaz y la
capa de reglas. El diseño de las transacciones puede que haga que las reglas se
agrupen de acuerdo a un dominio en común.
Capa de datos
–
Es el responsable de gestionar, almacenar y persistir los datos manipulados en
las capas superiores, en la base de datos correspondiente.
Capa de comunicaciones
–
Esta capa, es la encargada de la comunicación de todas las capas mencionadas
anteriormente.
Clientes pesados
–
Debido a las bondades de las herramientas de desarrollo de aplicaciones para la
capa de interfaz, es que se realizan estos módulos aplicando cierta inteligencia o
reglas de negocio en ellas, aunque siempre se debe considerar que la resolución
de estas reglas depende de las características del ordenador, computador
personal, notebook o teléfono móvil que posee el usuario que usa la interfaz.
Estos módulos, considerados dentro de la capa de interfaz, donde se realizan
procesamientos de datos, son considerados clientes pesados.
Clientes ligeros
–
Los usuarios finales que utilizan las aplicaciones no deberían percibir dónde
se ubican los datos, ya sea que estos estén en uno o más servidores, uno o
más sistemas operativos o en un mismo o diferente tipo de data center.
LECCIÓN 2 de 7
Transparencia
Los usuarios finales que utilizan las aplicaciones no deberían percibir dónde
se ubican los datos, ya sea que estos estén en uno o más servidores, uno o
más sistemas operativos o en un mismo o diferente tipo de data center.
Ubicación transparente
–
Para los usuarios, no es necesario tener conciencia del lugar o ubicación donde
se encuentren las bases de datos. Los desarrollos de las aplicaciones deben ser
realizadas de tal forma que los usuarios no se den cuenta de dónde están
ubicados los datos, estos pueden trasladarse de un sitio a otro, sin invalidar
cualquiera de los programas o actividades existentes.
.
Fragmentación transparente
–
Los usuarios no necesitan saber cómo se fragmentan los datos.
Replicación transparente
LECCIÓN 4 de 7
Tipos de bases de datos distribuidos
Sistemas homogéneos: los datos se distribuyen sobre el mismo
hardware, sistema operativo y sistema gestor de base de datos
Sistemas heterogéneos: los datos se distribuyen sobre distintas
configuraciones y combinaciones de hardware, sistema operativo y
sistema gestor de base de datos.
Sistemas federados: está compuesto por diferentes bases de
datos autónomas e independientes.
LECCIÓN 5 de 7
Sin considerar las interfaces maquina/hombre, como pueden ser los teclados, los mouses, las
pantallas y las impresoras, podemos considerar que un ordenador está compuesto de un
procesador, una memoria y el dispositivo
de almacenamiento de datos.
Particularmente, el procesador central ha incrementado su rendimiento exponencialmente y, a
su vez, ha reducido su tamaño de forma considerable, además, debido a la tecnología utilizada,
también, bajó sus costos. Los primeros procesadores cumplían instrucciones a un ratio de,
aproximadamente, una instrucción cada milisegundo, mientras que los ordenadores más
rápidos, en la actualidad, pueden alcanzar un ratio que es varios millones de veces
superior a este.
Si bien la memoria principal y el almacenamiento de datos o información también se han
desarrollado de forma exponencial, tanto en velocidad como en capacidad, sin embargo, es
más importante el cambio en la capacidad de los procesadores para tratar con dos niveles de
memoria y la velocidad con la que pueden mover datos entre ellos.
Los más antiguos ordenadores se desarrollaron para aplicaciones científicas y de ingeniería y
han sido estas dos áreas las que, históricamente, han liderado la demanda de ordenadores
cada vez más potentes. De allí, surgió el gran inconveniente del cuello de botella de la
memoria, para leer o escribir en el o los discos de almacenamiento.
Figura 1: Ejemplo gráfico de la comunicación entre un procesador, memoria y disco de
almacenamiento, donde se grafica el cuello de botella, justamente, en la memoria
IMAGEN WSP
LECCIÓN 1 de 4
El desarrollo en la tecnología actual de los ordenadores llevó a que, en estos momentos, las
características de los computadores personales, estaciones de trabajo y notebooks posean un
rendimiento que hubiera sido totalmente aceptable en los orígenes de los procesadores,
incluso, para solventar la ineficiencia del cuello de botella producido por la memoria en el
momento de lectura o escritura.
Además, el ratio precio/rendimiento llevó a que estos sistemas sean utilizados en aplicaciones
de bases de datos por individuos o medianas y pequeñas organizaciones, sin tener que invertir
fastuosas sumas de dinero en servidores.
Pero, sin embargo, todavía no son capaces de soportar el gran número de usuarios y las
masivas cantidades de datos que necesitan las grandes organizaciones.
A mediados de los años ochenta, los sistemas de bases de datos relacionales empezaron a
aparecer en el mercado del procesamiento de datos, siendo hoy dominantes. La CPU y las
demandas de I/O de los sistemas de gestión de bases de datos relacionales dan servicio a un
gran número de usuarios simultáneamente o buscan en bases de datos con terabytes de
información.
SISTEMAS MULTIPROCESADORES
La evolución de la tecnología ocasionó que la disponibilidad de computadores personales
usados como ordenadores sea cada vez más elevada y, con ello, aparejada la evolución del
procesamiento en paralelo o del tipo clasificado, como los sistemas de múltiples instrucciones
múltiples datos o MIMD. A su vez, a estos, los podemos clasificar en:
LECCIÓN 2 de 4
IMAGEN
Multiprocesadores simetricos
El esquema consiste en tener varios procesadores unidos a una sola memoria compartida que,
a su vez, se une secuencialmente a varios discos, mediante múltiples canales. Como cualquier
sistema multiprocesador, se puede incrementar o aumentar el rendimiento de los cálculos
añadiendo multiprocesadores. Esto incrementa la carga sobre la memoria compartida y el bus
de conexión entre el multiprocesador y la memoria pasa a ser el cuello de botella o tope. Se
puede reducir el acceso a la memoria incluyendo caches que almacenen las ultimas
transacciones realizadas.
Consideramos que las aplicaciones más apropiadas de estas arquitecturas son:
transacciones paralelas donde se ejecutan, al mismo tiempo, muchas consultas SQL sobre
diferentes
procesadores al mismo tiempo;
aplicaciones fácilmente particionadas, divididas por departamentos y a las que se acceda
mediante
una clave;
“Aplicaciones de acceso aleatorio que compitan lo menos posible por los mismos bloques”
(BeynonDavies, 2014); y
“Aplicaciones que actualicen datos disjuntos o actualicen los mismos datos en momentos
diferentes”
(Beynon-Davies, 2014).
“Altos volúmenes de actualización desde diferentes instancias que afecten a los mismos
bloques.
Aplicaciones de apoyo a la toma de decisiones o ad hoc que requieran inspecciones de toda la
tabla”
(Beynon-Davies, 2014).
DATOS COMPLEJOS
En esta lectura, vamos a ir algo más allá del límite de los datos tradicionales
que se guardan en una base de datos, como enteros, caracteres, date y date
time; y nos excederemos pensando en la necesidad de los sistemas, cada
vez más avanzados, que intentan ayudar a satisfacer las necesidades y
deseos humanos, que llegan a la manipulación de datos más complejos
como, por ejemplo:
imágenes: gráficos y fotografías;
videos: diversas formas de imágenes en movimiento; y
audios: distintos tipos de datos sonoros.
En los sistemas actuales, necesitamos la manipulación de datos y elementos
complejos.
Las organizaciones, en la actualidad, demandan, a los equipos de
desarrolladores, el almacenamiento de documentos (como estándares a
seguir, contratos y procesos)que, dentro de cada uno de ellos, contengan
textos, datos numéricos, imágenes, links, cuadros, etcétera, donde, además,
cada organización puede tener un formato particular para cada uno de estos
documentos. Todo esto complejiza el desarrollo e implementación de una
organización a otra.
El cambio más importante, en el mundo de los negocios del último siglo, fue
definir los estándares de almacenamiento y transmisión de la documentación electrónica,
como puede ser el caso de una factura electrónica.
De esta forma, se llega a la necesidad imperiosa de manejar datos
semiestructurados en las bases de datos.
Ante esta necesidad, la industria del software acuña un lenguaje formal,
conocido como XML, denominado lenguaje de marcas extensible.
Documentación electrónica
<HTML>
<TITLE> Desarrollo de Aplicaciones con Base de Datos</TITLE>
<H1>Datos Complejos</H1>
<H2> Ejemplo de Básico de un HTML</H2>
</HTML>
XML
Lo simple del HTML hace que sea muy utilizado y, justamente, esta característica, su
simplicidad, es la mayor fortaleza que posee, además del hecho de que sea utilizado por una
gran cantidad de usuarios y programadores.
Muchos de los programadores avanzados intentan definir sus propias etiquetas y, de allí, surgió
una extensión del HTML denominada XML, que permite a los usuarios crear sus propias
etiquetas para intercambiar datos.
Mientras el HTML es utilizado para definir cómo se mostrarán los datos, el XML puede ser
utilizado para definir la estructura del documento, por ejemplo, documentos estándares de
mercado como facturas y recibos.
<MarcaDelAuto ID = 1234>
<Empresa> ‘FIAT’ </Empresa>
<Modelo> 128 </Modelo >
Datos espaciales
Uno de los casos más destacados del uso de datos complejos son los
sistemas espaciales, por ejemplo, www.google.com, dado que, en las bases
de datos, se almacenan imágenes con muy altas definiciones e información
de prácticamente cada intersección de coordenadas.
Los sistemas de este tipo son denominados sistemas de información
geográfica y a cada uno de los espacios que representa se les vinculan
atributos como:
Sistemas distribuidos
–
Los sistemas distribuidos nos permiten realizar distintos tipos de arquitecturas,
para lograr siempre que los usuarios perciban una experiencia excelente en el
uso de los sistemas.
Datos distribuidos
–
Las tecnologías de almacenamiento de las bases de datos permiten que los
datos y la información sean almacenados en diferentes lugares, con el fin de
lograr un rendimiento óptimo en el uso de las aplicaciones por parte del usuario.
Las tecnologías de los sistemas gestores de bases de datos, combinadas con las
tecnologías de las distintas arquitecturas cliente - servidor, hacen que los
recursos tecnológicos implementados puedan resolver, de forma paralela, las
peticiones del uso de las aplicaciones para poder responder de forma rápida a
los usuarios.
Datos complejos
–
La avanzada en el uso de distintas formas de almacenamiento de datos permite
utilizar datos de tipo básico y datos de tipos complejos, lo que lleva a hacer
sistemas cada vez más útiles para usuarios más demandantes.
Almacenes de datos
En este módulo, estudiaremos cómo las bases de datos se han transformado en un corazón
habitual de todo sistema, ya sea transaccional, data whare house o, inclusive, en la actualidad,
en el corazón de los sistemas de big data.
Para ejemplificar de mejor forma los conceptos de los grandes almacenes de datos,
tomaremos, como referencia, el siguiente caso. Trayendo el ejemplo visto en otros módulos de
la materia, podemos volver a leer la situación profesional del complejo de cines de alta
tecnología y, como caso práctico, asumimos que somos contratados para implementar un
sistema que le permita saber el perfil de las personas que acuden a sus salas de cine, el lugar
geográfico de los barrios desde donde acuden y, por último, la preferencia que poseen sobre el
tipo de película que miran. Una arquitectura básica de la implementación de un mercado de
datos puede ser la que se observa en la figura 1.
Figura 1: Ejemplo de una arquitectura de un almacén de datos con varios mercados de datos
dentro
IMAGEN WSP
El proceso denominado data whare housing es el proceso a través del cual se obtienen los
datos operaciones desde distintas fuentes de datos y alimentan distintas herramientas que son
usadas para la toma de decisiones estratégicas. En nuestro caso, estos procesos obtienen
información de las bases de datos operativas de las funciones y ventas y alimentan el almacén
de datos correspondiente.
Almacenes de datos
Particularmente, en esta lectura, nos vamos a enfocar en los almacenes de datos, que son
sistemas de bases de datos diseñados exclusivamente para ayudar en la toma de decisiones
estratégicas. El principal objetivo que poseen es incrementar la productividad y eficiencia de la
toma de decisiones en una organización. Un almacén de datos se diferencia de una base de
datos tradicional, fundamentalmente, en tres aspectos. Un almacén de datos es una colección
de datos orientados a un tema, integrados, variantes con el tiempo y no volátiles, utilizados
para apoyar la toma de decisiones de la dirección (Evaluando Software.com, 2016). ¿Por qué
son orientados a un tema?
Diversas fuentes de datos: posiblemente, los datos almacenados en un almacén de datos hayan
sido obtenidos desde diferentes orígenes de datos, a través de diferentes herramientas y
procesos destinados a tal fin. Posiblemente, pocos de ellos son bases de datos.
Acceso dimensional: los almacenes de datos se diseñan de acuerdo a la forma que los usuarios
desean ver la información para la tomar decisiones, cada una de estas formas son
comúnmente llamadas dimensiones
Un almacén de datos se estructura de acuerdo a las principales áreas que posee la organización
donde este se implementa.
Un almacén de datos posee un repositorio de información que integra datos que pueden
tener, como origen, varios sistemas con diferentes arquitecturas de hardware y software y,
también, cada uno de ellos, a su vez, pueden tener diferentes formatos y tipos de datos.
Los datos del almacén de datos no se actualizan en tiempo real y en forma constante. Estos se
refrescan periódicamente, a partir de los datos que se manipulan en los sistemas
transaccionales.
brinda una estructura sencilla para el almacenamiento de los datos que, luego, se transforman
en información para la toma de decisiones estratégicas;
permite a los usuarios que pertenecen a la organización ejecutar consultas complejas sobre
información que atraviesa diferentes áreas de negocios; y
saber de antemano lo que necesitan los usuarios y determinar las fuentes de datos y qué se
extraerá de cada una de ellas;
las grandes cantidades y volúmenes de datos que manipula el almacén de datos implica
inversiones en grandes espacios de discos;
identificar, reconciliar y limpiar todos los datos que son obtenidos desde las fuentes externas
de información para, luego, cargarlas en el almacén de datos; y
IMAGEN WSP
Datos operativos o transaccionales: se pueden obtener datos desde varios orígenes de datos,
bases de datos transaccionales propias de la organización y sistemas externos privados o
públicos.
Funciones de extracción, transformación y carga: estas funciones son las que manipulan los
datos desde las fuentes orígenes y los organizan y ordenan para guardarlos en el lugar
correspondiente del almacén de datos.
Gestión del almacén: existen varias herramientas para gestionar el almacén y mantener de
forma operativa la consistencia de información, la indexación, la desnormalización, agregación,
copias de seguridad y archivado
Gestión de consultas: las consultas que ofrece el almacén tienen que estar disponibles para
que otras herramientas de consultas, generación de informes, herramientas OLAP y minería de
datos obtengan de forma eficaz lo que necesitan.
Datos detallados: son datos obtenidos desde las bases de datos operativas con un gran detalle
de transacción, normalmente, no se almacenan en línea, sino que a intervalos definidos de
tiempo.
Datos resumidos: los datos resumidos se desarrollan para hacer más rápidas las consultas que
los utilizan. Los datos pueden estar ligeramente resumidos o fuertemente resumidos. Ambos
deben actualizarse al mismo momento que los datos detallados, para para garantizar la
consistencia de información de todo el almacén.
Metadatos: son datos que se refieren a otros datos dentro del almacén.
Copias de seguridad: de la misma forma que las bases de datos operativas o transaccionales, es
necesario gestionar los backups para que estén disponibles en el momento de su necesidad.
Mercado de datos
área de negocios: puede estar diseñado para almacenar información de una sola área de
negocios y no para toda la organización; y
área geográfica: se puede establecer para un área geográfica específica relacionada con lo que
la organización realiza.
Sobre nuestro caso de estudio, el cine del shopping, tenemos diagramados dos mercados de
datos dentro del almacén de datos, uno sobre el tipo de película que los clientes vienen a ver y
otro sobre el origen barrial de cada uno de ellos.
El diseño de los esquemas de los almacenes de datos son casos particulares de los diseños de
las bases de datos.
Hay dos aspectos, especialmente, a tener en cuenta que son: el gran volumen de datos y el
gran problema de alcanzar niveles satisfactorios de rendimiento en la restauración.
Esquemas en estrella: es una tabla central rodeada por tablas de referencia que contienen
datos que afectan a determinadas dimensiones de la organización.
IMAGEN WSP
Esquemas de copo de nieve: es una variación del esquema en estrella, cada dimensión tiene un
numero de sus propias dimensiones y las tablas de referencia no están desmoralizadas.
IMAGEN WSP
IMAGEN WSP
Las aplicaciones OLAP (por sus siglas en inglés, on line analytical processing, un término
definido por Tedd Codd -1993), son herramientas utilizadas para ingresar a grandes bases de
datos a buscar grandes volúmenes de información. Comúnmente, son utilizadas con almacenes
de datos o mercados de datos.
Para afianzar estos conceptos y llevarlos a la realidad, tomamos, como caso práctico, la
necesidad de una estructura básica de implementación de una herramienta ROLAP, para que, a
través de sus dimensiones, permita saber la preferencia que poseen las personas que acuden a
las salas sobre el tipo de película que miran.
IMAGEN WSP
El tipo de operaciones analíticas que se pueden realizar con este tipo de herramientas, son:
Principalmente, las reglas definidas sirven para considerar las características que deben tener
las herramientas que evaluamos al momento de elegir una.
Transparencia: la tecnología utilizada, la herramienta elegida, las bases de datos propias y las
fuentes de datos externas deben ser transparentes en el uso cotidiano de los usuarios.
Arquitectura cliente/servidor: las herramientas OLAP deben ser capaces de ser instaladas,
gestionadas y demostrar un eficaz funcionamiento en arquitecturas cliente/servidor.
Dimensionalidad genérica: cada dimensión de la base de datos tiene que ser equivalente en su
estructura como en sus capacidades operativas
Soporte multiusuario: deben tener la capacidad de manejar el acceso concurrente a los datos.
Informes flexibles: se deben poder ordenar las filas, las columnas y las celdas para cubrir las
necesidades de los usuarios.
IMAGEN WSP
Las herramientas ROLAP son las de mayor crecimiento dentro del conjunto de herramientas
OLAP. ROLAP realiza las conexiones a los diferentes sistemas gestores de bases de datos
relacionales a través de una gran capa de metadatos. Esta capa permite crear vistas
multidimensionales de relaciones bidimensionales
IMAGEN WSP
Minería de datos
La minería de datos se usa en conjunto con los almacenes de datos y mercado de datos,
buscando patrones de datos que se encuentran en los grandes conjuntos de información que
componen este tipo de herramientas.
Cuando mayor tamaño tienen tiene los almacenes o mercados de datos, es más complejo
obtener estos patrones utilizando medios convencionales de consulta y análisis, por lo que, la
minería de datos utiliza algoritmos automáticos para extraer esos datos.
Minería de datos
Continuamos con el ejemplo del Shopping, para la gestión del complejo de cines de alta
tecnología, deseamos implementar un modelo de minería de datos para buscar patrones sobre
los almacenes de datos ya implementados.
Figura 1: Ejemplo de una implementación de minería de datos sobre el almacén de datos del
Shopping
IMAGEN WSP
La minería de datos ofrece información estratégica para la toma de decisiones, en este caso,
para tomar decisiones estratégicas sobre cómo llevar adelante los cines, con base en la
extracción de patrones comunes en grandes bases de datos. Las principales características de
esta son:
Este tipo de herramientas nace con base en las aplicaciones especializadas, como la
investigación geológica y meteorológica, y, luego, principios similares se aplicaron en otro tipo
de procesos e industrias.
Hay cuatro operaciones asociadas con la minería de datos. Cada una de ellas se implementa
utiliza variados algoritmos y técnicas.
Cada uno de estos algoritmos o técnicas tiene sus propias fortalezas y debilidades.
Modelo predictivo
El modelado predictivo tiene como objetivo modelar la forma en que los humanos piensan, se
realiza con base en un conjunto de datos existentes para formar un modelo con sus
características esenciales.
la segunda fase o fase de comprobación: supone probar el modelo sobre nuevos datos.
Este modelo se asocia, directamente, con las técnicas de clasificación y predicción de valores.
La clasificación consiste en determinar una clase por cada fila de la base de datos, esta se
realiza utilizando árboles de decisión o redes neuronales.
Los árboles de decisión representan un problema de clasificación, cada nodo representa alguna
condición y cada rama, una respuesta específica a esa condición. Al final, los nodos hoja
representan el rango de clases en las que se clasificará cada una de las filas.
Por otro lado, las redes neuronales están formadas por un conjunto de nodos, estos se dividen
en tres capas
capa de entrada: el nodo de esta capa se activa en función de los datos de entradas a la propia
red neuronal, estos activan automáticamente a los nodos de procesamiento, de acuerdo al
orden que se les dio con base en la prioridad de activación que se les dio;
capa de salida: estos nodos son los que finalizan la red neuronal y son ejecutados de acuerdo al
orden definido por su peso o grado de importancia.
En la segmentación de base de datos, se divide esta en varios segmentos o grupos. Cada uno
de ellos está formado por un conjunto de filas con varias propiedades en común.
Análisis de vínculos
Detección de desviaciones
Las herramientas para la minería de datos deben poseer la mayoría de las siguientes utilidades:
utilidades para preparar e importar los datos: la herramienta tiene que tener el potencial para
importar datos desde varios entornos que se pueden elegir;
selección de operaciones y técnicas de minería de datos: debe poseer una gran variedad de
algoritmos para identificar patrones;
módulos para visualizar los datos: debe poseer la capacidad de mostrar de diversas formas los
patrones identificados.
IMAGEN WSP
Esta conexión se realiza a través de una serie de protocolos a los que se les denomina TCP/IP.
Figura 1: Ejemplo básico de una arquitectura de publicación de una página web del Shopping,
para que los clientes puedan adquirir las entradas a las funciones desde allí
IMAGEN WSP
Internet tiene sus inicios en la década de los sesenta. Fue creada por el Departamento de
Defensa de Estados Unidos para tratar de encontrar una alternativa a una posible
incomunicación que se produjera por una guerra atómica.
Al inicio de la década del setenta, fue llevada a cabo la primera demostración al público del
sistema que se creó, gracias al trabajo compartido de un grupo de colaboradores de la
universidad de Utah, con tres universidades del estado de California, a dicha conexión se le
denominó ARPANET (Advanced Research Projects Agency Network).
Cada una de las redes, a su vez, son un mundo particular y complejo, en cada uno de ellos,
podemos encontrar variedad de tecnología de telefonía, imágenes, fibra óptica, satélites,
electrónica, microprocesadores, video, televisión, realidad virtual, hipertexto, etcétera
Infraestructura de Internet
La infraestructura básica de internet está formada por seis elementos, que se desarrollan a
continuación.
La red conmutada de paquetes es un método, para dividir o separar cualquier tipo de archivo
de datos en paquetes o porciones más pequeñas, con el objetivo de transmitirlos de forma
eficaz, a través de diferentes redes, incluso, internet.
Los paquetes de datos se dividen en pequeños bloques de datos para ser transferidos a través
de diferentes redes, de forma rápida y eficiente. Los bloques son desarmados en el dispositivo
emisor del paquete y es reensamblado en el dispositivo receptor.
Cada paquete se etiqueta electrónicamente con códigos que indican el origen o emisor y el
destino o receptor del paquete. Los datos viajan, a lo largo de las redes, de ordenador a
ordenador, hasta que alcanzan su destino. Cada ordenador de la red determina la mejor ruta
de envío para los paquetes que recibe y que debe transmitir. El ordenador de destino
recompone los paquetes en el mensaje original.
TCP/IP
Para lograr una segura y eficaz conmutación de paquetes, el mundo informático debió
adaptarse a un estándar que le permita realizar una conmutación de paquetes sin que exista
pérdida de ellos en la comunicación entre cada uno de los ordenadores.
Para desarrollar una conectividad alta entre los sistemas, a principios de la década de 1970, se
decidió utilizar el concepto de sistemas abiertos. Estos se construyen sobre sistemas
operativos, interfaces de usuario, estándares de aplicaciones y estándares de red de dominio
público.
Uno de los ejemplos más antiguos de un modelo de sistemas abiertos para las comunicaciones
es el Protocolo de Control de la Transmisión/Protocolo de Internet, comúnmente, denominado
TCP/IP.
capa de transporte/TCP: esta divide los datos de la aplicación en paquetes TCP, conocidos como
datagramas. Cada paquete posee una cabecera que contiene la dirección del ordenador
emisor, datos para recomponer los datos originales y datos de comprobación de errores;
capa de protocolo de internet/IP: esta capa recibe los datagramas procedentes de la capa TCP y
divide, aún más, los paquetes. Un paquete IP contiene un encabezado con una dirección y lleva
información TCP y datos en el cuerpo del paquete. La capa IP enruta los paquetes individuales
desde el emisor al receptor.
capa física: esta define las características básicas de la señal de transmisión a lo largo de la red
de comunicaciones.
Cuando realizamos una transacción HTTP, esta se forma por las siguientes fases:
Direcciones IP
La sintaxis de una URL consta, al menos, de dos partes y, como máximo, puede tener hasta
cuatro partes.
Nombres de dominio
Existe un convenio de cadena de caracteres que se utiliza para darle mayor significado a las
direcciones URL. Un nombre de dominio identifica y localiza un servidor anfitrión o un servicio
en internet.
Un nombre de dominio consta de las siguientes tres partes (tomando como ejemplo
www.universidad.edu.ar):
código del país: cada país tiene su propio código, en el ejemplo, ar.
Almacén de datos – Los almacenes de datos nos permiten agrupar datos obtenidos, desde
fuentes internas o externas, y dejarlos disponibles para su explotación, a través de distintas
herramientas de minería de datos, OLAP y big data.
Procesamiento analítico en línea – Las tecnologías OLAP nos permiten buscar, dentro de los
almacenes de datos, grandes cantidades de información para procesarla de forma on line.
Bases de datos y la web – Internet es la gran red de redes. Esta nos permite conectar redes con
cierto tipo de infraestructura con otras redes que no necesariamente poseen las mismas
características.