Está en la página 1de 23

Un poco de historia e introducción

En la década de los 50´s el hombre dio un gran salto al inventar la computadora electrónica.

La información ya podía ser enviada en grandes cantidades a un lugar central donde se realizaba
su procesamiento.

Ahora el problema era que esta información tenía que ser acarreada al departamento de proceso
de datos de una manera rápida y eficiente.

Con la aparición de las terminales en la década de los 60´s se logró la comunicación directa entre
los usuarios y la unidad central de proceso, logrando una comunicación más rápida y eficiente

Pero se encontró un obstáculo; entre más terminales y otros periféricos se agregaban a la


computadora central, la velocidad de comunicación decaía.
En Abril de 1964 IBM presenta su generación de computadores IBM
360
La delicada tecnología del silicio e integración en miniatura permitió a los fabricantes de
computadoras construir mayor inteligencia en máquinas más pequeñas.

Estas máquinas llamadas microcomputadoras descongestionaron a las viejas máquinas centrales.

La Apple Disk II con la primera disquetera y La TRS-80 de Tandy/Radio Shack


A principios de la década de los 80´s las micro habían revolucionado por completo el concepto de
computación electrónica así como sus aplicaciones y mercado.

Los gerentes de los departamentos de informática fueron perdiendo el control de la información


ya que el proceso de la misma no estaba centralizado.

A esta época se le podría denominar la era del Floppy disk ya que fue en este periodo donde se
inventó.

Se había retrocedido en la forma de procesar información, había que acarrear la información


almacenada en los disquetes de una micro a otra y la relativa poca capacidad de los disquetes
hacía difícil el manejo de grandes cantidades de información.

Con la llegada de la tecnología Winchester se lograron dispositivos (discos duros) que permitían
almacenar grandes cantidades de información, capacidades que iban desde 5 Megabytes hasta
100, hoy en día hay hasta más de 2 Terabytes.

Una desventaja de esta tecnología era el alto costo que significaba la adquisición de un disco duro.

Hitachi fabricó en 1988 el DKU-86i, con capacidad de 1,89 GBytes de almacenamiento.


Un disco duro de 250MB de 1979

Los usuarios tenían la necesidad de compartir información y programas en forma simultánea y se


hacía de manera mecánica.

Estas razones principalmente aunadas a otras, como el poder compartir recursos de relativa baja
utilización y alto costo llevaron a diversos fabricantes y desarrolladores a la idea de las redes
locales. Las REDES locales habían nacido.

A principios de los años 70 surgieron las primeras redes de transmisión de datos.

La red telegráfica y la red telefónica fueron los principales medios de transmisión de datos a nivel
mundial.

Las primeras Redes Locales estaban basadas en introducir un servidor de Discos (Disk Servers).
Estos equipos permitían a cada usuario el mismo acceso a todas las partes del disco, causando
obvios problemas de seguridad y de integridad de datos, ya que la información no estaba segura
en ninguna computadora, todos tenían acceso a ella.

La compañía Novell, fue la primera en introducir un Servidor de Archivos.

(File Server) en que todos los usuarios pueden tener acceso a la misma información, compartiendo
archivos y contando con niveles de seguridad, lo que permite que la integridad de la información
no sea violada.

Novell, basó su investigación y desarrollo en la idea de que es el Software de Red no el Hardware,


el que hace la diferencia en la operación de la red, esto se ha podido constatar.

En la actualidad Novell soporta más de 100 tipos de redes y otras casas desarrolladoras han
surgido ((Windows, Linux, Unix. Etc.).

Las tendencias actuales indican una definitiva orientación hacia la conectividad de datos.

No solo es el envío de la información de una computadora a otra, sino sobre todo en la


distribución del procesamiento a lo largo de grandes redes en la empresa, país o mundo.

Novell, fue pionero en 1986, una vez más al lanzar la tecnología de protocolo abierto que pretende
tener una arquitectura universal de conectividad bajo NetWare.

Las primeras redes permitieron la comunicación entre una computadora central y terminales
remotas.

Se usaron líneas telefónicas, (las mismas permitían un traslado rápido y económico de los datos).

Se utilizaron procedimientos y protocolos ya existentes para establecer la comunicación y se


incorporaron moduladores y demoduladores.
Una vez establecido el canal físico, fuera posible transformar las señales digitales en analógicas
adecuadas para la transmisión por medio de un modem.

PWM. a veces llamado modulación de duración del pulso (PDM) o modulación de longitud del
pulso (PLM)

PPM. La posición de un pulso de ancho constante, dentro de una ranura de tiempo prescrita

PAM. La amplitud de un pulso de longitud constante y de ancho constante

PCM. La señal analógica se prueba y se convierte a una longitud fija, número binario serial para
transmisión

Todos varían de acuerdo a la amplitud de la señal analógica.

PAM se usa como una forma intermedia de modulación, con PSK, QAM y PCM, aunque raramente
se usa sola.
PWM y PPM se usan en los sistemas de comunicación, de propósitos especiales (normalmente
para el ejército), pero raramente se usan para los sistemas comerciales.

PCM es, por mucho, el método más prevalente de modulación de pulsos.

Cuando alguien habla de electrónica digital, podemos recordar la diferencia que hay entre un bit
apagado y prendido o valores del 0 al 1.

Un horno, tiene una temperatura de varios valores, pero si hablamos de modo digital, nos
indicaría frío o caliente (aunque hoy en día la escala es más detallada).

La electrónica digital es la ciencia que involucra a componentes de baja potencia que trabajan con
valores escalonados.

Dentro de estos sistemas encontraremos circuitos integrados, donde dentro de los mismos podría
haber miles de componentes.

Las funciones lógicas más conocidas son:


Los componentes más conocidos que podemos encontrar son:
El ancestro de Internet:
ARPANET (Advanced Research Projects Agency Network)
Fue creado por la ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al
Departamento de Defensa de los Estados Unidos y se denominó ARPANET.

El plan inicial se distribuyó en 1967.

Los dispositivos necesarios para conectar ordenadores entre sí, se llamaron IMP (Procesadores de
la interfaz de mensajes), eran un potente miniordenador fabricado por Honeywell con 24 Kb de
memoria principal.

El primero se instaló en la UCLA, y posteriormente se instalaron otros en Santa Bárbara, Stanford y


Utah.

Estos nodos iniciales de la InterNet todavía siguen activos, aunque sus nombres cambiaron. Los
demás nodos que se fueron añadiendo a la red corresponden principalmente a empresas y
universidades que trabajaban con contratos de Defensa.

Fue la espina dorsal de Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP iniciada
en 1983.

Cuatro centros de investigación independientes (DARPA, la corporación RAND, el MIT y NPL en


Reino Unido) acabarían convirtiéndose en los primeros nodos experimentales de ARPANET.
Diferenciemos…

Una red de computadoras, es un conjunto de equipos conectados por medio de cables, señales,
ondas o cualquier otro método de transporte de datos, que comparten información (archivos),
recursos (CD-ROM, impresoras, etc.), servicios (acceso a internet, e-mail, chat, juegos), etc.

Una red de comunicaciones es un conjunto de medios técnicos que permiten la comunicación a


distancia entre equipos autónomos (no jerárquica -master/slave-)

Normalmente se trata de transmitir datos, audio y vídeo por ondas electromagnéticas a través de
diversos medios (aire, vacío, cable de cobre, cable de fibra óptica, etc.)

Comunicaciones Modelo OSI / TCP-IP


Para simplificar la comunicación entre aplicaciones de distintos equipos, se definió el Modelo OSI
por la ISO, el cual especifica 7 distintas capas. Cada capa desarrolla una función específica con un
alcance definido

El modelo TCP/IP es un modelo de protocolo porque describe las funciones que se producen en
cada capa de los protocolos dentro del conjunto TCP/IP

Transmission Control protocol / Internet protocol


Modelo OSI (Interconexión de sistemas abiertos)
● Es el modelo de red descriptivo creado por la Organización Internacional para la
Estandarización (ISO) en el año 1984, consta de 7 capas organizadas de manera jerárquica.

● Modelo de 7 capas (FÍSICA – ENLACE DE DATOS – RED – TRANSPORTE – SESIÓN –


PRESENTACIÓN – APLICACIÓN).

● Todas relacionadas entre sí.

● La comunicación se logra desde la más alta a la más baja, para después ir desde la más
baja hacia la más alta.

Comunicación entre 2 hosts

CAPA FÍSICA
● Es la que define las especificaciones eléctricas, mecánicas, de procedimientos y
funcionales para activar, mantener y desactivar el enlace físico.

● Ejemplos: niveles de voltaje, velocidades, distancias máximas de transmisión, conectores


físicos, cables, hubs, etc.
● El nivel físico recibe una trama binaria (BITS) que debe convertir a una señal eléctrica,
electromagnética u otra dependiendo del medio, de tal forma que a pesar de la
degradación que pueda sufrir en el medio de transmisión vuelva a ser interpretable
correctamente en el receptor.

● Esta comunicación es simplemente una interpretación de bits binarios de (0 y 1),


representados por la emanación de impulsos eléctricos (o de luz) entre los componentes.

CAPA ENLACE DE DATOS


● Provee transmisión confiable de datos a través de un enlace físico de red.

● Se encarga de manejar las identificaciones físicas de cada dispositivo de capa 1 que esté
conectado a la red y establecer los enlaces necesarios.

● Acá se definen el direccionamiento físico, topología de red, notificación de errores,


secuenciamiento de frames (Tramas) y control de flujo.

● Se subdivide en dos capas: LLC y la MAC.

LLC= Control de Acceso Lógico


MAC= Control de Acceso al Medio

● Aquí ya podemos hablar de HUBS/SWITCHES.

CAPA DE RED

● Es la que proporciona conectividad y selección de ruta entre dos sistemas de hosts que
pueden estar ubicados en redes geográficamente distintas.

● Su misión es conseguir que los datos lleguen desde el origen al destino aunque no tengan
conexión directa.

● Se ocupa de la transmisión de los datagramas (paquetes) y de encaminar cada uno en la


dirección adecuada ("Routing"), tarea esta que puede ser complicada en redes grandes
como Internet, pero no se ocupa para nada de los errores o pérdidas de paquetes.

● A diferencia de la capa 2, esta se encarga de la identificación lógica de los equipos


conectados, maneja los enlaces establecidos y es la encargada de establecer las rutas
necesarias para lograr el intercambio de paquetes entre diferentes redes.
CAPA DE TRANSPORTE
● Su función básica es aceptar los datos enviados por las capas superiores, dividirlos en
pequeñas partes si es necesario, y pasarlos a la capa de red.

● Sus protocolos son TCP y UDP, el primero orientado a conexión y el otro sin conexión.

● Esta capa se ocupa de garantizar la fiabilidad del servicio, describe la calidad y naturaleza
del envío de datos de manera transparente, confiable y eficiente.

● Cuando dos equipos establecen una comunicación entre ellos, ambas partes envían y
reciben una incontable cantidad de partes de información, reflejando la comunicación
entre sí.

● Estos paquetes deben ser fragmentados, debido al MTU.

CAPA DE SESIÓN Y PRESENTACIÓN

● En la capa de sesión se ofrece control de diálogo y sincronización.

● También se encarga de establecer, mantener y cerrar las sesiones entre equipos.

● En la capa de presentación se presentan los datos a la capa de aplicación tomando los


datos recibidos y transformándolos en formatos como texto imágenes y sonido.

● Se identifica y aplica el formato con el cual el dato es presentado desde el usuario y hacia
él.

● Si tenemos un archivo de imagen, y lo abrimos con su correspondiente programa, veremos


la interpretación del mismo correctamente como el creador lo quiso expresar.

● Sin embargo, si lo abrimos con un lector de textos, lo que veríamos seria parte del código
con que fue hecho.

CAPA DE APLICACIÓN

● Esta capa describe cómo hacen su trabajo los programas de aplicación (navegadores,
clientes de correo, terminales remotos, transferencia de ficheros etc.).

● Esta capa implementa la operación con ficheros del sistema.

● Por un lado interactúan con la capa de presentación y por otro representan la interfaz con
el usuario, entregando la información y recibiendo los comandos que dirigen la
comunicación.
● Algunos de los protocolos utilizados por los programas de esta capa son HTTP, SMTP, POP,
IMAP etc.

Traslado de la información

Aquí vemos cómo se integra la información que viaja a través de las capas
Conceptos y tipos de redes
Una parte esencial a la hora de armar una red, es la correcta elección del hardware que se
utilizará, así como el tipo y la topología de red que se desea implementar.

Existen diferentes tipos de redes, según su amplitud de cobertura.

Cada una posee diferentes características y utiliza distintos componentes para su implementación.
Red de área local o LAN, conjunto de computadoras que pueden compartir datos, aplicaciones y
recursos (por ejemplo impresoras).

Las computadoras de una red de área local (LAN, Local Area Network) están separadas por
distancias de hasta unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios.

Una LAN suele estar formada por un grupo de computadoras, pero también puede incluir
impresoras o dispositivos de almacenamiento de datos como unidades de disco duro.

Las conexiones que unen las LAN con recursos externos, como otra LAN o una base de datos
remota, se denominan puentes, enrutadores y puertas de redes (Gateway).

Las redes locales actuales pueden extenderse más allá de los límites del propio lugar de trabajo.
Es necesario que cuando un usuario se encuentre fuera de su lugar de trabajo exista alguna
posibilidad de conectar con la red local de la empresa, ya sea para consultar correo electrónico,
enviar datos o imprimir un informe en un dispositivo de la propia empresa para que lo puedan ver
otras personas de la compañía.

La red MAN (red de área metropolitana) se utiliza para interconectar diferentes edificios o
complejos que se encuentren dentro de un radio aceptable.

Es lo que muchos consideran una EXTRANET.

Una red extendida (WAN: Wide Area Network) es una red que se extiende a larga distancia.
Las redes WAN son posibles gracias al extenso cableado de líneas telefónicas, torres de
retransmisión de microondas y satélites que abarcan todo el globo terráqueo.
Tipos de Topologías
Indican la forma en que se interconectan los dispositivos de red.

Cada una cuenta con ventajas y desventajas, por lo que hay que tener cuidado y saber cuál
implementar.

Topología Mesh (malla), todos los dispositivos poseen conexiones directas hacia
el resto y los enlaces entre sí, son punto a punto (comienzan en un equipo y
terminan en otro).

Disponemos de la topología full Mesh (malla completa), en la cual están todos


conectados entre sí.
Partial Mesh (malla parcial) en la que no todos están conectados entre sí.

Topología Anillo: topología donde las estaciones se conectan formando un anillo, cada estación
está conectada a la siguiente y la última conectada a la primera, cada estación tiene un receptor y
un transmisor que hace la función de repetidor, pasando la señal (TOKEN) a la siguiente estación.

Topología Doble Anillo: Esta topología permite que los datos se envíen en ambas direcciones
aunque se utiliza un solo anillo a la vez. Esto crea redundancia, o tolerancia a fallos, lo cual
significa que en caso de un fallo en el anillo, los datos podrán transmitirse por el otro anillo.
Topología Red estrella: en una topología estrella, todos y cada uno de los nodos de la red se
conectan a un concentrador o hub.

Topología Red Bus: consiste en un cable con un terminador en cada extremo del que se "cuelgan"
todos los elementos de una red. Todos los Nodos de la Red están unidos a este cable.

Topología árbol (tree): hay equipos que se conectan a un concentrador primario y otros se
conectan a uno secundario.

Esta permite que las colisiones disminuyen y que el desempeño de la red sea eficiente

Ventajas de la topología de Bus:


· Es fácil conectar nuevos nodos a la red.
· Requiere menos cable que una topología estrella.

Desventajas de la topología de Bus:


· Toda la red se caería si hubiera una ruptura en el cable principal.
· Se requieren terminadores.
· Es difícil detectar el origen de un problema cuando toda la red "cae".
· No se debe utilizar como única solución en un gran edificio.

Ventajas de la topología de estrella:


· Gran facilidad de instalación.
· Posibilidad de desconectar elementos de red sin causar problemas.
· Facilidad para la detección de fallos y su reparación.

Desventajas de la topología de estrella:


· Requiere más cable que la topología de bus.
· Un fallo en el concentrador provoca el aislamiento de todos los nodos a él conectados.
· Se han de comprar hubs o concentradores.

También podría gustarte