Está en la página 1de 11

TECNOLÓGICO NACIONAL DE

MÉXICO
Instituto Tecnológico de Tuxtla Gutiérrez
Extensión Venustiano Carranza Chis.

INGENIERIA EN SISTEMAS COMPUTACIONALES

MATERIA:

FUNDAMENTOS DE TELECOMUNICACIONES

TRABAJO:

INVESTIGACIÓN UNIDAD 5

PRESENTA:

DOMÍNGUEZ PÉREZ HERMILO

PROFESOR:

ING. ORLANDO DE JESÚS DOMÍNGUEZ TORRES

Venustiano Carranza, Chiapas, México; 06 de diciembre del 2019.


5.1 INTRODUCCIÓN AL MODELO OSI
La comunicación entre sistemas es un proceso complejo que abarca diferentes
etapas, desde la codificación eléctrica de los datos hasta la coordinación lógica de
todo el intercambio de información, además de muchas otras gestiones como el
control de errores, la gestión de topologías de red complejas, etc.
Históricamente, todos estos aspectos eran llevados a cabo por cada fabricante, por
lo que, a medida que las redes se fueron haciendo más complejas, sucedían dos
cosas:
 La complejidad de implementación aumentaba al pretender abarcar todo el
problema de la comunicación como un todo global
 Las soluciones de los diferentes fabricantes eran incompatibles entre sí
Para hacer frente a esta problemática, la organización ISO propuso en los años
1970 el modelo OSI (Open Systems Interconnection), un modelo de referencia
común, que estableciese una serie de reglas comunes que facilitasen la
compartimentación de las tareas y estandarizasen las implementaciones,
proporcionando conectividad entre sistemas independientemente de su tecnología
subyacente. Así, el modelo OSI es una descripción abstracta de referencia para
describir la comunicación entre sistemas. Para ello, divide las tareas de conexión
en 7 niveles o capas, ordenados según el nivel de abstracción:
Una capa es una colección de funciones conceptualmente similares que provee de
servicios a la capa inmediatamente superior, mientras que a su vez utiliza los
servicios de capas inferiores. La capa superior es la más cercana al usuario,
mientras que la inferior es la más próxima al medio físico. Los servicios de cada
capa son implementados por los diferentes protocolos. El modelo OSI cumple tres
propiedades:

 La funcionalidad (protocolos) se agrupa en capas jerárquicas

 Cada capa se comunica únicamente con las inmediatamente superior e


inferior

 Existe una simetría entre las capas de los diferentes sistemas


Si bien el modelo OSI nunca ha llegado a implementarse por completo, se ha
establecido como referencia para comparar otros modelos como SNA o TCP/IP. La
especificación OSI tiene dos componentes:

 El modelo de referencia: El modelo en sí, donde se establece el sistema de


niveles, primitivas y protocolos, así como las funciones de cada nivel.

 Un conjunto de protocolos de referencia que implementan las funciones de


cada capa. No obstante, el modelo no obliga a utilizar estos protocolos, y
permite el uso de cualquier otro que respete las normas del modelo.
La unidad de información en OSI es la PDU (Protocol Data Unit), que representaría
el paquete de datos a enviar durante una comunicación. Cada nivel tendría su propio
formato de PDU en función de sus necesidades, y así el formato de PDU de una
capa será el de la capa inmediatamente superior, con la información extra que
pueda ser necesaria a ese nivel. En el extremo receptor, el proceso será inverso, y
así se irá eliminando información según sube la PDU entre los niveles, hasta llegar
al nivel superior. La comunicación entre capas se hace mediante un interfaz de
operaciones llamadas primitivas. Cada capa dispone de sus primitivas, y el conjunto
de primitivas que implementa una capa se conoce como SAP (Service Access
Point).
5.2 PROTOCOLOS Y ESTÁNDARES.
En el campo de las telecomunicaciones, un protocolo de comunicaciones es el
conjunto de reglas normalizadas para la representación, señalización, autenticación
y detección de errores necesario para enviar información a través de un canal de
comunicación.
Un ejemplo de un protocolo de comunicaciones simple adaptado a la comunicación
por voz es el caso de un locutor de radio hablando a sus radioyentes. Los protocolos
de comunicación para la comunicación digital por redes de computadoras tienen
características destinadas a asegurar un intercambio de datos fiable a través de un
canal de comunicación imperfecto.
Los protocolos de comunicación siguen ciertas reglas para que el sistema funcione
apropiadamente
 Sintaxis: se especifica como son y cómo se construyen.
 Semántica: que significa cada comando o respuesta del protocolo respecto a
sus parámetros/datos.
 Procedimientos de uso de esos mensajes: es lo que hay que programar
realmente (los errores, como tratarlos).
ESTÁNDARES
ORGANISMO DE ESTANDARIZACIÓN
Todos conocen a las famosas normas ISO, o las ha sentido nombrar en alguna
oportunidad. Es el mayor desarrollador y editor de Normas Internacionales. Es una
red de los organismos nacionales de normalización
de 157 países, un miembro por país, con una
Secretaría Central en Ginebra, Suiza, que coordina el
sistema. Su función es promover el desarrollo de
normas internacionales de fabricación, comercio y
comunicación para todas las ramas industriales a
excepción de la eléctrica y la electrónica.
La IEEE Fundada en 1884, la IEEE es una sociedad
establecida en los Estados Unidos que desarrolla
estándares para las industrias eléctricas y
electrónicas, particularmente en el área de redes de datos. Los profesionales de
redes están particularmente interesados en el trabajo de los comités 802 de la IEEE.
El comité 802 (80 porque fue fundado en el año de 1980 y 2 porque fue en el mes
de febrero) enfoca sus esfuerzos en desarrollar protocolos de estándares para la
interface física de la conexiones de las redes locales de datos, las cuales funcionan
en la capa física y enlace de datos del modelo de referencia OSI. Estas
especificaciones definen la manera en que se establecen las conexiones de datos
entre los dispositivos de red, su control y terminación, así como las conexiones
físicas como cableado y conectores.

La ITU es el organismo oficial más importante en


materia de estándares en telecomunicaciones y está
integrado por tres sectores o comités: el primero de
ellos es la ITU-T (antes conocido como CCITT, Comité
Consultivo Internacional de Telegrafía y Telefonía),
cuya función principal es desarrollar bosquejos
técnicos y estándares para telefonía, telegrafía,
interfaces, redes y otros aspectos de las
telecomunicaciones. La ITU-T envía sus bosquejos a la ITU y ésta se encarga de
aceptar o rechazar los estándares propuestos. El segundo comité es la ITU-R (antes
conocido como CCIR, Comité Consultivo Internacional de Radiocomunicaciones),
encargado de la promulgación de estándares de comunicaciones que utilizan el
espectro electromagnético, como la radio, televisión UHF/VHF, comunicaciones por
satélite, microondas, etc. El tercer comité ITU-D, es el sector de desarrollo,
encargado de la organización, coordinación técnica y actividades de asistencia.
5.3 CARACTERÍSTICAS FUNCIONALES DE LOS DISPOSITIVOS.

El propósito principal de los medios de comunicación es, precisamente, comunicar,


pero según su tipo de ideología pueden especializarse en: informar, educar,
transmitir, entretener, formar opinión, enseñar, controlar etc.
POSITIVAS:
Las características positivas de los medios de comunicación residen en que
posibilitan que amplios contenidos de información lleguen a extendidos lugares del
planeta en forma inmediata. Los medios de comunicación, de igual manera, hacen
posible que muchas relaciones personales se mantengan unidas o, por lo menos,
no desaparezcan por completo. Otro factor positivo se da en el ámbito económico:
quien posea el uso de los medios puede generar su propia demanda, ya que los
medios muchas veces cumplen la función de formadores de opinión. Entonces, visto
desde el ámbito empresarial, es un aspecto ampliamente positivo al hacer posible
el marketing y anuncios para el mundo.
NEGATIVAS:
Las características negativas recaen en la manipulación de la información y el uso
de la misma para intereses propios de un grupo específico. En muchos casos, tiende
a formar estereotipos, seguidos por muchas personas gracias al alcance que
adquiere el mensaje en su difusión (como sucede al generalizar personas o grupos).
Toda implementación de una red de comunicaciones de datos involucra una filosofía
de diseño y un conjunto de componentes físicos que materializan esta filosofía.
TERMINALES:
Son lugares donde se conecta un sistema central de procesamiento. Se hace
referencia a dos formas de conectar un sistema central con una o varias terminales
o sistemas secundarios: punto a punto o multipunto.
PUNTO A PUNTO:

Cuando un enlace físico une sólo dos puntas de transmisión de datos, desde
donde por lo general, tanto se pueden enviar como recibir.
ADAPTADORES DE COMUNICACIÓN:
El adaptador de comunicaciones es un elemento que conceptualmente existe en
cada extremo de cada cable de comunicaciones. Normalmente son 2 piezas de
hardware independientes-tarjetas de circuitos impresos, aunque pueden venir
integrados en el dispositivo. Su modularidad es una condición deseable porque
proporciona mayor flexibilidad de configuración al equipo que los contiene.
En salida su función principal es preparar los datos para su transmisión a través de
la línea serializándolos, insertando caracteres de control en el mensaje, permitiendo
la sincronización, respondiendo a los comandos de control. En la mayoría de los
casos maneja la detección de errores y corrección y el encuadre de datos dentro de
un bloque transmitible.
Originalmente los adaptadores venían en modelos especiales para cada disciplina
de comunicaciones utilizadas. Actualmente los adaptadores son pequeños
computadores implementados en una tarjeta de circuitos, que tienen gran
inteligencia residente.
El uso de mensajes más cortos implicaría una pérdida de información en el receptor,
que en muchos caos no sería admisible. Entonces la solución consistió en acortar
la forma de representar los datos, sin sacrificar contenido. Así es como nacen los
COMPRESORES/DESCOMPRESORES DE DATOS (CODES).
Un codes consiste en un dispositivo capaz de analizar una secuencia de caracteres,
estudiar su distribución, frecuencia e interrelaciones y producir finalmente una
secuencia de bits de menor longitud que transporte la información original, con total
garantía de reversibilidad fidedigna del proceso. De lo anterior se deduce que los
codes trabajan en pares por cada línea de comunicación.
Los codes más modernos utilizan algoritmos muy sofisticados que analizan grandes
bloques de datos para estudiarlos y lograr mayor comprensión.
5.4 ESTÁNDARES DE INTERFACES.
En telecomunicaciones y hardware, una interfaz es el puerto (circuito físico) a través
del que se envían o reciben señales desde un sistema o subsistemas hacia otros.
No existe una interfaz universal, sino que existen diferentes estándares (Interfaz
USB, interfaz SCSI, etc.) que establecen especificaciones técnicas concretas
(características comunes), con lo que la interconexión sólo es posible utilizando la
misma interfaz en origen y destino. Así también, una interfaz puede ser definida
como un intérprete de condiciones externas al sistema, a través de transductores y
otros dispositivos, que permite una comunicación con actores externos, como
personas u otros sistemas, a través de un protocolo común a ambos. Una interfaz
es una Conexión física y funcional entre dos aparatos o sistemas independientes.
La interfaz de E/S es requerida cuando los dispositivos son ejecutados por el
procesador. La interfaz debe ser necesariamente lógica para interpretar la dirección
de los dispositivos generados por el procesador. El Handshaking deberá ser
implementado por la interfaz usando los comandos adecuados (BUSY, READY,
WAIT…), y el procesador puede comunicarse con el dispositivo de E/S a través de
la interfaz. Un ordenador que usa E/S mapeados en memoria por lectura y escritura
accede al hardware a través de la posición de memoria específica, usando el mismo
lenguaje ensamblador que el procesador usa para el acceso a memoria.
Implementación de interfaces a alto nivel
Los sistemas operativos y lenguajes de programación de alto nivel facilitan el uso
separado de más conceptos y primitivas abstractas de E/S. Por Ejemplo: la mayoría
de sistemas operativos proporcionan aplicaciones con el concepto de fichero. Los
lenguajes de programación C y C++, y los sistemas operativos de la familia UNIX,
tradicionalmente abstraen ficheros y dispositivos como streams, los cuales pueden
ser leídos o escritos, o ambas cosas. La librería estándar de C proporciona
funciones para la manipulación de streams para E/S.
Aplicaciones De La Interfaz (Controlador de periférico).
6.4. Mecanismos de detección y corrección de errores
Las redes de computadores deben ser capaces de transmitir datos de un dispositivo
a otro con cierto nivel de precisión. Para muchas aplicaciones, el sistema debe
garantizar que los datos recibidos son iguales a los trasmitidos. Sin embargo,
siempre que una señal electromagnética fluye de un punto a otro, está sujeta a
interferencias impredecibles debido al calor, el magnetismo y diversas formas de
electricidad. Esta interferencia puede cambiar la forma o la temporización de la
señal. Si la señal transporta datos binarios codificados, tales cambios pueden alterar
su significado.
Las aplicaciones requieren entonces un mecanismo que permita detectar y corregir
los posibles errores ocurridos durante la transmisión. Algunas aplicaciones tienen
cierta tolerancia de errores (ej. transmisión de audio/video),
mientras que para otras aplicaciones se espera un alto nivel de precisión (ej.
transmisión de archivos).
Tipos de Errores
Antes de estudiar los mecanismos que permiten la detección y/o corrección
de errores, es importante entender cuáles son esos posibles errores.
Error de Bit
Este término significa que únicamente un bit de una unidad de datos determinada
(byte, caracter, paquete, etc.) cambia de 0 a 1 o de 1 a 0 [1][2]. Para comprender el
impacto de este cambio, podemos imaginar que cada grupo de 8 bits es un caracter
ASCII con un 0 añadido a la izquierda. Un error de bit podría alterar completamente
el caracter ASCII enviado (ej. ‘A’: ASCII 65) y en el receptor se obtendría un caracter
completamente diferente (ej. ‘I’: ASCII 73).
Error de Ráfaga
Significa que dos o más bits de la unidad de datos han sido alterados. Es importante
notar que los errores de ráfaga no implican que se afecten bits consecutivos. La
longitud de la ráfaga se mide desde el primer hasta el último bit incorrecto
Redundancia
Una vez que se conocen los tipos de errores que pueden existir, es necesario
identificarlos. En un entorno de comunicación de datos no se tendrá una copia de
los datos originales que permita comparar los datos recibidos para detectar si hubo
errores en la transmisión. En este caso, no habrá forma de detectar si ocurrió un
error hasta que se haya decodificado la transmisión y se vea que no tienen sentido
los datos recibidos. Si los computadores comprobaran errores de esta forma, sería
un proceso muy lento y costoso. Es necesario un mecanismo que sea sencillo
y completamente efectivo.
Detección vs. Corrección
La corrección de errores es más difícil que la detección. En la detección sólo se
quiere determinar si ha ocurrido un error, existiendo dos posibles respuestas: sí o
no. La corrección como tal es sencilla, consiste tan solo en invertir los valores de los
bits erróneos; sin embargo, es necesario previamente determinar la cantidad de bits
erróneos, y aún más importante la ubicación de los mismos dentro de la unidad de
datos.
La corrección de errores se puede conseguir de dos formas. En la primera, cuando
se descubre un error, el receptor puede pedir al emisor que retransmita toda la
unidad de datos (BEC, Backwards Error Correction). Con la segunda, el receptor
puede usar un código corrector de errores, que corrija automáticamente
determinados errores (FEC, Forward Error Correction).
En teoría, es posible corregir cualquier error automáticamente en un código binario.
Sin embargo, los códigos correctores son más sofisticados que los códigos
detectores y necesitan más bits de redundancia. El número de bits necesarios para
corregir un error de ráfaga es tan alto que en la mayoría de los casos su uso no
resulta eficiente.
FEC (Forward Error Correction) vs. Retransmisión
Como se mencionó previamente, existen dos mecanismos para la corrección de
errores:
1. FEC: Forward Error Correction.
2. BEC: Backwards Error Correction.
FEC es el proceso en el que una vez detectado el error, el receptor trata de
determinar el mensaje original, usando los bits de redundancia. Para esto es
necesario incluir una mayor cantidad de bits de redundancia en la unidad de datos.
BEC o retransmisión es la técnica en la que el receptor detecta la ocurrencia del
error y solicita al emisor que reenvíe el mensaje. Se repite la retransmisión del
mensaje hasta que el receptor compruebe que el mensaje ha llegado sin error (es
posible que un error no sea detectado y el mensaje sea interpretado como correcto)
Cada una de estas técnicas ocupa su nicho diferente. En enlaces altamente
confiables es más económico usar técnicas BEC, retransmitiendo los mensajes
defectuosos que surjan eventualmente,
sin necesidad de agregar una gran cantidad de bits de redundancia, lo que
acarrearía una disminución de las prestaciones. Sin embargo, en enlaces poco
confiables como los inalámbricos, puede resultar beneficioso agregar la
redundancia suficiente a cada mensaje para que el receptor pueda reconstruir el
mensaje original. Existen dos razones primordiales que sustentan el uso de las
técnicas FEC:
1. La tasa de errores por bit en un enlace poco confiable puede ser muy grande,
lo que resultará en un gran número de retransmisiones.
2. En algunos casos, el tiempo de propagación es muy elevado en comparación
con el tiempo de transmisión.
Códigos de bloque
Para entender la manera en que pueden manejarse los errores, es necesario
estudiar de cerca cómo se codifican los datos. Por lo general, una unidad de datos
(generalmente llamada en este ambiente trama) consiste de m bits de datos y r bits
redundantes usados para la verificación, siendo la longitud total de una trama n (n
= m + r). A la unidad de n bits que contienen datos y bits de redundancia se le
conoce como palabra codificada. La cantidad de bits de redundancia y la
robusteewz del proceso son factores importantes del esquema de codificación
Corrección de errores con códigos de bloque
En el caso discutido previamente (detección de errores), el receptor sólo necesita
saber que la palabra codificada es inválida para detectar un error. En la corrección
de errores, el receptor deberá descubrir la palabra codificada originalmente
enviada. La idea principal es la misma que la empleada en la detección de
errores, pero el verificador es mucho más complejo.

También podría gustarte