Está en la página 1de 6

PROFESORES TÉCNICOS DE FP

SISTEMAS Y APLICACIONES INFORMÁTICAS


TEMA 1: REPRESENTACIÓN Y COMUNICACIÓN DE LA INFORMACIÓN

1. INTRODUCCIÓN

1.1. INFORMACIÓN
Se define la información como un conjunto organizado de datos procesados que constituyen un mensaje que
cambia el estado de conocimiento de la persona o el sistema que lo recibe.

Únicamente podemos hablar de información cuando se produce un proceso de comunicación de la misma, esto
es, los datos almacenados en cualquier sistema sólo proporcionan verdadera información cuando son
transferidos al receptor adecuado. De este modo, se puede concluir que la información depende en gran
medida del estado del receptor.

1.2. ESTRUCTURA DE UN SISTEMA ELEMENTAL DE INFORMACIÓN


Los elementos que intervienen en un proceso de comunicación son los siguientes:

 EMISOR: es aquél que genera el mensaje y transmite la información (puede ser un individuo, un grupo
o una máquina)
 RECEPTOR: es aquél que de forma individual o colectiva, recibe la información y la interpreta según su
estado.
 MENSAJE: es la propia información transmitida por el emisor
 CANAL: es el elemento físico por el cual el emisor transmite la información
 CÓDIGO: conjunto de signos y reglas empleados para construir el mensaje y que emisor y receptor
deben conocer. En el tema que nos ocupa, podemos especificar aún más:
o Alfabeto Fuente: conjunto de signos utilizados por el EMISOR (fuente)
o Alfabeto Imagen: agrupaciones de símbolos como 0 y 1 (palabras de código) que utilizamos
para representar el alfabeto fuente.
o Código: relación normalizada entre el alfabeto fuente y el alfabeto imagen. Ejemplo: ASCII
 SITUACIÓN Y CONTEXTO: se refieren al conjunto de circunstancias temporales, espaciales y
socioculturales en el que se produce la transmisión del mensaje
PROFESORES TÉCNICOS DE FP
SISTEMAS Y APLICACIONES INFORMÁTICAS
2. TEORÍA MATEMÁTICA DE LA INFORMACIÓN

2.1. RESERVA ELEMENTAL DE UN CÓDIGO


Si un emisor puede transmitir m símbolos distintos, necesariamente debe de utilizar un código con al menos m
palabras de código. Se Reserva Elemental de un Código al número mínimo de palabras que ha de tener:
RE  Reserva Elemental
n  número de valores distintos (1,0)
e  número de símbolos que conforman cada palabra de código

2.2. CÓDIGOS CON CARACTERES EQUIPROBABLES

Todos los símbolos tienen la misma probabilidad de aparecer en una palabra de código.
Todas las palabras de código tienen la misma longitud

 Poder de Decisión: es el número de decisiones necesarias para identificar un elemento del conjunto
origen (se corresponde con la longitud de palabra)
PD  Poder de Decisión
RE  Reserva Elemental

 Rendimiento y Redundancia en la Codificación: es el exceso de poder de decisión del alfabeto fuente


sobre el necesario para poder representar dicho alfabeto:
η  Rendimiento
PDF  Poder de Decisión del alfabeto fuente
PDC  Poder de Decisión del alfabeto código

RC  Redundancia en la Codificación
η  Rendimiento

2.3. CÓDIGOS CON CARACTERES NO EQUIPROBABLES


En este tipo de códigos, no todos los elementos del alfabeto origen tienen la misma probabilidad de aparecer
en el mensaje a codificar. Adicionalmente, no todas las palabras del código tienen la misma longitud:

 Contenido de Información: nos indica el número de bits necesarios para codificar un valor fi con el
objetivo de minimizar las decisiones binarias que ha de tomar el receptor para su identificación:
CI  Contenido de Información
π  Probabilidad para el símbolo fi

 Entropía: se calcula como la media del Contenido de Información para cada uno de los m símbolos
fuente fi con una probabilidad Pi

H(F)  Entropía
∑ πi  Probabilidad de que ocurra el símbolo fi
CI(fi)  Contenido de Información para el símbolo fi

 Rendimiento y Redundancia en la Codificación:


H(F)  Entropía
L  Longitud de palabra en códigos con palabras de igual longitud
(poder de decisión)
PROFESORES TÉCNICOS DE FP
SISTEMAS Y APLICACIONES INFORMÁTICAS
L  Longitud de palabra en códigos con palabras de distinta longitud
∑ li  Longitud de la palabra i
πi  Probabilidad de que ocurra la palabra i

RC  Redundancia en la Codificación
η  Rendimiento

3. CODIFICACIÓN DE LA INFORMACIÓN

3.1. INTRODUCCIÓN AL CONCEPTO DE CÓDIGO Y CLASIFICACIÓN


Llamamos código al conjunto de condiciones y convenios que permiten transformar la información de una
representación concreta a otra.

Todo código está compuesto por:

 Un conjunto de reglas y convenios de transformación del alfabeto fuente


 Un nuevo alfabeto que sustituirá al alfabeto fuente.
Un buen código debería tener las siguientes características deseables:

1. Eficaz
2. Inequívoco
3. Completo
4. Resistente al ruido

Los códigos se pueden clasificar en función de los siguientes aspectos:

 Longitud fija o longitud variable


 Con o sin detección y corrección de errores
 Sistemáticos (algoritmo reversible) o no sistemáticos (tabla de correspondencia)

3.2. CÓDIGOS DE LONGITUD VARIABLE


Son aquéllos en los que la longitud de palabra no es constante y puede variar de unas palabras a otras. Su
principal inconveniente es la necesidad de habilitar un procedimiento que nos permita separar una palabra de
otra para lo cual se requiere que se cumplan las siguientes propiedades:

 Código Bloque: a cada uno de los símbolos del alfabeto fuente (AF) hay que asignarle una secuencia
fija de símbolos del alfabeto código (AC).
 No singular: todas las palabras del alfabeto código (AC) deben ser distintas.
 Unívocamente Descodificable: a cualquier secuencia de longitud finita de signos fuente le ha de
corresponder una secuencia de palabras código única e irrepetible con otra secuencia de signos.
 Código Instantáneo: debe ser posible descodificar las palabras de una secuencia sin conocer los
símbolos que le suceden.
Dado un grupo de longitudes de palabra (L1, L2, L3… Lm) la inecuación de KRAFT expresa la condición
necesaria y suficiente para que se pueda construir un código instantáneo:

∑ n  número de símbolos diferentes en el alfabeto código


m  cardinal del alfabeto fuente
PROFESORES TÉCNICOS DE FP
SISTEMAS Y APLICACIONES INFORMÁTICAS
3.3. CÓDIGOS NORMALIZADOS
En función de las características principales del mensaje que queremos codificar podemos encontrar distintos
códigos ampliamente utilizados para su representación:

3.3.1. REPRESENTACIÓN DE DATOS NUMÉRICOS


 Los DATOS DE TIPO ENTERO se suelen representar de dos maneras distintas:
o SIGNO + MAGNITUD (el primer bit determina el signo y el resto la magnitud)
o COMPLEMENTO a 1 ó COMPLEMENTO a 2 (si el primer bit es un 1 el número es negativo y el
resto representan el valor del complemento)
 Los DATOS DE TIPO REAL se representan haciendo uso de la notación científica, diferenciando los
distintos elementos
o MANTISA
o BASE
o EXPONENTE

3.3.2 REPRESENTACIÓN DE TEXTOS


Los mensajes de tipo texto están formados por caracteres de distintos tipos: alfanuméricos, especiales y de
control.

Para su representación tradicionalmente se han utilizado los siguientes códigos normalizados:

1. EBCDIC – Extended Binary Coded Decimal Interchange Code: utiliza 8 bits para cada carácter
2. ASCII – American Standard Code for Information Interchande: utiliza 7 bits + 1 de paridad y dispone
de ampliaciones con caracteres especiales para las distintas áreas geográficas (e.g. ISO8859-1 latin 1)
3. UNICODE: utiliza 16 bits y se creó con el objetivo de dar universalidad y uniformidad al tratamiento de
textos. El problema del código ASCII era precisamente la falta de uniformidad y que estaba basado
para dar soporte a lenguajes basados en caracteres latinos.

3.3.3. REPRESENTACIÓN DE SONIDOS


Los sistemas informáticos captan el sonido a través de una señal analógica que puede tomar diversos valores
dentro de un intervalo continuo determinado.

Para codificar este tipo de mensajes, se utiliza un conversor (Analógico / Digital) que se encarga de muestrear
(tomar valores a determinados intervalos de tiempo) y digitalizar dicha señal.

Los principales parámetros a tener en cuenta son la frecuencia de muestreo y el número de bits usados para
codificar cada muestra.

3.3.4. REPRESENTACIÓN DE IMÁGENES


Las imágenes se adquieren mediante periféricos específicos (cámara, escáner) y se suelen representar de dos
modos diferenciados:

 Imágenes de Mapas de bits (ráster): se divide la imagen original en una cuadrícula de puntos (píxeles)
cada uno de los cuales se codifica mediante un conjunto de bits que describen su color (RGB) y
adicionalmente su luminosidad (RGBA).
 Imágenes Vectoriales: la imagen original se conforma a través de la unión de un conjunto de
entidades geométricas (círculos, rectángulos, segmentos…) que son representadas a través de
fórmulas matemáticas.
PROFESORES TÉCNICOS DE FP
SISTEMAS Y APLICACIONES INFORMÁTICAS
4. CODIFICACIÓN EN PRESENCIA DE RUIDO

4.1. EL RUIDO Y SUS EFECTOS


El ruido es un elemento degradante del proceso de comunicación que produce errores en la información.

TASA DE ERROR TASA DE ERROR RESIDUAL

4.2. ESTRATEGIAS DE CODIFICACIÓN PARA LA PROTECCIÓN


Para contrarrestar la presencia del ruido y sus efectos en las comunicaciones se han desarrollado distintos
sistemas para la detección y, en su caso, corrección de errores en la comunicación.

La mayoría de estos sistemas se basan en la redundancia de información de tal manera que a los bits
necesarios para codificar el mensaje fuente se añaden varios bits de control.

A la hora de desarrollar estos sistemas es necesario procurar un cierto equilibrio entre la capacidad de
detección / corrección, la velocidad, la complejidad y el coste de los mismos.

4.3. DISTANCIA DE HAMMING


Llamamos distancia de hamming al número de caracteres en que difieren dos palabras válidas. De modo que
cuanto mayor sea esta distancia, más difíciles será confundir un mensaje por efecto del ruido.
La eficacia de un código de detección / corrección de errores depende de la Distancia de Hamming Mínima:

DISTANCIA MÍNIMA DE DETECCIÓN DISTANCIA MÍNIMA DE CORRECCIÓN

DMD = p + 1 DMC = (2 * p) + 1

p = número de bits de paridad

4.4. COMPROBACIÓN DE PARIDAD


La comprobación de la paridad consiste en añadir un bit denominado bit de paridad que indica si el número
total de bits con valor a 1 en los datos que lo preceden es par o impar:

 Si el bit de paridad vale 1: indica que hay un número impar de 1s en los datos que lo preceden
 Si el bit de paridad vale 0: indica que hay un número par de 1s en los datos que lo preceden
El principal problema de este método reside en que resulta incapaz de detectar un número par de errores, ni
tampoco la posición de cada uno de ellos. Por este motivo se suele utilizar una comprobación de paridad por
bloques o bidimensional que consiste en componer un matriz con los datos y completar cada fila y cada
columna con bits de paridad. Este método tienen una distancia mínima de 3 por lo que permite detectar y
corregir errores más complejos.

4.5. CÓDIGOS CÍCLICOS


Este tipo de sistemas se basan en incorporar como bits de control el resultado de un algoritmo matemático
basado en la función módulo. Algunos ejemplos de este tipo de códigos son: CRC-12, CRC-16 o el CRC-32
PROFESORES TÉCNICOS DE FP
SISTEMAS Y APLICACIONES INFORMÁTICAS
4.6. CÓDIGOS DE HAMMING
Son un tipo de códigos de control de paridad que intercalan los dígitos de paridad entre los bits de la palabra
de tal manera que permiten identificar los bits erróneos así como su posición. Su distancia mínima es de 3 bits.

5. TRATAMIENTO AUTOMÁTICO DE LA INFORMACIÓN

5.1 DEFINICIÓN Y FUNCIONES BÁSICAS


El Tratamiento Automático de la Información se refiere al conjunto de procedimientos automatizados de
recogida, elaboración, evaluación, almacenamiento, recuperación, condensación y distribución de
informaciones dentro de una organización.

Podemos distinguir las siguientes funciones básicas:

 Entrada de datos
 Almacenamiento de datos
 Cálculo
 Presentación de la Información
 Comunicacione

5.2. SISTEMA INFORMÁTICO


Según la ISO, un sistema informático es aquél que está compuesto por equipos físicos, lógicos y de personal
que realiza las funciones de entrada, proceso, almacenamiento, salida y control con el fin de llevar a cabo una
secuencia de operaciones con los datos.

Todo sistema informático está compuesto por los siguientes subsistemas:

 Subsistema físico
 Subsistema lógico

5.3. TENDENCIAS ACTUALES


A continuación se muestran las principales tendencias en el Tratamiento Automático de la Información:

1. Sistemas Abiertos: son especificaciones que han sido establecidas por organismos de normalización o
con un alto grado de aceptabilidad. Suelen estar disponibles sin coste, ya que no son propiedad de
ningún proveedor único. Sus principales ventajas residen en que su uso supone una mayor
interoperabilidad, portabilidad y escalabilidad.
2. Informática Distribuida: consiste en la combinación de diferentes componentes (físicos o lógicos) que
a pesar de hallarse en varios sistemas, se ejecutan como si fueran uno sólo. Ejemplos: los Sistemas
Operativos en Red o las Bases de Datos Distribuidas. Sus principales ventajas son la seguridad y la
integridad de los datos que manejan.
3. Tratamiento de la Información Orientado a Objetos: se basan en la generación de componentes
reutilizables. Ejemplos: Bases de Datos Orientadas a Objetos, Gestión Distribuida de Objetos (CORBA)

BIBLIOGRAFÍA

Alberto Prieto Alfonso Ureña López Varios Autores


Introducción a la Informática Fundamentos de Informática Wikipedia
Mc Graw-Hill, 1997 Ra-ma, 1997 https://es.wikipedia.org

También podría gustarte