Está en la página 1de 2

Unidades de medida de la información.

Las unidades de medida de la información son aquellas unidades de medición que permiten
determinar cuánto espacio hay disponible en una unidad de memoria.

Se le llama unidad de medida de la información al registro del espacio que hay en un


dispositivo dado para grabar datos e información de manera permanente o temporal. También
se puede decir que una unidad de medida de la información es aquella práctica que se realiza
con el interés de optimizar el rendimiento y aprovechar todo el espacio que existe dentro de
una unidad.

TIPOS DE UNIDADES DE MEDIDA DE LA INFORMACIÓN:

– El bit o dígito binario: un bit es la unidad de información más pequeña que el procesador
manipula y físicamente se representa con un elemento como un pulso o un punto. Ocho bits
constituyen un byte.

– El byte o unidad de almacenamiento: cuenta con 8 bits. Equivale a un sólo carácter, como
una letra o un número.

– El kilobyte (kB): equivale a 1.024 bytes y a menudo es la unidad en la que se registra el


almacenamiento de archivos pequeños como documentos de texto o imágenes en baja
resolución.

– El megabyte (MB): equivale a más de un millón de bytes, y comúnmente archivos de tamaño


considerable se almacenan en esta unidad. Por ejemplo, imágenes en alta resolución, archivos,
carpetas, documentos y hasta programas.

– El gigabyte (GB): equivale a mil millones de bytes. Es la unidad que más típicamente se
maneja hoy en día, y los ordenadores más comunes proveen de un espacio de más de 100 GB
para memoria. Los archivos de todo un ordenador de tamaño considerable se miden en GB.

– El terabyte (TB): equivale a 1024 Gigabytes y es una medida que se utiliza para referir a
ordenadores de alta complejidad.

¿Qué es el código ASCII?

ASCII es un estándar para la representación de caracteres en dispositivos electrónicos. Para


entender lo que significa es necesario conocer cómo funciona un ordenador: en él los procesos
de cálculo se basan siempre en el sistema binario, lo que significa que ceros y unos determinan
las operaciones. Por ello, ASCII se erige sobre este sistema. El estándar ASCII original define
diversos caracteres en siete bits, es decir, siete posiciones que muestran 0 o 1. El octavo bit,
que pertenece a un byte completo, se utiliza normalmente para los análisis. Las versiones
ampliadas basadas en el American Standard Code for Information Interchange emplean dicho
bit para incrementar los caracteres existentes a 256 (28).

Así, a cada carácter le corresponde una secuencia de 7 cifras formada por ceros y unos, que
pueden aparecer como números decimales o hexadecimales.

Los caracteres ASCII se reparten en varios grupos:

 Caracteres de control (0–31 & 127): los caracteres de control no son caracteres
imprimibles. Estos transmiten comandos al PC o a la impresora y se basan en técnicas
de teletipo. Con ellos también se pueden colocar saltos de línea o tabuladores, aunque
muchos apenas se utilizan en la actualidad.
 Caracteres especiales (32–47 / 58–64 / 91–96 / 123–126): estos comprenden todos los
imprimibles que no son ni letras ni números, como, por ejemplo, los signos de
puntuación o los símbolos matemáticos. También se incluye el espacio en blanco, que
es considerado como carácter imprimible pero no visible y, por lo tanto, no pertenece
a los caracteres de control como se podría suponer.
 Números (30–39): los números engloban las diez cifras árabes del cero al nueve.
 Letras (65–90 / 97–122): las letras se dividen en dos bloques, el primero para las
mayúsculas y el segundo para las minúsculas.

Errores presentes en la transmisión de datos

Básicamente, las técnicas de detección y corrección de errores se engloban en uno de los dos
métodos siguientes:

 Petición automática de repetición (ARQ, Automatic Repeat Request), que consiste en


pedir al transmisor que vuelva a enviar la información si se ha detectado algún error.
 Corrección avanzada del error (FEC, Forward Error Correction), consistente en
corregir, desde el propio receptor, los errores que se vayan detectando, sin
necesidad de que el emisor vuelva a enviar la misma información.

Es importante destacar que no existe ningún método FEC capaz de detectar y corregir el 100%
de los errores, por lo que siempre se suelen emplear en combinación con el ARQ, de manera
que la cantidad de retransmisiones se reduzca a una cifra razonable y se garantice la total
integridad de los datos.

También podría gustarte