Está en la página 1de 12

Unidades de

medida de
información
La mínima unidad para medir
información es el
Bit
Significa Dígito Binario.

En inglés Binary Digit.

El sistema binario trabaja con


dos dígitos: 0 y 1.
• Elcero se usa para interpretar
cuando en el circuito eléctrico no
pasa corriente.
• El uno es para cuando pasa
corriente eléctrica.
Así cuando se juntan 8 bit se
forma cualquier carácter:
letras, números, símbolos…

8 bit forman un BYTE.


Si pasamos un número con 8
dígitos
del sistema binario al sistema
decimal (usado
cotidianamente, los dígitos
del 0 al 9), el número decimal
que se obtiene tendrá tres
cifras.
Con tres dígitos decimales se forman
todos los símbolos que hay en un
teclado. A este código se lo llama
código ASCII. Se logra apretando la
tecla ALT y el número
correspondiente.
Por ejemplo:
Alt 64 forma @
Alt 92 forma \
Alt 129 forma ü…
Como estamos trabajando en sistema
binario se usan las potencias de base
2 para obtener los números.
Así, 2 elevado a 10, da como resultado
1024.

1024 Byte forman 1 Kilo Byte.


Como 1000 m forman 1 KiloMetro.
A medida que la información crece se
necesitan más medidas:
1024 KB forman 1 Mega Byte.
1 MB serían aproximadamente 1 millón
de Bytes (mega viene de millón)
1024 MB forman 1 G B
iga yte (mil
millones de Bytes)
Para tener una idea:
Un procesador que trabaja a 2 Giga Hertz,
maneja 2 mil millones de caracteres por
segundo. La velocidad de los
procesadores debe aumentar en relación
al manejo de información de los usuarios.
1024 GB forman un Tera Byte.
Si bien todavía no se maneja mucho
esta medida, ya están a la venta
algunos rígidos de un TB.
Las macro y súper
computadoras (usadas
para hacer películas, para
las bases de datos de
empresas multinacionales,
por la NASA, etc.)
necesitan unidades
mayores.
Se las designa con letras

También podría gustarte