medida de información La mínima unidad para medir información es el Bit Significa Dígito Binario.
En inglés Binary Digit.
El sistema binario trabaja con
dos dígitos: 0 y 1. • Elcero se usa para interpretar cuando en el circuito eléctrico no pasa corriente. • El uno es para cuando pasa corriente eléctrica. Así cuando se juntan 8 bit se forma cualquier carácter: letras, números, símbolos…
8 bit forman un BYTE.
Si pasamos un número con 8 dígitos del sistema binario al sistema decimal (usado cotidianamente, los dígitos del 0 al 9), el número decimal que se obtiene tendrá tres cifras. Con tres dígitos decimales se forman todos los símbolos que hay en un teclado. A este código se lo llama código ASCII. Se logra apretando la tecla ALT y el número correspondiente. Por ejemplo: Alt 64 forma @ Alt 92 forma \ Alt 129 forma ü… Como estamos trabajando en sistema binario se usan las potencias de base 2 para obtener los números. Así, 2 elevado a 10, da como resultado 1024.
1024 Byte forman 1 Kilo Byte.
Como 1000 m forman 1 KiloMetro. A medida que la información crece se necesitan más medidas: 1024 KB forman 1 Mega Byte. 1 MB serían aproximadamente 1 millón de Bytes (mega viene de millón) 1024 MB forman 1 G B iga yte (mil millones de Bytes) Para tener una idea: Un procesador que trabaja a 2 Giga Hertz, maneja 2 mil millones de caracteres por segundo. La velocidad de los procesadores debe aumentar en relación al manejo de información de los usuarios. 1024 GB forman un Tera Byte. Si bien todavía no se maneja mucho esta medida, ya están a la venta algunos rígidos de un TB. Las macro y súper computadoras (usadas para hacer películas, para las bases de datos de empresas multinacionales, por la NASA, etc.) necesitan unidades mayores. Se las designa con letras