Documentos de Académico
Documentos de Profesional
Documentos de Cultura
COMPUTADORES
bit (b)
Es una síntesis de dos términos en inglés: Binary digit, que en español significan dígito
binario, o lo que es lo mismo, número (dígito) con dos posibles valores (binario). El
término surge de usar las dos primeras letras de Binary con la última de digit.: bit.
El bit, es un dígito del sistema binario. Mientras que el sistema decimal utiliza diez
dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8 y 9), el sistema binario usa sólo dos (0 y 1). Un bit, por lo
tanto, puede representar a uno de estos dos valores (0 ó 1).
Si un bit permite representar dos valores (0 y 1), dos bits posibilitan codificar cuatro
combinaciones: 0 0, 0 1, 1 0 y 1 1. Cada una de estas cuatro combinaciones, por su
parte, permite representar cuatro valores diferentes. Palabras, imágenes y números
pueden representarse mediante secuencias de bits.
Byte (B)
Un Byte es una unidad de información compuesta por una secuencia de bits
contiguos. El diccionario de la Real Academia Española señala que byte es sinónimo
de octeto (una unidad de información de ocho bits); sin embargo, el tamaño del byte
(que proviene del inglés bite, “mordisco”) depende del código de caracteres en el que
ha sido definido.
El término fue propuesto por Werner Buchholz en 1957, en medio del desarrollo del
computador IBM 7030 Stretch. En un principio, Byte se utilizaba para mencionar las
instrucciones de 4 bits, que permitían la inclusión de entre uno y dieciséis bits por Byte.
Sin embargo, el diseño de producción luego redujo el Byte hasta campos de 3 bits, lo
que permitió entre uno y ocho bits en un byte. Con el tiempo, se fijo el tamaño de un
byte en 8 bits y se declaró como un estándar a partir de IBM S/360.
Los bits mayormente se usan para medir la cantidad de instrucciones por segundo que
puede realizar un procesador.
UPTC 2012