Está en la página 1de 2

Definición de Bit

El hombre necesita medir


distancias, calcular el peso y establecer sistemas de medición convencionales para
describir la realidad en función de algún parámetro.
Un bit es la medida utilizada en el ámbito de la computación. Se basa en el sistema
binario de numeración y sirve para determinar la cantidad de información
almacenada. Al tratarse de un sistema binario existen dos valores, el 1 y el 0, que
actúan como unidades. El 1 equivale a verdadero y el 0 a falso. Este modelo de
medición del almacenamiento de la información proviene del campo de la lógica,
concretamente de la lógica proposicional. Así, los circuitos de las computadoras
tienen una dimensión estrictamente lógica, en la que solo existe lo verdadero o lo
falso. Todas las proposiciones lógicas pueden combinarse mediante una serie de
conectores que las relacionan (negación, conjunción, disyunción, condicional y
bicondicional). Pongamos un ejemplo concreto para ilustrar esta cuestión. La
proposición A y la proposición B se unen con una disyunción (que equivale a la
conjunción o e indica una cosa o la otra). Así, A v B será falso solo en el caso de que
tanto A como B lo sean.
Las leyes de la lógica se han aplicado a la informática y todas las operaciones
posibles se realizan con bits, con el 0 y con el 1.

La palabra bit procede del acrónimo dígito binario (en inglés Binary digit). Este
sistema de medición se aplica a cualquier dispositivo digital y funciona con el 1
como sinónimo de encendido y el 0 que equivale a apagado. Existen cuatro
posibilidades combinatorias de dos bits: las dos apagadas, la primera apagada y la
segunda encendida, la primera encendida y la segunda no y, por último, las dos
encendidas. De esta manera, con dos bits tenemos cuatro posibles combinaciones y,
en consecuencia, cuanto más bits tengamos mayor será el volumen de información
que se pueda almacenar.
Cuando en lugar de dos bits se utilizan cuatro se denomina nibble y sirve para
describir la cantidad de memoria almacenada en un dispositivo.

En los últimos años el bit clásico está siendo desplazado por una nueva unidad, el
qubit, el cual procede de la física cuántica y aporta una capacidad de
almacenamiento de la información muy superior a la del bit. La aparición de los
qubits significa que la próxima generación de computadoras será distinta, los PCs
serán cuánticos. Los qubits se encuentran en una fase de experimentación, por lo que
se trata de un proyecto, aunque con unas posibilidades que resultan difíciles de
imaginar.