Está en la página 1de 2

UNIDADES DE MEDIDA EN ARQUITECTURA DE

COMPUTADORES

bit (b)
Es una síntesis de dos términos en inglés: Binary digit, que en español significan dígito
binario, o lo que es lo mismo, número (dígito) con dos posibles valores (binario). El
término surge de usar las dos primeras letras de Binary con la última de digit.: bit.
El bit, es un dígito del sistema binario. Mientras que el sistema decimal utiliza diez
dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8 y 9), el sistema binario usa sólo dos (0 y 1). Un bit, por lo
tanto, puede representar a uno de estos dos valores (0 ó 1).

Para la informática, el bit es la unidad mínima de información. Permite representar


dos valores diferentes (como abierto/cerrado o verdadero/falso) y asignar dichos
valores al estado de apagado (0) o encendido (1).

Si un bit permite representar dos valores (0 y 1), dos bits posibilitan codificar cuatro
combinaciones: 0 0, 0 1, 1 0 y 1 1. Cada una de estas cuatro combinaciones, por su
parte, permite representar cuatro valores diferentes. Palabras, imágenes y números
pueden representarse mediante secuencias de bits.

Los bits mayormente se usan para medir velocidad de transmisión

Byte (B)
Un Byte es una unidad de información compuesta por una secuencia de bits
contiguos. El diccionario de la Real Academia Española señala que byte es sinónimo
de octeto (una unidad de información de ocho bits); sin embargo, el tamaño del byte
(que proviene del inglés bite, “mordisco”) depende del código de caracteres en el que
ha sido definido.

El término fue propuesto por Werner Buchholz en 1957, en medio del desarrollo del
computador IBM 7030 Stretch. En un principio, Byte se utilizaba para mencionar las
instrucciones de 4 bits, que permitían la inclusión de entre uno y dieciséis bits por Byte.
Sin embargo, el diseño de producción luego redujo el Byte hasta campos de 3 bits, lo
que permitió entre uno y ocho bits en un byte. Con el tiempo, se fijo el tamaño de un
byte en 8 bits y se declaró como un estándar a partir de IBM S/360.

La noción de 8 bits permite describir, en la arquitectura de computadores, las


direcciones de memoria u otras unidades de datos que pueden comprender hasta 8 bits
de ancho.

Los bits mayormente se usan para medir capacidad de almacenamiento


Frecuencia de reloj (Hz)
La frecuencia de reloj es la velocidad en ciclos por segundo (medida en hercios) con
que un computador realiza las operaciones más básicas. Cada inicio de ciclo define el
comienzo de una instrucción.
Diferentes chips en un computador pueden tener diferentes frecuencias de reloj. En
general, en computación, como se muestra a continuación

Los bits mayormente se usan para medir la cantidad de instrucciones por segundo que
puede realizar un procesador.

UPTC 2012