Está en la página 1de 2

2.

El bit es la unidad mínima de información empleada en informática. Con él,


podemos representar dos valores cuales quiera, basta con asignar uno de esos
valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).
El byte es la unidad de capacidad de almacenamiento estándar. Con esta
unidad de medida se mide desde el almacenamiento de datos hasta la
capacidad de memoria de un ordenador. Representa un carácter (un número,
una letra, un espacio, o cualquier otro signo) y está constituido por 8 bits
consecutivos, de modo tal que un byte equivaldría a 8 bits.
Órdenes de magnitud se usan para representar y comparar de una forma
simplificada o aproximadas las distintas magnitudes.
Si consideramos dos magnitudes: un número "x" difiere en un orden de
magnitud 1 de otro "y", x es aproximadamente diez veces diferente en cantidad
que y, de igual forma si difiere en dos órdenes de magnitud, significa que es
cerca de 100 veces mayor o menor.

1 Bit (es la unidad mínima de almacenamiento, 0/1)


8 Bits = 1 Byte
1024 Bytes = 1 Kilobyte (un archivo de texto plano, 20 kb)
1024 Kilobytes = 1 Megabyte (un mp3, 3 mb)
1024 Megabytes = 1 Gigabyte (una película en DivX, 1 gb)
1024 Gigabytes = 1 Terabyte (800 películas, 1 tb)
1024 Terabytes = 1 Petabyte (toda la información de Google, entre 1 y 2
petabytes)
1024 Petabytes = 1 Exabyte (Internet ocupa entre 100 y 300 Exabytes)
1024 Exabytes = 1 Zettabyte (a partir de aqui no existen comparativas reales)
1024 Zettabytes = 1 YottaByte
1024 YottaBytes = 1 Brontobyte
1024 Brontobytes = 1 GeopByte
1024 GeopBytes = 1 Saganbyte
1024 Saganbytes = 1 Jotabyte
3.
a. 1001
b. 110110
c. 1011101
d. 111010110
e. 100001001101101

a. 210
b. 1610
c. 6710
d. 15810
e. 194810

También podría gustarte