El bit es la unidad mínima de información empleada en informática. Con él,
podemos representar dos valores cuales quiera, basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1). El byte es la unidad de capacidad de almacenamiento estándar. Con esta unidad de medida se mide desde el almacenamiento de datos hasta la capacidad de memoria de un ordenador. Representa un carácter (un número, una letra, un espacio, o cualquier otro signo) y está constituido por 8 bits consecutivos, de modo tal que un byte equivaldría a 8 bits. Órdenes de magnitud se usan para representar y comparar de una forma simplificada o aproximadas las distintas magnitudes. Si consideramos dos magnitudes: un número "x" difiere en un orden de magnitud 1 de otro "y", x es aproximadamente diez veces diferente en cantidad que y, de igual forma si difiere en dos órdenes de magnitud, significa que es cerca de 100 veces mayor o menor.
1 Bit (es la unidad mínima de almacenamiento, 0/1)
8 Bits = 1 Byte 1024 Bytes = 1 Kilobyte (un archivo de texto plano, 20 kb) 1024 Kilobytes = 1 Megabyte (un mp3, 3 mb) 1024 Megabytes = 1 Gigabyte (una película en DivX, 1 gb) 1024 Gigabytes = 1 Terabyte (800 películas, 1 tb) 1024 Terabytes = 1 Petabyte (toda la información de Google, entre 1 y 2 petabytes) 1024 Petabytes = 1 Exabyte (Internet ocupa entre 100 y 300 Exabytes) 1024 Exabytes = 1 Zettabyte (a partir de aqui no existen comparativas reales) 1024 Zettabytes = 1 YottaByte 1024 YottaBytes = 1 Brontobyte 1024 Brontobytes = 1 GeopByte 1024 GeopBytes = 1 Saganbyte 1024 Saganbytes = 1 Jotabyte 3. a. 1001 b. 110110 c. 1011101 d. 111010110 e. 100001001101101