Está en la página 1de 3

Actividades 3.

1 UNIDAD 3

a) Definir Bit, Byte, Hertz y los estándares de codificación: BCD, EBCDIC, ASCII, ASCII
Extendido y Unicode

Bit: es la abreviación de Binary Digit (digito binario), la cual en términos técnicos


es la unidad mínima de información de una computadora. Un bit tiene solamente
un valor (que puede ser 0 o 1). Varios bits combinados entre sí dan origen a otras
unidades, como “byte”, “mega”, “giga” y “tera”.
Toda la información procesada por una computadora es medida y codificada en
bits. El tamaño de los archivos son medidos en bits, las tasas de transferencia son
medidas en bit, toda la información en el lenguaje del usuario es convertida a bits
para que la computadora la "entienda".
Un bit es, entonces, la unidad mínima de información empleada en
informática, que como sabes utilizan números binarios y aritmética lógica.
El concepto de bit es que básicamente cada bit de datos representa un valor
específico: “1” ó “0”. Sin embargo, se pueden combinar diversas secuencias de
bits, con lo cual se podrían obtener muchas más combinaciones, como por
ejemplo:
Tomando como base un modelo de 2 bits, podemos obtener 4 combinaciones.

• 00 – Ambos Apagados
• 01 – Primero apagado, segundo encendido
• 10 – Primero encendido, segundo apagado
• 11 – Ambos encendidos

Byte: es un grupo de ocho bits, formando según una secuencia que representa un
carácter. Se puede hacer una correspondencia biunívoca entre cada número
decimal (0 a 9), las letras mayúsculas y minúsculas (A hasta Z), los símbolos
matemáticos, la puntuación, y demás símbolos, con un respectivo byte.
Es fundamental para cualquier persona con formación en informática, tener muy
clara la diferencia entre lo que es un BIT (un 0 o un 1) y lo que es un Byte (una
secuencia de 8 bits continuos)

Un Hertz o Hercio: es una unidad de medición encargada de establecer la fuerza


de como fluyen las ondas electromagnéticas, muchos objetos en el ámbito
informático se basan sus especificaciones con esta forma de medición, ya que con
la misma se puede medir la velocidad que dichas ondas circulan por medio del
objeto al computador y viceversa.

BCD: es un código que se utiliza para representar números decimales en código


binario. En BCD o decimal codificado en binario, cada número decimal (del 0 al 9)
es representado por su equivalente en binario en 4 bits. Ejemplo: para convertir el
número BCD 1100100001.
EBCDIC: (Extended Binary Coded Decimal Interchange Code -
Código de intercambio decimal de código binario extendido), es un código
estándar de 8 bits usado por computadoras mainframe IBM. EBCDIC es un código
binario que representa caracteres alfanuméricos, controles y signos de puntuación.

El código ASCII: es un estándar para la representación de caracteres en cualquier


dispositivo electrónico, haciendo referencia a una codificación fija que asigna a
caracteres imprimibles como letras, números y signos de puntuación y a caracteres
de control no imprimibles un código concreto, que al pasar por el dispositivo lo
traduce y muestra el carácter deseado.
Debemos recordar que los ordenadores actúan siempre sobre el sistema binario
para realizar sus cálculos, por lo que todas las operaciones hechas en ellos se
basan en el uso de ceros y unos. ASCII se creó bajo la misma premisa definiendo
sus caracteres en siete bits, es decir, siete posiciones que muestran un 0 o un 1 y
un octavo bit que se reserva para hacer análisis.

Se denomina ASCII extendido: a cualquier juego de caracteres de 8 bits, en el


cual los códigos 32 a 126 (0x20 a 0x7E) coinciden con los caracteres imprimibles
de ASCII, así como los caracteres comúnmente llamados "de espacio", estos son los
códigos de control de 8 a 13 (0x08 a 0x0D), ambos inclusive.
Las codificaciones de ASCII extendido utilizan además parte o la totalidad de los
códigos superiores a 128 para codificar caracteres adicionales a los caracteres
imprimibles ASCII.

Unicode: es un sistema de codificación de caracteres utilizado por los equipos


informáticos para el almacenamiento y el intercambio de datos en formato de
texto. Asigna un número único (un punto del código) a cada carácter de los
principales sistemas de escritura del mundo. También incluye símbolos técnicos y
de puntuación, y otros muchos caracteres utilizados en la escritura de textos.
Unicode, además de ser un mapa de caracteres, incluye algoritmos de ordenación y
codificación de textos bidireccionales (por ejemplo en árabe), y especificaciones
de normalización de formularios de texto.
b) Completar el cuadro y especificar las medidas usadas para el almacenamiento (Byte),
procesamiento (Hertz) a fin de conocer estas unidades básicas y sus diferentes
múltiplos.

Múltiplos de la Unidad de Valor o cantidad bytes Equivalente


Almacenamiento

Byte(B9) 8 bits 1 byte

Kilobyte (KB) Mil bytes 1000 bytes

Megabyte (MB) Mil Kilobytes 10^6 bytes

Gigabytes (GB) Mil Megabytes 10^9 bytes

Terabyte (TB) Mil Gigabytes 10^12 bytes

Petabyte (PB) Mil Terabytes 10^15 bytes

Exabyte (EB) Mil Petabytes 10^18 bytes

Zettabyte (ZB) Mil Exabytes 10^21 bytes

Yottabyte (YB) Mil Zettabytes 10^24 bytes

También podría gustarte