Está en la página 1de 4

Actividades 3.

1 UNIDAD 3

a) Definir Bit, Byte, Hertz y los estándares de codificación: BCD, EBCDIC,


ASCII, ASCII Extendido y Unicode

Bit: En informática, bit es la unidad mínima de información. Se utiliza para representar


la contraposición entre dos valores (apagado y encendido, falso y verdadero, abierto y
cerrado). En telecomunicaciones e informática, los bits son normalmente calculados en
conjunto. Así tenemos 8 bits, 16 bits, 32 bits, etc. Los bits se utilizan como medida
también en los microprocesadores o CPU de ordenador y otros dispositivos.
Cuando se identifica una CPU con 4, 8, 16, 32, 64 bits, se refiere siempre al tamaño de
los registros internos del ordenador en número de bits. Igualmente, también se refiere
así a la capacidad de procesamiento. De esta forma, los procesadores que tienen 16,
32 y 64 bits, tienen 16, 32 y 64 registros y capacidad ALU (Unidad aritmético lógica) de
16, 32 y 64 bits, pudiendo por tanto procesar los datos en grupos de bits de idéntica
cantidad o submúltiplos de esta.
Byte: Es un conjunto fijo de bits. Aunque hay excepciones, en la mayoría de casos
(sobre todo en relación al sector de la informática), un byte cuenta con 8 bits, de ahí su
equiparación con el concepto de «octeto».

La partición estándar de bytes como grupos de 8 bits se basa a su vez en la


codificación de caracteres ASCII (American Standard Code for Information
Interchange). Por otra parte, la equivalencia gradual en informática se basa en bytes,
para un cálculo más sencillo. Por tanto, si 1 byte equivale a 8 bits, 1 kilobyte (kB /
kbyte) equivale a 1024 bytes y así sucesivamente (megabytes, gigabytes, terabytes,
petabytes, etc.)

Hertz: Los Hz (Hertz) no son más que la unidad de medida de la velocidad de refresco,
también conocida como frecuencia o tasa de refresco. Esta medida representa las
veces en que un monitor actualiza la imagen en un segundo, es decir, el número de
cuadros o “frames” por segundo (FPS) que muestra.

Entonces, ¿para qué sirven los Hz en un monitor? En simple, te indican a qué


velocidad se actualiza la imagen en esa pantalla, así por ejemplo, un monitor de 60 Hz
podrá mostrar 60 FPS, mientras uno de 144 Hz se actualizará 144 veces por segundo.

En la práctica, esto significa que a mayor velocidad de actualización, mayor será la


sensación de fluidez que experimentarás usando el computador. Además, las altas
tasas de refresco reducen el número de parpadeos y, con ello, la fatiga visual en los
usuarios, especialmente si pasas mucho tiempo frente a la pantalla.

Por eso, si estás buscando un equipo para actividades exigentes y te preguntas


cuántos Hz tiene mi monitor, acá te contamos de diferentes mecanismos para
averiguarlo en pocos segundos.

1
Los estándares de codificación BCD:
En sistemas de computación, Binary-Coded Decimal (BCD) o Decimal codificado en
binario es un estándar para representar números decimales en el sistema binario, en
donde cada dígito decimal es codificado con una secuencia de 4 bits. Con esta
codificación especial de los dígitos decimales en el sistema binario, se pueden realizar
operaciones aritméticas como suma, resta, multiplicación y división.
El BCD solo se utiliza 10 de las 16 posibles combinaciones que se pueden formar con
números de 4 bits, por lo que el sistema pierde capacidad de representación, aunque
se facilita la compresión de los números. Esto es porque el BCD solo se usa para
representar cifras, no números en su totalidad. Esto quiere decir que para números de
más de una cifra hacen falta dos números BCD.
Los estándares de codificación EBCDIC:
EBCDIC (Extended Binary Coded Decimal Interchange Code - Código de intercambio
decimal de código binario extendido), es un código estándar de 8 bits usado por
computadoras mainframe IBM. IBM adaptó el EBCDIC del código de tarjetas
perforadas en los años 1960 y lo promulgó como una táctica customer-control
cambiando el código estándar ASCII.
EBCDIC es un código binario que representa caracteres alfanuméricos, controles y
signos de puntuación. Cada carácter está compuesto por 8 bits = 1 byte, por eso
EBCDIC define un total de 256 caracteres.
Existen muchas versiones ("codepages") de EBCDIC con caracteres diferentes,
respectivamente sucesiones diferentes de los mismos caracteres. Por ejemplo al
menos hay 9 versiones nacionales de EBCDIC con Latín 1 caracteres con sucesiones
diferentes.
El siguiente es el código CCSID 500, una variante de EBCDIC. Los caracteres 0x00–
0x3F y 0xFF son de control, 0x40 es un espacio, 0x41 es no-saltar página y 0xCA es
un guion suave.
Los estándares de codificación ASCII:
El código ASCII (American Standard Code for Information Interchange) es un sistema
de codificación que asigna un valor numérico único a diferentes caracteres utilizados en
la comunicación electrónica. Fue desarrollado en la década de 1960 como un estándar
para la transferencia de datos entre diferentes dispositivos informáticos.
El código ASCII utiliza 7 bits para representar 128 caracteres diferentes. Estos
caracteres incluyen letras mayúsculas y minúsculas, dígitos numéricos, signos de
puntuación, símbolos matemáticos y una serie de caracteres de control utilizados para
el formateo de texto y el control de dispositivos. Los primeros 32 caracteres son
caracteres de control no imprimibles, como el retorno de carro (enter, o salto de línea) y
el avance de línea.

2
informática y sentó las bases para la comunicación entre diferentes sistemas
informáticos. Sin embargo, a medida que la tecnología avanzó, el sistema ASCII se
quedó corto para representar todos los caracteres necesarios en diferentes idiomas y
alfabetos. Esto llevó al desarrollo de codificaciones más amplias, como el estándar
Unicode, que utiliza más bits para representar una gama más amplia de caracteres.
A pesar de sus limitaciones, el código ASCII sigue siendo relevante y se utiliza
ampliamente en la programación y la comunicación de datos. Comprender cómo se
asignan los caracteres a valores numéricos en el código ASCII es fundamental para
trabajar con datos en entornos informáticos
Los estándares de codificación Extendido:
Es un código de 8 bits que especifica los caracteres que van desde los valores del 128
al 255 Los primeros 40 símbolos representan pronunciaciones y puntuaciones
especiales. Los símbolos restantes son símbolos gráficos.
Los estándares de codificación Unicode:
Norma de código único para caracteres mundiales, este código viene a resolver las
limitaciones de los anteriores, porque proporciona hasta 4 bytes para representar cada
letra, número o símbolo.

3
b) Completar el cuadro y especificar las medidas usadas para el almacenamiento
(Byte), procesamiento (Hertz) a fin de conocer estas unidades básicas y sus
diferentes múltiplos.

Múltiplos de la Unidad de Valor o cantidad bytes Equivalente


Almacenamiento

Byte

Kilobyte (KB)

Megabyte

Gigabytes.

Terabyte

Petabyte

Exabyte

Zettabyte

Yottabyte

También podría gustarte