Está en la página 1de 3

INVESTIGACION 2 11/10/2019

Gray y Unicode

Huerta Hernandez Josué Fernando


Electrónica Digital
951-V

1
Código numérico Gray

Este sistema de codificación no corresponde con una representación matemática real de los números.
Se trata de una combinación de “1s” y “0s” que son las posibles combinaciones que puede adoptar
una variable.

Partiendo de un número de bits determinado, se realizan las combinaciones de acuerdo a las normas
de Gray. La principal característica de este código es que dos números consecutivos, cualesquiera
que sean, se diferencian solo en un bit (tienen distancia 1). Además, es un código cíclico. Es decir, el
primer número y el último también son adyacentes, es decir, solo se diferencian en un bit.

1 Tabla con la confección, en código Gray, de los números del 0 al 31 usando hasta 5 bits
El código Gray se usa a menudo donde otros códigos tales como el binario, pudieran producir
resultados erróneos o ambiguos durante esas transiciones en las cuales más de un bit del código está
cambiando. Usando el código binario, por ejemplo, y yendo de 0111 a 1000 requiere que todos los 4
bits cambien simultáneamente. Dependiendo del dispositivo o circuito que está generando los bits,
puede haber una diferencia significativa en los tiempos de transición de los diferentes bits. Si esto es
así, las transiciones de 0111 a 1000 pudiera producir uno o más estados intermedios.

Sistema Estándar de Caracteres Unicode

Unicode es un estándar industrial cuyo objetivo es proporcionar el medio por el cual un texto en
cualquier forma e idioma pueda ser codificado para el uso informático.
El establecimiento de Unicode ha involucrado un ambicioso proyecto para reemplazar los esquemas
de codificación de caracteres existentes, muchos de los cuales están muy limitados en tamaño y son
incompatibles con entornos multilingües. Unicode se ha vuelto el más extenso y completo esquema
de codificación de caracteres, siendo el más dominante en la internacionalización y adaptación local
del software informático. El estándar ha sido implementado en un número considerable de tecnologías
recientes, que incluyen XML, Java y sistemas operativos modernos.
La lógica interna de la mayoría del software de 8 bits permite de forma típica solamente 8 bits para
cada carácter, haciendo imposible utilizar más de 256 puntos en código sin procesamiento especial.
El software de 16 bits solamente puede guardar poco más de 6 decenas de miles de caracteres.
Unicode, por otro lado, ha definido más de 90.000 caracteres codificados. Los diseñadores de los
sistemas entonces han tenido que sugerir muchos métodos y mecanismos para implementar Unicode;
el método implementado depende del espacio de almacenamiento disponible, la compatibilidad de los
códigos fuentes y la inter-operatividad con otros sistemas.
Características de ello son:
Unicode define dos métodos de mapeo o de localización de caracteres:

• La codificación UTF (Unicode Transformation Format) Formato de Transformación Unicode.


• La codificación UCS (Universal Character Set) Juego de Caracteres Universal.

Las codificaciones incluyen:

• UTF-7 — una codificación relativamente poco popular de 7 bits, a menudo considerada obsoleta.
• UTF-8 — una codificacón de 8 bits de longitud variable
• UCS-2 — una codificación de 16 bits de longitud fija que solamente permite el «mapeo» o la
búsqueda en la Plana Básica Multilengüe.
• UTF-16 — una codificación de 16 bits de longitud variable.
• UCS-4 y UTF-32 — un par de codificaciones de 32 bits de longitud fija que son funcionalmente
idénticas.
• UTF-EBCDIC — una codificación poco difundida creada para sistemas basados en EBCDIC.

Los números en los nombres de los códigos indican la cantidad de bits de cada carácter (para las
codificaciones UTF) o el número de bytes por carácter (para las UCS).

También podría gustarte