Está en la página 1de 5

INTRODUCCIÓN

Desde la antigüedad, y la mayoría de veces de forma consciente, el hombre ha tratado


de reducir al máximo su trabajo. De esta forma surgieron las herramientas y las
máquinas.

La informática puede considerarse como la ciencia y la tecnología aplicada a la


automatización del razonamiento y del tratamiento de la información. La palabra
Informática procede de la yuxtaposición de los vocablos INFORmación y autoMÁTICA.

1. La Informática: Evaluación histórica


2.1 La informática

La Real Academia Española de la lengua define la informática como el conjunto de


conocimientos y técnicas que hacen posible el tratamiento automático de la
información por medio de ordenadores.

Computador, computadora u ordenador es una máquina capaz de aceptar unos datos


de entrada, efectuar con ellos operaciones lógicas y aritméticas, y proporcionar la
información resultante a través de un medio de salida; todo ello sin la intervención de
un operador humano y bajo el control de un programa de instrucciones previamente
almacenado en el propio computador.

Se entiende como operaciones lógicas funciones tales como comparar, ordenar,


seleccionar o copiar símbolos, ya sean numéricos o no numéricos.

Un computador puede considerarse como un sistema cuyas salidas o resultados son


función (dependen) de sus entradas, constituidas por datos e instrucciones.

Considerando la definición de computador, se puede definir que informática o ciencia e


ingeniería de los computadores es el campo de conocimiento que abarca todos los
aspectos del diseño y uso de los computadores.

1.2 La evolución histórica


Los orígenes de la informática pueden situarse al menos en cuatro momentos históricos.
El primero es el más obvio: la Antigüedad, cuando civilizaciones nacientes empezaron a
ayudarse de objetos para calcular y contar tales como las piedrecillas (en latín calculi,
del que viene el término actual calcular), los tableros de cálculo y los ábacos, todos los
cuales han llegado hasta el siglo XX.

El segundo hito histórico en la historia de la informática sería 1890, año en el que


Herman Hollerith concibió la tarjeta perforada junto con un sistema de máquinas que
procesaban, evaluaban y clasificaban la información codificada en ellas para la
elaboración del censo de Estados Unidos.

La era de la informática comenzó en febrero de 1946, cuando el ejército de Estados


Unidos hizo público el Calculador e integrador numérico electrónico (Electronic
Numerical Integrator and Computer, ENIAC. El ENIAC, que contaba con 18.000 tubos de
vacío, se presentó como un instrumento capaz de calcular la trayectoria de un proyectil
lanzado desde un cañón antes de que el proyectil realizara el recorrido.

Aunque habría que fechar el verdadero origen de la revolución informática no en 1946


sino en 1977, año en el que dos jóvenes, Steve Jobs y Steve Wozniak, originarios de lo
que se conoce como Silicon Valley, dieron a conocer al mundo un ordenador llamado
Apple II. El Apple II (al igual que su predecesor inmediato el Altair y su sucesor el IBM
PC) sacó a la informática del mundo especializado de las grandes empresas y el ejército
y la llevó al resto del mundo.

2. PROCESO ELECTRÓNICO DE DATOS


Un computador es una máquina que procesa información. Más concretamente, la
ejecución de un programa implica la realización de tratamientos, según especifica un
conjunto ordenado de instrucciones (el programa), con unos datos. Obviamente, para
que el computador ejecute un programa es necesario darle dos tipos de informaciones:
las instrucciones que forman dicho programa y los datos con los que debe operar.

Las computadoras realizan sólo cuatro funciones básicas:


• Recibir una entrada. Aceptan información del mundo exterior.
• Procesar información. Realizan operaciones aritméticas o lógicas (toma de decisiones)
sobre la información.
• Producir una salida. Comunican información al mundo exterior.
• Almacenar información. Desplazan y mueven información en la memoria.
El diseño de un sistema informático resulta más fácil, su realización menos compleja y
su funcionamiento muy fiable si se utilizan solo dos valores o estados posibles para las
variables físicas que representan los caracteres en los soportes de información o, en
general, en el interior del computador. Estos valores conceptualmente se representan
por cero [0] y [1], y corresponden a dos niveles de tensión (0 voltios y 3,5 voltios, por
ejemplo). La información es retenida por medio de dos valores de una magnitud física
(bit) que en abstracto la podemos representar por cero y uno. La información se
representa por medio de patrones de bits.

Un bit (binary digit: dígito binario) es la unidad más pequeña de datos que puede
almacenarse en una computadora: puede ser ya sea 0 ó 1. Por tradición, un patrón de
bits con una longitud de 8 bits se llama byte. Este término también se ha utilizado para
medir el tamaño de la memoria o de otros dispositivos de almacenamiento.
3. REPRESENTACIÓN INTERNA DE DATOS

Se denomina dato a cualquier objeto manipulable por el computador. Un dato puede


ser un carácter leído de un teclado, información almacenada en un disco, un número
que se encuentra en memoria principal, etc.

Se puede diferenciar claramente cinco tipos de representaciones:

• Representación de textos: Normalmente la información se da al computador en


la forma usual escrita que utilizan los seres humanos; es decir, con la ayuda de
un alfabeto o conjunto de símbolos, que denominaremos caracteres. La
transformación de caracteres a patrones de bits tradicionalmente se realiza por
medio de códigos de Entrada/Salida (E/S) y, en principio pueden definirse de
forma arbitraria. No obstante, existen códigos de E/S normalizados que son
utilizados por diferentes constructores de computadores. Los veremos en el
siguiente epígrafe.
• Representación de sonidos: Las señales de sonido, también denominadas
señales de audio, suelen ser de voz o música, y son captadas por un sensor que
transforma las señales de presión originales en señales eléctricas analógicas.
Estas últimas, a su vez, son digitalizadas y de esta forma se representan en el
interior del computador.
• Representación de imágenes: Las imágenes se adquieren por medio de
periféricos especializados tales como escáneres, cámaras de video o cámaras
fotográficas. Como todo tipo de información una imagen se representa por
patrones de bits, generados por el periférico correspondientes. Hay sistemas de
codificación muy diversos. Existen dos formas básicas de representar las
imágenes, conocidas como mapas de bits y mapas de vectores, respectivamente.
Entre los formatos utilizados para representar imágenes destacamos: BMP
(BitMap), JPEG (Joint Photographic Experts Group), GIF (Graphic Interchange
Format), etc.
• Representación de vídeo. El vídeo es una representación de imágenes (llamadas
cuadros o frames) en el tiempo. Una película es una serie de cuadros
desplegados uno tras otra para dar la ilusión de movimientos.
• Representación de valores numéricos: Los datos numéricos se suelen introducir
en un computador como otro conjunto de caracteres; es decir, por medio de un
código de E/S para textos. Pero esta representación no es muy adecuada para
realizar operaciones matemáticas con esto datos; por lo que si se van a realizar
cálculos con ellos, se deben transformar a una representación fundamentada en
el sistema de numeración en base 2, sistema que puede considerarse una
codificación en binario más, pero que al ser una representación numérica
posicional es muy apta para realizar operaciones aritméticas.
• Representación de instrucciones: Las instrucciones de un programa en lenguaje
de alto nivel o en lenguaje ensamblador se dan en forma texto, representándose
en consecuencia por medio de un código de E/S, y el traductor correspondiente,
ya sea un compilador o un intérprete, se encarga en transformarlas en
instrucciones máquinas, que no son más que patrones de bits determinados por
el repertorio de instrucciones del procesador.

Además, hay dos cuestiones importantes relacionadas con la representación de la


información en el interior del computador:
• Detección de errores de grabación o transmisión en la información codificada en
binario. Existen técnicas para facilitar la detección y corrección automáticas de
este tipo de errores.
• Compresión de datos. Puede reducirse considerablemente la capacidad de
almacenamiento y los tiempos de transmisión utilizando algoritmos de
compresión de datos para disminuir redundancias o recodificar información.

4. SISTEMA DE CODIFICACIÓN DE CARACTERES

Los códigos más utilizados en la actualidad son el EBCDIC, ASCII, UNICODE, por lo que a
continuación pasamos a describirlos brevemente:

Código ASCII

El código ASCII (American Standard Code for Information Interchange) básico utiliza 7
bits y hoy en día es de los más utilizados. Se puede decir que ña mayor parte de las
transmisiones de datos entre dispositivos se realizan en esta codificación. Usualmente
se incluye un octavo bit para detectar posibles errores de transmisión o grabación (bit
de paridad)

https://www.nobbot.com/pantallas/que-es-codigo-ascii/

https://elcodigoascii.com.ar

https://www.calculadoraconversor.com/ascii-a-binario/

UNICODE

Los códigos de E/S anteriores, y en particular el ASCII básico que es el más utiliza,
presentan varios inconvenientes tales como:

• Los símbolos codificados son muy insuficientes para representar los caracteres
especiales que requieren numerosas aplicaciones.
• Están basados en un subconjunto muy limitado de caracteres latinos (el
abecedario ingles), existiendo otras culturas que utilizan otros símbolos distintos
para las letras y cifras numéricas.
• Los lenguajes escritos de diversas culturas orientales están basados en la utilizan
de ideogramas o símbolos que representan palabras.

Los problemas anteriores son especialmente relevantes para las aplicaciones de
internet, ya que se pretende que éstas sean lo más universales posible.

Unicode es un código de E/S propuesto por un concierto de empresas y entidades que


tratan de hacer posible escribir aplicaciones que sean capaces de procesar texto de muy
diversos sistemas de escritura. Esta reconocido como estándar ISO/IEC 10646, y trata de
ofrecer las siguientes propiedades: Universalidad, Unicidad y Uniformidad.

Algunas características de Unicode son:


• Cada carácter Unicode está formado por una cadena de 16 bits, pudiendo por
tanto codificarse en total 216=65356 símbolos.

• No se contempla la codificación de caracteres de control.


• Incluye caracteres combinados (ä, ñ, etc).
• Unicode no determina la forma o imagen concreta de cada carácter(fuente).

El estándar Unicode sirve principalmente como base universal para procesar, almacenar
e intercambiar textos en cualquier idioma. La mayoría de los componentes de software
modernos, como bibliotecas, protocolos, bases de datos, etc., que operan con texto, se
basan en Unicode.

También podría gustarte