Está en la página 1de 17

UNIDAD N° 1: INTRODUCCIÓN A LA

INFORMÁTICA.

Asignatura: INFORMATICA.

Carreras: BIOQUIMICA Y FARMACIA

Año 2019

1
DEFINICIÓN Y ORIGEN DEL TÉRMINO INFORMÁTICA.
A lo largo de la historia se ha necesitado transmitir y tratar información de forma continua. La
informática nace de la idea de ayudar al hombre en aquellos trabajos rutinarios y repetitivos,
generalmente de cálculo y de gestión, donde es frecuente la repetición de tareas.
El término Informática se creó en Francia en el año 1962 bajo la denominación de
INFORMATIQUE y que procede de la contracción de las palabras INFORmation y autoMATIQUE.

Informática: es la ciencia que estudia el tratamiento automático y racional de la información.

El gran desarrollo alcanzado por las organizaciones en la actualidad demanda una enorme
cantidad de Información. En nuestros días, las empresas están obligadas a tomar decisiones cada
vez más precisas y con mayor rapidez.
La ciencia que estudia la obtención de Información por medios automáticos se denomina
Informática. El gran desarrollo que ha tenido en los últimos años la Informática como ciencia ha
sido posible gracias a los enormes avances tecnológicos, que ha experimentado el Proceso de
Datos con los Ordenadores electrónicos digitales.
Antes de la invención de los ordenadores:

1. Muchos problemas solo podían ser resueltos en forma aproximada, por carecer de los
medios apropiados.
2. Los problemas que se podían resolver en forma completa quedaban reducidos a un
pequeño ámbito de datos iniciales y, en consecuencia, de aplicabilidad.
3. Muchos problemas eran inabordables porque el análisis manual de los datos requería de
un tiempo excesivamente largo y no permitía obtener la solución con un tiempo de respuesta
apropiado a la acción deseada.
4. A menudo, el problema requería que una enorme cantidad de datos fueran almacenados
y actualizados en forma continua, cosa que significaba, con métodos manuales, costos altos.
5. Ciertas operaciones de control de procesos requerían, realizar cálculos muy complejos
con un tiempo de respuesta absolutamente impensable con los medios existentes.

Para lograr sus metas, la Informática, estudia el diseño y utilización de equipos, sistemas y
procedimientos que permiten captar y tratar los datos para obtener Información útil para la toma de
decisiones. Decimos que la Informática es el estudio que define las relaciones entre los medios
(equipo), los datos y la Información necesaria en la toma de decisiones desde el punto de vista de
un sistema integrado.

LOGRO DE LOS OBJETIVOS

ACTUACIÓN ADECUADA

BUENAS DECISIONES

INFORMACIÓN

Este esquema relaciona lo dicho en el párrafo anterior, indicando que la Información es necesaria
para tomar buenas decisiones, lo cual se traducirá en una actuación adecuada y esto a su vez nos
permitirá lograr los objetivos de la organización.
Específicamente, la Informática trata de los dos primeros aspectos.

Consideramos que la Informática es una ciencia aplicada, directamente relacionada con la toma de
decisiones. Decimos que es una ciencia porque constituye un conjunto de conocimientos de
validez universal y además porque utiliza el método científico para el logro de sus objetivos.

2
El campo de acción de la Informática resulta muy amplio pues sus objetivos son, por ejemplo:
definir procedimientos para preparar un informe de ventas, establecer si los informes de avance de
producción se elaborarán manualmente o con medios automatizados, la elaboración de informes
de tipo contable, el tratamiento de la información para poder decidir en donde localizar nuestra
próxima planta, etc… Algunos llegan a considerar la informática como la ciencia de la
comunicación.
Siempre que se presenta una necesidad de información es para cubrir unos objetivos y para
determinar estas necesidades se deberá hacer un buen análisis de las mismas.
Después para captar los datos necesarios hace falta escoger un soporte adecuado sobre el cual
registrarlos. La forma de registrar los datos deberá estar estandarizada, se procurara usar claves o
códigos en lugar de los datos en su forma completa. Se debe procurar que los datos aparezcan en
el mismo orden, respetando un formato.
Una vez captados los datos será conveniente filtrar los que sean erróneos o improcedentes a fin
de evitar errores en los resultados.
Para ello si hace falta se ordenaran, se harán cálculos y se darán resultados.
Así mismo si queremos que más tarde se pueda hacer recuperación de datos en forma selectiva a
consulta rápida sobre los mismos será necesario proveer un buen método de organización del
archivo.
Lo dicho es válido tanto como para procedimientos manuales, mecánicos o automatizados.

La ganancia que nos aportara usar máquinas sería:


1. Mayor velocidad de proceso.
2. Mayor confiabilidad o sea, menos errores humanos.
3. Mayor eficacia y más velocidad en consulta de archivos.

APLICACIÓN DE LA INFORMÁTICA.
Es bien conocido que uno de los agentes más importantes de la sociedad actual es la información;
de ahí el gran desarrollo e interés de la Informática. La misma tiene por objeto el tratamiento
automático de la información e incidencia en casi todas las actividades humanas, ya sea de forma
directa o indirecta.
Las computadoras resultan útiles para aplicaciones que reúnen una o varios de las siguientes
características:

1. Necesidad de un gran volumen de datos. Los computadores resultan particularmente


adecuados para procesar grandes cantidades de datos (por ejemplo, datos relacionados con los
clientes de una entidad bancaria).

2. Datos comunes. Las bases de datos posibilitan que los datos incluidos en un computador
puedan utilizarse en múltiples aplicaciones, sin necesidad de que estén físicamente repetidos. Ello,
además de ahorrar tiempo en la introducción de los datos, y ahorrar espacio en la memoria
masiva, facilita considerablemente la actualización de los mismos. Por ejemplo, una vez
introducida la información sobre un profesor de una universidad, esta podría ser utilizada, sin
necesidad de replicarla, para distintas aplicaciones tales como: realización de horarios de clases,
control de carga docente del profesorado, elaboración de censo para elección de órganos de
gobierno, etc.

3. Repetitividad .Tal vez una de las características más relevantes. Los computadores (y su
lenguaje de programación) son capaces de procesar ciclos de instrucciones iterativamente. Una
vez programadas las instituciones que constituyen un ciclo y el número de iteraciones, el
computador las ejecutara sin importar cuan elevado sea dicho número. También un mismo
programa o rutina puede ser ejecutado con gran cantidad de datos (por ejemplo, un programa para
calcular los intereses de las cuentas corrientes de los clientes de un banco).

4. Distribución. El origen y destino de la información no necesitan estar ubicado en el


computador central. En efecto, la información que procesa un computador puede introducirse (u

3
obtener los resultados) a través de terminales distribuidos en áreas geográficas muy extensas (de
distintas habitaciones del edificio de una empresa, hasta estaciones repartidas por todo el mundo
a través de líneas telefónicas).También puede procesarse la información en distintos
computadores distribuidos en red.

5. Un computador puede realizar todas sus operaciones con una precisión controlada,
obteniendo resultados consistentes con la precisión de los datos introducidos.

6. Cálculos complejos utilizando lenguajes de programación adecuados y rutinas de


bibliotecas matemáticas (resolución de modelos matemáticos atmosféricos para predicción del
tiempo, por ejemplo).

7. Las operaciones que realiza un operador las efectúa a gran velocidad, en comparación
con la realización de las mismas por los humanos.

Aquellas actividades que requieran o presenten algunas de las características anteriores, son
candidatas a ser efectuadas con ayuda de un computador. Además, se han desarrollado nuevas
metodologías y técnicas que han ampliado notablemente el abanico de posibles aplicaciones de la
Informática.

DIFERENCIA ENTRE DATOS E INFORMACION


No es lo mismo disponer de datos que disponer de información. Aunque muchas veces ambos
términos son utilizados como sinónimos en el lenguaje común, es de suma importancia aclarar la
diferencia que desde el punto de vista de la informática existe entre estos dos conceptos.
Utilizando un símil mecánico, diremos que los datos son a la información lo que la fuerza es al
trabajo. Para que una fuerza realice un trabajo es preciso que desplace su punto de aplicación. De
la misma manera, para que un dato proporcione información es preciso que sea procesado y se
aplique sobre una capacidad de actuación.
Los datos son los insumos, la materia prima necesaria para la obtención de la información. De un
conjunto de datos, organizados y procesados convenientemente, podemos extraer el conocimiento
que nos faculta para una actuación apropiada.
Los datos son magnitudes numéricas directamente medidas o captadas o también valores
cualitativos, hechos, premisas, frases, principios filosóficos, etc.…
Los datos no son información más que en un sentido amplio de «información de partida» o
«información inicial», pero los datos por sí mismos no nos permiten la adopción de la decisión más
conveniente porque no aportan los conocimientos necesarios, debemos procesarlos y obtener una
estructura útil y significativa llamada información. Por ejemplo, disponer de todas las notas
obtenidas por los alumnos de una clase constituye los datos necesarios para poder obtener la
información de un porcentaje de alumnos que han superado con éxito las pruebas calificadoras y
tener un medida del grado de aprovechamiento del curso.

Los datos se presentan por medio de símbolos. La información consta de datos organizados en
una forma que es útil para las personas que lo reciben, en otras palabras:

―Información son todas aquellas representaciones simbólicas que por el significado que se le
asigna quien la reciba e interpreta, contribuyen a disminuir la incertidumbre de forma que pueda
decidir un curso de acción entre varios posibles”

La información no solo sirve para decidir cuál es el mejor accionar para lograr un objetivo.
Tomada una decisión por un determinado curso de acción, para concretarlo se requiere saber qué
acciones hacen falta realizar, y en que secuencia.
La diferencia así establecida entre datos e información se manifiesta especialmente en el ámbito
de la computación. Una computadora recibe símbolos correspondientes a ciertos datos, opera con
ellos, y obtiene resultados que también son representaciones simbólicas, que en ningún momento
tienen significado para la máquina. Solo pueden tenerlo para el hombre, cuando los interpreta
mediante su mente de manera que pueda tomar una decisión. Si bien muchas veces se confunden

4
con un significado semejante las palabras "información" y "datos", diremos que toda información
consta de datos, pero no todos los datos constituyen información.

La información es un conjunto organizados de datos procesados que constituyen un mensaje. Es


todo aquello que permite adquirir cualquier tipo de conocimiento, por lo que existirá información
cuando se da a conocer algo que se desconoce.
Los datos que maneja un programa son en un principio información no elaborada y que una vez
procesados constituyen lo que se denomina información útil o simplemente resultado.
Una de las características esenciales de la información es la de modificar, en el sentido de
aumentar nuestros conocimientos, aunque sólo sea en el sentido de -como decía Séneca- «sólo sé
que no sé nada». Saber que carecemos de la información apropiada y, por lo tanto, no estamos
capacitados para tomar una decisión, es ya todo un conocimiento y una «sabiduría».

ESTRUCTURAS DE DATOS Y ALGORITMOS


Las computadoras son máquinas para el tratamiento automático de la información. Esta
información no se almacena ni se representa al azar, sino que debe organizarse o estructurarse en
forma adecuada para obtener un rendimiento razonable en su memorización, tratamiento y
recuperación. El tratamiento de la información se debe realizar de un modo sistemático. La
resolución de cualquier problema conlleva el encontrar un método de resolución expresado con la
suficiente precisión para poder ser descompuesto en acciones realizables por el computador (esto
es lo que se denomina un algoritmo).

SÍMBOLO Y DATOS
Símbolo es todo aquello que por conversión nos remite a algo que no necesariamente necesita
estar presente.
Este algo está presente en nuestro entender, de acuerdo a lo que el signo representa o significa.
Entendemos algo como símbolo, lo interpretamos, tiene significado, cuando este responde a lo
que significa. O sea cuando podemos establecer una relación entre el símbolo y lo que constituye
su significado, de acuerdo a una cierta convención.
El significado de un símbolo es establecido por el uso que le da la cultura que lo utiliza. Puede
ocurrir que el mismo símbolo tenga distintos significados dentro de una misma cultura,
dependiendo del contexto en que se inserta.
Los Datos son representaciones simbólicas de propiedades o cualidades de entes y sucesos.

TIPOS DE DATOS
Se denomina dato a cualquier objeto manipulable por el computador. Un dato puede ser tanto un
carácter leído de un teclado, como las variables utilizadas en dicho programa. Así mismo son
datos, la información externa al programa a la que se puede acceder mediante un procedimiento,
ya este grabada en algún medio de memoria masiva o sea generada por algún periférico.
Cuando utilizamos un computador para resolver un problema, debemos hacer una abstracción de
este y de las magnitudes que influyen en él. Dichas magnitudes deben ser representadas por
datos. La representación de una magnitud como dato, se puede entender como una aplicación que
hace corresponder un dato a cada valor de la magnitud. Por ejemplo, para resolver un problema en
que intervengan distancias: es preciso tener una aplicación, T del conjunto de valores de la
magnitud distancia, d, en un conjunto de datos, D.
En esta transformación es deseable que esté definido sobre todo, el conjunto de valores de la
magnitud. Es conveniente además, que sea univoca, es decir, que a dos valores de magnitud
distinto se asocie datos distintos. Para que se pueda operar con los datos es necesario que
existan operaciones internas en el conjunto de datos, que sean semejantes a las operaciones
usuales en el conjunto de magnitudes. Dichas operaciones deben cumplir que: la imagen según la
transformación T del resultado de una operación en el conjunto de magnitudes, sea igual al
resultado de operaciones correspondientes en el conjunto de datos sobre las imágenes de los
operandos.

5
Se denomina tipo de dato al conjunto de la transformación T y de las operaciones y funciones
internas y externas definidas sobre el conjunto de datos. Distintas transformaciones darán lugar a
distintos tipos de datos, aun cuando el conjunto de origen a representar sea el mismo.

Tipos de datos básicos más usuales en Informática:

Entero, real, carácter, lógico, enumerado. Nos encontraremos con diferentes tipos de datos en
la representación de la información tanto a nivel físico del computador, como en los lenguajes de
programación.

 Datos de tipos enteros


El tipo entero es una representación del conjunto de los números enteros, la representación es
posible para un subrango de magnitudes enteras centrado en el origen 2 -1 y -2 . La razón de
esta limitación ésta en la necesidad de utilizar un espacio finito y fijo, para cada dato, y en el hecho
de que la transformación realizada entre los números enteros y el tipo de datos consiste en
representar el número en binario y almacenarlo con un número fijo de bits.
El número de datos distintos de tipo entero que se pueden generar, cardinalidad del tipo, es 2
(donde n es el número de bits que se utiliza en la representación). Por lo tanto, si se modifica el
número de bits se obtienen distintos tipos enteros. En consecuencia, no todos los números enteros
se pueden representar.
A cada operación aritmética sobre el conjunto de números enteros se le asocia, en el tipo entero,
la operación correspondiente. Estas operaciones no pueden realizarse sobre cualquier par de
datos enteros, ya que aparecen indeterminaciones debido a la propia representación. Así, si el
máximo valor positivo de tipo entero es 32 767 (como ocurre si la representación se realiza con n
=16), al realizar la operación: 32 767 + 1 se obtendría un resultado no representable en el tipo.
Este tipo de error se conoce como desbordamiento. Cuando esto sucede, el computador puede, o
no, avisar al usuario. En cualquier caso se obtendrá como resultado algún dato de tipo entero pero
este no corresponderá con el valor que se obtendría al realizar la misma operación con números
enteros. En el caso anterior el numero generado seria -32 768, si la representación es en
complemento a2. Cualquier operación con datos de tipo entero es exacta salvo que se produzcan
desbordamientos.

 Datos de tipo real


El tipo de datos reales es una representación del conjunto de números reales. Esencialmente la
transformación realizada consiste en expresar el número en la forma
N = M · BE
Donde N es el número real a representar, B es la base utilizada para el exponente (que puede
estar prefijada para un computador dado), E es el exponente del número y M es la mantisa. El
número se almacena en el computador y yuxtaponiendo el signo, el exponente y la mantisa, cada
uno con un numero de bits prefijado.
Esta representación no permite el almacenamiento de números muy grandes o muy pequeños, lo
que conlleva que se produzcan desbordamientos. Por otra parte, la limitación del número de bits
para representar la matiza provoca una falta de precisión en la representación. Esto es debido a
que la aplicación que define al tipo real no es univoca. Es decir, cada dato de tipo real es la
imagen de un conjunto infinito de números reales, concretamente representa a un intervalo de la
recta real.
Para los datos de tipo real están definidas las operaciones aritméticas. La suma y la multiplicación
de datos de tipo real cumplen la propiedad conmutativa, pero no siempre la asociativa ni la
distributiva. Esto sucede porque el orden en el que se realizan las operaciones influye en el
resultado. En cada operación se producen errores por falta de decisión en la representación
(errores de redondeo), que se acumulan durante todo el proceso de cálculo.

 Datos de tipo lógico


Los datos de tipo lógico representan valores lógicos o booleanos. Pueden tomar uno de entre dos
valores: verdadero o falso.

6
Sobre los valores lógicos pueden actuar los llamados operadores lógicos. Los operadores lógicos
fundamentales son: Y, O y NO .La definición de las operaciones se hace indicando su resultado
para las cuatro posibles combinaciones de valores de los argumentos.
En algunos lenguajes de programación hay definidos sobre los datos de tipo lógico otros
operadores booleanos, como son: NO – Y, NO – O y NO – exclusivo.
Un caso particularmente importante de valor de tipo lógico es el obtenido como resultado de una
operación de relación sobre datos de un tipo, para el que existe una relación de orden (tipos
entero, real, carácter, enumerado, subrango por ejemplo).Una relación es una expresión formada
por dos operandos pertenecientes a un mismo tipo ordenado y un operador de relación. Son
operadores de relación los siguientes: mayor o igual, mayor, menor o igual, menor, igual, distinto.
El resultado de una operación de relación es el valor lógico verdadero si la relación expresada es
cierta, y falso en caso contrario. Una relación es, pues, una operación externa sobre el tipo de
datos de los operandos.

 Datos de tipo carácter


Los datos de tipo carácter representan elementos individuales de conjuntos finitos y ordenados de
caracteres. El conjunto de caracteres representados depende del computador. Uno de los
conjuntos más usuales es el ASCII (American Standard Code for Information Interchange —Código
Estándar Estadounidense para el Intercambio de Información—).

Ejemplo de algunos caracteres ASCII.

No hay ninguna operación interna sobre datos de tipo carácter (salvo la asignación, A = B).
Normalmente existen funciones de conversión de tipo. Como por ejemplo, la que asocia a cada
dato de tipo carácter un valor entero, que indica su posición en el código.

 Datos de tipo numerado


Los datos de tipo numerado se definen explícitamente dando un conjunto finito de valores. Al
contrario de los tipos vistos anteriormente, el tipo de datos enumerados, como el tipo subrango y
los tipos estructurados, no es un tipo normalizado. Puede haber muchos tipos de datos
enumerados distintos dentro de un programa en un lenguaje determinado, mientras que no habrá
más que un tipo lógico. En cierto modo podemos considerar al tipo de dato enumerado como una
clase de tipos de datos, a la que pertenecerán todos los tipos definidos por enumeración.
Los tipos de datos vistos anteriormente son usualmente tratados para el computador a nivel
hardware. Mientras que el tipo de dato enumerado y su rango son solo interpretados por el
software. Internamente, los datos de tipo enumerado se almacenan como valores enteros. A cada
valor del tipo se le asocia un entero consecutivo, comenzando por cero. Existen como en el tipo
carácter, funciones de conversión a entero.

ESTRUCTURAS DE DATOS
Los tipos de datos vistos suelen denominarse elementales, se pueden utilizar para construir tipos
de datos más elaborados. Una estructura de dato o tipo de dato estructurado es un tipo de dato
construido a partir de otros tipos de datos. Así, un dato de tipo complejo, que representa el

7
conjunto de números complejos, es un par ordenado de datos reales por tanto un tipo de dato
estructurado.
Un dato de tipo estructurado está compuesto por una serie de datos de tipos elementales y alguna
relación existe entre ellos. Normalmente la relación suele ser de orden, aunque puede ser de otro
tipo.
Una estructura de dato se dice que es homogénea cuando todos los datos elementales que la
forman son del mismo tipo, sino es heterogénea.
Siempre que se utilice un dato en un programa debe estar determinado su tipo, para que el
traductor sepa cómo debe tratarlo y almacenarlo. En el caso de tipos elementales, el tipo de dato
determina el espacio que se usa en memoria. Esto no ocurre si el dato es de tipo estructurado en
este caso el compilador le reserva el espacio de memoria mínimo que necesita. Durante la
ejecución del programa la estructura de datos puede ir ocupando más memoria, pero el máximo
espacio al que puede llegar esta limitado por el espacio libre en el programa. Si se necesitase más
memoria de la disponible en el programa, este terminaría en error. Una estructura de datos que es
gestionada de esta forma se dice que es dinámica, ya que la memoria que necesita se asigna
dinámicamente. Por el contrario, una estructura de datos que siempre ocupa el mismo espacio se
dice que es estática.

ACTIVIDADES DEL PROCESAMIENTO DE DATOS


El proceso de datos consiste en la transformación de insumos (datos), los cuales no son útiles por
sí mismos, a través de un proceso a fin de obtener un producto (información), que sí puede ser útil
sin transformaciones posteriores. Tal proceso estará integrado a un sistema diseñado para obtener
información necesaria en la toma de decisiones. Por otra parte, se ha establecido el sistema que
permita captar los datos necesarios y la forma como deberán ser procesados para lograr la
información que se requiere.

 El Proceso de Datos consiste en planificar una serie de acciones y operaciones sobre


determinados datos con el fin de llegar a una información deseada.

Los procedimientos y dispositivos utilizados constituyen un Sistema de Información. Los medios


utilizados son muy variados; todas las operaciones pueden realizarse por medio de una máquina,
o bien simplemente con un lápiz y papel. Sin embargo los procedimientos son básicamente los
mismos.
El Proceso de Datos, estudia la utilización de equipos en los Sistemas de Información. Mientras
que el Análisis y Diseño de Sistema, comprende el estudio y diseño de sistemas y procedimientos
con relación a la toma de decisiones. Dentro de este campo se destacan aspectos importantes
como: la toma de decisiones automáticas, modelos matemáticos para obtener información útil,
problemas humanos en captación, registros de datos y elaboración e interpretación de informes,
control de procesos, etc…

El procesamiento de datos consta de tres actividades básicas:

Captura de datos de entrada: los que deben registrarse o capturarse de alguna manera
antes de poder procesarse. Puede registrase inicialmente en documentos fuente de papel, o
puede capturarse por medio de un dispositivo de entrada directa.

Manipulación de los datos: después de captar los datos, quizás será necesario realizar una
o más de las siguientes operaciones con los datos recolectados.
 Agrupación: se denomina así al proceso de organizar elementos similares para formar
grupos o clases. Se lleva a cabo por lo general, al asignar abreviaturas o códigos,
previamente determinados a los elementos que se van a organizar. Los códigos son de
tres tipos: numéricos, alfabéticos y alfa numéricos.
 Cálculo: la manipulación aritmética de los datos se llama cálculo y es una actividad de
procesamiento muy común.

8
 Clasificación: casi siempre es más fácil trabajar con los datos si están ordenados en
una secuencia lógica. Se denomina clasificación al ordenamiento de los datos
agrupados según una secuencia del primero al último (del más grande al más pequeño,
del más antiguo al más nuevo, etc.).
 Síntesis: es la reducción de grandes volúmenes de datos a una forma más concisa y
manejable.

Manejo de los resultados de salida: después de captar y manipular los datos, quizás sea
necesario llevar a cabo una o más de las siguientes operaciones:
 Almacenamiento y recuperación: almacenamiento es la conservación de los datos para
consultarlos en el futuro. La recuperación consiste en obtener los datos o información
almacenados.
 Comunicación y reproducción: la comunicación de datos es la transferencia de datos de
una localidad u operación a otra, para utilizarlos o seguirles procesando, y este proceso
continúa hasta que la información en forma útil llega hasta el usuario final. Es natural
que en ocasiones sea preciso copiar o duplicar la información.

CUALIDADES DE LA INFORMACIÓN.
Desgraciadamente, no todos los responsables de tomar decisiones cuentan con la información
adecuada a sus fines; generalmente la información disponible resulta superflua, incompleta, poco
clara, demasiado voluminosa, o llega demasiado tarde para poder ser aprovechada.
Para que una información sea útil es necesario que le permita al responsable de la toma de
decisiones formar con suficiente antelación una idea clara y completa de la situación, en forma tal
que sus decisiones tengan el fundamento objetivo óptimo posible.
Estas serán, pues, las cualidades de una buena información:

Precisión: La información debe ser precisa. La precisión se mide en el nivel de detalle y


desmenuzamiento. Por ejemplo, decir «se han vendido 39 piezas» es mucho más preciso que
decir «se han vendido varias docenas de piezas». La precisión a exigir depende, naturalmente, de
cada aplicación concreta. Tan inapropiado es un exceso como un defecto de precisión. Decirle a
un carpintero que la altura de la mesa que le encargamos será de 81.47325 cm es, evidentemente,
un exceso de precisión.

Exactitud: La información debe ser exacta. La exactitud se mide en términos de porcentaje de


error. Es una medida del alejamiento de la realidad. También la aplicación concreta nos marcará,
en cada caso, una mayor o menor exigencia de exactitud. El lanzamiento de un misil exigirá un
nivel de exactitud mucho más elevado que el que pueda requerir el estudio de mercado de una
empresa para el lanzamiento de un nuevo producto de temporada. Naturalmente no se podrá
obtener la exactitud suficiente si los datos de partida son incorrectos o erróneos. Mediante el
proceso de datos se podrán filtrar datos inválidos y se podrán subsanar, quizás, algunos pequeños
errores o insuficiencias, pero, en cualquier caso, la calidad del producto obtenido dependerá
vitalmente de la calidad de las materias primas. Como dice un aforismo lapidario del Proceso de
Datos: «De basura sólo se saca basura» (Garbagge in, garbagge out).

Oportunidad: La información tiene que ser oportuna. Debe llegar al usuario con el tiempo
necesario para que pueda digerirla antes de tomar la decisión. El usuario debe poder actuar antes
de que la realidad haya sufrido un cambio de situación que invalide su acción. El tiempo disponible
para que la información llegue oportuna- mente variará mucho según la aplicación y puede ser
desde unos pocos microsegundos (en algunos controles de proceso) a varios meses (en
macroeconomía y sociología). Llegar antes de tiempo también puede ser, a veces, inoportuno, por
no estar el usuario preparado psicológicamente y en consecuencia no receptivo. En algunas
aplicaciones interactivas se introducen retrasos por programa en las respuestas del ordenador,
para evitar que el exceso de velocidad de la máquina incomode al hombre.

9
Integridad: La información debe ser completa. Aún cuando la integridad al 100% es un sueño
inalcanzable en la mayoría de las aplicaciones, conviene en todo caso que la información que se
obtiene sea tan completa como pueda llegarse a disponer. Esta cualidad debe aparejarse con la
parquedad. Que la información sea completa no significa que tenga que contener cosas
superfluas. No debe confundirse la redundancia, deseable dentro de unos mínimos, con el exceso.
Y el exceso de información no informa, aturde o aburre.

Significatividad: La información debe ser clara y relevante. Es importante no forzar la


comprensión del destinatario. Cualquier ayuda gráfica, visual, auditiva, o del tipo que sea, que
pueda añadir facilidad y rapidez a la recepción de la información, deberá ser considerada. Por
encima de todo hay que evitar la confusión entre distintas alternativas no compatibles.
Un incremento notable en la calidad de la información requerida puede representar un incremento
en los costos muy elevados. Como en tantísimas circunstancias parecidas, el ratio calidad / costos
tiene un punto crítico que es el que nos interesa asumir.

TRATAMIENTO DE LA INFORMACIÓN.
Así se denomina al conjunto de operaciones que se realizan sobre una información.
Estas operaciones siguen una división lógica que se representa de la siguiente manera:

 Recogida de Datos
ENTRADA  Depuración de datos
 Almacenamiento de datos
Tratamiento de la
 Aritmético
Información PROCESO
 Lógico
 Recogida de Resultados
SALIDA
 Distribución de resultados
La figura siguiente esquematiza la relación establecida entre datos e información a través de un
proceso de los datos.

ENTRADA SALIDA
(Datos) PROCESO (Información)

Podemos considerar la información como el conocimiento derivado del análisis de los datos. Es
importante notar que la información obtenida de un proceso puede servir como dato para otro
proceso. Por ejemplo, en un sistema de nomina se tienen como datos las horas trabajadas por
cada empleado y su sueldo por hora. La información obtenida por el sistema será: Los sueldos
semanales de cada empleado. Esta misma información podrá servir como dato de otro sistema
que determine los costos semanales por departamento.

OPERACIONES DE PROCESO DE LAS COMPUTADORAS


Las siguientes cuatro operaciones son las únicas que pueden llevar a cabo las computadoras,
pero bastan para poder ejecutar las actividades de procesamiento de datos que describieron
anteriormente.
 Operaciones de entrada/salida: una computadora puede tanto aceptar datos
(entrada) como emitirlos (salida), a partir de una gran variedad de dispositivos de
entrada/salida. Los teclados, pantallas, impresoras y otros dispositivos de este género
hacen posible la comunicación entre los seres humanos y las máquinas.
 Operaciones de cálculo y manipulación de texto: los circuitos de las computadoras
efectúan cálculos con los números y son igualmente capaces de manipular caracteres
no numéricos y los demás símbolos que se utilizan en palabras y enunciados.
 Operaciones de lógica/comparación: la computadora puede realizar una
comparación sencilla y después dependiendo del resultado, seguir una trayectoria o
secuencia de operaciones previamente determinadas para completar su labor. Esta
facultad sencilla de hacer comparaciones es una propiedad importante de las
10
computadoras, ya que es posible responder a preguntas más complejas utilizando
combinaciones de decisiones de comparación.
 Operaciones de almacenamiento y recuperación de información: tanto los datos
como las instrucciones de programa se almacenan dentro de la computadora. Una vez
almacenados, pueden llamarse o recuperarse rápidamente para ser utilizados.

INTRODUCCIÓN A LOS ORDENADORES.


Desde hace mas de 4 mil años, el hombre ha intentado encontrar métodos mecánicos para
simplificar la realización de operaciones matemáticas. Pero hubo que esperar hasta el siglo XIX,
época en la que aparecieron las primeras máquinas calculadoras mecánicas, antecedentes de las
computadoras modernas: la máquina de Babbage, o la de Hollerith que utilizaron por vez primera
tarjetas perforadas.
A mediados de siglo XX se introdujeron las computadoras de válvulas electrónicas. Pero a partir
de 1.969, gracias al descubrimiento de los chips de silicio, el microprocesador irrumpió en todos
los ámbitos de la vida contemporánea. Es el punto de partida de una revolución que se inició con
las computadoras personales de primera generación (desarrolladas a fines de los 70 por la
empresa IBM) y que culmino por ahora, con la aparición (a principio de los 90) de la serie de
procesadores Pentium. En menos de 20 años las computadoras personales mejoraron
espectacularmente, tanto en capacidad de almacenamiento de datos como en velocidad de
procesamiento.
Es importante recalcar que la Informática esta muy generalizada en nuestra vida cotidiana, como
demuestra todas estas acciones: cuando calentamos algún alimento en el microondas, programar
la video grabadora, jugar con una consola, escuchar un CD, consultar la hora en el reloj digital,
usar el termómetro electrónico, cambiar el canal televisivo por control remoto, pagar los productos
adquirido en un supermercado (lector de código de barras y tarjeta bancaria con banda
magnética) o extraer dinero de los cajeros automáticos.
En el campo de la medicina en lo que más ha influido el desarrollo tecnológico ha sido en él
diagnostico y tratamiento de las enfermedades.
En este aspecto diversos estudios de diagnostico como la ecografía, tomografía, y resonancia
magnética, están basados en complejos sistemas de barrido de determinadas zonas del
organismo, obteniendo precisa información que es trasmitida por ordenadores.

CONCEPTO DE ORDENADOR.
Es una máquina compuesta por elementos físicos, la mayoría electrónicos capaces de aceptar
datos a través de medios de entrada, procesarlos automáticamente (con gran precisión y rapidez)
bajo el control de un programa previamente almacenado y proporcionar la información a través de
un medio de salida.
Clasificación de las Computadoras.
Según su tecnología:
 Analógicas: son los que reproducen por analogía un proceso físico; los datos son siempre
continuos, funcionan de manera simultánea, por lo que pueden resolver problemas con
mayor rapidez que las digitales, pero su
defecto es el error que pueden producir en la
medición.
Características de las computadoras analógicas:
 Todas las computadoras son rápidas pero la naturaleza directa de los circuitos que la
componen las hacen más rápidas.
 La programación en estas computadoras no es necesaria; las relaciones de cálculo son
construidas y forman parte de estas.
 Son máquinas de propósito específico.

11
 Dan respuestas aproximadas, ya que están diseñadas para representar electrónicamente
algunos conjuntos de datos del mundo real, por lo que su resultado son cercanos a la realidad.
Estos se utilizan generalmente para supervisar las condiciones del mundo real, tales como viento,
temperatura, sonido, movimiento, etc.
La primera se llamó EL ANALIZADOR DIFERENCIAL desarrollada por el Dr. Vanmevar Bush
(1931).

 Digital: debido a que las magnitudes que en ellos se almacenan varían en forma discreta
(por dígitos) estos funcionan secuencialmente es decir instrucción por instrucción. Poseen
una gran exactitud.
Características de las computadoras digitales:
 Su funcionamiento esta basado en el conteo de los valores que le son introducidos.
 Este tipo de computadora debe ser programada antes de ser utilizada para algún fin
específico.
 Son máquinas de propósito general; dado un programa, ella pueden resolver virtualmente todo
tipo de problemas.
 Son precisas, proveen exactamente la respuesta correcta a algún problema específico.
 Estas computadoras tienen una gran memoria interna, donde pueden ser introducidos millones
de caracteres.

Estas son las más utilizadas. En la actualidad el 95 % de los computadores utilizados son digitales
dado su gran utilidad a nivel comercial, científico y educativo.
Algunos ejemplos son: la primera computadora digital se llamó ATONOSOFF BERRY
COMPUTER desarrollada en 1939 por personal Digital Asistant (PDA), otra fue la DESTOP
desarrollada por la Universidad del Estado de Lowa, luego le siguió la ENIAC (Integrado
electrónico numérico y calculadora) que fue la primera computadora digital fabricada en gran
escala.

 Híbridas: es un sistema construido de una computadora digital y una análoga, conectados


a través de un interfaz que permite el intercambio de información entre las dos
computadoras y el desarrollo de su trabajo en conjunto. Aúna las propiedades de exactitud
y rapidez. Se las utiliza en el control de procesos, en robótica, espacial para calcular las
trayectorias de los vehículos lanzados hacia la luna.
Un precedente del ordenador Digital es el ábaco, un precedente del ordenador Analógico es la
regla de cálculo.

Según Propósitos:
 General: pueden ser usados para cualquier tipo de proceso de datos.
 Especial: construidos para ser usados en un tipo de aplicación particular o una industria
determinada, por ejemplo control de tráfico telefónico aéreo.

Según su capacidad:
 Macrocomputadoras (Mainframes): son computadoras de uso general, también se
instalan en ambientes controlados. Tiene gran capacidad de procesamiento y capacidad
de manejo de puertas de entrada y salida.
Por tener gran capacidad de almacenamiento, es capaz de tener una colección simultánea
con muchas terminales. Se utiliza mucho en las empresas de gran tamaño, bancos, etc. Es
capaz de realizar varios millones de operaciones, por segundo.
Es un sistema de aplicación general, cuya característica principal es el hecho de que el
CPU es el centro de casi todas las actividades de procesamiento secundario. Por lo
general cuenta con varias unidades de discos para procesar y almacenar grandes
cantidades de información. El CPU actúa como arbitro de todas las solicitudes y controla el

12
acceso a todos los archivos. El usuario se dirige a la computadora central de la
organización cuando requiere apoyo del procesamiento.
Tenemos como ejemplo el DEPARTAMENTO DE VEHÍCULOS AUTOMOTORES, la cual
tiene muchos empleados, que trabajan con terminales de computadora. Una Terminal es
una especie de computadora que no tiene su propio CPU o almacenamiento; es solo un
dispositivo de entrada y salida que actúa
como una ventana hacia otra computadora
localizada en alguna parte. Todas las
terminales están conectadas a una base de
datos común. La base de datos esta
controlada por una computadora mainframe
que puede manejar las necesidades de
entrada y salida de todas las terminales
conectadas a ella.
Era usual que las computadoras mainframe ocuparan cuartos completos o incluso pisos
enteros de edificios.
Un buen ejemplo de este tipo de computadoras es la IBM 3090 de la Internacional
Bussines Machines (IBM), capaz de soportar aproximadamente 5000 terminales
conectadas.

 Minicomputadoras: En 1960 surgió la mini computadora, una versión más pequeña de la


microcomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los
periféricos que necesita un Mainfren, y esto ayudo a reducir el
precio y costo de mantenimiento. En general, una mini
computadora, es un sistema multiproceso (varios procesos en
paralelo) que es capaz de soportar de 10 hasta 200 usuarios
simultáneamente. Actualmente se usa para almacenar grandes
bases de datos, automatización industrial y aplicaciones
multiusuario. Sus principales aplicaciones abarcan áreas de
ingeniería, universidades, laboratorios de investigación.
Dos ejemplos típicos de este tipo de computadoras son la VAX de
Digital Equipment Corporation.

 Microcomputadoras: Es un dispositivo de computación de sobre mesa o portátil, que


utiliza un microprocesador como su unidad central de procesamiento o CPU.
Los microordenadores más comunes son las computadoras u ordenadores personales, PC,
computadoras domesticas, computadoras para las pequeñas empresas o micros. Las mas
pequeñas y compactas se denominan laptops o portátiles, por caber en la palma de la
mano. Cuando los microordenadores aparecieron por primera vez, se consideraban
equipos para un solo usuario, y solo eran capaces de procesar cuatro, ocho o dieciséis bits
de información a la vez. Con el paso del tiempo, la distinción entre microcomputadoras y
grandes computadoras corporativas o Mainframe (así como los sistemas de menor tamaño
denominados Minicomputadoras) han perdido vigencia ya que los nuevos modelos de
microordenadores han aumentado la velocidad y capacidad
de procesamientos de datos de sus CPUs a niveles de treinta
y dos bits y múltiples usuarios.
Los microordenadores están diseñados para uso domésticos,
didácticos, de oficinas. En casa pueden servir como
herramienta para la gestión domestica (cálculos de impuestos,
almacenamientos de recetas) y como equipo de diversión
(juegos de computadoras, catálogos de discos y libros). Los
escolares pueden utilizarlos para hacer sus deberes, y de
hecho, muchas escuelas públicas utilizan estos dispositivos para cursos de aprendizaje
programado independiente y cultura informática. Las pequeñas empresas pueden adquirir
microcomputadoras para los procesamientos de texto para la contabilidad, y el
almacenamiento y gestión de correo electrónico.

13
Orígenes: el desarrollo de las microcomputadoras fue posible gracias a dos innovaciones
tecnológicas en el campo de la microelectrónica: el circuito integrado, también llamado IC
(acrónimo de Integrate Circuits), que fue desarrollado en 1959; y el microprocesador que
apareció por primera vez en 1971. El IC permite la miniaturización de los circuitos de
memoria de la computadora y el microprocesador redujo el
tamaño de la CPU a una sola pastilla o chip de silicio. El hecho de
que la CPU calcule, realice operaciones lógicas, contenga
instrucciones de operación y administre los flujos de información
favoreció el desarrollo de sistemas independientes que
funcionaron como microordenadores completos. El primer
sistema de sobremesa de tales características, diseñado
específicamente para uso personal, fue presentado en 1974 por
MICRO INSTRUMENTATION TELEMETRY SYSTEMS (MITS).

ANTECEDENTES HISTÓRICOS DE LOS ORDENADORES.


Del ábaco a la computadora personal: el ábaco y la computadora personal son dos pequeños
dispositivos para procesos de datos separados por miles de años de historia.
Por mucho tiempo los seres humanos vivieron sin registrar
la información en forma permanente. Alrededor de 3.500 a.
C. los mercaderes babilónicos mantenían archivos en
tabletas de barro. El ábaco fue uno de los primero
instrumentos manuales para calcular.
Las técnicas de archivado se siguieron desarrollando a
través de los siglos (las auditorias de los griegos, los
presupuestos de los Romanos, etc.). En 1.642 Blas Pascal,
desarrollo la primera máquina calculadora mecánica. Unos treinta años mas tarde, el matemático
alemán Gottfried Von Leibniz mejoró el invento de Pascal produciendo una máquina que podía
sumar, restar, multiplicar, dividir y extraer raíces.
En la década de 1880 el procesamiento de datos en los Estados Unidos se llevaba a cabo con
lápices, plumas y reglas. Por esas fechas se inventó el
equipo electromecánico para trabajar con tarjetas
perforadas (tejedor Francés quien las utilizó para
controlar sus telares mecánicos). El inventor de la
técnica de tarjetas perforadas fue Herman Hollerith,
quien inventó la máquina del censo, la cual solo
necesitaba una octava parte del tiempo por lo que la
utilizaron en el censo de 1890. En 1896 comenzó a
fabricar y vender su invento, mas tarde su firma se fusionaría con otras para formar IBM
Corporations. El procesamiento de tarjetas perforadas que se basó en registrar primero los datos
de entrada en forma codificada haciendo perforaciones en tarjetas, luego las tarjetas se
introducen en una serie de máquinas electromecánicas que realizan los pasos de procesamientos.
Los primeros avances del desarrollo de la computadora: a unos cincuenta años de los trabajos de
Hollerith, el matemático Charles Babbage propuso una máquina a la que le dio el nombre de
―Máquina Analítica‖ adelanta cien años a su época. La matemática Ada Lovalece ayudó a
Babbage a corregir algunos errores e inventó formas novedosas de enfocar el diseño de
programas empleando tarjetas perforadas. Al morir Babbage, el desarrollo de las computadoras se
detuvo hasta 1937; las tarjetas perforadas dominaron el mundo de proceso de datos.
Luego en la Universidad de Harvard, por un proyecto entre la IBM y Howard H. Aiken (profesor),
se construiría una máquina calculadora automática la cual combinaba tecnología eléctrica y
mecánica con la técnica de tarjetas perforadas; el proyecto se completo en 1944; el aparato se
denomino computadora digital MARK I, esta era una computadora electromecánica.

14
El primer prototipo de computadora electrónica se concibió entre
1937 –1938 por el Dr. J. Atanasoff; este decidió construir la suya
debido a que ninguna de las calculadoras disponibles en ese
entonces era adecuada para sus necesidades y formó un equipo
con Clifford Berry. Luego comenzó a construir la primera
computadora electrónica (computadora Atanasoff-Berry o ABC). La
ABC empleaba bulbos al vació para almacenar datos y efectuar
operaciones aritméticas y lógicas; esta se diseño con el objetivo
especifico de resolver sistemas de ecuaciones simultaneas.
ENIAC fue la primera computadora electrónica de aplicación general que entró en funcionamiento.
Financiada por él ejercito de Estados Unidos, se construyo como proyecto secreto durante la
guerra. También se utilizaron bulbos al vacío. Esta podía hacer trescientas multiplicaciones por
segundo lo que la hacia trescientas veces más rápida que cualquier
otro dispositivo de la época. Las instrucciones de operaciones de
ENIAC no se almacenaban internamente más bien, se introducían
por medio de tableros de clavijas e interruptores localizados en el
exterior. El ejército la utilizó hasta 1955 y después se coloco en el
Smithsonian Institutions.
A mediados de 1940, el matemático John Von Neumann escribió un
trabajo sugiriendo utilizar sistemas de numeración binarios para construir computadoras y que las
instrucciones para las computadoras se almacenaran internamente en la máquina. La primera de
esas ideas se basó en que, el sistema de numeración binaria utiliza únicamente dos dígitos (0 y 1)
en vez de los diez dígitos (0 y 9) del sistema decimal con el que todo mundo estamos
familiarizados. El concepto binario simplificó el diseño del equipo. La segunda idea era que, los
programas se podían almacenar de la misma forma como se
almacenaba los datos.
Aunque estas ideas no se incorporaron en ENIAC se dedicaron a la
tarea de construir una máquina que pudiera almacenar programas,
la primera computadora electrónica de programa almacenado
corresponde a la EDSAC terminada en 1949.
La carrera para entrar al mercado y el retraso sufrido por EDVAC,
hizo que Eckert y Maushli fundarán su propia compañía en 1946.
Comenzaron a trabajar en la Computadora Automática Universal (UNIVAC). Fue en 1951 que, la
UNIVAC I comenzó a funcionar en la oficina del censo. Cuando la UNIVAC desplazo al equipo de
tarjetas perforadas en la oficina del censo, el hijo del fundador de IBM, reacciona rápidamente
para introducir a la IBM en la era de la computación.
La IBM 650 entró en servicio a fines de 1954, siendo una máquina
relativamente barata para aquella época, tuvo gran aceptación y dio a
la IBM liderazgo en la producción de computadoras en 1955. Entre
1954–1959 se utilizaron computadoras para procesar datos y tareas
rutinarias; se comprobó que la computadora era un procesador rápido,
exacto e incansable de grandes cantidades de información.

DESARROLLO DE LAS COMPUTADORAS PERSONALES.


Los pioneros de las computadoras personales: en 1974 se anunció la construcción de la primera
computadora personal. Constituida alrededor de un microprocesador, llamada SCELBI-8H, que
más tarde sería la ALTAIR 8.800 (diseñada con base en una pastilla de Intel). Se creó la Microsoft
Corparations para vender el programa de Basic Gates-Allen y la licencia de Microsoft se concedió
a MITS a fines de 1975. Actualmente, Microsoft es uno de los principales proveedores de
programas para computadoras personales.
Los primeros éxitos: en 1976 un joven técnico llamado Steve Wozniak creó la Apple I pero a fines
del verano Wozniak ya estaba trabajando sobre el diseño de la Apple II. A fines de 1977, las

15
máquinas que dominaban el mercado eran la Apple II, TRS_80 y varias otras marcas. La mayor
parte de los programas de aplicación escritos antes de 1980 estaban diseñados para utilizarse
con estas computadoras.
Los años recientes: al comienzo de la década de 1980, se introdujo una nueva generación de
modelos de escritorios más poderosos para emplearse en las escuelas y oficinas. IBM entró en el
mercado con su familia de computadoras PC logrando enorme éxito. Pero aparecieron en forma
paralela compañías pequeñas que ofrecían equipos y programas nuevos. Se desarrollo el primer
software integrado con ventanas alrededor de 1970. Sin embargo, estas ideas aparecieron en un
producto comercial cuando Xerox introdujo su 8010 en 1981. Los datos y programas se
presentaban en la pantalla por medio de imágenes pequeñas llamadas iconos.
Los ingenieros de Apple diseñaron una computadora de menor costo que incluía muchas de las
características de Xerox 8010. Este sistema de Hardware-Software, llamado Lisa se anunció en
1983. En el año 1984 se introdujo la Apple Macintosh, también se introdujeron docenas de
paquetes integrados diseñados para las computadoras personales más populares y los
vendedores de equipos se apresuraron a crear sistemas para apoyar la orientación grafica que
prefieren muchas personas al interactuar con computadoras personales.

Apple Macintosh Xerox 8010 Apple II Apple I ALTAIR 8.800

GENERACIÓN DE ORDENADORES Y CARACTERÍSTICAS MÁS IMPORTANTES


Primera Generación (1940-1952): la constituyen todas aquellas computadoras
que diseñadas a base de válvula de vacío, como principal elemento de control y
cuyo uso fundamental fue la realización de aplicaciones en los campos científicos y
militar. Se utilizó como lenguaje de programación el lenguaje máquina y como
únicas memorias para conservar información las tarjetas perforadas, la cinta
perforada.

Segunda generación (1952-1964): al sustituirse la válvula de vació por el transistor, comenzó la


llamada segunda generación de computadoras. En ella las máquinas
ganaron potencia y fiabilidad, perdieron tamaño consumo y precio, lo que
las hacia mucho más practicas y accesibles. Las computadoras de la
segunda generación eran sustancialmente más pequeñas y rápidas que las
de bulbo, y se usaban para nuevas aplicaciones; como los sistemas de
reservación en líneas aéreas, control de transito aéreo, y simulaciones para
uso general. Las empresas comenzaron a aplicar las computadoras a
tareas de almacenamiento de registro, como manejo de inventarios, nomina
y contabilidad. La marina de Estados Unidos utilizó las computadoras para
crear el primer simulador de vuelo. Comenzaron además a utilizarse los llamados lenguaje de
programación evolucionado, que hacían más sencilla la programación entre ellos. Podemos citar
el Ensamblador y algunos de los denominados de alto nivel, como Fortran, Cobol y Algol. También
comenzaron a utilizarse como memoria interna los núcleos de ferrita y el tambor magnético, y
como memoria externa la cinta magnética y los tambores magnéticos.

Tercera generación (1964-1971): en esta generación el elemento más


significativo es el circuito integrado aparecido en 1964, el cual consistía
en el encapsulamiento de una variada cantidad de componentes
discretos tales como resistencias, condensadores, diodos, y transistores.

16
Conformando uno o varios circuitos con una función determinada, sobre una pastilla de silicona o
plástico. La integración en miniaturización se extendió a todos los circuitos de la computadora,
apareciendo las mini computadoras. El software evolucionó considerablemente con un amplio
desarrollo de los sistemas operativos, en los cuales se incluyó el tiempo real, la multiprogramación
y el modo interactivo. Comenzaron a utilizarse también las memorias de semiconductores y los
discos magnéticos.

Cuarta Generación (1971-1981): aquí aparece el microprocesador, consistente en la


integración de toda la CPU de una computadora en un solo circuito
integrado. Dos mejoras en la tecnología de las computadoras marca el
inicio de la cuarta generación: por un lado el reemplazo de las memorias
con núcleos magnéticos, por las de chips de silicio, y por el otro la
colocación de muchos más componentes en un chips. La tecnología
utilizada es la LSI (integración a gran escala) que permitió la fabricación
de microcomputadoras y computadoras personales, así como las
computadoras monopastillas. Se utilizó, además, el disquete (floppy disk)
o unidad de almacenamiento externa. Aparecieron una gran cantidad de
lenguajes de programación de todo tipo y las redes de transmisión de
datos (teleinformática) para la interconexión de computadoras.

Quinta Generación (1981- ....): Alrededor del año 1981 los principales países productores de
nuevas tecnologías (Estados Unidos y Japón) anunciaron una nueva generación. Estas nuevas
tecnologías surgieron dentro de la computación como: Inteligencia Artificial, Sistemas Expertos
y Realidad Virtual.
Los japoneses iniciaron el desarrollo de lo que llamaron una computadora inteligente haciendo un
uso extensivo de la inteligencia artificial.
La inteligencia artificial es el campo de estudio que trata de aplicar los procesos de
razonamiento humano utilizados para la resolución de problemas, a una computadora. Si alguna
vez pueden incorporarse estos procesos en una computadora, se estará ante la posibilidad de
poder comunicarnos con ella muy similarmente a como nos comunicamos con otros humanos, en
lo que normalmente se conoce como lenguaje natural. Para que una computadora use tal
lenguaje, necesitará un cierto conocimiento que sea similar a la cultura general de cada ser
humano.
Las características generales de esta generación son
 Utilización de componentes integrados a muy alta escala (VLSI).
 Computadoras con inteligencia artificial.
 Utilización del lenguaje natural (lenguaje quinta generación).
 Interconexión entre todo tipo de computadora, dispositivos y redes (redes integradas).
 Integración de datos, imágenes y voz (en torno multimedia).

17

También podría gustarte