Modulo-4 Informatica 1 2016

También podría gustarte

Está en la página 1de 23

Universidad Nacional del Nordeste

Facultad de Ingeniería
Secretaria de Integración Estudiantil
Sistema de Acción Tutorial

INICIO ADELANTADO DE
CLASES DE PRIMER AÑO

MÓDULO 4 2015

INFORMATICA

2016
Autoridades
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

Rectora de la UNNE Prof. Delfina VEIRAVÉ

Facultad de Ingeniería

Decano Ing. José Leandro BASTERRA

Vice-Decano Ing . Arturo Alfredo BORFITZ

Secretario Administrativo Ing. Gustavo Horacio DEVINCENZI

Secretario de Investigación y Posgrado Dr. Ing. Mario Eduardo DE BORTOLI

Secretario Académico Ing. Arturo Alfredo BORFITZ

Secretaria de Integración Estudiantil Ing. María Teresa CLEMENTE

Secretario de Extensión y Transferencia Prof. Juan José CORACE

Compilador Arturo Alfredo Borfitz

Material elaborado por

Ing. Gustavo Devincenzi

Edición Bárbara Lockett

Editorial Facultad de Ingeniería

Resistencia, diciembre de 2016

Este Módulo intenta brindar conocimientos sobre conceptos in troductorios de


Informática, para comprender el significado del término y conocer los
componentes de la computadora y su evolución en el tiempo.

3
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

En la primera parte de este Módulo observaremos que el tratamiento de la


información es tan antiguo como el hombre. A lo largo de su historia no ha
parado de crear máquinas y métodos para procesarla. En esta sección
descubriremos el origen del vocablo, los tipos de operaciones que pueden
llevarse a cabo y sus elementos básicos.

Objetivos
o Adquirir una visión global de un sistema informático: procesador, memoria y periféri-
cos, orientados a la solución de problemas mediante la ejecución de un programa.
o Distinguir y clasificar los elementos que forman parte de un sistema informático.
o Identificar los momentos más importantes en la evolución de los medios de proce-
samiento y tratamiento de la información a lo largo de la historia de la humanidad.

Contenidos
1. Definición y origen del término Informática.
2. Elementos y conceptos fundamentales.
3. Dato e información.
4. Tipos, evolución e historia de las computadoras.
5. Estructura general de una computadora.
6. Aplicaciones de la Informática.

4
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

Definición y origen del término Informática

El hombre, en su afán de comunicarse, ha necesitado transmitir y tratar la información de ma-


nera continua y para ello ha creado métodos y máquinas que la procesan. De esta manera
surge la Informática.
Con la aparición de las primeras computadoras en la década del „50 y su gran difusión en los
años ‟80, con la creación de las primeras PC (Computadoras Personales), surge una nueva
manera de tratamiento de la información, teniendo en cuenta su gran importancia en el mun-
do actual y el gran volumen que se procesa.

El término Informática se creó en Francia en el año 1962 bajo la denominación “Informátique”


y procede de la contracción de la palabra INFORmación autoMÁTICA.

Informática es el conjunto de conocimientos científicos y técnicas que hacen posi-


ble el tratamiento automático y racional de la información por medio de compu-
tadoras.
Otra definición de Informática sería: Ciencia del tratamiento automático y racio-
nal de la información considerada como el soporte de los conocimientos y las
comunicaciones.

Por automático se refiere a que la máquina es la encargada de la captura, proceso


y presentación de la información.
Entendemos por racional a que todo proceso ejecutado por la máquina está regu-
lado por una secuencia de instrucciones (los programas) que siguen el razonamien-
to del hombre.

Entre las funciones más importantes de esta ciencia están:

 Desarrollo de nuevas máquinas.


 Desarrollo de nuevos métodos.
 Construcción de aplicaciones informáticas.
 Optimización de métodos y aplicaciones existentes.

5
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

Elementos y conceptos fundamentales


A continuación veremos definiciones de los términos
más utilizados de la Informática:

 Computadora: máquina compuesta de elementos físicos, en su mayoría de origen


electrónico, capaz de realizar una gran variedad de trabajos a gran velocidad y pre-
cisión, siempre que se le brinden las instrucciones adecuadas.
 Programas: conjunto de órdenes que se le dan a una computadora para realizar un
proceso determinado.
 Aplicación Informática: uno o más programas y la documentación pertinente.
 Sistema: conjunto de partes integradas para lograr un objetivo.

Por lo tanto, la computadora es un sistema por ser un conjunto de partes integradas que tie-
nen el objetivo de ejecutar instrucciones de un programa.
 Sistema Informático: conjunto de elementos necesarios, denominados recursos,
como por ejemplo computadoras, terminales, impresoras, etc., para el tratamiento
de la información.
 Información: conocimiento producido como resultado del procesamiento de los da-
tos. En un sentido más estricto, existe información cuando lo aportado sirve para la
toma de una decisión.
 Carácter: es cualquier símbolo numérico, alfabético o especial que se emplea en la
escritura y en el cálculo:
- Numéricos: 0, 1, 2, 3, 4,......, 9
- Alfabéticos: a, b, c, d, e,.......z, A, B, C,....., Z
- Especiales: *, /, -, +, ”, @, :, ;, _, ?, !, ...
- De control: retorno de carro, fin de archivo, tabulador,...

Dato e información
Dato
El dato (del latín datum) es una representación simbólica (numérica, alfabética, algorítmica
etc.), atributo o característica de una entidad. El dato no tiene valor semántico (sentido) en sí
mismo, pero convenientemente tratado (procesado) se puede utilizar en la realización de
cálculos o toma de decisiones.
Según los autores Saroka y Collazo:

Un dato es una re-presentación formalizada de entidades o hechos, adecuada


para la comunicación, interpretación y procesamiento por medios humanos o au-
tomáticos.
Información es el significado que una persona asigna a un dato.

6
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

Como se aprecia, un dato no constituye algo significativo como para posibilitar una decisión
ya que constituye una simple descripción o representación de hechos, acontecimientos o es-
tados. El dato es un material de valor escaso o nulo para un individuo en una situación con-
creta. Esa significación o valor la otorgará un proceso determinado que transformará al dato
en información:

El Procesamiento de la información consiste en operar o procesar un conjunto de datos de


entrada, obteniendo como resultado del mismo un conjunto de datos finales o de salida al que
denominamos información, todo en relación al procesamiento realizado.

Este procesamiento de la información está constituido


por las siguientes actividades:

ƒ Recolección
Entrada 1 ƒ Depuración/Verificación
ƒ Conversión
ƒ Almacenamiento
PROCESAMIENTO

DE LA ƒ Aritmético
Proceso 2 ƒ Lógico
INFORMACIÓN

ƒ Generación de resultados
Salida 3 ƒ Distribución de resultados

1. Los datos deben ser registrados antes de procesarse. Pueden ser captados automática-
mente (por la computadora o sistemas de captación específicos, por ejemplo detectando
sonidos, temperaturas, códigos de barras, etc.) o ingresados en forma manual (normal-
mente como letras, números u otros caracteres).

2. Sobre los datos de entrada podemos realizar operaciones:


 Aritméticas: sumas, restas, divisiones... (sobre datos numéricos)
 Lógicas mayor que..., menor que..., etc., de ordenamiento, de clasificación, etc. (so-
bre todo tipo de datos)

3. Una vez que han sido procesados los datos de entrada, sobre ellos se pueden realizar
operaciones como:
 Almacenamiento en un soporte de información.
 Recuperación de la información a través de consultas, comunicación o distribución
de la información al destinatario -llamado usuario final- para la toma de una deci-
sión.

7
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

Entonces vemos que en el tratamiento de la información aparecen implicadas algunas o todas


las operaciones que a continuación se exponen:
 Lectura: consiste en adquirir la información que luego será utilizada en otras opera-
ciones.
 Almacenamiento de la información en un soporte para hacer uso de ella cuando se
precise.
 Clasificación: permite ordenar la información guardada en un medio de almacena-
miento. De este modo podemos acceder cuando sea necesario a una parte o a la
totalidad de la información.
 Cálculo aritmético y lógico: nos permite procesar operaciones aritméticas y lógi-
cas.
 Copia: consiste en transcribir la información a otro soporte.
 Escritura: consiste en mostrar la información, lo que debería ser de una manera
clara y ordenada sobre un soporte dado, por ejemplo papel. La diferencia con res-
pecto a la copia es que en este caso la información a mostrar deberá ser lo más le-
gible y entendible para el usuario (no para la máquina), mientras que en la copia di-
cha información se encuentra en un formato que la máquina reconoce.

Información. Efectividad y eficiencia.

Por regla general, cuanto más sirva la información para reducir la incertidumbre en las deci-
siones que se toman en todos los niveles, mayor será su valor. Pero, a semejanza de otros
recursos básicos con que se cuenta, la información no suele ser gratuita. Casi siempre es
preciso comparar el costo de adquisición de la información con los beneficios que se pueden
obtener de su uso. Así como en términos económicos no tiene sentido gastar cien pesos para
extraer carbón de una mina por valor de 75 pesos, es igualmente absurdo producir informa-
ción que cuesta cien pesos si dicha información no conduce a acciones que produzcan una
utilidad mayor. En términos generales, la información que es precisa, oportuna, completa y
concisa es más útil que la información que carece de una o más de estas características. Sin
embargo, a menudo se hacen concesiones respecto a una o más de estas propiedades, por
razones económicas.
Si empleamos los conceptos de evaluación propios del análisis de sistemas (efectividad y efi-
ciencia) podemos obtener las conclusiones que en algunos textos se mencionan como princi-
pios de la información.

Efectividad
La efectividad de la información dependerá de:

a. Su capacidad, o grado de incertidumbre que puede reducir (principio de relevan-


cia). Como analizamos antes, la capacidad reposa en los requisitos que hacían el valor
de información. En este punto se suelen mencionar los conceptos de:
 Información por excepción, donde se trata de crear una estructura informativa
que permita filtrar los mensajes posibles, eligiendo aquellos que escapan de unos
límites de normalidad prefijados.
 Información por selección, donde la estructura clasifica los acontecimientos refe-
ridos por los mensajes, según el valor que estos acontecimientos tienen dentro
del conjunto total del problema.

8
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

Este concepto, EFECTIVIDAD, se ha denominado también clasificación A - B - C o


Principio de Pareto y se puede ejemplificar así: en todo sistema donde se concreta un
gran número de acontecimientos, se verifica que unos pocos de ellos representan la
mayor parte del valor total. En un gráfico esta situación se puede visualizar de la si-
guiente forma (ubicar los casos según su valor respecto al problema, de mayor a menor
en la secuencia de las abscisas):

Valor del problema


(en %)

100 %

90

40

A B C

10 40 100
Cantidad de casos ½

En forma aproximada se observará que un 10% de los casos representa un 60% del
valor total (por ejemplo, saldo de deuda de clientes o valor de los productos de un
stock); un 40% representa un 90% y el 60% final representa sólo un 10%.
Aceptando esto, una mejora del 10% en el grupo A dará como resultado un efecto total
del 6%, mientras que en el grupo C este efecto sólo se consigue con un cambio del
60%.
La información por selección será aquella que, usando este concepto, se concentra en
el grupo A, toma con menos detalle el grupo B y asigna una mínima importancia al gru-
po C.

b. La confiabilidad, que representa a la seguridad que ofrece un mensaje respecto del


estado que confirma (principio de corrección). Un punto fundamental en esta cues-
tión es la precisión requerida en la medición que implica la información. Cuanto mayor
precisión se requiera, mayor posibilidad de incorrección y, consecuentemente, para lo-
grar un grado determinado de confiabilidad habrá que incurrir en costos adicionales.
La precisión es la razón entre la información correcta y la cantidad total de información
que se produce en un período. Si se producen 1000 elementos de información y 950 de
estos elementos reflejan correctamente la situación real, entonces el nivel de precisión
es de 0.95. El que este nivel sea o no suficiente dependerá de la información que se
produce. Cincuenta saldos bancarios incorrectos, en una remesa de 1000 estados de
cuenta, son intolerables. Pero si los registros de inventarios físicos de grandes cantida-
des de piezas de bajo costo logran un nivel de precisión de 0.95, podría considerarse
aceptable. En el caso de los estados de cuenta bancarios, es necesario obtener mayor
precisión. En el caso de inventario de piezas, podría lograrse mayor precisión, pero el

9
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

valor adicional que tendría para los gerentes el contar con un inventario más preciso
podría ser menor que los costos adicionales que implicaría el obtenerlo.
Hay que tener presente que la corrección no es una propiedad absoluta, sino relativa al
uso a dar a la información. Por ejemplo, para ciertos fines legales, la utilidad de la em-
presa debe ser expresada con una precisión de centavos; para calcular una tendencia
con datos de 20 años, se puede trabajar en miles o millones de pesos.
Cuando no se conoce el uso a dar a un dato, se trata de registrarlo con la mayor preci-
sión posible, por si acaso. Esta política obliga a costos adicionales, no siempre justifi-
cables.
Alguien mencionó en una oportunidad que con 4 dígitos significativos y el orden de
magnitud, era suficiente para cualquier tipo de decisión. La experiencia confirma que,
salvo para requerimientos legales (no informativos), este principio es satisfactorio.

c. La disponibilidad, consiste en poder contar con la información cuando hay posibilidad


de decidir (principio de oportunidad).
La oportunidad es otra característica importante de la información. No es mucho con-
suelo para un gerente saber que la información era precisa si llegó demasiado tarde
para servir de algo. La precisión no basta por sí sola. ¿Cuál debe ser la rapidez de res-
puesta del sistema de información? Desafortunadamente, en este caso tampoco es po-
sible dar una respuesta apropiada para todas las situaciones. En el caso de informes
periódicos, una respuesta inmediata después de cada transacción produciría un torren-
te constante de documentos. El resultado sería una costosa avalancha de papel que
abrumaría a los gerentes, por lo que a menudo se requiere un equilibrio. El tiempo de
respuesta deberá ser lo bastante corto como para que la información no pierda su fres-
cura y su valor, pero deberá ser lo bastante largo como para que se reduzca el volu-
men (y el costo) y revele tendencias importantes que indiquen cuándo es necesario ac-
tuar. Por supuesto, cuando se requiere el acceso instantáneo a cierta información para
la que el tiempo es crítico, es preciso utilizar sistemas en línea de respuesta rápida.

Eficiencia
La eficiencia de la información depende de la relación del valor y del costo de la misma, es
decir que para que la información sea considerada eficiente debe proporcionar un grado de
utilidad que justifique el empleo de los recursos que se necesitan para producirla.

Economía: El costo de producir una información no debe ser superior al beneficio que se
espera de su utilización.
La información es un bien económico. Al igual que cualquier otra mercadería:
 Se puede comprar y vender.
 Puede envejecer y tornarse obsoleta.
 Se puede almacenar.
 Se puede transportar.
 Puede sobreabundar (stock excesivo) o escasear (stock insuficiente).
 Requiere inversiones de tiempo, recursos o instalaciones.

El costo de la información puede calcularse en forma igual a la empleada para cualquier

10
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

otro de los productos que resultan de la actividad de una organización. El procedimiento


no ofrece variantes respecto del habitualmente seguido en la industria; la diferencia princi-
pal radica en la complejidad del proceso y la definición del criterio a aplicar para costear
algunas informaciones que se obtienen luego de un procesamiento destinado a producir
una información rutinaria imprescindible, por ejemplo, las estadísticas de ventas a partir
del proceso de facturación.
El procesamiento de datos comprende elaboraciones sucesivas donde se obtienen algu-
nos productos (informes) y se actualizan archivos que luego son usados para producir más
información. En algunos casos esta secuencia de elaboración se prolonga por varias eta-
pas, con un buen número de informes producidos durante el ciclo de procesamiento.
Un criterio posible de aplicar es el seguido para asignar las erogaciones específicas a los
subproductos y a productores secundarios. El otro criterio indica que las erogaciones de-
ben repartirse proporcionalmente entre todo lo producido (coproductos).
En éste último caso debe identificarse, además, qué se toma como base para efectuar la
distribución (mensajes incluidos en cada informe, líneas impresas, cantidad de páginas).

Actividad
1. ¿Por qué cree Ud. que se ha automatizado el tratamiento de la información? Piense
algunas razones y escríbalas.
2. Analice y describa alguna tarea en la que usted participa, identificando el procesa-
miento de datos con que se realiza (Entrada/Proceso/Salida) y la eficiencia de la in-
formación en la misma.
Guarde la actividad en la carpeta de Informática que deberá presentar a su tutor
al finalizar el cursado.

Tipos, evolución e historia de las computadoras


Una clasificación de tipos de computadoras, según su capacidad de proceso, es:
 Supercomputadoras.
 Macrocomputadoras o mainframes.
 Minicomputadoras.
 Microcomputadoras o pc´s.

Veamos cada una…

Supercomputadoras
Una supercomputadora es el tipo de computadora más potente y más rápida que exis-
tió en un momento dado. Estas máquinas están diseñadas para procesar enormes can-
tidades de información en poco tiempo y son dedicadas a una tarea específica. Son las
más caras, sus precios alcanzan varios millones de dólares y en algunos casos tienen
restricciones de ventas por su poder logístico. Suelen tener dispositivos especiales de
control de temperatura para disipar el calor que algunos componentes alcanzan a te-
ner. Ejemplos de tareas a las que son expuestas las supercomputadoras:
11
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

 Búsqueda y estudio de la energía y armas nucleares.


 Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
 Estudio y predicción del clima de cualquier parte del mundo.
 Elaboración de maquetas y proyectos para la creación de aviones, simuladores de
vuelo.
Debido a su precio y limitaciones de venta, son pocas las supercomputadoras que se
construyen por año.

Macrocomputadoras o mainframes
Las Macrocomputadoras son también conocidas como mainframes. Los mainframes
son grandes, rápidos y caros sistemas capaces de controlar cientos de usuarios si-
multáneamente, así como cientos de dispositivos de entrada y salida.
Los mainframes tienen un costo que va desde centenas de miles hasta varios millones
de dólares. De alguna forma los mainframes son más poderosos que las supercompu-
tadoras porque soportan más programas y usuarios simultáneamente. Las super-
computadoras en general no suelen atender demasiados usuarios ni demasiados pro-
gramas, sino que tienen un elevado poder de cálculo.
En el pasado, los mainframes ocupaban cuartos completos o hasta pisos enteros de
algún edificio. Hoy en día, un mainframe es parecido a una hilera de archiveros en
algún cuarto en general con piso falso (para ocultar la cantidad de cables de los perifé-
ricos), y su temperatura tiene que estar controlada.

Minicomputadoras
En 1960 surgió la minicomputadora, una versión más pequeña de la Macrocomputado-
ra.
Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesi-
ta un mainframe, y esto ayudó a reducir el precio y costos de mantenimiento.
Las minicomputadoras, en tamaño y poder de procesamiento, se encuentran entre los
mainframes y las estaciones de trabajo. En general, una minicomputadora es un siste-
ma multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200
usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de da-
tos, automatización industrial y aplicaciones multiusuario.

Estaciones de trabajo
Se suele dar esta denominación a equipos orientados a ser utilizados por un solo usua-
rio a la vez, pero que demanda importante cantidad de almacenamiento y de proceso.
Suelen ser aplicaciones muy comunes las de simulaciones, algunas incluso en tiempo
real (se procesa a medida que ingresan los datos) (simuladores de vuelo, simuladores
de procesos, animaciones de video, etc.)

Microcomputadoras o PC´s
Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen al poco
tiempo de la creación de los microprocesadores. Un microprocesador es "una compu-
tadora en un chip", es un circuito integrado independiente donde se encuentran las
principales funcione de la CPU, cuestión que veremos con más detalle más adelante.
Las PC´s son computadoras para uso personal, relativamente económicas, que ac-
tualmente se encuentran en las oficinas, escuelas y hogares.

12
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

El término PC se origina en el año 1981, cuando IBM® saca a la venta su modelo "IBM
PC", orientada a la Computación Personal (Personal Computing), dirigiéndose a un
mercado hogareño emergente que estaba utilizando las denominadas en ese entonces
“Home Computers”. El término "PC" se estandarizó; el uso de este tipo de equipos se
propagó rápidamente y se comenzaron a diseñar aplicaciones ofimáticas que comenza-
ron a requerir mayores capacidades de almacenamiento y proceso. Asimismo otras
empresas comenzaron a fabricar “clones”, en virtud que IBM dio a conocer la arquitec-
tura y especificaciones básicas de sus equipos, y que los microprocesadores eran fa-
bricados por terceros (en principio Intel, luego se sumaron Cyrix, AMD), estos equipos
compatibles, fueron llamados "PC compatibles", usando procesadores del mismo tipo
que las IBM, pero a un costo menor y pudiendo ejecutar el mismo tipo de programas.
Existen otros tipos de microcomputadoras, como la Macintosh®, que no son compati-
bles con la IBM, pero que en muchos de los casos son llamadas también "PC´s", por
ser de uso personal.

En la actualidad existen variados tipos en el diseño de PC´s:

 Computadoras personales, con el gabinete tipo minitorre, separado del monitor.


 Computadoras personales, con el gabinete horizontal separado del monitor.
 Computadoras personales portátiles "Laptop" o "Notebook": son aquellas compu-
tadoras que están diseñadas para poder ser transportadas de un lugar a otro. Se
alimentan por medio de baterías recargables, pesan entre 2 y 5 kilos y la mayoría trae
integrada una pantalla de LCD (Liquid Crystal Display).
 PalmTop Computadora pequeña que cabe en la mano y que generalmente se
maneja desde pantalla táctil. Son útiles como agendas, calendario, anotador de
recordatorios, reloj, calculadora, etc. En la actualidad, algunos modelos de telé- fonos
celulares comienzan a tener funciones equivalentes a las PalmTop, y vice- versa,
algunas PalmTop comienzan a tener funciones de telefonía celular
 Estaciones de trabajo o Workstations: son computadoras que facilitan a los usua- rios
el acceso a los servidores y periféricos de la red. A diferencia de un ordena- dor
aislado, tienen una tarjeta de red y están físicamente conectadas por medio de cables
u otros medios no guiados con los servidores. En redes, la palabra "workstation" o
"estación de trabajo" se utiliza para referirse a cualquier compu- tadora que está
conectada a una red de área local

Supercomputadora “cray 1” Maiframes Pc con gabinete horizontal

13
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

Pc con Gabinete minitorre Laptop o notebook Computadoras personales que


tienen en una sola unidad com-
pacta el monitor y el CPU

Palmtop, computadora de mano Estaciones de trabajo

Actividad

Ahora le proponemos que reflexione sobre cómo la informática y sus elementos han modi-
ficado las actividades cotidianas del hombre actual.
Mencione algunos ejemplos.

Guarde la actividad en la carpeta de Informática que deberá presentar a su tutor al finalizar


el cursado.

Evolución de la computadora

El desarrollo de este tema ayudará a comprender cómo han evolucionado los medios de pro-
cesamiento y tratamiento de la información a lo largo de la historia de la humanidad, poniendo
especial énfasis en la etapa de la construcción de las primeras computadoras hasta la actua-
lidad.
 Ábaco: primer dispositivo de cálculo. Era un marco de madera dividido en dos partes, y una
serie de varillas verticales que corresponden, cada una, a un dígito o cifra. El más antiguo se
remonta al año 3.500a.C. Servía para representar números en el sistema decimal y contarlos,
permitiendo operaciones sencillas. Más tarde, hacia el año 2.600a.C. apareció el ábaco chino.
 Año 1614: el matemático escocés John Napier, inventa los logaritmos naturales o ne-
perianos. En un intento de simplificar las operaciones construye las primeras tablas,
transformando la multiplicación en una suma de logaritmos de los números a multipli- car, la
división en una resta y la potencia en un producto. Ideó un dispositivo intermedio entre el
ábaco y las primeras calculadoras mecánicas, basado en varillas cifradas que contenían
números, capaz de multiplicar y dividir en forma automática.
 Año 1623: el científico alemán Wihelman Schickard ideó una calculadora mecánica que era
capaz de sumar y restar. Esta máquina combinada con la de Napier permitía operaciones de
multiplicación.

14
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

 Año 1642 (Pascaline): el matemático y filósofo francés Blas Pascal creó la primera
máquina de calcular automática completa basándose en ruedas dentadas que simulaba
el funcionamiento del ábaco.
 Año 1672: el filósofo y matemático alemán Gottfried Leibnitz mejoró la máquina de
Pascal construyendo su calculadora Universal (sumaba, restaba, multiplicaba, dividía y
obtenía raíces cuadradas) caracterizándose por multiplicar en forma directa y no por sumas
sucesivas.
 Año 1805: el francés Joseph Jacquard construyó un telar automático que realizaba un
control perfecto sobre las agujas tejedoras utilizando tarjetas perforadas que contenían los
datos para el control de figuras y dibujos a tejer.
 Año 1822 (Máquina de Diferencias): El matemático inglés Charles Babbage, diseñó dos
máquinas de calcular destacadas por su complejidad. La primera estaba basada en
fundamentos mecánicos con ruedas dentadas y se llamó Máquina de Diferencias. En 1833
desarrolló la Máquina Analítica: realizaba todas las operaciones matemáticas con
posibilidad de ser programadas a través de tarjetas de cartón perforado y con capacidad de
almacenar muchas cifras en su interior. Ninguna de las máquinas mencionadas llegaron a
construirse. Se lo llamó padre de la informática por ser el creador de los fundamentos teóricos
de las computadoras actuales.
 Año 1854: el matemático inglés George Boole desarrolló la teoría del álgebra de Boole, que
permitió a sus sucesores el desarrollo del álgebra binaria y su representación de circuitos de
conmutación y la aparición de la “Teoría de los Circuitos Lógicos”.
 Año 1885 (Máquina Tabuladora): el norteamericano y funcionario de la Oficina de
Censos de Estados Unidos Hermann Hollerith, ideó una tarjeta perforada para contener la
información de las personas censadas, y una máquina capaz de leer y tabular dicha
información. En 1895 incluyó en sus máquinas la operación de sumar, utilizándola para tareas
contables: fue la primera vez que se automatizaba una aplicación comercial.
 Año 1936: el matemático inglés Alan M. Turing desarrolló la teoría de una máquina ca- paz
de resolver todo tipo de problemas con solución algorítmica llegando a la construc- ción
teórica de la Máquina de Turing. Esta máquina permite representar un proceso a partir de su
descripción. Con los estudios de Turing se inició la teoría matemática de la computación, en la
que se define un algoritmo como la representación formal de un proceso; en ella se verifica
que no todos los procesos son representables. A partir de ello se llegó a la siguiente
conclusión: “Un problema tiene solución algorítmica si existe una máquina de Turing para
representarla”.
 Año 1937: Howard Aiken desarrolla la idea de Babbage junto a ingenieros de IBM
construyendo la primera computadora electromecánica. Fue denominada Calculadora
Automática de Secuencia Controlada, aunque su nombre más popular fue Mark-I. Ten- ía
16,6 m. de largo por 2,6 m. de alto y pesaba 70 toneladas. Fue construida con
800.000 piezas móviles y un cableado de 900.000 metros.
 Año 1938: el alemán Claude Shannon aplica la teoría de Boole en la representación de
circuitos lógicos y aparece la medida mínima de cantidad de información: el BIT.
 Año 1943-46: John Mauchly y John Eckert construyeron la primera computadora
electrónica denominada ENIAC. Construida a partir de válvulas de vacío. Comenzó a
funcionar en 1945. Era programable y universal, es decir podía ser aplicada a cualquier tipo
de cálculos. Era mil veces más rápida que la Mark-I.
 Año 1944: el ingeniero y matemático John Von Neumann, desarrolla la idea de pro-
grama interno y describe el fundamento teórico de la construcción de la computadora
electrónica. Su idea se basaba en la coexistencia en el tiempo de datos e instrucciones y la
posibilidad de ser programada, sin estar las órdenes cableadas en los circuitos de la
máquina. En 1952 se construyó una máquina, fue el primer intento de la aplicación de esta
teoría. Se denominó EDVAC. Se basaba en señales eléctricas sujetas a retar- do y permitía la
memorización de datos.

15
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

 Año 1949: John Mauchly y John Eckert, tras fundar su propia compañía desarrollaron una
computadora binaria automática llamada BINAC. Realizaba transmisiones de seña-
les internas en paralelo. Con esta computadora se introdujeron novedades como los
diodos semiconductores y las cintas magnéticas.
 Año 1951: Mauchly construye la primera computadora de serie puesta a venta llamada
UNIVAC-I. A partir de 1952 se construyeron computadoras en serie como la UNIVAC-II que
poseía memoria de núcleos de ferrita.

En el cuadro siguiente podrá comparar características y usos de


estos dispositivos utilizados para procesar los datos menciona-
dos hasta aquí.

EVOLUCIÓN DE LAS COMPUTADORAS

NOMBRE / IMAGEN AÑO AUTOR CARACTERÍSTICA


ÁBACO

5000 años Se utiliza en la educación, principios de


--- conteo aritmético.
atrás

PASCALINE

Solo sumar y restar, ocupa una caja


de zapatos. Su diseño se utilizó en
las calculadoras mecánicas de los
Blas Pas-
1642 años 60 y se volvieron obsoletas al
cal
seguir las calculadoras electrónicas.
(Leonardo da Vinci tuvo una visión
150 años antes).

M ÁQUINA DE DIFERENCIAS

Calculaba tablas matemáticas impul-


sada con vapor, no fue terminada y
Charles
1822 se cortó el presupuesto en 1842;
Babbage
tenía 2 m de alto, 3 m de longitud y
4000 partes, pesando 3 toneladas.

16
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

El diseño de esta máquina incluía la


M ÁQUINA ANALÍTICA mayoría de las partes lógicas de un
ordenador actual: el "almacén", el
"taller", el "control", la "entrada" y la
"salida". La máquina se programaba
a través de tarjetas perforadas. La
máquina era capaz de realizar bucles
(repetir una o varias instrucciones el
Charles número de veces deseado), y tam-
1833
Babbage bién era capaz de tomar decisiones
dependiendo del resultado de un
cálculo intermedio (ejecutar una sen-
tencia SI...ENTONCES...).
El sueño de Babbage de construir
esta máquina no pudo realizarse, lo
único que pudo construir fueron pe-
queñas partes.

M ÁQUINA TABULADORA

Máquina tabuladora con tarjetas per-


foradas, acumulaba y clasificaba la
Hermann información. Se utilizó para el censo
1887-90
Hollerith de 1890, le redituó 40.000 dólares y
el Gobierno de los Estados Unidos
se ahorró 5 millones de dólares.

M ARK I
Primera computadora electromecánica,
Tenía 17 m. de largo por 2.5 m. de alto
y pesaba 70 toneladas. Fue construida
Howard con 800.000 piezas móviles y un ca-
1944 bleado de 900.000 metros.
Aiken
Un adelanto significativo, pero IBM no
creía que sustituiría a la de tarjetas
perforadas.

ENIAC
Electronic Numerical Integrator and
Computer (Integrador Numérico
Electrónico y Computadora). Se utilizó
John en la 2ª Guerra Mundial en cálculos
Mauchly y balísticos. Tenía un volumen de
1946
John Eck- 111m3, ocupaba 160 m2 de superficie
ert y pesaba 30 toneladas. Consumía en-
tre 100.000 y 200.000 vatios.
Cuando funcionaba dejaba sin electri-
cidad a Filadelfia.

17
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

EDVAC
Trabajó con Eckert y Mauchly para su
construcción. Él estableció la base del
programa almacenado, fundamental
para el futuro de las computadoras. El
avance principal fue el proveer a la
John Von
1945 máquina de transferencia de control
Newman
condicional y almacenar todas las ins-
trucciones del programa juntas, con los
datos en la misma unidad de memoria.
Este grupo incluyo en sus equipos
memoria RAM.

UNIVAC
Universal Automatic Computer (Com-
J. Presper putadora Automática Universal). Se di-
Eckert y señó para la oficina de censos. Utilizó
1951
John W. bulbos. Pronosticó la victoria de Dwight
Mauchly Eisenhower sobre Adlai Stevenson con
sólo un 5% de votos contados.

Continuamos con la evolución, ya inventadas las


computadoras digitales.

 Año 1964-65: Es inventado en Darmouth College, EE.UU., el lenguaje de programa- ción


BASIC (Código de Instrucciones Simbólicas de Propósitos Generales para Princi- piantes).
Se fabrica en EE.UU. la primera mini computadora que puede colocarse so-
bre una mesa de oficina.
 Año 1971: Intel desarrolla el primer microprocesador INTEL 4004. Ejecuta 60.000 ope-
raciones por segundo.
 Año 1975-77: primera computadora personal (PC) que aparece en el mercado. Se la llamó
ALTAIR de MITS con microprocesador 8088 y 256 bytes de memoria. Se funda la empresa
Microsoft, que desarrolla el sistema operativo D.O.S. Luego comienzan a fabricarse las
computadoras personales en forma masiva como la Commodore.
 Año 1978: aparece la primera hoja de cálculo electrónica VisiCalc.
 Año 1981: IBM lanza la primera PC con microprocesador 8088, 64 kb de Ram y unidad de
disquete de 5,25” de 160 kb de un solo lado y desarrolla su propio S.O. PC/DOS. Se fabrica la
primera computadora portátil.
 Años 1984-86: hasta el momento el software escrito era exclusivamente para IBM PC, pero
con la aparición de la PC lanzada por Compaq, compatible con IBM, se inicia la guerra de los
clones. Compaq lanza la primera PC portátil. Más tarde, IBM saca al mer- cado la PC AT
(Advance Technology), basada en el procesador Intel 80286 con 256 kb de Ram y disco
rígido de 20 mb. Se populariza el S.O. DOS de Microsoft y se lo toma como norma. Aparece
Macintosh: usaba una interfaz con ventanas, menús y mouse. Más tarde Microsoft lanza
Windows para PC. En 1985 Intel introduce al mercado el procesador 80386 y es Compaq
quien lo incorpora como microprocesador de su PC en
1986. Se crean las primeras unidades de CD ROM, aunque tuvieron éxito a partir de los
90´.
 Años 1987-89: IBM lanza la PS/2, varios modelos que usan desde el microprocesador 8086
al más recientemente creado 80386. La novedad es que se toma como norma a partir de
aquí la unidad de disco flexible de 3.5”, tarjeta de video VGA y la arquitectura

18
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

de microcanal. Por el costo Compaq, AST y otros fabricantes impusieron una alternati-
va llamada EISA (Enhaced Industry Standard Architecture). En 1989 Intel muestra su
microprocesador 80486, más rápido que su antecesor y con coprocesador matemático.
 Años 1990-94: a fines del 91 se lanza Windows 3.1 bajo DOS. IBM crea el primer S.O. de 32
bits reales OS/2. La norma es el 386SX de Intel (de 32 bits pero con un bus in- terno de 16
bits). En 1993 se incorpora al mercado Windows NT, S.O. para servidores de red; Intel
desarrolla el microprocesador Pentium que dispone de 4.000 mb de Ram, ejecuta 112
millones de instrucciones por segundo, mide 16mm x 17mm y contiene 3,1 millones de
transistores (VLSI); los discos rígidos son más veloces y de mayor capaci- dad y se
incorporan importantes mejoras en cuanto a la definición gráfica.
 Año 1995-1997: en 1995 Pentium es la norma. Internet existió desde los años 60‟ en
ámbitos universitarios y gubernamentales. A partir de 1993 con la aparición de Mosaic, un
visualizador gráfico, cualquier persona podría acceder y publicar una página en WWW (World
Wide Web), pero se populariza en esta época. Microsoft presenta Win- dows „95: nueva
interfaz que permite trabajar con aplicaciones de 32 bits y en 1996 Windows NT 4.0.
Surgen lenguajes y S.O. orientados a objeto. Java de Sun Microsys- tem, lenguaje diseñado
para ser utilizado en Internet. Intel crea Pentium Pro, y en 1997 lanza las instrucciones MMX
(MultiMedia eXtensions), la primera gran mejora a gran escala del conjunto de instrucciones
desde la creación del 386.

Anteriormente hemos estudiado acerca de la evolu-


ción de las computadoras, ahora veremos cómo éstas
se dividen en generaciones.

Generaciones de computadoras
La evolución de las computadoras digitales suele realizarse conforme los avances tecnológi-
cos en el hardware, dividiéndose en „generaciones‟.

El siguiente cuadro representa las generaciones de


computadoras.

Generación Fechas Características del hardware

1ª 1944-59 Válvulas (tubos de vacíos)

2ª 1959-64 Transistores
Circuitos integrados SSI, MSI y LSI (pequeña, me-
3ª 1964-75
diana y gran escala de integración)
4ª 1975... Circuitos VLSI (muy alta escala de integración)

5ª En desarrollo Computadoras basadas en “inteligencia artificial”

Actividad

Utilizando una línea de tiempo, le proponemos que marque los momentos más trascenden-
tes en la evolución de la computadora. Socialice sus conclusiones con sus compañeros en el
Foro de Discusión.

Guarde la actividad en la carpeta de Informática que deberá presentar a su tutor al fina-


lizar el cursado.

19
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

Si le interesa ampliar este tema podrá hacerlo en:


Wikipedia: Dhttp://es.wikipedia.org/wiki/Historia_de_la_computaci%C3%B3n
Departamento de Matemática Aplicada – Universidad Politécnica de Madrid:
http://orio.eui.upm.es/historia_informatica/Doc/principal.htm

Estructura general de una computadora


Como hemos visto anteriormente una computadora (también denominada ordenador en otros
países de habla hispana) es una máquina capaz de realizar, bajo el control de un conjunto or-
denado de instrucciones, llamado programa, las siguientes acciones propias de un procesa-
miento de datos:

1. Aceptar datos de entrada.


2. Efectuar con ellos operaciones lógicas y/o aritméticas (procesamiento).
3. Proporcionar la información resultante a través de datos de salida.

Las partes principales que podemos distinguir en una computadora son:


ƒ Elementos físicos: denominados HARDWARE.
ƒ Elementos lógicos: denominados SOFTWARE.

Hardware
Es una palabra de origen inglés con la que se hace referencia a toda la parte "dura" de la
computadora, es decir a la maquinaria real utilizada para el procesamiento electrónico de da-
tos.
Todos los sistemas computacionales consisten en alguna combinación de equipamiento prin-
cipal y equipo de apoyo.
El equipo principal (que a menudo se denomina Unidad Central de Procesamiento, UCP
según las iniciales en castellano (o CPU su equivalente en inglés) es la parte principal del sis-
tema; es la máquina que realiza el procesamiento real de datos y programas. El equipo de
apoyo consta de todas las máquinas que hacen posible introducir datos y programas en la

20
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

CPU, obtener información procesada y almacenar datos y programas para tener fácil acceso
a la CPU.
Los equipos de apoyo son denominados periféricos u órganos de entrada/salida (I/O – In-
put/Output).
Los órganos de entrada son dispositivos que convierten los datos y programas en una forma
que la CPU puede entender y procesar: son codificadores.
Los órganos de salida son dispositivos que convierten los datos procesados en una forma que
los usuarios pueden comprender: son decodificadores.
Los dispositivos de almacenamiento secundario son equipos que pueden poner fácilmente a
disposición de la CPU datos y programas usados con frecuencia. Estas funciones a menudo
se superponen en una sola máquina. Por ejemplo, muchas máquinas, trabajan como disposi-
tivos tanto de entrada como de salida. Y todos los dispositivos de almacenamiento secundario
funcionan asimismo como dispositivos de entrada y de salida.

Entonces hemos observado que:

a. Unidad Central de Proceso (CPU): es el cerebro de la computadora. Físicamen-


te está formada por circuitos de naturaleza electrónica que en una microcomputa-
dora se encuentran integrados en una pastilla o chip denominado microprocesa-
dor. Coordina y ejecuta todas las operaciones. Está formada por la Unidad de
Control y la Unidad Aritmético-Lógica.

b. Memoria Central: almacena instrucciones y datos para realizar determinados pro-


cesos. Para que un programa pueda ser ejecutado por una computadora debe es-
tar en memoria; así como los datos que necesiten ser procesados. Está constitui-
da por circuitos integrados.

c. Periféricos de Entrada / Salida: dispositivos que tienen la función de comunicar


información entre el usuario y la computadora, o capaz de manejar un soporte de
información. Pueden ser solo de entrada, solo de salida, o de entrada y salida

d. Soporte de información: medio físico que permite almacenar datos de forma que
la computadora pueda manejarlos o proporcionarlos al usuario de manera inteligi-
ble. Por ejemplo CD, DVD, disquete, etc.

Al momento de conocer la potencia y/o capacidad de determinado hardware, debemos pres-


tar atención a estas partes componentes.

21
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

Memoria masiva

d, i

c
Memoria Principal
(datos e instrucciones)
d

d, i d, i d d
Entrada i Salida
e
Unidad
Unidad de Control
c aritmético – lógica
(UC) c
e (ALU)

d: datos CPU
i: instrucciones

e: señales de estado
c: señales de control e c

Actividad

Analice el hardware del equipo que está utilizando observando los componentes visibles y
descríbalos.

Guarde la actividad en la carpeta de Informática que deberá presentar a su tutor al fina-


lizar el cursado.

Unidad de Información
Los datos que son escritos o leídos por la computadora se re-
presentan a través de diferentes unidades de medición.
Las mencionamos a continuación.

La unidad de información mínima manejable por una computadora es el bit. En virtud que pa-
ra la representación de información el hombre utiliza caracteres (como mencionamos ante-
riormente están los numéricos, los alfabéticos y los especiales), se han elaborado códigos
que permiten interpretar los mismos en los sistemas informáticos. Estos códigos utilizan ac-
tualmente 8 bits, constituyendo esta cantidad una nueva medida conocida como byte.

A partir de ésta se definieron múltiplos que son los siguientes:


1 Kilobyte (KB) = 1.024 bytes
1 Megabyte (MB) = 1.024 Kbytes
1 Gigabyte (GB) = 1.024 Mbytes
1 Terabyte (TB) = 1.024 Gbytes
1 Petabyte (PB) = 1.024 Terabyte

22
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

La relación de 1024 (equivalente a 2^10) fue elegida por ser la potencia binaria más cercana
a 1000.
Actualmente hay planteos de modificar estas denominaciones, a los efectos de que coincidan
los factores de multiplicación con los prefijos en todas las unidades del Sistema Internacional
de medidas (SI). Ello llevaría por ejemplo a que Kilobyte sea igual a 1000 (y no 1024) bytes, y
así sucesivamente con todos los prefijos definidos en el SI. Para ello se propone instituir la
medida Kibibyte para la relación 1 Kibibyte= 1024 bytes, y sucesivamente. Para mayor infor-
mación al respecto pueden consultar: http://es.wikipedia.org/wiki/Prefijos_del_SI

Para mayor información al respecto pueden consultar en Wikipedia:


http://es.wikipedia.org/wiki/Prefijos_del_SI

Software
Es la parte lógica que dota al equipo físico de capacidad para realizar el procesamiento de los
datos. Para estar presente en un sistema informático, un elemento lógico debe almacenarse
en un soporte físico.

Existen diferentes tipos de software, que se clasifican en:

a. Software de base o de sistema: conjunto de programas encargados de la gestión in-


terna de la computadora. Encontramos:
ƒ Sistema Operativo: Conjunto de programas y funciones que controlan el
funcio- namiento del hardware.
ƒ Traductores: ensambladores, compiladores e intérpretes.

b. Software de aplicación o aplicativo: programas que dirigen el funcionamiento de la


computadora.

c. Algunos autores agregan a esta clasificación un tercer grupo al que denominan Soft-
ware de Usuario Final para incluir a las herramientas de Software que permiten el de-
sarrollo de algunas aplicaciones directamente por los Usuarios Finales, sin necesidad
de la intervención de programadores profesionales. Algún tipo de Software para
Usuario Final se emplea para estimular la productividad de los programadores profe-
sionales.

EL ELEMENTO HUMANO es probablemente el más importante de los elementos de la In-


formática. Las personas son fundamentales porque:
ƒ Las computadoras para procesar necesitan un programa, y éste es desarrollado por
profesionales de la informática.
ƒ Los componentes de hardware son diseñados y construidos por personas.
ƒ Cada empresa necesita de un equipo de informáticos para la instalación y manteni-
miento de un sistema informático, y de personas que hagan uso de este sistema,

23
UNIVERSIDAD NACIONAL DEL NORDESTE
FACULTAD DE INGENIERIA
MODULO INFORMATICA

denominados usuarios.

Del elemento humano, podemos distinguir al:

a. Personal informático: profesionales de informática que llevan a cabo tareas de di-


rección, análisis, programación, evaluación, implementación, mantenimiento de sis-
temas, etc.

b. Usuario final: persona que utiliza los recursos computacionales para el procesa-
miento de datos.

Aplicaciones de la informática
Son innumerables las actividades humanas en donde la informática y las comunicaciones se
han convertido actualmente en herramientas fundamentales. Tan es así que han afectando de
forma significativa a la gestión, la dirección y la cultura misma de las organizaciones.
Los incesantes avances en este campo, hacen que sea la imaginación y la creación el factor
principal de las posibilidades de aplicación de la informática.
Habiéndose iniciado para facilitar las operaciones de conteo, hoy nos encontramos con com-
putadoras que tienen posibilidades multimediales, interactividad y realidad virtual, en donde el
límite de lo realizable suele estar más en la creatividad y capacidad de implementarlo que en
la disponibilidad del recurso tecnológico para hacerlo.
Estas posibilidades son un verdadero desafío que obliga a los demandantes de servicio a tra-
bajar en equipo con el personal de informática, a los efectos de optimizar el uso de los recur-
sos y desarrollar e implementar las soluciones que satisfagan sus requerimientos, con la ma-
yor eficiencia posible.

24

También podría gustarte