Está en la página 1de 51

REPUBLICA BOLIVARIANA DE VENEZUELA

LA UNIVERSIDAD DEL ZULIA

FACULTAD DE MEDICINA

ESCUELA DE MEDICINA

CÁTEDRA DE INFORMÁTICA

GUÍA DE INSTRUCCIÓN

INFORMÁTICA
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca Cátedra Informática 2

Los programas e imágenes

presentados aquí le pertenecen

a sus respectivas marcas comerciales,

y se utilizan sólo con un fin didáctico.

ELABORADO POR:

DRA. MINERVA CARDENAS

DRA. RORAXY FONSECA


Dra. Minerva Cárdenas/Dra. Roraxy Fonseca Cátedra Informática 3

Abril 2011
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca Cátedra Informática 4

Los primeros vestigios de cálculo realizado por medios artesanalmente mecánicos,


por decirlo de algún modo, se remontan a 3000 años antes de Cristo (AC). Los babilonios
que habitaron en la antigua Mesopotamia, empleaban unas pequeñas bolas hechas de
semillas o pequeñas piedras, a manera de "cuentas" y que eran agrupadas en carriles de
caña. Más aún, en 1800 AC un matemático babilónico inventó los algoritmos que le
permitieron resolver problemas de cálculo numérico.

El Ábaco

Fueron los egipcios quienes 500 años AC inventaron el primer dispositivo


para calcular, basado en bolas atravesadas por alambres. Posteriormente, a
principios del segundo siglo DC, los chinos perfeccionaron este dispositivo, al cual
le agregaron un soporte tipo bandeja, poniéndole por nombre Saun-pan. El Ábaco
permite realizar sumar, restar, multiplicar y dividir.

La palabra Ábaco proviene del griego ABAX


que significa una tabla o carpeta cubierta de polvo.
Este dispositivo en la forma moderna en que la
conocemos, realmente apareció en el siglo 13 DC y
fue sujeto de varios cambios y evoluciones en su
técnica de calcular.

Actualmente está compuesto por 10 columnas con 2 bolas en la parte


superior 5 en la parte inferior. Los Japoneses copiaron el ábaco chino y lo
rediseñaron totalmente a 20 columnas con 1 bola en la parte superior y 10 en la
inferior, denominándolo Soroban

Actualmente el antiguo ábaco se emplea como método de enseñanza en


las escuelas de los países orientales, aunque es usado regularmente en muchos
de lugares del mundo, particularmente en los pequeños negocios de los barrios
chinos (Chinatowns) en los Estados Unidos de América y Canadá.

Transcurrieron 1300 años antes de que se inventase algún dispositivo


vinculado al cálculo y es sólo entre los siglos XIV al XIX que se suceden una serie
de eventos e importantes aportes, tal como veremos a continuación.

Jonh Napier (1550-1617) Inventor de los logaritmos

En 1550, Inglaterra, nace John Napier. Su principal


contribución es sin lugar a dudas la invención de los
logaritmos, que son un exponente al cual hay que elevar
un número o base para que iguale a un número dado.

Obj100

Obj101
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca Cátedra Informática 5

Con relación al cálculo, publicó una obra titulada "RABDOLOGIAE", que


era un pequeño tratado sobre la forma de ejecutar multiplicaciones. En su
apéndice explicaba un método para multiplicar y dividir usando varillas y placas
metálicas que puesto en la práctica se convirtió en la precursora de las modernas
calculadoras de bolsillo de hoy en día, pese a que este rústico sistema era
inseguro debido a que las varillas no podían ser manejadas con versatilidad. Este
invento era conocido como los "huesos de Napier". En 1590, el matemático
Patridge, basándose en los descubrimientos de Napier, inventó la primera Regla
de Cálculo, dispositivo mecánico que usaban hace años los ingenieros y los
científicos, para multiplicar, dividir, calcular raíces, elevar una potencia y otros
cálculos simples rápidos y aproximados.

La regla de cálculo, que ha


sido sustituida casi por completo por
la calculadora electrónica portátil,
consiste en una regla con escala
logarítmica grabada y una placa de
cálculo central. El principio de la
Obj103

regla de cálculo, es el paso de todas


Obj102 las operaciones a adiciones o
sustracciones equivalentes, que
pueden llevarse a cabo por un conjunto de escalas que se deslizan unas sobre otras, de éste
modo, pueden usarse dos escalas graduadas de manera uniforme para la adición o la sustracción,
como se muestra (figura 1), para 2 + 4 = 6 , si se va a multiplicar 2 por 3, la regla sigue la definición
de logaritmo que dice que Log 2 + Log 3 = Log 6, conforme a esto una escala que está diseñada
logarítmicamente (figura 2), puede usarse para añadir (o sustraer) logaritmos y por lo tanto, para
multiplicar o dividir, ésta consiste en una parte fija superior y otra inferior con varias escalas
impresas y una base central móvil en la que se daban más escalas que disponía de una rueda o
cursor con una línea vertical grabada para que el alineamiento de las escalas fuera más fácil.

Blaise Pascal (1623-1662) La Pascalina

Nació en Clermont-Ferrand, Francia, el 19 de


Junio de 1623. Cuando apenas contaba con 19 años
Blaise Pascal empezó a construir una complicada
máquina de sumar y restar, la cual fue concluida 3
años más tarde. En 1649 gracias a un decreto real
obtuvo el monopolio para la fabricación y producción
de su máquina de calcular conocida como la
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca Cátedra Informática 6

PASCALINA que realizaba operaciones de hasta 8


dígitos.

En 1646 Blaise Pascal empezó sus


experimentos barométricos, los cuales continuó
durante 8 años. En 1654 completó un trabajo
dedicado a las leyes de la hidrostática y a la
demostración y descripción de los efectos del peso del aire.

Gottfried Wilhelm Leibniz (1646-1716) inventor del Sistema Binario

Gottfried Leibniz nació el 1 de Julio de 1646 en


Leipzig, Alemania. Realizó estudios de Leyes en la
universidad de su ciudad natal y en 1675 estableció
los fundamentos para el cálculo integral y diferencial.

En 1676 publicó su "Nuevo Método para lo


Máximo y Mínimo", una exposición de cálculo
diferencial. Fue filósofo, matemático y logístico. En
1670, Leibniz mejora la máquina inventada por Blaise
Pascal, al agregarle capacidades de multiplicación,
división y raíz cúbica.

En 1979 crea y presenta el modo aritmético binario, basado en "ceros" y "unos", lo


cual serviría unos siglos más tarde para estandarizar la simbología utilizada para procesar
la información en las computadoras modernas.

Charles Babbage (1792-1871) La máquina diferencial y la analítica

Charles Babbage nació el 26 de


Diciembre de 1792 en Londres. Desde
muy joven se inclinó por los estudios
de matemáticas y fue su propio
instructor de Algebra, de cuyos
estudios e investigación fue un terrible
apasionado.
Obj104

A partir de 1820, Charles Babbage


despertó un enorme interés sobre las máquinas de
calcular. Con la ayuda de la condesa Ada Byron, hija del
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca Cátedra Informática 7

poeta Lord Byron, desarrolla el concepto de 2 calculadoras mecánicas o


"máquinas de números".

La primera de ellas, llamada la Máquina Diferencial era un dispositivo de 6


dígitos que resolvía ecuaciones polinómicas por el método diferencial. La
segunda, denominada Máquina Analítica, que tampoco fue terminada, fue
diseñada como un dispositivo de cómputo general.

Ambos equipos eran totalmente mecánicos, usaban ejes, engranajes y poleas para
poder ejecutar los cálculos. Por este motivo los diseños funcionaban en teoría pero en la
práctica las maquinarias y herramientas de fabricación de la época eran imprecisas y no
pudieron construir las piezas con la necesaria exactitud.

En lo que respecta a Babbage y Ada Byron sus proyectos quedaron


frustrados. Sin embargo, los planos y modelos de ambas máquinas sirvieron
como puntos referenciales de muchos de los conceptos de computación aplicados
hoy en día y para muchos, Charles Babbage es considerado el padre de las
computadoras.

La condesa Ada Byron (1815-1851) La primera programadora de la


historia

Augusta Ada Byron, también llamada Lady Lovelace, fue uno de los
personajes más pintorescos de la historia de la computación. Nació en Londres, el
10 de Diciembre de 1815 siendo hija del ilustre poeta inglés Lord Byron.

Lady Lovelace tuvo vocaciones de analista y metafísica, y a


los 17 años influenciada por Mary Somerville realizó sus estudios
de matemáticas. Fue en una cena que escuchó y se interesó
sobre las ideas de Charles Babbage acerca de una nueva
máquina de calcular. Ada Byron, es considerada la primera
programadora de la era de la computación, ya que fue ella quien
se hizo cargo del análisis y desarrollo de todo el trabajo del
inventor y la programación de los cálculos a procesarse.

En la década de los 80 el Departamento de Defensa de los Estados Unidos


de América desarrolló un lenguaje de programación en honor a la condesa, a la
cual nombró ADA.

Joseph Marie Jacquard (1752 - 1834) Las plantillas perforadas

Nació el 7de Julio de 1752 en la ciudad de Lyon, Francia, y aunque fue hijo
de un modesto obrero textil tuvo grandes aspiraciones para
su futuro.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca Cátedra Informática 8

En 1801 ya convertido en inventor e industrial textil, Joseph Marie Jacquard


dio un fundamental aporte al proceso de las máquinas programables al modificar
una maquinaria textil, inventada por Vaucanson, a la cual implementó un sistema
de plantillas o moldes metálicos perforados, unidas por correas, que permitían
programar las puntadas del tejido logrando obtener una diversidad de tramas y
figuras.

Fue tan grande el interés despertado por el invento de Jacquard, que el


propio Napoleón Bonaparte se quedó muy asombrado cuando en 1805 asistió a
una exhibición industrial celebrado en Lyon, para
posteriormente condecorarlo con la medalla de La
Legión de Honor y un premio de 50 francos por
cada Telar que fuese comercializado durante el
período de 6 años.

A partir del invento de Jacquard empezaron a


proliferar, poniéndose muy de moda las máquinas y
equipos programados por sistemas perforados,
tales como los pianos mecánicos, conocidos como
pianolas, muñecos y otros novedosos juguetes mecánicos.

Herman Hollerith (1860-1929) El Censo de 1890 en los Estados Unidos

Nacido en Buffalo, New York, el 29 de Febrero de 1860 e hijo de unos inmigrantes


alemanes realizó estudios en el City College de New York a la edad de 15 años y se graduó
de Ingeniero de Minas, con altas distinciones, en la Columbia School of Mines, a la edad de
19 años.

Su primer empleo lo obtuvo en la Oficina de Censos en


1880. Posteriormente enseñó ingeniería mecánica en el
Instituto Tecnológico de Massachusetts (MIT) y luego trabajó
para la Oficina de Patentes del gobierno norteamericano.

Hollerith empezó a trabajar con el sistema de máquinas


tabuladoras durante sus días en el MIT, logrando su primera
patente en 1884.

Desarrolló una prensa manual que


detectaba los orificios en las tarjetas
perforadas, tenía un alambre que pasaba
a través de los huecos dentro de una
copa de mercurio debajo de la tarjeta,
cerrando de este modo el circuito
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca Cátedra Informática 9

eléctrico. Este proceso disparaba unos contadores mecánicos y ordenaba los


recipientes de las tarjetas, tabulando así en forma apropiada la información.

En 1880 se celebró un censo de población nacional en los Estados Unidos


y tuvieron que transcurrir 7 largos años antes de que toda la información quedase
procesada por el Buró de Censos, debido a que los datos levantados eran
tabulados en papel. Por consiguiente se estimó que el próximo censo a celebrarse
en 1890 tardaría unos 10 o 12 años en procesarse y poder obtener los resultados
finales. Es por ello que el gobierno norteamericano convocó a una licitación para
un sistema de procesamiento de datos que proporcionase resultados más
rápidos.

Herman Hollerith, que trabajaba como empleado del buró de Censos,


propuso su sistema basado en tarjetas perforadas que si bien esto no era una
invención, puesto en práctica constituyó el primer intento exitoso de automatizar el
procesamiento de ingentes volúmenes de información.

Las máquinas de Hollerith clasificaron, ordenaban y enumeraban las


tarjetas perforadas que contenían los datos de las personas censadas, logrando
una rápida emisión de reportes, a partir de los 6 meses. Los resultados finales del
censo de 1890 se obtuvieron en el tiempo récord de 2 años y medio.

Herman Hollerith en 1896 fundó la TABULATING MACHINE COMPANY


que luego se convirtió en la Computer Tabulating Machine (CTR).

Hollerith se retiró en 1921 y en 1924 CTR cambió su nombre por el de


International Business Machine Corporation (IBM), que años más tarde se
convertiría en el gigante de la computación. Herman Hollerith falleció el 17 de
Noviembre de 1929.

En 1930, el norteamericano Vannevar Bush diseñó en el MIT (Massachusetts


Institute of Technology) el analizador diferencial, marcando el inicio de nuestra era de
computadoras; el "analizador" era una máquina electrónica que media grados de cambio
en un modelo.

La Segunda Guerra Mundial vio a Alemania y a los otros países


occidentales en competencia por desarrollar una mayor velocidad de cálculo,
junto a un aumento de la capacidad de trabajo, para así lograr decodificar los
mensajes enemigos. 'En respuesta a su presión 'EE.UU., desarrolló en Harvard el
enorme computador Mark I, con una altura de 2,5 m, inspirado por las ideas de
Babbage, y el Mark I se dedicó a problemas balísticos de la Marina. En Alemania,
se estaba comprobando las aerodinámicas proyectadas en el computador.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 10
Cátedra Informática

El primer intento de
sobreponerse alas limitaciones
de velocidad y errores fue de
HOWARD AIKEN. Trabajó con
ingenieros de IBM, crearon una
calculadora automática Llamada
MARK I (en 1944). Luego sé
construyó MARK II. (Estas
máquinas no pudieron satisfacer
las necesidades de ese
momento ya que eran millones los datos para guardar y resolver, aunque sirvieron
de base para que cuando se crearan las válvulas al vacío comenzara la
computación electrónica. Esta máquina no está considerada como computadora
electrónica debido a que no era de propósito general y su funcionamiento estaba
basado en dispositivos electromecánicos llamados relevadores.

Mark I, es la primera computadora construida por la IBM a gran escala,


desarrollada en cooperación con la Universidad de Harvard.

La Calculadora Automática de Control Secuencial de la Mark I es la primera


máquina capaz de ejecutar largas operaciones en forma automática. Medía 15
metros de largo, 2.40 m de altura y pesaba 5 toneladas.

La Mark I usaba relés electromecánicos para resolver problemas de suma


en menos de un segundo, 6 segundos para multiplicación y el doble de tiempo
para la división. Muchísimo más lento que una calculadora de bolsillo del
presente.

La Primera Generación: la constituyen todas aquellas computadoras


diseñadas a válvulas de vacío como principal elemento de control y cuyo uso
fundamental fue la realización de aplicaciones en los campos científico y militar.
Se caracterizaban por su gran tamaño y complejidad. Utilizaban como lenguaje de
programación, el lenguaje máquina y como única memoria para conservar
información las tarjetas perforadas, la cinta perforada y las líneas de demora de
mercurio...

1939 - 1958 LA PRIMERA GENERACION DE COMPUTADORAS

La Segunda Guerra Mundial impulsó el desarrollo de dispositivos de


cómputo cuyos diseños habían empezado alrededor de 1933. Aunque algunos
hechos trascendentales, ocurrieron en forma simultánea.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 11
Cátedra Informática

John Louis Von Neumann (1903-1957)

Este científico matemático ocupa un lugar privilegiado en la historia de la computación


debido a sus múltiples e importantísimos aportes a las computadoras de la primera
generación.

En 1944 contribuyó en forma directa en los diseños de fabricación de


computadoras de esa generación, asesorando a Eckert y John Machly,
creadores de la ENIAC y que construyeran además la UNIVAC en 1950. Durante
esa década trabajó como consultor para la IBM colaborando con Howard Aiken
para la construcción de la computadora Mark I de Harvard. John Von Neumann
falleció el 8 de Febrero de 1957 en Washington DC.

Durante 1936 y 1939 el ingeniero alemán Konrad Zuse construyó la


primera computadora electromecánica binaria programable, la cual hacía uso de
relés eléctricos para automatizar los procesos. Sin embargo,
tan sólo fabricó un prototipo para pruebas a la cual llamó Z1, el
mismo que nunca llegó a funcionar completamente debido a la
falta de perfeccionamiento en sus elementos mecánicos. En
1940 Zuse terminó su modelo Z2, el cual fue la primera
computadora electromecánica completamente funcional del
mundo. Al año siguiente, en 1941, fabricó su modelo Z3 al cual
le desarrolló un programa de control que hacía uso de los dígitos binarios. Sin
embargo esta computadora fue destruida en 1944 a causa de la guerra. Entre
1945 y 1946 creó el "Plankalkül" (Plan de Cálculos), el primer lenguaje de
programación de la historia y predecesor de los lenguajes modernos de
programación algorítmica.

La Atanasoff-Berry Computer o ABC empezó a ser concebida por el


profesor de física John Vincent Atanasoff a partir de 1933, formulando la idea de
usar el sistema de números binarios para su funcionamiento. Al buscar un
ayudante para cumplir con su propósito innovador, le fue recomendado por un
colega, el joven y brillante recién graduado en ingeniería mecánica de nombre
Clifford Berry. Entre los años de 1937 y 1942, contando con la ayuda de Berry,
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 12
Cátedra Informática

diseño y construyó en el sótano de su laboratorio en la Universidad del Estado de


Iowa su famoso prototipo a un costo de 1.460 dólares, el mismo que estaba
compuesto de tubos al vacío, capacitores y un tambor rotatorio para el manejo de
los elementos de la memoria, así como un sistema lógico para su operatividad.
Esta computadora fue usada para resolver ecuaciones matemáticas complejas.

La Atanasoff Berry Computer

La MARK I de IBM en 1944

Mark I, es
la primera
computadora
construida por la
IBM a gran
escala,
desarrollada en
cooperación con
Obj105
la Universidad de Harvard. La Calculadora Automática de
Control Secuencial de la Mark I es la primera máquina
capaz de ejecutar largas operaciones en forma automática. Medía 15 metros de
largo, 2.40 m de altura y pesaba 5 toneladas. La Mark I usaba relés
electromecánicos para resolver problemas de suma en menos de un segundo, 6
segundos para multiplicación y el doble de tiempo para la división. Muchísimo más
lento que una calculadora de bolsillo del presente.
Nada menos que una brillante mujer, la almirante Grace Hooper, conocida
como "Amazing Grace" (la fascinante Grace), una excelente oficial de la Marina
de Guerra de los Estados Unidos, entre los años 1940 y 1950 se convirtió en
pionera y propulsora de la programación en computadoras.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 13
Cátedra Informática

Como innovativa y pensadora fundamentalista, la almirante Hooper creyó


firmemente en que las computadoras podían servir para aplicaciones de negocios
más allá del uso primordial que se le daban a estos equipos en los campos
científicos y militar. Ella creó el lenguaje Flowmatic, con el cual desarrolló muchas
aplicaciones y en 1951 produjo el primer compilador, denominado A-0 (Math
Matic). En 1960 presentó su primera versión del lenguaje COBOL (Common
Business-Oriented Lenguaje).

Otra de las más famosas computadoras


de la época fue la ENIAC que contaba con
17,468 tubos de vidrio al vacío, similares a los
radio-tubos, y que fuera empleada por el
ejército exclusivamente para cálculos balísticos,
o de la trayectoria de los misiles. Fue construida
en 1946 en la Universidad de Pensylvania por
John Mauchly y J. Presper Eckert. Medía
2.40 de ancho por 30 metros de largo y pesaba
80 toneladas. La ENIAC podía resolver 5,000
sumas y 360 multiplicaciones por segundo, pero su programación era
terriblemente tediosa y debía cambiársele de tubos continuamente.

La computadora EDVAC, construida en la


Universidad de Manchester, en 1949 fue el primer
equipo con capacidad de almacenamiento de
memoria e hizo desechar a los otros equipos que
tenían que ser intercambiados o reconfigurados
cada vez que se usaban.

Esta computadora fue también construida


por John Maucly y J. Prespert Eckert, quienes
empezaron a trabajar en ella 2 años antes que la
ENIAC empezara a operar. La idea era tener el
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 14
Cátedra Informática

programa almacenado en la computadora y esto fue posible gracias a que la


EDVAC tenía una mayor capacidad de almacenamiento de memoria. La memoria
consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, de tal modo
que un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los
ceros (0) y unos (1). Esto era indispensable ya que en lugar de usar decimales la
EDVAC empleaba números binarios. En realidad EDVAC fue la primera
verdadera computadora electrónica digital de la historia, tal como se le concibe en
estos tiempos y a partir de ella se empezaron a fabricar arquitecturas más
completas.

1951 UNIVAC (Universal Automatic Computer) de John Mauchly y J.


Presper Eckert.

Todas los equipos mencionados y que pertenecen a la primera generación


de computadoras entre los años 1940 y 1958, se caracterizaron por usar entre
sus componentes relés, bobinas y tubos de vidrio al vacío.

A fines de esta generación, entre 1951 y 1958 Mauchly y Eckert


construyeron la famosa serie UNIVAC, la misma que fue diseñada con propósitos
de uso general y universal pues ya podía procesar problemas alfanuméricos y de
datos. Las tarjetas perforadas todavía conformaban el mayor recurso de
alimentación de datos y toda la programación era muy compleja pues se realizaba
en lenguaje de máquina.

En esta generación proliferante de inventos no podemos dejar de mencionar los


siguientes inventos:

1948: El Transistor es inventado por William Bradford Shockley con


John Bardeen y Walter H. Brattain.

1948: Jack Forrester inventa la memoria de núcleo de acero. Estos


núcleos de almacenamiento sirven como la tecnología básica detrás de cada
computadora hasta los años 70s. Los diminutos núcleos de acero pueden ser
magnetizados como contadores de reloj, para representar bits de información, la
cual puede ser invocada en millonésima de segundo. Fueron patentados en 1956.

1953: La primera impresora de alta velocidad es desarrollada por


Remington-Rand para su uso en la Univac.

1954: El lenguaje FORTRAN es creado por John Backus en IBM, pero


Harlan Herrick desarrolla el primer programa en FORTRAN.

1958: Jack Kilby de Texas Instruments fabrica el primer circuito integrado.


Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 15
Cátedra Informática

Segunda Generación: Al sustituirse la Válvula de vacío por el Transistor,


comenzó la llamada Segunda generación de computadoras; en ella, las máquinas
ganaron potencia y fiabilidad, perdiendo tamaño, consumo y precio, lo que la hacia
más práctica y asequibles. Los campos de aplicación en aquella época fueron
además del científico y militar, el administrativo y de gestión, es decir, las
computadoras empezaron a utilizarse en empresas que se dedicaban a los
negocios comenzaron además a utilizarse los llamados lenguajes de
programación; entre ellos podemos citar el ensamblador y algunos de los
denominados de alto nivel como: Fortran, Cobol y Algol, asimismo, comenzaron a
utilizarse como memoria interna los núcleos de ferrita y el tambor magnético y
como memoria externa la cinta magnética y los tambores magnéticos.

1959 - 1964 LA SEGUNDA GENERACION DE COMPUTADORAS

Allá por 1945 la máxima limitación de los componentes de las


computadoras era la causa de su lenta velocidad de procesamiento.

Los relés electromecánicos, la pobre disipación de calor


de los amplificadores basados en tubos de vacío, motivaron a
Mervin Kelly, por ese entonces Director de Investigación de los
Laboratorios Bell, a conformar un grupo de investigadores que
pudiesen concebir unos semi-conductores.

El grupo fue conformado en 1946 por varios


investigadores, entre los que destacaron John Bardeen, Walter
Brattain y William Shockley quienes en 1948 inventaron el
primer Transistor, sin presagiar que estaban a punto de lograr
uno de los mayores descubrimientos de la era de la
computación. En 1947, estos 3 científicos de la Bell,
perteneciente a AT&T en New Jersey empezaron a
experimentar con un tipo de semiconductor llamado
"germanio", un elemento blanco grisáseo, que poseía un lustre
brillante metálico y una estructura cristalina, con un molde de la
estructura de un diamante.

Ellos, conociendo las propiedades del silicón hallado en


las piedras de cuarzo, finalmente concibieron el
Transistor. Sus componentes originales fueron muy

Obj107
Obj106
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 16
Cátedra Informática

simples. Cada uno de ellos estaba soldado encima de una tabla de circuitos que
servía para conectar a otros componentes individuales.

Un transistor contiene un material semiconductor que puede cambiar su


estado eléctrico cuando es pulsado. En su estado normal el semiconductor no es
conductivo, pero cuando se le aplica un voltaje se convierte en conductivo y la
corriente eléctrica fluye a través de éste. En las computadoras, funcionan como
un swicht electrónico o puente.

1958 Los Circuitos Integrados

La computación empezó a tomar el interés de los científicos y


estudiosos a partir del invento de los Transistores y no se pueden
dejar de mencionar los siguientes hechos cronológicos:

Fue en 1958 que Jack Kilby y Robert Noycea, de la Texas


Instrument, inventaron los circuitos integrados, que eran un
conjunto de transistores interconectados con resistencias, dentro
de un solo chip. Fue a partir de este hecho que las computadoras
Obj108

empezaron a fabricarse de menor tamaño, más veloces y a menor


costo ya que la cantidad de transistores colocados en un solo chip fue
aumentando en forma exponencial. Vale decir de un puñado de ellos a decenas
de millones en tan sólo uno de ellos.

1959: COBOL es definido en la Conferencia de Sistemas de Lenguajes de


Datos (Codasyl), basado en el Flow-Matic de Grace Hooper.

1960: Aparece en el mercado el primer disco removible.

1962: IBM presenta su modelo 1311 usando los primeros


discos removibles y que por muchísimos años se convertirían en
un estándar de la industria de la computación. La portabilidad de
la información empezó a ser posible gracias a esta nueva
tecnología, la cual fue empleada por los otros líderes del
hardware, tales como Digital Equipment, Control Data y la NEC
de Japón, entre otros grandes fabricantes de computadoras.
Obj109

Cada paquete de discos (disk pack) podía guardar más de 2


millones de caracteres de información, (2 Megabytes de ahora), lo cual promovió
la generación de lenguajes de programación y sus respectivas aplicaciones, ya
que los usuarios podían intercambiar los paquetes de discos con facilidad. 1962
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 17
Cátedra Informática

Por primera vez en la historia la IBM reporta ganancias anuales de 1 billón de


dólares.

1964: IBM anuncia el lanzamiento de su Sistema 360, la primera familia de


computadoras compatibles.

Fue el principio del uso de lenguajes amigables con comandos en inglés,


tales como FORTRAN y COBOL, hasta ahora en uso, obviamente en versiones
mucho más avanzadas. A pesar de ello hasta 1964 no se crearon equipos que se
pudiesen nombrar como destacables.

En 1964 John Kemeny y Thomas Kurtz desarrollaron la primera versión


del popular lenguaje BASIC en el Dartmouth College y que permitió hacer más
fácil la programación de las computadoras emergentes.

Tercera Generación: En esta generación el elemento más significativo es


el circuito integrado aparecido en 1964, que consistía en el encapsulamiento de
una gran cantidad de componentes discretos (resistencias, condensadores, diodos
y transistores), conformando uno o varios circuitos con una función determinada,
sobre una pastilla de silicona o plástico. La miniaturización se extendió a todos los
circuitos de la computadora, apareciendo las microcomputadoras. Se utilizaron
tecnologías SSI y MSI. Asimismo, el software evolucionó de forma considerable
con un gran desarrollo de los sistemas operativos, en los que se incluyó la
multiprogramación, el tiempo real y el modo interactivo. Comenzaron a utilizarse
las memorias de semiconductores y los discos magnéticos.

1964 - 1971 LA TERCERA GENERACION DE COMPUTADORAS

Si bien los circuitos integrados fueron inventados en 1958, tuvieron que


transcurrir algunos años más para que las grandes compañías crearan los
dispositivos que permitiesen desarrollar verdaderas computadoras, más
completos y veloces. En Abril de 1964 IBM presenta su generación de
computadoras IBM 360

Serie IBM 360


Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 18
Cátedra Informática

Las IBM 360 estaban basadas en circuitos integrados, la alimentación de la


información era realizada por medio de tarjetas perforadas, previamente tabuladas
y su almacenamiento se hacía en cintas magnéticas. IBM lanzó muchos modelos
de esta serie como la IBM 360 20/30/40/50/65/67/75/85/90/195. Su sistema
operativo simplemente se llama OS (Operating System) y los lenguajes que
manejaron fueron el FORTRAN, ALGOL y COBOL.
1964: BASIC (Beginners All-purpose Symbolic Instruction Language) Es
creado por Tom Kurtz y John Kemeny de Dartmouth.

1969: El compilador PASCAL es escrito por Nicklaus Wirth e instalado en la


CDC 6400.

1970: IBM despacha su primer sistema System 370, computadora de cuarta


generación. En 1971 se presentan los modelos 370/135 hasta el modelo 370/195.

Ese mismo año IBM desarrolla e introduce los floppy disks son introducidos para
cargar el microcódigo de la IBM 370.

1971: Intel Corporation presenta el primer microprocesador, el 4004.

Cuarta Generación: En 1971 aparece el microprocesador, consiste en la


integración de toda UCP de una computadora en un solo circuito integrado. La
tecnología utilizada es la LSI que permitió la fabricación de microcomputadoras y
computadoras personales, así como las computadoras monopastilla. Se utilizó
además el disquete (Floppy disk) como unidad de almacenamiento externo.
Aparecieron una gran cantidad de lenguajes de programación de todo tipo y las
redes de transmisión de datos (teleinformática) para la interconexión de
computadoras.

1971 - 1981 LA CUARTA GENERACION DE COMPUTADORAS

1971: El microprocesador Intel 4004

En 1969, la empresa japonesa Busicom solicitó a Intel


que le fabricase un chip para un modelo nuevo de
calculadora de escritorio, con cinta impresora, que deseaba
producir masivamente.

Un equipo liderado por Marcial Edward "Ted" Hoff,


desarrolló y terminó de fabricar en Marzo de 1971 un
microprocesador, para uso general, al cual denominaron el
chip 4000.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 19
Cátedra Informática

Ted Hoff se proyectó a diseñar un microprocesador de capacidades o


prestaciones mas completas que las solicitadas por la empresa japonesa,
realizando el mismo esfuerzo, con la posibilidad de
usos futuros. Luego de sus predecesores, Intel
fabricó los modelos 4001, 4002, 4003 y 4004. Este
chip de 4 bits, contenía 23,000 transistores que
procesaban 108 kHz o 0.06 MIPS. Contaba con 46
instrucciones y 4k de espacio de almacenamiento.
Posteriormente Intel lanzó el modelo 4004 al cual le
agregó 14 instrucciones más y que tenía una
capacidad de 8k de almacenamiento.

1973: Los discos Winchester

Son introducidos por IBM en los modelos 3340.


Estos dispositivos de almacenamiento se convierten en
el estándar de la industria. Provisto de un pequeño
cabezal de lectura/escritura con un sistema de aire que
le permite movilizarse muy cerca de la superficie del
disco de una película de 18 millonésima de pulgada de
ancho. El 3340 duplica la densidad de los discos IBM
cercano a los 1.7 millones de bits per pulgada cuadrada.

1974: 8080, el primer CPU de Intel

La verdadera industria de la computación, en


todos los aspectos, empezó en 1974 cuando Intel
Corporation presentó su CPU (Unidad Central de
Procesos) compuesto por un microchip de circuito
integrado denominado 8080.

Este contenía 4,500 transistores y podía manejar 64k de memoria aleatoria


o RAM a través de un bus de datos de 8 bits. El 8080 fue el cerebro de la primera
computadora personal Mits Altair, la cual promovió un gran interés en hogares y
pequeños negocios a partir de 1975.

1975: La Altair 8800 producida por Micro


Instrumentation Telemetry Systems. La primera
computadora personal comercial fue la Altair
8800 fabricada por la empresa MITS en 1975,
diseñada por Ed Roberts y Bill Yates.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 20
Cátedra Informática

El primer modelo de estas computadoras no contaba con monitor ni teclado, tan sólo con
luces LED y pequeñas palancas o switches para facilitar la programación. La información
era almacenada en cassettes de la radio grabadoras y era visualizada en los aparatos de
televisión. Su costo era de $395.00 con una memoria de 256 bytes.

1975: Fundación de Microsoft

En 1975 William Henry Gates y Paul Allen forman Microsoft, en


la ciudad de Albuquerque, Nuevo México, debido a que la sede de la
MITS estaba en esa ciudad. Microsoft fue el proveedor de la versión del
lenguaje BASIC para la computadora personal MITS Altair. Un par de
años antes estos dos amigos de la Universidad de Harvard habían
fundado TRAF-O-DATA una pequeña empresa que se encargó de
desarrollar un software para la administración del tráfico en la ciudad
de Seattle. 1977 es el año del despegue de la computación personal con
la aparición en el mercado de varios modelos de este tipo de máquinas.
Estuvieron a la venta equipos tales como: Commodore (la cual utilizaba
un televisor como monitor), un modelo de Radio Shack, Atari y por
supuesto la de mayor éxito la Apple II de Woznizk y Jobs. Junto con
estas máquinas aparece uno de los primeros sistemas operativos el CP/M diseñado por la Digital
Research.

1976: Los dos Steven y la Apple Computer

Steven Wozniak y Steven Jobs fueron amigos


desde la escuela secundaria y ambos se habían
interesado mucho en electrónica. Después de su
graduación se mantuvieron en contacto y ambos
consiguieron empleos en corporaciones de Silicon
Valley. (Wozniak trabajó en Hewlett-Packard y Jobs en
Atari).

Wozniak se había dedicado un buen tiempo al diseño de computadoras y


finalmente en 1976, construyó la que se convertiría en la Apple I. Steven Jobs con una
visión futurista presionó a Wozniak para tratar de vender los equipos recién inventados y
el 1 de Abril de 1976 nació Apple Computer. A pesar de la gran novedad que causó su
presentación, no fue muy aceptada. En 1977, con el lanzamiento de la Apple II la
compañía recién empezó a imponerse en el mercado
norteamericano. Al siguiente año lanzaron la Apple Disk II, la
primera disquetera y en 1980 la compañía fundada por Jobs y
Wozniak ya contaba con varios miles de empleados. Emerge una
forma de distribución masiva de software, a precios más
asequibles.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 21
Cátedra Informática

1977: La TRS-80 de Tandy/Radio Shack

El primer modelo de esta computadora fue


vendido el 3 de Agosto de 1977 por la suma de US $
599.95 con 4k de memoria, pero muy pronto subió a
16k con el modelo de Nivel II y al cual se le agregó un
teclado y posibilidad de expansión de memoria a 32 k.
El microprocesador empleado fue el Z-80 de 1.77 Mhz,
con sistema operativo BASIC grabado en un chip de
12k de memoria ROM. Se le podía agregar periféricos
tales como un televisor de 12", casetera o un disk drive de 89 o 102k, impresora
con conexión RS-232 y hasta un sintetizador de voz. Esta computadora fue una
de las más populares de la época.

1978: el microprocesador Intel 8086

En 1978 se produce un evento importante, la fabricación del


microprocesador Intel 8086 el cual provocó una demanda masiva y motivó a la
IBM a crear su flamante División de Computadoras Personales. Un
microprocesador de la misma familia el 8088, utilizaría la IBM en su primera PC.
MicroPro, una de las primeras grandes casas de software de la época lanza su
procesador de textos WORDSTAR.

La hoja de cálculos VisiCalc, se convierte en software promotor de ventas


de las computadoras personales provocando una verdadera revolución y récord
de ventas. VisiCalc resuelve en forma muy sencilla los problemas matemáticos de
los usuarios. De allí su nombre 'Visual Calculator'. Muchísimas computadoras
Apple se vendieron con el único propósito de correr el VisiCalc. Empieza la
revolución del software.

Cabe mencionar los siguientes hechos cronológicos:

1972: La primera calculadora de bolsillo es fabricada por Jack Kilby, Jerry


Merryman, y Jim VanTassel de Texas Instruments.

1976: Commodore International construye la Pet 2001 con nuevo


microprocesador 6502. La Pet fue la primera computadora personal con una
pantalla incorporada, con 4k de memoria Ram, expandible a 32 K y un programa
BASIC en memoria ROM (Read Only memory).
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 22
Cátedra Informática

Los programas se almacenaban en cassettes y su precio de venta fue de


US $ 595 para el modelo de 4k y US $ 795 para el de 8k. Posteriormente
Commodore International compraría la MOS Technology, que fabricaba los chips
6502.
1980: Commodore Inc. Presenta la VIC-20, un
modelo de computadora personal muy barata, dirigida
a los principiantes y hobbistas. Usaba el
microprocesador 6502 con una memoria de apenas 5k
de Ram. El sistema estaba diseñado para ser
conectado a un televisor y los programas se almacenaban en una casetera, la
cual debía ser conectada a la VIC-20.

1981: La Commodore 64 reemplazó a la VIC-20 y


se vendió al igual que su predecesora, a muy bajo precio.
Este modelo empleó un microprocesador ligeramente
mejorado al 6502 y que costaba US $ 20 al por mayor.

"Quinta Generación"

Aunque no existe formalmente una "cuarta generación" de computadores,


mucho se habló, en la década de los 80, de proyectos de "quinta generación". Ello
corresponde a una batalla tecnológica para desarrollar los primeros computadores
capaces de interactuar "inteligentemente" con el ser humano.

Todo empezó en 1981, durante una "Conferencia Internacional de Sistemas


de Computación de Quinta Generación" celebrada en Tokio, donde Japón dio a
conocer un gigantesco programa para el desarrollo de una nueva tecnología, en
que participarían el gobierno, las universidades y las empresas más avanzadas y
poderosas. Se fijó como meta producir en el plazo de 10 años máquinas capaces
de realizar mil millones de inferencias lógicas por segundo (LIPS). La LIPS es una
nueva unidad de medida de velocidad, referida a una habilidad de la inteligencia
artificial: la del razonamiento lógico. Una LIPS, a su vez, requiere de 100 a 1000
operaciones del sistema anterior de medición (IPS: instrucciones por segundo),
por lo cual estaríamos ante máquinas capaces de más de cien mil millones de
operaciones básicas por segundo.

Pero hasta hoy, no se han visto los resultados esperados ni han nacido los
"computadores inteligentes" con los cuales se esperaba contar en 1992, aunque
se hayan gastado centenares de miles de dólares. El proyecto japonés de Quinta
Generación se considera ahora fracasado, pero ha sido reemplazado por un
proyecto de "Sexta Generación" cuyo propósito es lograr capacidades
computacionales semejantes a las del cerebro humano hacia el año 2002.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 23
Cátedra Informática

Las necesidades de los usuarios y los


descubrimientos parecen, por ahora, llevar por
otros derroteros: nadie se esperaba el éxito de
Internet y el crecimiento explosivo de la World
Wide Web. La idea de que una red podría tener
o generar algún tipo de inteligencia propia ("La
inteligencia está en la red" dicen algunos) está
empezando a tomar cuerpo y a orientar otro tipo
de investigación.

HARDWARE

Microprocesador (CPU)

En su forma más simple, un sistema de computadora


cuenta con una unidad que ejecuta instrucciones de
programas. Esta unidad se comunica con otros subsistemas
(dispositivos) dentro de la computadora, y a menudo controla
su operación. Debido al papel central de tal unidad se conoce
como unidad central de procesamiento (microprocesador), o
CPU (Central Processing Unit).

Dentro de muchas computadoras, un subsistema como una unidad de


entrada, o un dispositivo de almacenamiento masivo, puede incorporar una unidad
de procesamiento propia, sin embargo tal unidad de procesamiento, aunque es
central para su propio subsistema, resulta claro que no es "central" para el sistema
de computadora en su conjunto. No obstante, los principios del diseño y operación
de una CPU son independientes de su posición en un sistema de computadora.
Este trabajo estará dedicado a la organización del hardware que permite a una
CPU realizar su función principal: traer instrucciones desde la memoria y
ejecutarlas.

El microprocesador se lo conoce también con el simple nombre de “micro”


(de ahora en adelante) o como procesador, CPU, UCP (en castellano), los cuales
hacen referencia a lo mismo.

También se la suele describir como el cerebro de la computadora. Sin


embargo, está mucho más cerca de ser una calculadora veloz con habilidad para
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 24
Cátedra Informática

almacenar números, realizar operaciones aritméticas simples y guardar


resultados.

Partes del  microprocesador:

1. Encapsulado: es lo que rodea a la oblea de silicio en sí, para darle consistencia,


impedir su deterioro como por ejemplo por oxidación con el aire y permitir el enlace
con los conectores externos que lo acoplarán a su zócalo o a la placa base
directamente.
2. Memoria caché: una memoria ultrarrápida que almacena ciertos bloques de datos
que posiblemente serán utilizados en las siguientes operaciones sin tener que
acudir a la memoria RAM, aumentando así la velocidad y diminuyendo la el
número de veces que la PC debe acceder a la RAM. Se la que se conoce como
caché de primer nivel, L1 (level 1) ó caché interna, es decir, la que está más cerca
del micro, tanto que está encapsulada junto a él, todos los micros tipo Intel desde
el 486 tienen esta memoria.
3. Coprocesador matemático: es la FPU (Floating Point Unit - Unidad de
coma Flotante) parte del micro especializada en esa clase de cálculos
matemáticos; también puede estar en el exterior del micro, en otro chip.

4. Unidad lógica aritmética (ALU): es el último


componente de la CPU que entra en juego. La
ALU es la parte inteligente del chip, y realiza las
funciones de suma, resta, multiplicación o
división. También sabe cómo leer comandos,
tales como OR, AND o NOT. Los mensajes de la
unidad de control le dicen a la ALU qué debe
hacer.

Case (caja) en forma de torre

1. Unidad de control: es una de las partes más importantes del procesador, ya que
regula el proceso entero de cada operación que realiza. Basándose en las
instrucciones de la unidad de decodificación, crea señales que controlan a la ALU
y los Registros. La unidad de control dice qué hacer con los datos y en qué lugar
guardarlos. Una vez que finaliza, se prepara para recibir nuevas instrucciones.
1. Prefetch Unit: esta unidad decide cuándo pedir los datos desde la memoria
principal o de la caché de instrucciones, basándose en los comandos o las tareas
que se estén ejecutando. Las instrucciones llegan a esta unidad para asegurarse
de que son correctas y pueden enviarse a la unidad de decodificación.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 25
Cátedra Informática

1. Unidad de decodificación: se encarga, justamente, de decodificar o traducir los


complejos códigos electrónicos en algo fácil de entender para la Unidad Aritmética
Lógica (ALU) y los Registros.
1. Registros: son pequeñas memorias en donde se almacenan los resultados de las
operaciones realizadas por la ALU por un corto período de tiempo.

Placa Base o Tarjeta Madre:


La placa base, también conocida como placa principal, placa madre, mainboard,
motherboard, es uno de los componentes principales y esenciales de toda computadora,
en el que se encuentran alojados, montados o conectados todos los demás componentes
y dispositivos de la PC.
Físicamente, se trata de una "oblea" de material sintético, sobre la cual existe un
circuito electrónico que conecta diversos componentes que se encuentran insertados o
montados sobre la misma, los principales son:
1. El microprocesador: (CPU) el cerebro de la PC, montado sobre un
elemento llamado zócalo.

2. La memoria principal: montados sobre las ranuras de memoria llamados


generalmente bancos de memoria.
3. Las ranuras de expansión: o slots donde se conectan las placas de
video, sonido, módem, entre otros.
4.  Diversos chips de control: como son: la BIOS, el Chipset, controladoras,
etc.

Tarjeta Madre
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 26
Cátedra Informática

Chipset de Control:
El conjunto de chips, o chipset, es un elemento formado por un determinado
número de circuitos integrados en el que se han incluido la mayoría de los componentes
que otorgan a una PC, a nivel hardware, como por ejemplo, el controlador de
interrupciones, los controladores DMA, el chip temporizador, controladoras de disco
rígido, etc. Mediante este elemento se han integrado en unos pocos componentes los que
antes se encontraban un número de chips independientes relativamente elevado.
El chipset es el conjunto (set) de chips que se encargan de controlar funciones
especificas de la PC, como la forma en que interacciona y se comunican el
microprocesador con la memoria, el control de la placa gráfica, placa SCSI, y con los
periféricos: disco rígido, disquetera, el control de puertos serie, paralelo, infrarrojos PCI,
AGP, USB.
Las transacciones entre el procesador y la memoria y el resto de los componentes
internos o externos pasan por el Chipset, e integra las siguientes funciones:
1. Controladora de memoria

2. Controladora IDE
3. Puente PCI
4. Reloj en tiempo real (RTC)
5. Controladora de acceso directo a memoria (DMA)
6. Controladora de puerto de infrarrojos (IrDA)
7. Controladora de teclado
8. Controladora de mouse
9. Controladora de caché de segundo nivel
Memoria RAM:
La memoria RAM (Random Access Memory – Memoria de Acceso Aleatorio) es la
memoria de almacenamiento principal en donde la PC guarda los datos que está
utilizando en ese momento.   Físicamente, los chips de memoria son rectángulos que
generalmente suelen ir soldados en grupos a unas placas con "pines" o contactos. La
diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los discos
rígidos, disquetes, etc., etc. es que la RAM es mucho más rápida, y que se borra al apagar
la PC, no como los anteriores que pueden almacenar datos en forma permanente.
Cuanta más memoria RAM se tenga instalada en la PC, mejor. En la actualidad lo
recomendable serían 128 MB aunque con 64 MB no estarían tan mal, y ni hablar, con
256, 512 MB o mas ni nos tendríamos que preocupar por un largo tiempo (en teoría). La
cantidad de memoria RAM necesaria depende básicamente de para qué use usted su PC,
lo que condiciona qué sistema operativo, programas, juegos, si navega por Internet, si usa
programas de diseño, que son los que mas “consumen” memoria.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 27
Cátedra Informática

Módulo de Memoria RAM

Tipos de Memoria RAM:


1. SIP: (Single In-line Packages – Paquetes simples de memoria en línea) los
módulos SIP, eran parecidos a los SIMM pero con frágiles patitas soldadas
y que no se usan desde hace demasiados años, o cuando toda o parte de
la memoria esta soldada en la placa base, caso de algunas computadoras
de marca.

1. SIMM: (Single In-line Memory Module – Módulos simples de memoria en


línea) de 30/72 contactos. Los de 30 contactos pueden manejar 8 bits cada
vez, por lo que en un 386 ó 486, que tiene un bus de datos de 32 bits,
necesitamos usarlos de 4 en 4 módulos iguales. Miden unos 8,5 cm (30 c.)
ó 10,5 cm (72 c.) y las ranuras (bancos) donde van montadas suelen ser de
color blanco. Los SIMM de 72 contactos (en su época, más modernos)
manejan 32 bits, por lo que se usan de 1 en 1 en los 486; en los Pentium se
haría de 2 en 2 módulos (iguales), porque el bus de datos de los Pentium
es el doble de grande (64 bits).

1. DIMM: (Dual In-line Memory Module – Módulos de memoria dual en línea)


de 168/184 contactos y unos 13 a ~15 cm y en ranuras (bancos)
generalmente de color negro, llevan dos palanquitas de color blanco por lo
general en los extremos para facilitar su correcta colocación. Pueden
manejar 64 bits de una vez, Existen de 5, 3.3, 2.5 voltios.

1. SO-DIMM: (Small Out-line – Dual In-line Memory Module) de 72, 100 y 144
contactos, fue creado específicamente para aplicaciones móviles. Muchos
de los SO-DIMM son utilizados en impresoras.

2. RIMM: (Rambus In-line Memory Module) de 168 contactos, es el formato


mas nuevo en el área de las memorias y es utilizado por los últimos
Pentium 4, tiene un diseño totalmente nuevo, un bus de datos más
estrecho, de sólo 16 bits (2 bytes) pero funciona a velocidades mucho
mayores, de 266, 356 y 400 MHz.

UNIDADES DE MEDIDA DE LA INFORMACIÓN


Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 28
Cátedra Informática

BIT (contracción de binnary digit) el tamaño de la información se mide en


bytes, esta es la celda elemental de memoria, está formada por 8 bits. Un bit es un 1
ó un 0 (encendido - apagado, verdadero - falso), cada bit adopta dos estados
posibles activo o pasivo, por lo cual se le denomina "biestable". Dada esta limitación
en el número de posibilidades para cada bit, las computadoras usan un sistema de
numeración de dos dígitos primarios, llamado "Binario"; con los que es posible
representar cualquier cantidad.

Para entender lo que es un bit, realicemos una analogía y supongamos que


un bit es un componente físico como un bombillito que solamente puede estar
prendido o apagado, es decir, no puede estar medio prendido o medio apagado. Un
grupo de ocho de esos bombillitos es un byte. Con un grupo de ocho bits solamente
se puede representar un carácter: una letra, un dígito, un asterisco, un signo de
puntuación.

Lo único que sabe hacer un computador es distinguir si hay una señal


eléctrica o no. A partir de ese dato se establece un complejo sistema de
combinaciones de cifras de ocho bits (un byte) cuyos valores sólo pueden ser ceros
o unos.

Estas cifras se traducen en códigos que se calculan a una velocidad


vertiginosa. Existe una asignación de valores denominada tabla ASCII. Por ejemplo
el número 165 es interpretado como la letra Ñ. Y en números binario sería el
10100101.

Representación Binaria y Decimal

Cada cero o uno es un bit El conjunto de bits de la columna de


la izquierda, que está en binario, se
El conjunto de ocho es un corresponde con el número decimal
byte de esta columna
Este es el sistema binario

00000000 0

00000001 1

00000010 2

00000011 3
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 29
Cátedra Informática

00000100 4

00000101 5

00000110 6

00000111 7

00001000 8

00001001 9

00001010 10

Cada bit representa una posición, se lee de derecha a izquierda, si está


apagado esa posición no proporciona valor al total, si está prendido proporciona el
valor que le corresponde a su posición. De derecha a izquierda cada posición vale el
doble del anterior.

Como puede haber descubierto, las posiciones de cada bit indican su valor,
se lee de derecha a izquierda. El primer bit de la derecha vale uno, el segundo vale
dos, el tercero vale 4, es decir que cada uno vale el doble del bit anterior. Estas
cantidades se van sumando, si el bit está prendido no le agrega valor a la suma.
Cada bit puede estar prendido (1) o apagado (0). Si el bit está prendido tiene el valor
que su posición representa.

Representa al 1

Representa al 2

Representa al 4

Representa al 8

Representa al 16

Representa al 32
Representa al 64

Representa al 128
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 30
Cátedra Informática

Si la memoria tiene 8 bits y todos están encendidos entonces el número


representado es la suma de todas las posiciones: 255. Si todos están apagados el
número es cero.

De manera que las computadoras tienen capacidad para recordar y


almacenar datos. Con las nuevas tecnologías estas capacidades cada vez son
mayores, midiéndose esta capacidad en bytes (grupo de ocho bits adyacentes para
almacenar o representar un dato alfanumérico); siendo las unidades más frecuentes
el Kbyte (1024 byte), el Megabyte (1024 Kb) y el Gygabyte (1024 Mb).

Memoria ROM:
La memoria ROM (Read Only Memory – Memoria de solo lectura) es una memoria
no volátil de solo lectura. Sin embargo, también existen dos características a enfatizar en
esta definición. La memoria ROM es memoria no volátil: Los programas almacenados en
ROM no se pierden al apagar la PC, sino que se mantienen impresos en los chips ROM
durante toda su existencia, además la memoria ROM es, como su nombre indica,
memoria de solo lectura, es decir, los programas almacenados en los chips ROM no se
pueden modificar. El usuario puede leer y ejecutar los programas de la memoria ROM,
pero nunca puede escribir en la memoria ROM otros programas de los ya residentes en
el.
La memoria ROM es ideal para almacenar las rutinas básicas a nivel de hardware,
por ejemplo, el programa de inicialización de arranque de la PC y realiza el chequeo de la
memoria y los diversos dispositivos instalados en la PC.
  La memoria ROM suele estar ya
integrada en la PC y en varios periféricos
que se instalan ya en la PC. Por ejemplo,
en la placa base de la PC se encuentran los
chips de la ROM BIOS, que es el conjunto
de rutinas mas importantes para
comunicarse con los dispositivos, ó,
también, las placas de vídeo, las placas
controladoras de discos, las placas de red, etc., etc. tienen un chip de ROM con rutinas
especiales para gestionar dichos periféricos.

Teclado
Este dispositivo de entrada está compuesto por un conjunto de teclas que
permite introducir información al computador cuando se pulsa la tecla de una letra,
número o carácter (símbolo), los teclados estándares cuentan con 101 teclas
separadas, en grupos de acuerdo a su función en las siguientes secciones:

-Tecla de Función -Teclas Especiales


Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 31
Cátedra Informática

-Teclas Alfanuméricas -Teclas de Dirección

-Teclas de Edición -Teclado Numérico

Existen varios tipos de teclados:


1. De membrana: son los más baratos, son algo imprecisos, de tacto blando,
casi no hacen ruido al teclear.

1. Mecánicos: los más aceptables en calidad / precio, Más precisos, algo más
ruidosos que los anteriores.

1. Ergonómicos: generalmente están divididos en dos partes con diferente


orientación, pero sólo es recomendable si va a usarlo mucho o si nunca ha
usado una PC antes, ya que acostumbrarse a ellos es una tarea casi
imposible.

1. Otros: podemos encontrar teclados para todos los gustos, desde teclados
al que se les han añadido una serie de teclas o “ruedas” que facilitan el
acceso a varias funciones, entre ellas, el volumen, el acceso a Internet,
apagado de la PC, etc, etc. hasta los inalámbricos, etc.

Mouse (Ratón)
Desde la estandarización de Windows como entorno
gráfico (pronto como sistema operativo) el Mouse es
imprescindible para un manejo rápido del sistema.
  Al igual que el teclado, el Mouse es el elemento
periférico que más se utiliza en una PC. Los “ratones” han
sido los elementos que más variaciones han sufrido en su
diseño. Es difícil ver dos modelos y diseños de ratones
iguales, incluso siendo del mismo fabricante. Tipos de
Mouse
  Existen diferentes tecnologías con las que funciona el Mouse:
1. Mecánica
2. Óptica
3. Optomecánica

De estas tecnologías, la última es la más utilizada en los “ratones” que se fabrican


ahora. La primera era poco precisa y estaba basada en contactos físicos eléctricos a
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 32
Cátedra Informática

modo de escobillas que en poco tiempo comenzaban a fallar. Los ópticos son muy
precisos, pero demasiado caros y fallan a menudo.
Existen “ratones” especiales, como por ejemplo los trackballs, que son
dispositivos en los cuales se mueve una bola con la mano, en lugar de estar abajo
y arrastrarla por una superficie. Son los dispositivos más utilizados en las
portátiles, aunque no tanto en la actualidad ya que lo esta reemplazando una
superficie del tamaño de una tarjeta de visita por la que se desliza el dedo para
manejar el cursor. Pero en los dos casos, son estáticos e ideales para cuando no
se dispone de mucho espacio.

 
Mouse Óptico Mouse trackball

Lector de Discos Flexibles:

Mejor conocido como drive A: Es el dispositivo de lectura del disco Flexible


de 3.5” y permite almacenar información hasta 1.44 Mb.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 33
Cátedra Informática

Obj110

Discos Flexibles:

Un disco flexible o disquete es un pequeño dispositivo de almacenamiento,


elaborado de un material plástico para transportar información de un computador
a otro; el formato más usado es el de 3.5” con una capacidad de 1.44 Mb.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 34
Cátedra Informática

Los discos de 3.5” de alta densidad, almacenan cerca de 1.440.000


caracteres, lo que equivale a un libro de 220 páginas tamaño carta. Existen en la
actualidad otros tipos de disco flexibles (disco óptico), es uno de los medios de
almacenamiento masivo más popular. Algunos discos ópticos requieren tarjetas de

conexión especial que se incluyen en el CPU; otros se conectan directamente al


puerto paralelo del computador. Son muy variados según su forma y capacidad de
almacenamiento.

CD - DVD
El CD es un disco óptico el cual es capaz de almacenar datos y música en formato
digital. Esto quiere decir que la información se guarda utilizando, únicamente, series de
unos y ceros (encendido-apagado, verdadero-falso). En los CD’s, la información esta
representada por cientos de muescas o agujeros a lo largo de una pista espiral que tiene
un grosor de 0.5 micrones y un largo aproximado de 5 Km.
Para leer el CD se emite un haz de láser directamente sobre dicha pista, cuando el
láser toca una parte plana, es decir sin muesca, la luz es directamente reflejada sobre un
censor óptico, lo cual representa un uno (1). Si el haz toca una parte con muesca, es
desviado fuera del censor óptico y se lo interpreta como un cero (0). Todo esto sucede
mientras el CD gira y tanto el láser como el censor se mueven desde el centro hacia fuera
del CD.

DVD
  El DVD funciona bajo los mismos principios y esta compuesto por los mismos
materiales de un CD. La diferencia es que la espiral dentro del disco es mucho mas densa
(fina), lo que hace que las muescas sean más chicas y las pistas mas largas. También
tienen la capacidad de almacenar información en las dos caras del disco, lo que le permite
contar con capacidades de almacenamiento de hasta 17 GB a diferencia de los CD
convencionales que pueden almacenar 650 y 700 MB.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 35
Cátedra Informática

CD-ROM DVD-ROM

Lectoras de CD
  Las unidades lectoras de CD-ROM pueden ser internas (va dentro del gabinete) o
externas (fuera del gabinete). Las ventajas de una sobre otra dependen del uso que se le
vaya a dar. Si tenemos varias PC’s podemos tener una unidad externa para transportarla
y utilizarla con todas las PC’s que tengamos. Si no tenemos espacio disponible en la PC
para instalarla (cosa rara pero que ocurre a veces) la solución es una instalación externa;
otra de las ventajas que tiene las externa sobre las internas es que es mas fácil de instalar
y el usuario no necesita tener conocimientos técnicos. Su desventaja es que son más
caras.

Lectora de CD’s Lectora de DVD’s

Grabadoras de CD’s:
  Como la misma palabra los dice: graban CD’s, su funcionamiento es similar a las
lectoras de CD’s solo que adicionalmente tienen un láser de escritura con la habilidad de
poder modificar la superficie del CD. Como el láser de lectura no tiene la potencia
suficiente no es posible que la información sea “destruida” por una lectora convencional.
Ambos lásers (escritura y lectura) se mueven de la misma manera, pero el de
escritura cuenta con unas guías impresas en los CD’s para poder realizar el proceso de
escritura de forma correcta. A través de estas guías el láser se enciende y se apaga de
manera sincrónica con los unos y ceros que debe escribir en el disco.

Grabadoras de DVD’s:
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 36
Cátedra Informática

Si, en la actualidad existen varios tipos de DVD’s grabables o regrabables


apoyados por distintas empresas. A continuación se encuentran los distintos tipos
de formatos:

1. DVD-R: solo se pueden grabar una sola vez. Se encuentra en su segunda


generación. Posee una capacidad de 4,7 GB de un solo lado del disco.

1. DVD-RAM: regrabable, hay dos versiones simple y doble con capacidades


de 2,6 y 5,2 GB respectivamente.

1. DVD-RW: regrabable, solamente se utiliza un lado del disco con una


capacidad de 3,5 GB.

1. DVD+RW: es el más popular del tipo “doble lado” y posee una capacidad
de 6 GB (3 GB por cada lado).

Tabla Comparativa entre Unidades de Almacenamiento.

Dispositivo de Capacidad Equivalencia en


Almacenamiento cantidad disquetes
En Gb En Mb

Disco Duro 23.00 23.552 16.355


DVD 17.00 17.408 12.088
CD-ROM 0.63 650 451
Zip 0.25 250 120
Jazz 1.00 1.00 694
Disco Óptico 0.23 230 159

Monitor
El monitor es un periférico de salida fundamental de la PC, es la pantalla en la que
se ve la información suministrada por la PC. Podemos encontrar básicamente dos tipos
de monitores: uno es el CRT basado en un tubo de rayos catódicos como el de los
televisores, y el otro es el LCD; el cual es una pantalla plana de cristal líquido.
  ¿Qué es el CRT?
El CRT (Cathode Ray Tube – Tubo de Rayos Catódicos) es el tubo de imagen
usado para crear imágenes en la mayoría de los monitores de sobremesa. En un CRT, un
cañón de electrones dispara rayos de electrones a los puntos de fósforo coloreado en el
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 37
Cátedra Informática

interior de la superficie de la pantalla del monitor. Cuando los puntos de fósforo brillan, se
produce una imagen.
¿Qué es el LCD?
El LCD (Liquid Crystal Display – Pantalla Cristal Líquido) es una pantalla de alta
tecnología, la tela de cristal liquido permite mayor calidad de imagen y un área visible más
amplia, o sea, para la transmisión de imagen, es usado un cristal liquido entre dos laminas
de video y atribuyen a cada píxel un pequeño transistor, haciendo posible controlar cada
uno de los puntos. Son rápidas, presentan alto contraste y área visible mayor de lo que la
imagen del monitor CTR convencional, además de consumir menos energía. Una de las
características y diferencias principales con respecto a los monitores CTR es que no
emiten en absoluto radiaciones electromagnéticas dañinas, por lo que la fatiga visual y los
posibles problemas oculares se reducen.
Podemos encontrar dos tipos:
1. Matriz inactiva: la visualización depende de las condiciones de iluminación del
lugar donde se esté usando y también del ángulo desde donde lo estamos
observando.
2. Matriz Activa: permite una visualización perfecta sea cual sea las
condiciones de iluminación exteriores y los ángulos desde donde lo
estamos observando.
 

  Monitor LCD
Monitor de Tubo

Micrófono, Altavoces y Audífonos (Dispositivos Multimedia)

-Micrófono: Dispositivo de entrada que permite grabar sonidos y almacenarlos


en un archivo de sonido, se conecta a la tarjeta de sonido.

-Altavoces: Dispositivo de salida que permite escuchar archivos de sonido,


CD’s de música.

-Audífonos: Dispositivo de salida que permite escuchar archivos de sonido y


música desde tu PC.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 38
Cátedra Informática

Impresoras
  La impresora es un periférico de salida esencial de la PC, como su misma palabra
lo dice imprime en papel información, documentos, cartas, fotos, de la PC para así poder
ser archivada, presentada. Es esencial porque cuando se realiza un trabajo en una PC, no
importa lo que sea, tarde o temprano surge la necesidad de plasmar los resultados en
papel.
TIPOS DE IMPRESORAS

Impresora matricial
Se puede decir que es la pionera en el mundo de
impresoras, son imprescindibles en trabajos donde
haya que imprimir sobre papel de copia, es decir,
con más de una hoja, esto abarca todo tipo de
oficinas, negocios y centros, públicos o privados,
que empleen ese tipo de papel. También los
programadores saben apreciar su valor, ya que
para imprimir un gran listado de un programa no
vamos a utilizar una máquina láser o de inyección
de tinta.
Su funcionamiento es simple, un cabezal dotado de una serie de diminutas agujas
recibe impulsos que hacen golpear dichas agujas sobre el papel, que a su vez se
desplaza por un rodillo sólido. Los modelos más frecuentes son los de 9 y 24 agujas,
haciendo referencia al número que de este componente se dota al cabezal, este
parámetro también se utiliza para medir su calidad de impresión, lógicamente a mayor
número de agujas, mayor nitidez se obtendrá en la impresión.
Impresora de inyección de tinta

O también chorro de tinta, es la de más éxito en el


campo de las impresoras, su funcionamiento también se
basa en un cabezal, en este caso inyector, compuesto por
una serie de boquillas que expulsan la tinta según los
impulsos recibidos. Aunque al principio únicamente se
podía imprimir en blanco y negro, el color se popularizó
rápidamente, y se puede decir que ahora la inmensa
mayoría de usuarios domésticos adquiere una impresora de
inyección en color junto con su PC.
Aquí el parámetro de calidad lo da la resolución de la imagen impresa, expresada
en puntos por pulgada (ppp) o también lo podrán ver como dpi (dot per inch). Con 300
ppp basta para imprimir texto, para fotografías es recomendable al menos 600 ppp.
Dada su relación calidad / precio, son las impresoras más utilizadas para trabajos
hogareños y semi-profesionales.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 39
Cátedra Informática

Impresora láser
Aunque el costo de una impresora láser ya no es
demasiado como en otros tiempos ya que se pueden conseguir
impresoras de $ 250 HP aunque el tóner sigue siendo caro,
puede imprimir casi 1500 páginas, lo cierto es que siguen
orientadas al ámbito profesional.
Su funcionamiento consiste de un láser que va dibujando la imagen
electrostáticamente en un elemento llamado tambor que va girando hasta impregnarse
de un polvo muy fino llamado tóner (como el de fotocopiadoras) que se le adhiere
debido a la carga eléctrica. Por último, el tambor sigue girando y se encuentra con la
hoja, en la cual imprime el tóner que formará la imagen definitiva.
Plotter

  Se trata de unos dispositivos destinados a la


impresión de planos para proyectos de arquitectura,
ingeniería, afiches publicitarios, entre otros, por lo que
trabajan con enormes formatos, A1 (59,4 x 84 cm.) o
superiores. Antiguamente consistían en una serie de
plumas móviles de diferentes grosores y colores que se
movían por la hoja reproduciendo el plano o gráfico en
cuestión, lo que era bastante incómodo por el
mantenimiento de las plumillas y podía ser impreciso al
dibujar elementos tales como grandes círculos. En la
actualidad casi todos tienen mecanismos de inyección de tinta, facilitando mucho el
mantenimiento, que se reduce a cambiar los cartuchos, son auténticas impresoras de
tinta, sólo que el papel es mucho más ancho y suele venir en rollos de decenas de metros.
 
 Consumibles
Matriciales: el mantenimiento es sencillo y normalmente barato,
ya que únicamente será preciso cambiar la cinta, que suele durar
bastante. El cabezal también se suele considerar como consumible,
pero no es algo que se estropee con frecuencia, teniendo una media de
vida del orden de años.
Inyección de tinta: lo que más cambiaremos serán los
cartuchos de negro y/o color, el cabezal inyector no suele estropearse,
y la mayoría de impresoras implementan sistemas de limpieza y
calibrado que permiten ajustar el funcionamiento de las mismas. Sin
embargo, como ya dijimos antes, en la actualidad el cabezal esta
incluido en el mismo cartucho (consumible) con lo que cada vez que
compremos un nuevo cartucho adquiriremos un nuevo cabezal, por lo que no nos tiene
que preocupar mucho.
Láser: el consumible por excelencia es el cartucho de
tóner (es decir, la tinta), pero tampoco es extraño tener que
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 40
Cátedra Informática

cambiar la unidad fotoconductora o el tambor (en algunas máquinas estas dos


piezas se engloban en una sola) cada cierto tiempo, siempre según la carga de
trabajo que soporte la máquina.

Escáner
El escáner es un periférico de entrada de la PC, que
sirve para digitalizar imágenes, es decir, transformar algo
analógico, algo físico, como se una foto, un texto, un dibujo, en
algo digital (ceros y unos) y convertirla de este modo a un
formato que podamos almacenar y editar luego con la PC.

¿Cómo funciona?
Se ilumina la imagen con un foco de luz, se transfiere mediante espejos la luz
reflejada hacia un dispositivo denominado CCD que transforma la luz en señales
eléctricas, luego transforma dichas señales eléctricas en formato digital con un DAC
(conversor analógico-digital) y se transmite los bits obtenidos a la PC.
El CCD (Charge Coupled Device – dispositivo acoplado por carga) es un
componente imprescindible del scanner. Consiste en un componente electrónico que
reacciona ante la luz, transmitiendo más o menos electricidad según sea la intensidad y el
color de la luz que recibe.
La calidad de la digitalización dependerá de la calidad del CCD, si la
imagen no es captada con fidelidad cualquier intervención posterior no podrá
solucionar el problema. También debemos tener en cuenta la calidad del DAC, ya
que si se pierde información al transformar los bits a la PC, de nada nos servirá un
estupendo CCD.

MODEM
Módem significa Modulador – Demodulador. En pocas palabras es un dispositivo
que convierte las señales digitales de la PC en señales analógicas y viceversa, con lo que
permite a la PC transmitir y recibir información por la línea de teléfono.
Tipos de MODEM’s
Internos: van insertados en la placa base en una ranura de expansión y consisten
en una placa compuesta por los diferentes elementos que conforman un modem. Hay
para distintos tipos de conector:
ISA: debido a la baja velocidad que transfiere este tipo de conector, hoy en
día no se utiliza.

PCI: es el conector más común y estándar en la actualidad.

AMR: presente sólo en algunas placas modernas, poco recomendables por


su bajo rendimiento. 
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 41
Cátedra Informática

Externos: similares a los anteriores pero no van dentro de la PC, sino en


una “caja” propia que se coloca sobre el escritorio o la mesa donde se ubica la PC.
La conexión con la PC se realiza generalmente mediante el puerto serial (COM) o
mediante el puerto USB, por lo que se usa el chip UART de la PC. Su principal
ventaja es que son fáciles de instalar y no se requieren conocimientos técnicos
básicos como en el caso de los internos, pudiendo así instalarlo cualquier usuario.

HSP o Winmodem: son modem’s internos en los cuales se le han


eliminado componentes electrónicos, como ser determinados chips, de manera
que el microprocesador de la PC debe suplir su función mediante software.

Generalmente se conectan mediante una ranura PCI, una AMR, o directamente


sobre una serie de pines que están sobre la placa base y se usan únicamente para
conectar el módem, ejemplo de estas placas son las PCChips. Obviamente son un desastre
y dependen de la CPU del sistema, pero aunque el micro sea rápido lo mismo son lerdos,
pero la ventaja es que son baratos pudiéndose conseguir desde $10.

1. PCMCIA: se utilizan en computadoras portátiles, su tamaño es similar al de


una tarjeta de crédito algo más gruesa, y sus capacidades pueden ser igual
o más avanzadas que en los modelos normales.

Módem Interno Módem Externo

La velocidad

Es la cantidad de datos por segundo que puede transferir un módem y se miden en


bps (bits por segundo) a continuación vemos un cuadro con las distintas velocidades
aproximadas de los MODEM’s:

 Velocidad Demora para transferir un MB


(bps)
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 42
Cátedra Informática

2.400 1 hora

9.600 15 minutos

14.400 10 minutos

28.800 5 minutos

33.600 4 minutos, 30 segundos

56.000 2 minutos, 30 segundos

SOFTWARE

Lenguajes: Las instrucciones deben darse en un lenguaje de


programación, es decir, en una determinada configuración de información digital
binaria. En las primeras computadoras, la programación era una tarea difícil y
laboriosa ya que con los conmutadores ON-OFF de las válvulas de vació debían
configurarse a mano. Programar tareas tan sencillas como ordenar una lista de
nombres requería varios días de trabajo de equipos de programadores. Desde
entonces se han inventado varios lenguajes informáticos, algunos orientados hacia
funciones específicas y otros centrados en la facilidad de uso.

Lenguaje Máquina: El lenguaje propio del ordenador, basado en el sistema


binario, o código máquina, resulta difícil de utilizar para personas. El programador
debe introducir todas y cada uno de los comandos y datos en forma binaria, y una
operación sencilla como comparar el contenido de un registro con los datos
situados en una ubicación del chip de memoria puede tener el siguiente formato:
11001010 00010111 11110101 00101011. La programación en lenguaje máquina
es una tarea tan tediosa y consume tanto tiempo que muy rara veces lo que se
ahorra en la ejecución del programa justifica los días semanas que se han
necesitado para escribir el mismo.

0000 0001 1010 0001 01 A1


1000 1001 1001 1010 89 9A
0011 1010 1001 1100 3A 9C
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 43
Cátedra Informática

0111 0100 0111 0000 74 70


1110 1001 0010 0000 E9 20

Instrucciones en lenguaje máquina y sus equivalentes en sistema hexadecimal

Lenguajes Ensamblador: Uno de los métodos inventados por los


programadores para reducir y simplificar el proceso es la denominada
programación con lenguaje ensamblador. Al asignar un código mnemotécnico (por
lo general tres letras), a cada comando en lenguaje máquina, es posible escribir y
depurar o eliminar los errores lógicos y de datos en programas escritos en
lenguaje ensamblador, empleando para ello sólo una fracción del tiempo necesario
para programar en lenguaje máquina. En el lenguaje ensamblador, cada comando
mnemotécnico y sus operadores simbólicos equivalen a una instrucción de
máquina. Un programa ensamblador traduce el código fuente, una lista de códigos
de operación mnemotécnicos y operadores simbólicos, a código objeto (es decir,
a lenguaje máquina) y a continuación ejecuta.

Sin embargo, el lenguaje ensamblador puede utilizarse con un solo tipo de


chip de CPU o microprocesador. Los programadores, que dedicaron tanto tiempo
y esfuerzo al aprendizaje de la programación de un ordenador, se veían obligados
a aprender un nuevo estilo de programación cada vez que trabajaban con otra
máquina. Lo que se necesitaba era un método que permitiera que el mismo
programa pudiera ejecutarse en varios tipos de máquinas. Estas necesidades
llevaron al desarrollo de Lenguajes de Alto Nivel.

INICIO: ADD B, 1

MOV A, B

CMP A, E
JE FIN

JMP INICIO

FIN: END
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 44
Cátedra Informática

Instrucciones en lenguaje Ensamblador

Lenguajes de Alto Nivel

Los lenguajes de alto nivel suelen utilizar términos ingleses del tipo LIST,
PRINT u OPEN como comandos que representan una secuencia de decenas o
de centenas de instituciones en lenguaje maquina. Los comandos que representan
una secuencia de decenas o de centenas de instrucciones en lenguaje máquina.
Y los comandos se introducen desde el teclado, desde un programa residente en
la memoria o desde un dispositivo de almacenamiento y son interceptados por un
programa que los traduce a instrucciones en lenguaje máquina.

Los programas traductores son de dos tipos:

Intérpretes y copiladores. Con un intérprete, los programas que repiten un


ciclo para volver a ejecutar parte de sus instrucciones, reinterpretan la misma
instrucción cada vez que aparece. Por consiguiente, los programas interpretados
se ejecutan con mucha mayor lentitud que los programas en lenguaje máquina.
Por lo contrario, los copiladores traducen un programa integro a lenguaje máquina
antes de su ejecución, por lo cual se ejecutan con tanta rapidez como si hubiesen
sido escritos directamente en lenguaje maquina.

Se considera que fue la estadounidense Grace Hooper quien implementó el


primer lenguaje de ordenador orientado al uso comercial. Después de programar
un ordenador experimental en la universidad de Harvard, trabajó en los modelos
UNIVAC I Y UNIVAC II desarrollando un lenguaje de alto nivel para uso comercial
llamado FLOW-MATIC. IBM desarrolló un lenguaje que simplificaría el trabajo
que implicaba el tratamiento de formulas matemáticas complejas. Iniciando en
1954 y terminando en 1957, el FORTRAN (acrónimo de formula translator) fue el
primer lenguaje exhaustivo de alto nivel de uso generalizado.
En 1957 una asociación estadounidense, la Association for Computing
Machinery, comenzó a desarrollar un lenguaje universal que corrigiera algunos
de los defectos del FORTRAN.

Un año más tarde fue lanzado el ALGOL (acrónimo de Algorithmic


Language), otro lenguaje de orientación científica, de gran difusión en Europa
durante las décadas de 1960 y 1970, desde entonces ha sido sustituido por
nuevos lenguajes, mientras que el FORTRAN continúa siendo utilizado debido a
las gigantescas inversiones que se hicieron en los programas existentes.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 45
Cátedra Informática

El COBOL (acrónimo de Common Businnes Oriented Language) es un


lenguaje de programación para uso comercial y empresarial especializado en la
organización de datos y manipulación de archivos, Hoy día esta muy difundido en
el mundo empresarial.

El BASIC (acrónimo de Código de Instrucciones Simbólicas de uso General


para Principiantes) fue desarrollado en Dartmouth College a principios de la
década de 1960 y está dirigido a los usuarios de ordenadores no profesionales.
Este lenguaje se universalizó gracias a la popularización de los microordenadores
en la década de 1970 y 1980. Calificado de lento, ineficaz y poco estético por su
detractores, BASIC es sencillo de aprender y fácil de
utilizar. Como muchos de los primeros microordenadores
se vendieron con BASIC, incorporado en el hardware (en
la memoria ROM), se generalizó el uso de este lenguaje.

Aunque existen centenares de lenguajes


informáticos y de variantes, hay algunos dignos de
mención, como el PASCAL, diseñado en un principio
como herramienta de enseñanza. Hoy es uno de los
lenguajes de microordenador más populares; el LOGO fue desarrollado para que
los niños pudieran acceder al mundo de la informática; el C, es un lenguaje de Bell
Laboratories, desarrollado en la década de 1970, se utiliza ampliamente en el
desarrollo de programas de sistemas, al igual que su sucesor, C++, el LISP y el
PROLOG han alcanzado amplia difusión en el caso de la inteligencia artificial.

Sistemas Operativos
Es un programa o conjunto de programas que administran y rigen los recursos de
la PC. Este indica como interactuar con el usuario y como usar los dispositivos: discos
rígidos, teclado, monitor, etc

Obj112

Sistemas Operativos

Función:
1. Es el núcleo de toda la actividad del software.
2. Controla todas las entradas y salidas de sistemas de computación.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 46
Cátedra Informática

3. Este responde a las indicaciones provenientes del usuario, o de un


conjunto previamente definido de comandos.

4. Controla la ejecución de varios programas, simultáneamente.

5. Actúa como traductor, entre las operaciones y la respuesta de la


maquina.

6. Informa al usuario de cualquier error que presente la maquina.

7. Este posee un programa llamado "manipulador de discos" opera con un


circuito electrónico llamado controlador de discos, este ayuda a traducir
las ordenes de los programas para encontrar la pista adecuada.

  Clasificación:
Monousuario: es de tipo simple, ya que se dedica a un solo programa a la vez.
Multiusuario: es de tipo general, ya que puede satisfacer las exigencias de
usuarios múltiples con los recursos de programas y maquina de que se dispone. Puede
ser de varios tipos:
1. Multiprogramación: es un caso en la que múltiples programas pueden
almacenarse en la memoria y ejecutarse siguiendo un nivel de prioridades.
2. Tiempo compartido: permite que cada programa actúe durante cierto
tiempo (apropiado para programas interactivos).

3. Lotes: es una colección de programas, escritos en COBOL o FOLTRAN, se


incorpora a la PC y se procesa.

4. Tiempo Real: en este la respuesta a la PC debe ser lo bastan rápida como


para proporcionar una decisión en tiempo real.

Multitarea: puede realizar mas de una tarea a la vez como lo son los NOS (Net
Operating System – Sistema Operativo de Red).
Monotarea: puede realizar solo una tarea por vez, como es el caso de los S.O. de
texto como ser DOS.

Componentes: El sistema operativo es generalmente diseñado por el fabricante y


por ello no es posible definir uno estándar, aunque hay un conjunto de funciones básicas
o componentes que todo sistema debe considerar, y son:
1. Controlar las operaciones de entrada y salida.
2. Cargar, inicializar y supervisar la ejecución de los trabajos.

3. Detectar errores.

4. Controlar las interrupciones causadas por los errores.

5. Asignar memoria a cada tarea.


Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 47
Cátedra Informática

6. Manejar el multiproceso, la multiprogramación, memoria virtual, etc.

Software de Aplicación
  Este describe programas que son para el usuario, así descrito para poder realizar
casi cualquier tarea. Este es aquel cuyo que puede ser utilizado en cualquier instalación
informática, independiente del empleo que vayamos a hacer de ella. Como existen
muchos programas se dividen en varias categorías:
1. Aplicaciones de negocios: en esta se encuentran los procesadores de texto, hojas
de cálculos, base de datos, Graficadores.
2. Aplicaciones de Utilería
3. Aplicaciones Personales
4. Aplicaciones de Entretenimiento

Procesadores de texto: Estos permiten editar los textos


con facilidad, permiten revisar la ortografía e incluso la gramática
de un documento, cambiar tipografía, añadir gráficos, fusionar
listas de direcciones con cartas con envío de correo en grupo,
general tablas de contenido, etc. También se puede usar para
crear cualquier tipo de documento (carta de negocio, documentos
legales).
 
Graficadores: Se utilizan para crear ilustraciones desde cero (0) los, usuarios
pueden pintar con dispositivos electrónicos de señalamiento en vez de lápices o brochas.
Otro tipo de software para gráfico son las aplicaciones para presentaciones de gráficos
con este se crean gráficas y tabla a color y de calidad profesional basados en datos
numéricos de otro programa (hoja de calculo).

Adobe Photoshop
Obj113

Base de datos: Se utiliza para organizar los datos


guardados en la computadora y permite buscar datos específicos
de diferentes maneras. También archivan los datos en orden
alfabético esto permite obtener la información que se desean más
fácilmente.
 
Hojas de cálculo: son procesadores de números
tridimensionales. Se pueden crear hojas de trabajo donde
puedes colocar textos, números o formulas en las celdas,
obteniendo una hoja contable computarizada. También puede
crear gráficos y tablas para mostrar gráficamente relaciones
entre números.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 48
Cátedra Informática

 
Software Educativo:

El termino Software se define como “una serie de instrucciones que realizan


una tarea en particular llamada programa, su fundamentación se basa en dos
grandes categorías como lo son los software de sistema que se componen de
programas de control, incluyendo el sistema operativo, software de comunicación
y administración de base de datos, los software de aplicación cuyos componentes
son programas que procesan datos para el usuario. (Diccionario de Computación,
1996, p. 536).

De acuerdo con lo antes expuesto, un Software Educativo llamado también


Enseñanza Asistida por Computador (EAC), es un conjunto de programas o
paquetes de aplicación dirigidos al usuario cuyas características estructurales y
funcionales sirvan de apoyo al proceso de enseñanza. En este sentido se define
un software educativo como “aquel material de aprendizaje especialmente
diseñado para ser utilizado con un computador en los procesos de enseñanza y
aprendizaje”.

Tipos de Software Educativos

El software educativo se clasifica según la forma como se articulan con lo


aprendido en el nivel cognoscitivo y según sus características fundamentales.

1. Según la forma en que se articulan con lo aprendido en el nivel cognoscitivo.


1. Software de Presentación
Es un programa que presenta información y conocimientos bajo un modelo
tutorial de aprendizaje, donde usualmente la modalidad de interacción con el usuario se
basa en un ciclo contenido – preguntas – presentación – preguntas. Este software es la
evolución de aquel tipo CAI, CAL, basado ahora en tecnología medial. Si bien formato de
presentación comienza a ser variado, impactante y algo motivador, el modelo de
aprendizaje que subyace siguiendo siendo conductista

1. Software de Representación

Trata la información y conocimiento de la misma forma que éstos


hipotéticamente se organizan y representan en las estructuras mentales de los
usuarios. Es decir, la forma de organizar los contenidos se asemeja a modelos de
organización de información en memoria. La estructura del software, su navegación
y la interacción con el usuario intentan imitar la forma como se almacenaría la
información en la memoria. La idea es que la información pueda ser representada
mediante una comparación metafórica de la relación estructural entre conceptos del
programa y posibles estructuras mentales formadas por el aprendiz.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 49
Cátedra Informática

2. Software de Construcción
Es más flexible que los anteriores, está centrado en el aprendiz, entrega de
herramientas, materiales, elementos y estrategias para que este construya y reconstruya su
conocimiento. Esto es principalmente sustentado por el hecho que el aprendiz para trabajar
con el software debe hacer cosas, construir, reconstruir, resolver, crear, corregir y reparar
los errores. El aprendiz hace cosas con el software y no el software hace cosas con él.

2. Según sus características fundamentales se clasifican en:

1. Ejercitación
Se refiere a programas que intentan reforzar hechos y conocimientos que han sido
analizados en una clase explosiva o de laboratorio. En este tipo de aplicaciones el usuario
debe resolver algún problema y al finalizar puede tener una recompensa que motiva al
usuario a completar la tarea o actividad propuesta. Un uso inteligente de este no sólo
involucra práctica, sino que incorpora un feedback que indica al aprendiz cuándo un
ejercicio ha sido resuelto en forma correcta o incorrecta. De este modo, utilizando el
computador para ejercitación, los aprendices pueden obtener una abundante diversidad de
ejercicios y el feedback adecuado.

1. Tutoriales
Esencialmente presentan información que se plasma
en un diálogo entre el aprendiz y el computador. Existe un
amplio rango de este tipo de software, desde programas que
mantienen una fría comunicación entre computador y alumno a
programas que implican una relación interactiva entre ambos.
En otras palabras, puede existir un rango que se extiende desde un enfoque similar a las
máquinas de tipo Skinnerianas hasta un estilo de enseñanza más fluido de tipo de
conversación socrática interactiva.

2. Simulación
Son principalmente modelos de algunos eventos y procesos de la vida real, que
proveen al aprendiz de medios ambientes fluidos, creativos y manipulativos. Normalmente,
las simulaciones son utilizadas para examinar sistemas que no pueden ser estudiados a
través de experimentación natural, debido a que involucra largos períodos, grandes
poblaciones, aparatos de alto costo o materiales con un cierto peligro en su manipulación.
Las simulaciones modelan algún dominio en especial para lograr la ilusión de interactuar con
un sistema determinado.
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 50
Cátedra Informática

Simulador de vuelo de un MIG 25

3. Juegos Educativos
Es muy similar a las simulaciones, la diferencia radica
en que incorpora un nuevo componente, la acción de un
competidor, el que puede ser real o virtual. Cuando dos o más
aprendices juegan, deben realizar turnos o cada uno puede
comprometerse en algún evento.

4. Material de Referencia Multimedial


Usualmente presentado como enciclopedias interactivas. La finalidad de estas
aplicaciones reside en proporcionar el material de referencia e incluyen tradicionalmente
estructura hipermedial con clips de vídeo, sonido, imágenes, etc. Como ejemplo de este tipo
de software están las enciclopedias Grolier y Encarta.

5. Historias y Cuentos
Dra. Minerva Cárdenas/Dra. Roraxy Fonseca 51
Cátedra Informática

Son aplicaciones que presentan al usuario una historia multimedial, la cual se


enriquece con un valor educativo. Por ejemplo, las palabras que se van pronunciando
acústicamente son marcadas sobre el texto escrito, permitiendo al niño asociar el texto
escrito al sonido. Aunque estas aplicaciones no reemplazan a los libros impresos, adicionan
un nuevo recurso educativo.

6. Editores
El objetivo de estos productos no es dar respuesta a preguntas del usuario, sino
dar un marco de trabajo desde el niño para que pueda diseñar, crear y experimentar
libremente en un dominio gráfico o similar. Ejemplo de estos son Print Shop, Fine Arists, Kid
Pix, etc.

7. Hiperhistorias
Es un tipo de software donde a través de una metáfora de navegación espacial se
transfiere una narrativa interactiva. Su característica principal reside en que combinan
activamente un modelo de objetos reactivos en un marco de ambiente virtual navegable y
tienen cierta semejanza con los juegos de aventuras.

También podría gustarte