Está en la página 1de 22

INSTITUTO TECNOLÓGICO NACIONAL

DE MÉXICO
INSTITUTO TECNOLÓGICO
DE ORIZABA

CARRERA
Ingeniería electrónica

MATERIA
Microcontroladores

CLAVE MATERIA:
6e4A

DOCENTE
Fernando Rios Cortes

ACTIVIDAD:
Los tipos y clasificaciones de las arquitecturas computacionales
Históricas hasta nuestros días.

ALUMNO:
Prado Olguín Roberto Carlos

NO. CONTROL
17010861
Se considera que la historia de la informática empieza cuando, en los albores de la historia,
el hombre comienza a buscar instrumentos que le ayuden a realizar las operaciones
aritméticas que necesitaban para los negocios de intercambio de mercancías.

El primer instrumento conocido utilizado para realizar operaciones fue el


ábaco. El ábaco más antiguo aparece en el valle del Tigris y el Éufrates en
torno al 3.500 A. C. Y hacia el 2.600 A. C. Aparece en China. El ábaco
simplificaba las operaciones aritméticas básicas (suma, resta,
multiplicación y división) y aún hoy se utiliza en algunos países
orientales.

En 1642 aparece la máquina aritmética de Pascal, que


era una máquina mecánica capaz de sumar y cuyo
funcionamiento se basaba en ruedas dentadas.

En 1822 Charles Babbage diseñó su máquina de diferencias, basada en ruedas dentadas


pero que no llegó a construirse debido a las deficiencias tecnológicas de la época. Más tarde
en 1833, diseñó su máquina analítica que tampoco llegó a construirse por problemas
tecnológicos, pero su esquema de diseño fue muy similar al de las computadoras actuales,
por lo que a Babbage se le considera el padre de la informática.
En 1887 Herman Hollerith construyó una máquina que procesaba datos utilizando tarjetas
perforadas. Esta máquina fue diseñada para hacer el censo de los Estados Unidos del año
1890.

Ya a mediados del siglo XX aparecen las primeras computadoras impulsadas por los
avances tecnológicos y por la necesidad de resolver problemas militares.

La primera computadora aparece en 1944 y fue construido por Howard Aiken. Era una
computadora electromecánica pues el principal elemento constructivo

era el relé, un dispositivo que mediante un circuito electromagnético era capaz de abrir o
cerrar circuitos mecánicos que dejaban pasar o no la corriente eléctrica.

En 1945 aparece la primera máquina completamente electrónica, el ENIAC, cuyo elemento


tecnológico era la válvula de vacío, y cuyo funcionamiento era similar al relé, pero que no
utilizaba elementos mecánicos. El circuito eléctrico se cerraba al aplicar una tensión lo
suficientemente elevada entre dos electrodos.
En 1944, el ingeniero y matemático húngaro John Von Newman desarrolló un modelo de
una computadora electrónica a partir de la cual diseña el EDVAC, que fue una
modificación del ENIAC.

El elemento tecnológico era también la válvula de vacío y propone almacenar los


programas y los datos en el interior de las computadoras. Von Newman establece el modelo
de computadora compuesta por Unidad de Control, Unidad Aritmética y Lógica y Memoria
Principal que aún se utilizan en las computadoras actuales. Por eso se las llama, máquina
Von Newman.

GENERACIONES DE COMPUTADORAS.

Existe un esquema básico de la carrera tecnológica cuyo principal objetivo es mejorar las
tecnologías e introducir modificaciones en ese esquema básico para conseguir máquinas
cada vez más rápidas y potentes y reducir el espacio ocupado y la potencia consumida por
esas máquinas, sucediéndose desde entonces una serie de generaciones, desde la primera
hasta llegar a la quinta.

1era Generación (1,940 – 1,952): El elemento tecnológico que la hace posible es la


válvula de vacío, estaban constituidas por aproximadamente 18,000 válvulas de vació, por
lo que eran necesarios sistemas de refrigeración para evitar el sobrecalentamiento y
quemado de los tubos. Los operadores ingresaban los datos y programas en código de
maquina por medio de tarjetas perforadas. El almacenamiento interno se lograba con un
tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba
marcas magnéticas. Solo se podían programar en lenguaje máquina, no existían los
lenguajes de programación. Eran empleadas principalmente para uso militar y científico.

Una de las computadoras de esta generación es la ENIAC (Electronic Numerical Integrator


and Computer), medía 2.40 de ancho por 30 metros de largo y pesaba 80 toneladas. Podía
resolver 5,000 sumas y 360 multiplicaciones por segundo.

Las principales características de las computadoras de esta generación son:

Usaban tubos o válvulas al vacío.


Tenían desde 100 Bytes hasta 2 KiloBytes (2,000 Bytes)
Máquinas grandes y pesadas.
Aplicaciones aún bastante limitadas que consumían mucha energía (300 V)
Continúas fallas o
interrupciones en el
proceso.
Alto costo.
Uso de tarjetas perforadas
para suministrar datos y los
programas.
Realizaban de 2,000 a
16,000 sumas por segundo
2da Generación(1,952 – 1,964): A partir de 1947 se realiza, en los laboratorios Bell, el
diseño del transistor, construido con material semiconductor basado en el Silicio, un
material abundante en la arena de playa. El transistor sustituye a la válvula de vacío, ocupa
mucho menos espacio y con él se inicia el verdadero desarrollo de las computadoras,
disminuyendo de tamaño y precio y posibilitando su uso también en aplicaciones
administrativas y comerciales.

Las principales características de las computadoras de esta generación son:

Computadoras basadas en transistores.


Realizaban de 6,000 a 3,000,000 operaciones por segundo.
Para el almacenamiento interno se emplean los núcleos de ferrita, utilizando sus
propiedades magnéticas de que podían tener dos estados. Capacidad de 6 KiloBytes
a 1.3 MegaBytes de memoria principal.
Disminución de consumo energético y de producción de calor.
El voltaje de alimentación es de 10 V.
Para el almacenamiento masivo se utilizaba las cintas magnéticas y los tambores
magnéticos.
Comenzaron a desarrollarse lenguajes ensambladores y de alto nivel como el
FORTRAN, COBOL, ALGOL, facilitando la programación de los mismos.
Mayor velocidad. La velocidad de las operaciones ya no se mide en segundos sino
en ms (milisegundos).

3ra Generación (1,964 – 1,971): El 1964 aparece el circuito integrado, fabricado también
con material semiconductor, dando paso a la tercera generación de computadoras. En el
Circuito Integrado o Chip, se construyen en miniatura circuitos electrónicos a base de
transistores, resistencias, condensadores, etc. Con ello se consigue disminuir aún más el
tamaño y el consumo de las computadoras, aumentando al mismo tiempo las prestaciones.
Las tecnologías utilizadas para los circuitos integrados de esta época se denominan SSI
(Small Scale Integration) y MSI (Medium Scale Integration). El software evoluciona
desarrollándose los Sistemas Operativos, que incluyen multiprogramación, tiempo real y
modo interactivo. Para almacenamiento interno de la información se utiliza memorias de
semiconductores y para el almacenamiento masivo externo empiezan a utilizarse los discos
magnéticos (discos duros).
Fueron fabricadas en base a circuitos integrados. Circuitos integrados:
Miniaturización y agrupación de centenares de elementos en una placa de Silicio o
Chip.
Menor consumo de energía. Apreciable reducción de espacio.
La disminución del tamaño de los circuitos continuaba a modo acelerado, cuando a
mediados de los años 60s la empresa INTEL consiguió integrar un procesador
completo en un solo chip, llamado microprocesador.
La reducción de tamaño de los sistemas lógicos y de memoria conduce a la
fabricación de la minicomputadora
Se renuevan y crean periféricos de entrada y salida que actúan de manera más
rápida y eficaz.
El desarrollo de Hardware permite la conectividad de varios dispositivos para
formar redes.
Utilización de redes de terminales periféricos conectados a la unidad central, lo que
permitía utilizar la computadora desde lugares remotos.
Teleproceso. Se instalan terminales remotas que acceden a la computadora central
para realizar operaciones, extraer o introducir información en bancos de datos, etc.
Trabajo a tiempo compartido. Uso de una computadora por varios clientes al mismo
tiempo.
Se implementa la multiprogramación. Para que sea factible el uso en tiempo
compartido, es necesario que el diseño de las computadoras permita el proceso
simultáneo de varios programas.
Compatibilidad. Comienza a atenderse en todas las empresas fabricantes de
Hardware los problemas que plantea la incomunicabilidad de los programas.
Ampliación de las aplicaciones.

4ta Generación (1,971 – hasta la actualidad): En 1,971 aparece el microprocesador, que


consiste en la construcción de la Unidad central de proceso en un solo circuito integrado.
La tecnología de construcción de los circuitos se denomina LSI (Large Scale Integration) y
posibilita la aparición de las computadoras personales, extendiéndose el uso de las
computadoras al hogar. Aparece como unidad de almacenamiento el disquete o floppy disk,
proliferan los lenguajes de programación de todo tipo y aparecen las redes de transmisión
de datos para interconectar computadoras y dando lugar a la telemática o teleinformática.
La escala de integración sigue aumentando, apareciendo VLSI (Very Large Scale
Integration) y ULSI (Ultra Large Scale Integration), sigue reduciéndose el tamaño y los
precios, y empiezan a buscarse alternativas al diseño de la máquina de Von Neuman que
hagan a las computadoras cada vez más rápidas. Empieza a introducirse el paralelismo, es
decir que varios procesadores puedan trabajar al mismo tiempo pudiendo ejecutar incluso el
mismo programa.

En la cuarta generación se tienen las siguientes características:

Basadas en circuitos integrados de tipo LSI, VLSI y UVLSI.


El proceso de reducción del tamaño de los componentes llega a superar las escalas
microscópicas. Las aplicaciones del microprocesador se han proyectado más allá de
la computadora y se encuentra en multitud de aparatos.
La reducción del tamaño también genera nuevos conceptos para su uso. Las PC, las
microcomputadoras y las minicomputadoras son el grupo de equipos que conforman
las "computadoras pequeñas".
Memorias electrónicas, que resultan más rápidas y reducidas. La capacidad de
memoria aumenta notablemente actualmente podemos encontrar sistemas con 4GB,
8GB y 16GB.
El aumento cuantitativo y cualitativo de las bases de datos lleva a crear nuevas
formas de gestión que facilitan la tarea de consulta y edición.
Las aplicaciones. Son innumerables y generalmente abarcan todos los campos de la
actividad humana (medicina, comercio, viajes espaciales, entre otros).
La computación deja de ser uso exclusivo de profesionales, y entra a ser un
elemento más de la vida cotidiana.

5ta Generación (en proyecto): Aparecen términos como Inteligencia Artificial, que
pretende que las computadoras puedan pensar, a semejanza del hombre. Los lenguajes de
programación se acercan cada vez más al lenguaje natural y evoluciona la robótica, o
diseño de máquinas que hagan labores humanas, como construir coches, limpiar la casa,
etc.

ARQUITECTURAS DE COMPUTADORAS

Arquitectura Harvard
El término Arquitectura Harvard originalmente se refería a las arquitecturas de
computadoras que utilizaban dispositivos de almacenamiento físicamente separados para
las instrucciones y para los datos (en oposición a la Arquitectura von Neumann). El término
proviene de la computadora Harvard Mark I, que almacenaba las instrucciones en cintas
perforadas y los datos en interruptores.

Es una arquitectura de computadora con pistas de almacenamiento y de señal físicamente


separadas para las instrucciones y para los datos.
Hoy en día (2016), la mayoría de los procesadores implementan dichas vías de señales
separadas por motivos de rendimiento, pero en realidad implementan una arquitectura
Harvard modificada, para que puedan soportar tareas tales como la carga de un programa
desde una unidad de disco como datos para su posterior ejecución.

Usos modernos de la arquitectura Harvard:


Los procesadores Texas Instruments TMS320 C55x.
Los microcontroladores AVR de AVR de Atmel Corp y la PIC de Microchip
Technology, Inc.

Arquitectura von Neumann


Tradicionalmente los sistemas con microprocesadores se basan en esta arquitectura, en la
cual la unidad central de proceso (CPU), está conectada a una memoria principal
única (casi siempre sólo RAM) donde se guardan las instrucciones del programa y los
datos. A dicha memoria se accede a través de un sistema de buses único (control,
direcciones y datos).

La arquitectura von Neumann se refiere a las arquitecturas de computadoras que utilizan el


mismo dispositivo de almacenamiento tanto para las instrucciones como para los datos (a
diferencia de la arquitectura Harvard). Esta arquitectura fue planteada en 1945, por el
conocido matemático John von Neumann, que propuso el concepto de programa
almacenado.

Las computadoras con arquitectura von Neumann constan de cinco partes: La unidad
aritmético-lógica o ALU, la unidad de control, la memoria, un dispositivo de entrada/salida
y el bus de datos que proporciona un medio de transporte de los datos entre las distintas
partes.
Una computadora con arquitectura von Neumann realiza o emula los siguientes pasos
secuencialmente:

1. Enciende la computadora y obtiene la siguiente instrucción desde la memoria en la


dirección indicada por el contador de programa y la guarda en el registro de instrucción.

2. Aumenta el contador de programa en la longitud de la instrucción para apuntar a la


siguiente.

3. Decodifica la instrucción mediante la unidad de control. Ésta se encarga de coordinar el


resto de componentes de la computadora para realizar una función determinada.

4. Se ejecuta la instrucción. Ésta puede cambiar el valor del contador del programa,
permitiendo así operaciones repetitivas. El contador puede cambiar también cuando se
cumpla una cierta condición aritmética, haciendo que la computadora pueda 'tomar
decisiones', que pueden alcanzar cualquier grado de complejidad, mediante la aritmética y
lógica anteriores.

5. Vuelve al paso 2.

Hoy en día, la mayoría de computadoras están basadas en esta arquitectura, aunque pueden
incluir otros dispositivos adicionales, (por ejemplo, para gestionar las interrupciones de
dispositivos externos como mouse, teclado, etc.).

Arquitectura ARM:
ARM es una arquitectura RISC de 32 bits y recientemente con la
llegada de su versión V8-A también de 64 Bits desarrollada por ARM
Holdings.
La arquitectura ARM está soportada por un gran número de sistemas
operativos integrados y de tiempo real, incluyendo Windows CE,
Windows 8 RT, .NET Micro Framework, Symbian, ChibiOS/RT,
FreeRTOS, eCos, Integrity, Nucleus PLUS, MicroC/OS-II, QNX,
RTEMS, BRTOS, RTXC Quadros, ThreadX, Unison Operating
System, uTasker, VxWorks, MQX y OSE.
Los sistemas que acreditan la especificación estándar UNIX y que soportan la
arquitectura ARM son:
Solaris
Apple OS X (en proyecto)
Familias:

Arquitectura Orientada a Servicios (SOA):


La Arquitectura Orientada a Servicios (SOA, siglas del inglés Service Oriented
Architecture) es un paradigma de arquitectura para diseñar y desarrollar sistemas
distribuidos. Las soluciones SOA han sido creadas para satisfacer los objetivos de negocio
las cuales incluyen facilidad y flexibilidad de integración con sistemas legados, alineación
directa a los procesos de negocio reduciendo costos de implementación, innovación de
servicios a clientes y una adaptación ágil ante cambios incluyendo reacción temprana ante
la competitividad.

Permite la creación de sistemas de información altamente escalables que reflejan el negocio


de la organización, a su vez brinda una forma bien definida de exposición e invocación de
servicios (comúnmente pero no exclusivamente servicios web), lo cual facilita la
interacción entre diferentes sistemas propios o de terceros.
SOA proporciona una metodología y un marco de trabajo para documentar las capacidades
de negocio y puede dar soporte a las actividades de integración y consolidación.
Existen diversos estándares relacionados a los servicios web; incluyendo los siguientes:
• XML
• HTTP
• SOAP
• REST
• WSDL
• UDDI
Hay que considerar, sin embargo, que un sistema SOA no necesariamente utiliza estos
estándares para ser “Orientado a Servicios” pero es altamente recomendable su uso.
Arquitectura en Pipeline:
Basada en filtros, consiste en ir transformando un flujo de datos en un proceso
comprendido por varias fases secuenciales, siendo la entrada de cada una la salida de la
anterior.
Esta arquitectura es muy común en el desarrollo de programas para el intérprete de
comandos, ya que se pueden concatenar comandos fácilmente con tuberías (pipe).
También es una arquitectura muy natural en el paradigma de programación funcional, ya
que equivale a la composición de funciones matemáticas.
Arquitecturas INTEL Y AMD DE 32 Y 64 BITS:
IA-32 (Intel Architecture, 32 bits): es la arquitectura del conjunto de instrucciones de los
procesadores de Intel 80×86 y de los primeros microprocesadores de AMD. IA-32 fue una
extensión de 32 bits, implementada por primera vez en 1986 en el procesador Intel 80386,
sucesor de los antiguos procesadores Intel 8086, 8088, 80186 y 80286 de 16-bit y el
denominador común de todos los diseños 80×86 subsiguientes (80486, 80586, 80686). Por
este motivo, también es conocida de manera genérica como arquitectura i386, x86-32 o
x86, aunque bajo esta última denominación (x86), y también como x86-16, se suele incluir
a los procesadores Intel de 16 bits.
La arquitectura IA-64 (Intel Arquitecture, 64 bits) de Intel (perogrullada), fue lanzada
en 1999, y no es directamente compatible con el conjunto de instrucciones IA-32 (excepto
bajo emulación software) como sí sucede en el caso de las arquitecturas Intel 64 y AMD64.
IA-64 es la arquitectura utilizada por la línea de procesadores Itanium e Itanium 2, por lo
que inicialmente fue conocida por el nombre de Intel Itanium Architecture.
OTRAS ARQUITECTURAS:
Además de las arquitecturas de Intel y AMD existen otras muchas, entre las más conocidas:
-SPARC (del inglés Scalable Processor ARChitecture):es una arquitectura RISC
originalmente diseñada por Sun Microsystems y que podemos encontrar en los
procesadores de Sun (ahora Oracle).

-PowerPC (usualmente abreviada PPC):es el nombre de la arquitectura de computadoras


de tipo RISC desarrollada por IBM, Motorola y Apple. Los procesadores de esta familia
son utilizados principalmente en ordenadores Macintosh de Apple hasta el año 2006 y en
varios modelos IBM.

-ARM (Advanced RISC Machines): es una familia de microprocesadores RISC diseñados


por la empresa Acorn Computers y desarrollados por Advanced RISC Machines Ltd., una
empresa derivada de la anterior.
-PA-RISC: es el nombre por el que se conoce una arquitectura de microprocesadores
desarrollada por sistemas Hewlett-Packard y VLSI Technology Operation. Esta arquitectura
se basa en el modelo RISC y en PA (Precision Architecture). También se suelen referir a
ella como la arquitectura HPPA (Hewlett Packard Precision Architecture). Los primeros
PA-RISC fueron dispositivos de 32 bits. El diseño fue actualizado en 1996 dando lugar a la
versión 2.0 de la arquitectura. Esta nueva versión era una arquitectura de 64 bits.

-Alpha: es una arquitectura de microprocesadores diseñada por DEC e introducida en 1992


bajo el nombre AXP. Cuenta con un juego de instrucciones RISC de 64 bits, pero también
puede manejar datos de 32, 16 bits y por último de 8 bits.

TIPOS DE COMPUTADORAS

1. Según su Funcionamiento

Se tienen:

Computadoras Analógicas, las cuales procesan señales analógicas.


Computadoras Digitales, se encargan de procesar señales digitales.
Computadoras Híbridas, pueden procesar los dos tipos de señales haciendo uso de
conversores analógico-digital y digital-analógico.
Señal Analógica
Las señales ANALÓGICAS están representadas por valores continuos. Algo continuo es
todo aquello de puede tomar una infinidad de valores dentro de un cierto límite, superior e
inferior.

Señal Digital
La señal es DIGITAL cuando las magnitudes de la misma se representan mediante valores
discretos. La palabra discreto proviene del latín discretus que significa separado.
Por ejemplo, un interruptor puede tomar dos valores o estados: abierto o cerrado, o
encendido o apagado.
Los sistemas digitales, como una computadora, usan lógica de dos estados: la corriente pasa
o no, por los componentes electrónicos del sistema. Estos dos estados son en realidad dos
niveles de tensión, uno alto, H y otro bajo, L (de High y Low, respectivamente). Por
abstracción, dichos estados se sustituyen por ceros y unos, lo que facilita la aplicación de la
lógica y la aritmética binaria. Si el nivel alto se representa por 1 y el bajo por 0, se habla de
lógica positiva y en caso contrario de lógica negativa. Esta representación permite utilizar
los bits (binary digits – dígitos binarios) como elementos de un sistema digital.

Cabe mencionar que además de los niveles, en una señal digital están las transiciones de
alto a bajo o de bajo a alto, denominadas flanco de subida o de bajada, respectivamente. En
la siguiente figura se muestra una señal digital donde se identifican los niveles y los
flancos.

1.- Nivel bajo


2.- Nivel alto
3.- Flanco de subida
4.- Flanco de bajada

Es conveniente aclarar que, a pesar de que en los ejemplos señalados el término digital se
ha relacionado siempre con dispositivos binarios, no significa que digital y binario sean
términos intercambiables.
Por ejemplo, si nos fijamos en el código Morse, veremos que en él se utilizan, para el envío
de mensajes por telégrafo eléctrico, cinco estados digitales que son:

Punto
Raya
Espacio corto (entre letras)
Espacio medio (entre palabras)
Espacio largo (entre frases)

Referido a un aparato o instrumento de medida, decimos que es digital cuando el resultado


de la medida se representa en un visualizador mediante números (dígitos) en lugar de
hacerlo mediante la posición de una aguja, o cualquier otro indicador, en una escala.
Ventajas del Uso de las Señales Digitales

La información a procesar en un sistema de cómputo, puede encontrarse ya sea en forma


digital o en señales analógicas que deben convertirse en pulsos digitales, antes de su
procesamiento. Y en algunos casos después del procesamiento, los resultados son
convertidos nuevamente a la forma analógica para su salida del sistema (Video Analógico,
Audio, Transmisiones)
Las ventajas del uso de señales digitales con respecto a las analógicas son:

Las señales digitales se pueden almacenarse y procesarse más fácil y sencillamente que las
señales analógicas.
Las señales digitales son más sencillos de medir y evaluar. Por lo tanto, es más fácil
comparar el rendimiento de los sistemas digitales con diferentes capacidades de
señalización e información, que con los sistemas analógicos comparables.
Los sistemas digitales están mejor equipados para evaluar un rendimiento de error (por
ejemplo, detección y corrección de errores), que los analógicos.
La transmisión digital tiene la inmunidad al ruido. Las señales analógicas son más
susceptibles que los pulsos digitales a la amplitud, frecuencia y variaciones de fase. Esto se
debe a que, con la transmisión digital, no se necesita evaluar esos parámetros, con tanta
precisión, como en la transmisión analógica. en cambio, los pulsos recibidos se evalúan
durante un intervalo de muestreo y se hace una sola determinación si el pulso está arriba (1)
o abajo de un umbral específico (0).
Los sistemas digitales utilizan la regeneración de señales, en vez de la amplificación, por lo
tanto, producen un sistema más resistente al ruido que su contraparte analógica.
Los equipos que procesan digitalmente consumen menos potencia y son más pequeños, y
muchas veces con más económicos.

Desventajas del Uso de las Señales Digitales

Algunas de las desventajas del uso de señales digitales son las siguientes:

La transmisión de las señales analógicas codificadas de manera digital requiere de


más ancho de banda para transmitir que la señal analógica.
Las señales analógicas deben convertirse en códigos digitales, para su
procesamiento y convertirse nuevamente a analógicas para su transmisión.
La transmisión digital requiere de sincronización precisa, de tiempo, entre los
relojes del transmisor y receptor.
Los sistemas de transmisión digital son incompatibles con las instalaciones
analógicas existentes.

2. Según su Finalidad

Computadoras de propósito general: dedicadas a resolver cualquier tipo de aplicaciones.


Computadoras de propósito especial: se especializan en resolver un tipo concreto y
particular de problema, como puede ser una computadora de un auto o una lavadora.
3. Clasificación Comercial

Supercomputadoras
Es el tipo de computadora más potente y más rápida que existe. Estas máquinas están
diseñadas para procesar enormes cantidades de información en poco tiempo (rendimiento
pico de hasta 91,759 GFlops), implementadas con 32,768 procesadores.

Así mismo son las más caras, sus precios llegan a superar los 30 MILLONES de dólares;
cuentan con un control de temperatura especial, para disipar el calor que algunos
componentes llegan a tener. Algunos ejemplos de tareas a las que son expuestas las
supercomputadoras son los siguientes:

Estudio e investigación Aeroespacial.


Búsqueda y estudio de la energía y armas nucleares.
Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
El estudio y predicción de tornados.
El estudio y predicción del clima de cualquier parte del mundo.
La elaboración de maquetas y proyectos de la creación de aviones, simuladores de
vuelo.

Macrocomputadoras o Mainframes
Las macrocomputadoras son también conocidas como Mainframes. Los mainframes son
grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios
simultáneamente, así como cientos de dispositivos de entrada y salida.

Son computadoras que se caracterizan por su utilización en el manejo de grandes bases de


datos en redes corporativas de gran tamaño
Los mainframes tienen un costo que va desde 350,000 dólares hasta varios millones de
dólares. En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de
algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún
cuarto con falso piso, esto para ocultar los cientos de cables de los periféricos.
Existen modelos diseñados con 1 hasta 54 procesadores
Un modelo representativo de este tipo de computadoras es la: IBM System z9 109

Minicomputadoras
En 1960 surgió la minicomputadora, una versión más pequeña de la Macrocomputadora. Al
ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un
Mainframe, y esto ayudo a reducir el precio y costos de mantenimiento.
Las minicomputadoras, en tamaño y poder de procesamiento, se encuentran entre los
mainframes y las estaciones de trabajo. En general, una minicomputadora, es un sistema
multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios
simultáneamente. Actualmente se usan para almacenar grandes bases de datos,
automatización industrial y aplicaciones multiusuario.
Microcomputadoras o PC´s
Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la
creación de los microprocesadores. Un microprocesador es "una computadora en un chip",
o sea un circuito
integrado independiente. Las PC´s son computadoras para uso personal y relativamente son
baratas y actualmente se encuentran en las oficinas, escuelas, hogares, etc.
El término PC se deriva de que para el año de 1981, cuando IBM, sacó a la venta su modelo
"IBM PC", la cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí
que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas
fueron llamados "PC compatibles", usando procesadores del mismo tipo que las IBM, pero
a un costo menor y pudiendo ejecutar el mismo tipo de programas.
Existen otros tipos de microcomputadoras, como la Macintosh®, que no son compatibles
con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de uso
personal.
En la actualidad existen variados tipos de diseño de PC´s:

Computadoras personales
De Escritorio
Servidores de Red
Estaciones de red o independientes
Portátiles
Laptop o Notebook.
Asistentes Personales Digitales(PDA)
Palm Top
Pocket
Celulares Inteligentes

LA COMPUTADORA “ DIGITAL”

Computadora (Hispanoamérica) u ordenador (España). La palabra española ordenador


viene del francés ordinateur que es la traducción del original inglés computer. Nos
encontramos, pues, con una palabra española que fue introducida a España como copia de
una palabra francesa, pero que denomina a una máquina inventada en Estados Unidos y
denominada allí computer. En el español latinoamericano se prefiere computadora o
computador, inspirándose en el original inglés.
Al decir ordenador podría interpretarse como que la única función que cumple el aparato es
de ordenar, cosa que no es correcta. La función principal de una computadora es realizar
cómputos o cálculos.
Respecto a si se debería decir el computador o la computadora, el término más apropiado
sería el femenino, ya que la computadora es una máquina.

Después de determinar la correcta forma de nombrar a nuestro dispositivo materia de


estudio, podemos especificar que una computadora, es un dispositivo electrónico encargado
de procesar datos e información en base a un programa especial llamado sistema operativo,
diseñado para administrar y controlar los recursos del equipo de cómputo.
Originalmente, el procesamiento de información estaba relacionado de manera casi
exclusiva con problemas matemáticos, pero las computadoras modernas son usadas para
muchas tareas diferentes normalmente sin ninguna relación con las matemáticas.

Aunque las tecnologías empleadas en las computadoras digitales han cambiado mucho
desde su aparición(a inicios de la década de los años 40), la mayoría todavía utilizan la
arquitectura von Neumann.

La arquitectura von Neumann como se menciona anteriormente, describe una computadora


con los siguientes elementos básicos:

Procesador(CPU)
Memoria
Bus
Unidad de control
Dispositivos de
entrada/salida (E/S)

La CPU contiene a la
unidad lógica y aritmética
(ALU), es el dispositivo
diseñado y construido para llevar a cabo las operaciones elementales como las operaciones
aritméticas (suma, resta, multiplicación y división), operaciones lógicas (AND, OR, NOT),
operaciones de comparación, desplazamiento y rotación de bits. Es en esta unidad en donde
se hace todo el procesamiento.

La memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es


un bit, o unidad de información; estos elementos pueden organizarse formando los Bytes,
palabras, palabras dobles, etc.
La instrucción es la información necesaria para realizar, la función deseada, con la
computadora
Las «celdas» de memoria, contienen datos que se necesitan para llevar a cabo las
instrucciones. En general, la memoria puede ser re-escrita varias veces, es decir son de
lectura/escritura.
El tamaño de cada celda y el número de celdas varía mucho de computadora a
computadora, y las tecnologías empleadas para la memoria han cambiado bastante; van
desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los
pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos
integrados con millones de celdas en un solo chip.

La unidad de control sigue la dirección de las posiciones en memoria que contiene la


instrucción que la computadora va a procesar en ese momento; recupera la información
colocándola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado
a ubicaciones apropiadas en la memoria.
Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción
(normalmente situada en la siguiente posición, a menos que la instrucción sea una
instrucción de salto, informando a la computadora de que la próxima instrucción estará
ubicada en otra posición de la memoria).

Los dispositivos E/S sirven a la computadora para, obtener información del mundo exterior
y devolver los resultados de dicha información. Hay una gama muy extensa de dispositivos
E/S como los teclados, monitores, unidades de disco flexible, cámaras web, etc.

Los Bus son caminos de comunicación entre dos o más dispositivos. Es un medio de
transmisión compartido. Generalmente los bus están constituidos por varias líneas de
transmisión, cada línea es capaz de transmitir señales binarias representadas por 0 y 1.

Las instrucciones dentro de la computadora se representan mediante números. Por ejemplo,


el código para copiar puede ser 001El conjunto de instrucciones que puede realizar una
computadora se conoce como lenguaje de máquina o código máquina. En la práctica, no se
escriben las instrucciones para las computadoras directamente en lenguaje de máquina, sino
que se usa un lenguaje de programación de alto nivel que se traduce después al lenguaje de
la máquina automáticamente, a través de programas especiales de traducción (intérpretes y
compiladores)Algunos lenguajes de programación representan de manera muy directa el
lenguaje de máquina, como los ensambladores (lenguajes de bajo nivel).

Intercambio entre la Unidad Central de Proceso y los Periféricos


En principio, cualquier trabajo que un computador realiza, siempre es un proceso de datos
que tiene la particularidad de ser automático.
En un proceso automático, también están presentes los cuatro subprocesos constituyentes:
Entrada - Memorización - Procesamiento - Salida que llevan a cabo los bloques
correspondientes a definir (Periférico de Entrada - Memoria Principal - Unidad Central de
Proceso - Periférico de Salida), siendo que en un computador existen varias posibilidades
para la entrada y salida de datos.
Los bloques se comunican eléctricamente entre sí a través de caminos formados por un
conjunto de cables o líneas conductoras que constituyen un Bus.
Las instrucciones son ejecutadas de a una por vez, para lo cual primero cada una por un Bus
llega a un Registro de Instrucciones (RI) de la Unidad Central de Procesamiento
(Procesador), donde permanece mientras se ejecuta, para que la Unidad de control
interprete qué operación ordena ella.
A continuación, a través del mismo Bus, el dato a operar por dicha instrucción, llega desde
memoria a un Registro Acumulador (AX) del procesador, antes de ser operado (conforme a
la operación ordenada), en la Unidad Aritmética, a fin de obtener un resultado. Éste pude
sustituir en el registro AX al dato ya operado, y luego pasar a memoria, nuevamente a
través del Bus citado, si una instrucción así lo ordena. Si por ejemplo se quiere enviar dicho
resultado al exterior para ser visto en pantalla, o para ser guardado en el disco rígido o en
un disquete, ello se consigue mediante la ejecución de instrucciones que así lo ordenen.
La Unidad de Control, debe ejecutar las siguientes acciones que forman parte de una
secuencia repetitiva:
Obtener de la memoria la próxima instrucción que corresponde ejecutar.
Localizar los datos a operar (en la memoria principal, o en un registro como AX u otro,
según se ordene).
Ordenarle al circuito de la Unidad Aritmética que realice con dichos datos la operación
indicada.
Guardar el resultado en un registro acumulador o en memoria principal.
Por lo tanto, la Unidad de Control (UC), tiene a su cargo el secuencia miento de las
acciones necesarias que deben realizar los circuitos involucrados en la ejecución de cada
instrucción, según el código de la misma; y también tiene a su cuidado el orden de
ejecución de las instrucciones de un programa, conforme como éste fue establecido.
Existe también en el microprocesador, una Unidad Aritmética Lógica (UAL), que contiene
los circuitos de cálculo, y, además, Registros que son circuitos que sirven para almacenar
temporariamente datos o instrucciones, o sea, información relacionada con la instrucción en
curso de ejecución, y con las próximas instrucciones a desarrollar. Uno de los Registros
más importantes es el AX conocido como Registro Acumulador y que sirve para almacenar
datos y resultados.
Así, la UC ordenará mediante señales eléctricas transmitidas por cables, las operaciones
aritméticas o lógicas que la UAL debe realizar, siendo auxiliada por registros acumuladores
para guardar transitoriamente resultados y datos.
Mientras que la UC es la encargada de ordenar operaciones de lectura - escritura de
registros y de memoria, así como de las operaciones que debe realizar la UAL, ésta es
pasiva y no puede emitir orden alguna. Por lo tanto, la UAL no ejecuta instrucciones, O sea,
no puede ordenar las operaciones correspondientes a los pasos que requiere la ejecución de
una instrucción, sólo realiza uno de ellos: la operación aritmética o lógica que la instrucción
ordena, cuando así lo requiere la UC mediante una operación de la UAL, a partir de uno o
dos números, se puede obtener un número que antes no existía.
Así tenemos que:
Se denomina Unidad Central de Proceso (UCP o CPU), al conjunto formado por:

La Unidad de Control.
La Unidad Aritmética Lógica.
Los Registros (como el AX, RI y otros) usados durante la ejecución de cada instrucción.
La UCP es el bloque donde se lleva a cabo la ejecución de las instrucciones. Hacia ella se
dirigen las instrucciones que serán ejecutadas (una vez que la UC decodifique su código), y
los datos para ser operados por la UAL; a la par que de la misma salen resultados generados
por la UAL.
Existe, además, en éste camino de intercambio:
La Memoria Principal (MP), que no forma parte del microprocesador, y que es el lugar
donde se almacenan las instrucciones de programas, que próximamente serán ejecutadas en
la UCP, y los datos que ella ordena procesar (operar); así como resultados intermedios y
finales de operaciones sobre datos recientemente llevadas a cabo en la UCP.
O sea, los datos que se procesan y el programa que se ejecuta para ese proceso, deben estar
en MP cada programa comparte la MP con sus datos, pero las instrucciones están en una
zona y los datos en otra. Esta información queda almacenada temporariamente mientras se
opera con ella, pudiendo ser luego reemplazada por otras instrucciones a ejecutar y datos
que éstas procesan. También existen programas que residen en MP en forma permanente
como los del Sistema Operativo, que facilitan el uso del computador, cuya ejecución se
alterna con la de programas de los usuarios.
Las instrucciones y datos a procesar que pasan de la UCP llegan a la MP desde el exterior
del computador y los resultados que llegan a la MP provenientes de la UCP deben luego
pasar al exterior.
En una Operación de Entrada, la MP es el destino de instrucciones y datos provenientes del
exterior (que ingresan a través de los periféricos), asimismo, en una Operación de Salida, la
MP es el origen de resultados que deben salir al exterior a través del monitor, impresora,
módem, unidades de discos o disquetes, etc.
Así llamamos:
Periféricos o Unidades de Entrada/Salida de Información, a los dispositivos que se
encargan de entrar desde el exterior datos o instrucciones hacia el computador, o dar salida
de resultados del computador hacia el exterior.
Su función principal es convertir datos externos en internos en las operaciones de entrada, o
a la inversa, en las operaciones de salida.
Pero un periférico, no se conecta directamente a la porción central, sino por intermedio de
una interfaz circuital, que en una PC en general está contenida en una placa que se inserta
en un zócalo apropiado.
Debe decirse que la UC no gobierna directamente a los periféricos mediante líneas que
llegan a ellos, sino que la UCP ejecuta un subprograma preparado para cada periférico,
merced al cual desde la UCP llega a la interfaz del periférico cada comando que ordena a la
electrónica de éste qué debe hacer.
Además, es necesario saber que los distintos circuitos del computador se comunican entre sí
mediante un conjunto de líneas, cables, conductores, que los interconectan eléctricamente
configurando una estructura de interconexión, como por ejemplo un Bus.
Entonces, el funcionamiento básico del computador puede resumirse de la siguiente
manera:
Los datos y las instrucciones del programa que los procesará, deben llegar a MP desde
periféricos. Cada instrucción está codificada mediante una combinación de unos y ceros,
que constituye su código.
La UC localiza en MP la instrucción que debe ser ejecutada para que su código llegue a la
UCP, donde la UC determinará que ordena ese código.
Dicho código permite localizar los datos que operará la UAL, la operación que debe
realizar la UAL, dónde guardar los resultados, y dónde localizar la próxima instrucción en
MP para cumplimentar esto, la UC ordenará una secuencia de operaciones de lectura y
escritura sobre MP o registros de la UCP, así como la operación a realizar por la UAL.
Hacia ella van los datos a operar, y desde ella se generan resultados que van a MP, para
luego encaminarse hacia el exterior a través de un periférico.
Se vuelve al 1er paso.
Si una instrucción ordena una transferencia de un dato desde la UCP hasta la placa donde
está conectado un periférico, tendrá lugar una operación de salida, encargándose el
periférico de llevar los datos al exterior (representado por la pantalla del monitor, un disco,
etc.).
Igualmente existen instrucciones para llevar un dato que entró por un cierto periférico hasta
la UCP, mientras se desarrolla una operación de entrada.
Se debe tener siempre presente que las instrucciones son interpretadas ("decodificadas")
por la UC; luego de lo cual la UC ordena encaminar los datos hacia la UAL, y la operación
que ésta deba realizar con los datos.
Bibliografías
http://www.ingenieriasystems.com/2012/10/arquitectura-del-computador-
historia-de.html
https://is603arquicom2016.wordpress.com/tipos-de-arquitecturas/

También podría gustarte