P. 1
Arquitectura Risc

Arquitectura Risc

|Views: 29|Likes:
Publicado porSol Alvarado

More info:

Published by: Sol Alvarado on Jun 10, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

10/10/2013

pdf

text

original

Arquitectura RISC

Características En pocas palabras esto significa que para cualquier nivel de desempeño dado, un chip RISC típicamente tendrá menos transistores dedicados a la lógica principal. Esto permite a los diseñadores una flexibilidad considerable; así pueden, por ejemplo:  Incrementar el tamaño del conjunto de registros.  Mayor velocidad en la ejecución de instrucciones.  Implementar medidas para aumentar el paralelismo interno.  Añadir cachés enormes.  Añadir otras funcionalidades, como E/S y relojes para minicontroladores.  Construir los chips en líneas de producción antiguas que de otra manera no serían utilizables.  No ampliar las funcionalidades, y por lo tanto ofrecer el chip para aplicaciones de bajo consumo de energía o de tamaño limitado. Las características que generalmente son encontradas en los diseños RISC son:  Codificación uniforme de instrucciones (ejemplo: el código de operación se encuentra siempre en la misma posición en cada instrucción, la cual es siempre una palabra), lo que permite una decodificación más rápida.  Un conjunto de registros homogéneo, permitiendo que cualquier registro sea utilizado en cualquier contexto y así simplificar el diseño del compilador (aunque existen muchas formas de separar los ficheros de registro de entero y coma flotante).  Modos de direccionamiento simple con modos más complejos reemplazados por secuencias de instrucciones aritméticas simples.  Los tipos de datos soportados en el hardware (por ejemplo, algunas máquinas CISC tiene instrucciones para tratar con tipos byte,cadena) no se encuentran en una máquina RISC. Los diseños RISC también prefieren utilizar como característica un modelo de memoria Harvard, donde los conjuntos de instrucciones y los conjuntos de datos están conceptualmente separados; esto significa que el modificar las direcciones donde el código se encuentra pudiera no tener efecto alguno en las instrucciones ejecutadas por el procesador (porque la CPU tiene separada la instrucción y el caché de datos, al menos mientras una instrucción especial de sincronización es utilizada). Por otra parte, esto permite que ambos cachés sean accedidos separadamente, lo que puede en algunas ocasiones mejorar el rendimiento. Ventajas típicas del RISC Originalmente, la escalabilidad, el rendimiento de aplicaciones, el menor coste de fabricación y el ancho del direccionamiento de memoria han sido algunas de las principales bazas a favor de la arquitectura RISC. Sin embargo, para algunos estas ventajas no son ya tales. En su momento, los chips RISC tenían una ventaja clara en cuanto a escalabilidad a través del soporte de multiprocesamiento simétrico (SMP). La escalabilidad (la forma en cómo el sistema operativo distribuye el trabajo entre los diversos procesadores) sin embargo es algo que interesa particularmente a los servidores y, además, para muchos la principal ventaja del RISC radica más en el sistema operativo Unix que se utiliza mayoritariamente en estos entornos que en el propio diseño del chip. En cuanto al rendimiento de las aplicaciones la principal diferencia está en los cálculos de coma flotante en los que el chip tiene que realizar cálculos matemáticos intensivos. Parece ser que aquí el RISC sigue teniendo hasta un 20% de ventaja como demuestran los diversos tests de rendimiento que se realizan comparando por ejemplo Pentiums con Power Macintosh. El tema del coste de fabricación del chip da como claro ganador a la tecnología RISC pero el volumen de mercado del CISC es tal que este punto queda perfectamente compensado. Y en cuanto a direccionamiento de memoria, los 64 bits del RISC sólo son aprovechables en entornos de red con aplicaciones y sistemas operativos diseñados para trabajar con 64 bits pero ello aún no es así en la informática personal. Sin embargo, las posibilidades futuras de ambas tecnologías no son en absoluto las mismas. Frente a una arquitectura con dieciocho años de antigüedad y con rendimientos cada vez menos espectaculares (véase sino la decepción del Pentium Pro por sus iniciales bajos rendimientos con Windows) se encuentra una tecnología aún joven y diseñada, en el caso de los chips RISC para ordenadores personales, más en sintonía con las necesidades actuales. El problema radica en cómo aprovechar una

Para poder mantener la compatibilidad con el sistema operativo y las aplicaciones 860X0. un programador debería codificar la instrucción en 4 líneas de código ensamblador: LOAD A. el número total de instrucciones para la lectura de la memoria es más grande. (2:3) LOAD B. Debido a que una serie de instrucciones son necesarias para completar incluso las tareas más sencillas. Pero los riesgos de este tipo de movimientos son evidentes. puede parecer una manera mucho menos eficiente de completar la operación. Las pérdidas en rendimiento global de los sistemas son muy elevadas. y hubo una batalla casi continua en el mundo de la prensa y del diseño sobre los conceptos de RISC. De esta forma. adoptando progresivamente técnicas propias del RISC en sus chips. por lo visto. que mueve datos de un registro al banco de memoria. Para realizar la serie de pasos descritos en la filosofía CISC. técnicas que encontramos implementadas desde los primeros Pentium. Desventajas Sin embargo RISC también tenía sus desventajas. al menos. Debido a que hay más líneas de código. » La filosofía RISC Los procesadores RISC sólo usan instrucciones sencillas que se puedan ejecutar rápidamente. el comando "MULT" descrito más arriba podría ser dividido en tres comandos por separado: "LOAD". Costo . que mueve datos del banco de memoria a un registro. Apple tomó su decisión al respecto a principios de los 90 abandonando la arquitectura CISC en una fluida transición hacia el RISC.arquitectura más eficaz manteniendo la compatibilidad con las aplicaciones y sistemas operativos desarrollados para los procesadores de los años 70. y por lo tanto lleva más tiempo. A A primera vista. tanto que finalmente va a tener que producirse una ruptura mayor con la tecnología anterior en forma de un nuevo sistema operativo que Apple espera lanzar cuando dé frutos el trabajo conjunto entre sus laboratorios y los de la recién adquirida Next. Intel ha ido. ello no debe parecerle suficiente al principal líder de fabricación de chips para PCs que. Por este motivo suelen ser arquitecturas basadas en registros de propósito general que operan siempre sobre operandos que se encuetran almacenados en el procesador. B STORE (2:3). los Power Macintosh funcionan en modo emulación cuando las ejecutan e incluso su propio sistema operativo no es absolutamente nativo. cerca de la unidad de eejcución. El compilador debe realizar también más trabajo para convertir un lenguaje de alto nivel en código. Al mismo tiempo no estaba claro dónde habría o no una ganancia neta en el desempeño debido a esta limitación. "PROD". O. que halla el producto de dos operandos situados en los registros. (5:2) PROD A. eso se rumorea pues el famoso proyecto Merced junto con Hewlett Packard es top secret. está dedicando su mayor inversión a imaginar cual sería la forma menos dolorosa de transición de su actual arquitectura al RISC. mientras tanto. y "STORE". Sin embargo. La arquitectura superescalar en primer término y el pipelining después han conseguido acelerar notablemente el rendimiento de sus microprocesadores. hace falta más RAM para almacenar las instrucciones en ensamblador.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10. cantidad de calor y eran sumamente lentas. Estas máquinas tenían las siguientes características: Usaban tubos al vacío para procesar información. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador. utilizaban gran cantidad de electricidad. Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación. Las computadoras nuevamente se hicieron más pequeñas. Tercera Generación (1964-1971) La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN. más rápidas. Surgieron las minicomputadoras y los terminales a distancia. generaban gran cantidad de calor y eran sumamente lentas. La marina de los Estados Unidos desarrolla el primer simulador de vuelo. . pequeños y más confiables que los tubos al vacío. "Whirlwind I". La computadora más exitosa de la primera generación fue la IBM 650. Segunda Generación (1958-1964) En esta generación las computadoras se reducen de tamaño y son de menor costo. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965. Se comenzó a utilizar el sistema binario para representar los datos. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero. Eran sumamente grandes. Se desarrollaron los "chips" para almacenar y procesar la información. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores. de la cual se produjeron varios cientos. Usaban tarjetas perforadas para entrar los datos y los programas. Usaban pequeños anillos magnéticos para almacenar información e instrucciones. Y se conoce como la primera generación.000 dólares). Los transistores eran más rápidos. Esta generación abarco la década de los cincuenta. Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas. Se comenzó a disminuir el tamaño de las computadoras. Características de está generación: Se desarrollaron circuitos integrados para procesar información. control del tráfico aéreo y simulaciones de propósito general.Generaciones de las Computadoras Primera Generación (1951-1958) En esta generación había una gran desconocimiento de las capacidades de las computadoras. puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Características de está generación: Usaban transistores para procesar información. desprendían menos calor y eran energéticamente más eficientes. Usaban cilindros magnéticos para almacenar información e instrucciones internas. los cuales eran comercialmente accsesibles. que es el antecesor de los discos actuales. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas. Inteligencia artíficial: La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento humano usados en la solución de problemas a la computadora. que pueden resumirse de la siguiente manera: Se desarrollan las microcomputadoras. o sea. Cuarta Generación (1971-1988) Aparecen los microprocesadores que es un gran adelanto de la microelectrónica. Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio. "VLSI . Otra vez las computadoras se tornan más pequeñas. más ligeras y más eficientes. Se desarrollan las supercomputadoras. Emerge la industria del "software". con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. para que puedan responder de manera más efectiva a situaciones no estructuradas. o sea. son circuitos integrados de alta densidad y con una velocidad impresionante. Consumían menos electricidad. la memoria primaria. computadoras personales o PC. Cada "chip" puede hacer diferentes tareas. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. Redes de comunicaciones: Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes de comunicaciones. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras". Robótica: La robótica es el arte y ciencia de la creación y empleo de robots. generaban menos calor. Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1. Un robot es un sistema de computación híbrido independiente que realiza actividades físicas y de cálculo. . Se desarrollan las supercomputadoras. El tercer componente.Los circuitos integrados recuerdan los datos. Surge la multiprogramación. Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos. en la que se perfilan dos líderes que. Están siendo diseñados con inteligencia artificial. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes.Very Large Scale Integration circuit".Large Scale Integration circuit". todo el "hardware" que soporta las interconexiones y todo el "software" que administra la transmisión. "LSI . computadoras personales o PC. Quinta Generación (1983 al presente) En vista de la acelerada marcha de la microelectrónica. por lo tanto. la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación. sin embargo. por lo que su uso se extiende al mercado industrial. ya que almacenan la información como cargas eléctricas. Sistemas expertos: Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas. es operado por otros "chips". Características de está generación: Se desarrolló el microprocesador. Se colocan más circuitos dentro de un "chip". no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Se desarrollan las microcomputadoras. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->