Arquitectura RISC

Características En pocas palabras esto significa que para cualquier nivel de desempeño dado, un chip RISC típicamente tendrá menos transistores dedicados a la lógica principal. Esto permite a los diseñadores una flexibilidad considerable; así pueden, por ejemplo:  Incrementar el tamaño del conjunto de registros.  Mayor velocidad en la ejecución de instrucciones.  Implementar medidas para aumentar el paralelismo interno.  Añadir cachés enormes.  Añadir otras funcionalidades, como E/S y relojes para minicontroladores.  Construir los chips en líneas de producción antiguas que de otra manera no serían utilizables.  No ampliar las funcionalidades, y por lo tanto ofrecer el chip para aplicaciones de bajo consumo de energía o de tamaño limitado. Las características que generalmente son encontradas en los diseños RISC son:  Codificación uniforme de instrucciones (ejemplo: el código de operación se encuentra siempre en la misma posición en cada instrucción, la cual es siempre una palabra), lo que permite una decodificación más rápida.  Un conjunto de registros homogéneo, permitiendo que cualquier registro sea utilizado en cualquier contexto y así simplificar el diseño del compilador (aunque existen muchas formas de separar los ficheros de registro de entero y coma flotante).  Modos de direccionamiento simple con modos más complejos reemplazados por secuencias de instrucciones aritméticas simples.  Los tipos de datos soportados en el hardware (por ejemplo, algunas máquinas CISC tiene instrucciones para tratar con tipos byte,cadena) no se encuentran en una máquina RISC. Los diseños RISC también prefieren utilizar como característica un modelo de memoria Harvard, donde los conjuntos de instrucciones y los conjuntos de datos están conceptualmente separados; esto significa que el modificar las direcciones donde el código se encuentra pudiera no tener efecto alguno en las instrucciones ejecutadas por el procesador (porque la CPU tiene separada la instrucción y el caché de datos, al menos mientras una instrucción especial de sincronización es utilizada). Por otra parte, esto permite que ambos cachés sean accedidos separadamente, lo que puede en algunas ocasiones mejorar el rendimiento. Ventajas típicas del RISC Originalmente, la escalabilidad, el rendimiento de aplicaciones, el menor coste de fabricación y el ancho del direccionamiento de memoria han sido algunas de las principales bazas a favor de la arquitectura RISC. Sin embargo, para algunos estas ventajas no son ya tales. En su momento, los chips RISC tenían una ventaja clara en cuanto a escalabilidad a través del soporte de multiprocesamiento simétrico (SMP). La escalabilidad (la forma en cómo el sistema operativo distribuye el trabajo entre los diversos procesadores) sin embargo es algo que interesa particularmente a los servidores y, además, para muchos la principal ventaja del RISC radica más en el sistema operativo Unix que se utiliza mayoritariamente en estos entornos que en el propio diseño del chip. En cuanto al rendimiento de las aplicaciones la principal diferencia está en los cálculos de coma flotante en los que el chip tiene que realizar cálculos matemáticos intensivos. Parece ser que aquí el RISC sigue teniendo hasta un 20% de ventaja como demuestran los diversos tests de rendimiento que se realizan comparando por ejemplo Pentiums con Power Macintosh. El tema del coste de fabricación del chip da como claro ganador a la tecnología RISC pero el volumen de mercado del CISC es tal que este punto queda perfectamente compensado. Y en cuanto a direccionamiento de memoria, los 64 bits del RISC sólo son aprovechables en entornos de red con aplicaciones y sistemas operativos diseñados para trabajar con 64 bits pero ello aún no es así en la informática personal. Sin embargo, las posibilidades futuras de ambas tecnologías no son en absoluto las mismas. Frente a una arquitectura con dieciocho años de antigüedad y con rendimientos cada vez menos espectaculares (véase sino la decepción del Pentium Pro por sus iniciales bajos rendimientos con Windows) se encuentra una tecnología aún joven y diseñada, en el caso de los chips RISC para ordenadores personales, más en sintonía con las necesidades actuales. El problema radica en cómo aprovechar una

(5:2) PROD A. Al mismo tiempo no estaba claro dónde habría o no una ganancia neta en el desempeño debido a esta limitación. que mueve datos del banco de memoria a un registro. B STORE (2:3). está dedicando su mayor inversión a imaginar cual sería la forma menos dolorosa de transición de su actual arquitectura al RISC. Costo . los Power Macintosh funcionan en modo emulación cuando las ejecutan e incluso su propio sistema operativo no es absolutamente nativo. Intel ha ido. O. el número total de instrucciones para la lectura de la memoria es más grande. que mueve datos de un registro al banco de memoria. por lo visto. ello no debe parecerle suficiente al principal líder de fabricación de chips para PCs que. Desventajas Sin embargo RISC también tenía sus desventajas. Para realizar la serie de pasos descritos en la filosofía CISC. tanto que finalmente va a tener que producirse una ruptura mayor con la tecnología anterior en forma de un nuevo sistema operativo que Apple espera lanzar cuando dé frutos el trabajo conjunto entre sus laboratorios y los de la recién adquirida Next. De esta forma. puede parecer una manera mucho menos eficiente de completar la operación. el comando "MULT" descrito más arriba podría ser dividido en tres comandos por separado: "LOAD". hace falta más RAM para almacenar las instrucciones en ensamblador. y por lo tanto lleva más tiempo. La arquitectura superescalar en primer término y el pipelining después han conseguido acelerar notablemente el rendimiento de sus microprocesadores. mientras tanto. técnicas que encontramos implementadas desde los primeros Pentium. Para poder mantener la compatibilidad con el sistema operativo y las aplicaciones 860X0. cerca de la unidad de eejcución. A A primera vista. "PROD". Por este motivo suelen ser arquitecturas basadas en registros de propósito general que operan siempre sobre operandos que se encuetran almacenados en el procesador. Pero los riesgos de este tipo de movimientos son evidentes. eso se rumorea pues el famoso proyecto Merced junto con Hewlett Packard es top secret. (2:3) LOAD B. y hubo una batalla casi continua en el mundo de la prensa y del diseño sobre los conceptos de RISC. y "STORE". Apple tomó su decisión al respecto a principios de los 90 abandonando la arquitectura CISC en una fluida transición hacia el RISC.arquitectura más eficaz manteniendo la compatibilidad con las aplicaciones y sistemas operativos desarrollados para los procesadores de los años 70. adoptando progresivamente técnicas propias del RISC en sus chips. Debido a que hay más líneas de código. Sin embargo. un programador debería codificar la instrucción en 4 líneas de código ensamblador: LOAD A. Debido a que una serie de instrucciones son necesarias para completar incluso las tareas más sencillas. » La filosofía RISC Los procesadores RISC sólo usan instrucciones sencillas que se puedan ejecutar rápidamente. al menos. El compilador debe realizar también más trabajo para convertir un lenguaje de alto nivel en código. Las pérdidas en rendimiento global de los sistemas son muy elevadas. que halla el producto de dos operandos situados en los registros.

Surgieron las minicomputadoras y los terminales a distancia. utilizaban gran cantidad de electricidad. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores. Estas máquinas tenían las siguientes características: Usaban tubos al vacío para procesar información. más rápidas. Características de está generación: Usaban transistores para procesar información. control del tráfico aéreo y simulaciones de propósito general.Generaciones de las Computadoras Primera Generación (1951-1958) En esta generación había una gran desconocimiento de las capacidades de las computadoras. generaban gran cantidad de calor y eran sumamente lentas. los cuales eran comercialmente accsesibles. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Esta generación abarco la década de los cincuenta. Las computadoras nuevamente se hicieron más pequeñas. . cantidad de calor y eran sumamente lentas. Segunda Generación (1958-1964) En esta generación las computadoras se reducen de tamaño y son de menor costo. que es el antecesor de los discos actuales. La marina de los Estados Unidos desarrolla el primer simulador de vuelo. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético. desprendían menos calor y eran energéticamente más eficientes. Los transistores eran más rápidos. Usaban tarjetas perforadas para entrar los datos y los programas. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador. "Whirlwind I". En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10. Y se conoce como la primera generación. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Usaban cilindros magnéticos para almacenar información e instrucciones internas. La computadora más exitosa de la primera generación fue la IBM 650. Se comenzó a disminuir el tamaño de las computadoras. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero. pequeños y más confiables que los tubos al vacío. Características de está generación: Se desarrollaron circuitos integrados para procesar información. Tercera Generación (1964-1971) La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación. Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965. Usaban pequeños anillos magnéticos para almacenar información e instrucciones. Se comenzó a utilizar el sistema binario para representar los datos. Eran sumamente grandes. de la cual se produjeron varios cientos. Se desarrollaron los "chips" para almacenar y procesar la información. Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN.000 dólares). puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.

no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Cuarta Generación (1971-1988) Aparecen los microprocesadores que es un gran adelanto de la microelectrónica. sin embargo.Large Scale Integration circuit". más ligeras y más eficientes. o sea. Redes de comunicaciones: Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes de comunicaciones. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes. Otra vez las computadoras se tornan más pequeñas. Cada "chip" puede hacer diferentes tareas. que pueden resumirse de la siguiente manera: Se desarrollan las microcomputadoras. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas. generaban menos calor. la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras". son circuitos integrados de alta densidad y con una velocidad impresionante. Surge la multiprogramación. "LSI . o sea. Consumían menos electricidad. Se desarrollan las microcomputadoras. Características de está generación: Se desarrolló el microprocesador. computadoras personales o PC. para que puedan responder de manera más efectiva a situaciones no estructuradas. Sistemas expertos: Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas. Se desarrollan las supercomputadoras. computadoras personales o PC. por lo que su uso se extiende al mercado industrial. Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1. ya que almacenan la información como cargas eléctricas.Very Large Scale Integration circuit". Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". "VLSI . en la que se perfilan dos líderes que. todo el "hardware" que soporta las interconexiones y todo el "software" que administra la transmisión. Están siendo diseñados con inteligencia artificial. con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. por lo tanto. Robótica: La robótica es el arte y ciencia de la creación y empleo de robots. Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos. Quinta Generación (1983 al presente) En vista de la acelerada marcha de la microelectrónica. . Un robot es un sistema de computación híbrido independiente que realiza actividades físicas y de cálculo. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. Se desarrollan las supercomputadoras. El tercer componente. Inteligencia artíficial: La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento humano usados en la solución de problemas a la computadora. Emerge la industria del "software". Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio. Se colocan más circuitos dentro de un "chip".Los circuitos integrados recuerdan los datos. es operado por otros "chips". Surge la competencia internacional por el dominio del mercado de la computación. la memoria primaria.

Sign up to vote on this title
UsefulNot useful