Está en la página 1de 5

NUEVAS ARQUITECTURAS DE COMPUTADORAS

Recordemos que el propio von Neumann propuso otras maneras de estructurar el


computador para cumplir el mismo objetivo de operar en forma independiente a partir
de un programa y de datos variables. 

Para ello, obviamente, la "estructura lógica" (o sea teórica) será siempre la misma:
periféricos de entrada, unidad central de proceso y periféricos de salida. Pero si bien
los periféricos podrían ser idénticos para diversos tipos de máquinas, la estructura o
arquitectura de la CPU podría ser muy diferente. Así, von Neumann imaginó ya el
"modelo celular" y algunos otros. Presentamos aquí brevemente los que ya existen o
están en desarrollo (no todos ellos descritos por von Neumann).

El modelo celular

El computador celular se basa en la idea de los mecanismos de reproducción de las


células vivas. Concebido por John von Neumann (teoría publicada en1966), fue
perfeccionado por Edgar Codd y Christopher Langton (1968). 

Para entender su estructura y funcionamiento, conviene imaginar una hoja


cuadriculada donde cada pequeño cuadro corresponde a una mínima máquina
procesadora ("célula") que "se informa" del estado de sus vecinas y reacciona de
acuerdo a esta información (ver dibujo más abajo). Todas las células son
estructuralmente idénticas y operan de la misma manera. 

Para operar, se fija el estado inicial de cada célula (de entre un número a determinar) y
se determina una "regla de transición" común para todas. Luego se pone en marcho
un reloj que sincroniza los cambios de estado: a cada "top" del reloj, todas las células
cambian de estado conforme al estado de sus vecinas. 

Una de las características de este tipo de estructura y modo de operación es la


posibilidad de diseñar configuraciones iniciales que se autorreproducen (de ahí el
nombre de "autómatas autorreproductores" que se da también a esta arquitectura) o
reglas que lleven a la reproducción del diseño original, lo cual constituye un
instrumento de alta importancia en física teórica y modelización matemática.

Transputer
Una forma simplificada de computador celular es el compuesto de transputers. El
"transputer" equivale a lo que es actualmente el transistor para las máquinas
electrónicas en general, o sea un componente básico que puede ser fabricado en
forma masiva y económica. 
Cada transputer reúne en un mismo chip varias unidades aritméticas, una memoria
(2Kb en el primer modelo fabricado) y mútiples conexiones que permiten un
intercambio rápido con otros transputers y que pueden operar todos en forma
simultánea. Se obtuvo así en el primer modelo experimental (en 1983) una velocidad
secuencial de 10 Mips
Para su uso ha sido desarrollado especialmente un lenguaje de alto nivel orientado al
aprovechamiento del paralelismo, el OCCAM. El concepto de base del Occam - y del
procesamiento mediante transputers - consiste en considerar entidades que
intercambian información con su entorno, formado de otras entidades del mismo tipo, a
través de canales unidireccionales que las unen 2 a 2. Estas entidades pueden ser
conjuntos de instrucciones, procesos o representaciones, pudiendo constituirse
diversos niveles de complejidad en forma modular.

Máquina neuronal
Si el computador basado en transputers puede parecer una forma simplificada de
máquina celular, la máquina neuronal es, ella, más compleja, intentando imitar más de
cerca la estructura del cerebro y su forma de operar. 
Se compone de elementos equivalentes a las neuronas, que imitan las conexiones en
red del sistema nervioso. En cuanto a la forma de operar, su principal característica es
que imita el proceso de aprendizaje, basado en el cambio de estado de las conexiones
entre las neuronas. De este modo, una máquina neuronal no se programa en la forma
tradicional, sino que se ajusta progresivamente en función del uso.

Un típico procesamiento y aprendizaje neuronal consiste en introducir repetidamente


un texto a través de un escáner, hasta que la máquina sea capaz de reconocer todas
las letras, incluso cuando algunas de ellas no son perfectamente nítidas.

Tendencias De Hardware & Software

Es importante conocer las nuevas tendencias y su impacto en el proceso de desarrollo


e implementación de sistemas de información.

La industria informática ha sido la de mayor crecimiento en la última década


provocando cambios sustantivos con el resto de las industrias. 

Disminución de precios:

LA baja de precios en lo equipos y el software de base asociado ha acelerado el


proceso de informática en pequeñas y medianas empresas. asi como a nivel de
hogares. 

Aumento de potencias:

Los intensos procesos de investigación y desarrollo producen nuevas y mejores


revoluciones de mercado. 

Las   tendencias   de   hardware   como   lo   son   las   impresoras,   redes  y   partes  
de  computadoras benefician de una forma nunca antes conocida a
las  personas  facilitándoles el trabajo,    por ejemplo en los dispositivos        de
almacenamiento
de  datos    el   tamaño   se   reducirá  aun   mas   veremos   en   las,   conocidas   me
morias  USB   un  incremento   de   capacidad,   la   capacidad   máxima   actual   es   
de  8GB
para   el   año   que   viene   esta   capacidad   se   doblara   a  finales   de   esta   déca
da
tendremos   memorias   de   20GB   de  capacidad   esto   es   algo   que   nunca   ante
s
nadie    imaginaba,      a  este   cambio    no   escapan     los  discos   duros  que     en  
la actualidad tienen una capacidad máxima de 2terabytes que equivale 26 discos
duros convencionales de 80GB aquí se está ablando a nivel de empresas. 

Ya que es en las empresas donde se maneja un gran flujo de información debido a las
operaciones que se realizan como la IBM que manejo información de todas
las     operaciones realizadas a nivel mundial. Y qué decir de los CD-ROM los
primeros  cd’s  ópticos  que entraron  al  mercado  tenían  una  capacidad  de  almacen
amiento   de  600mb  haya  por   el   año   2002   eran   los  más  usados   para
almacenar   música   videos   y   datos  en   general   pero   hoy   en   el  2008,  los  cd’
s  están   hechos   de   diferentes   materiales  y   pueden  almacenar   información   a   
lo grande   hasta   8   GB   de   datos   en   los discos  de   doble   capa   llamados  HD-
DVD evolución de los DVD        en ellos se pueden grabar y ver hasta 10 horas de
video. 

Llegando a su fin la Hera analógica es decir los casetes y las cintas Magnéticas que
prácticamente pasaron a la historia.

El hoy y el ayer del hardware de los ordenadores personales. 

Las   computadoras   pasaron   de   ser   un   lujo   a   ser   una  necesidad   debido   a  
 la
globalización   mundial   y   al   desarrollo  tecnológico,  es   por   este   motivo   que   e
l
hardware   de   las  computadoras   esta   en   un   mejoramiento   constante   debido   
a
que cada   día   se   incrementa   el   numero   de   operaciones   y   acciones  que   se
requiere   realizar   para   satisfacer necesidades   un   ejemplo  de   esto  era   cuando
aún no se usaba el correo electrónico y las telecomunicaciones las personas se
comunicaban de una forma más lenta y rudimentaria. 

Debido a que los avances tecnológicos demandan software informático mas poderoso,
a causa de esto el
hardware   tiene   que   adaptarse   al  software   que   valla  saliendo,   un   ejemplo   d
e
esto    el  sistema   operativo   Windows      98   que   requería   de   un   hardware     m
uy rudimentario, un procesador con una velocidad de 300mhz, 64mb de memoria RAM
y de almacenamiento 10Gb este sistema operativo permitía editar texto mandar
correos, y algunos servicios clásicos de cualquier sistema operativo ver videos
escuchar, música pero con muchas deficiencias y era muy vulnerable a ataques por
parte de  hackers que tumbaban información de una manera muy La Calidad Total En
La Administración De Tecnologías De La Información.

Concepto que centra la atención de la administración total de la organización para


proporcionar calidad a los clientes. 

   * la participación del empleado.

   * el centrar la atención en los clientes.

   * el benchmarking.

   * el mejoramiento continuo. 

LA PARTICIPACION DEL EMPLEADO:

Con la participación delos empleados se está consiguiendo la optimización de los


recursos, su implicación conduce a la consecución. 

EL CENTRAR LA ATENCION EN LOS CLIENTES:

si se trata de centrar la atención de los clientes es las necesidades y expectativas,


estas serán mejor atendidas si el coste trasladado al cliente es más bajo. 

EL BENCHMARKING:

es un proceso es virtud del cual se identifican las mejores practicas en un determinado


proceso o actividad, se analizan y se incorporan a la operativa interna de la empresa. 

EL MEJORAMIENTO CONTINUO:

Es un proceso donde la perfección es una búsqueda constante.

Reingeniería De La Administración De Tecnologías De La Información


La REINGENIERIA DE LA ADMINISTRACION DE LAS TECNOLOGIAS DE LA
INFORMACION 

La reingeniería de los procesos surge como respuesta a las ineficiencias propias de la


organización funcional en las empresas y sigue un método estructurado consiste en:

   * identificar los procesos clave de la empresa

   * asignar responsabilidades sobre dichos procesos a un “propietario”

   * definir los límites del proceso

   * medir el funcionamiento del proceso.

RELACION PRECIO/RENDIMIENTO

El concepto “relación calidad-precio” es utilizado por todas las personas, en la


mayoría de los casos de forma intuitiva, que es cuando actuamos como consumidores
de bienes o servicios. Es esta la perspectiva desde la que solemos enjuiciar este
concepto con más frecuencia: la perspectiva del cliente. La otra perspectiva, la del
proveedor de bienes o servicios, debería ser calculada pero también es intuitiva con
demasiada frecuencia

También podría gustarte