Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Keila era una típica ejecutiva top, atravesando una de sus ya frecuentes situaciones
complicadas. El objetivo de la inesperada reunión junto con sus más cercanos
colaboradores era tomar una difícil decisión para el futuro de su empresa. Ya que el
tiempo apremiaba y no podía dilatar más su dictamen, llevó a cabo un novedoso
experimento: expuso rápidamente el problema a la biocomputadora recientemente
anexada a su cerebro, al tiempo que seguía describiendo y discutiendo sus ideas frente
a su grupo de trabajo. Al estar directamente enlazada con la máquina, podía acceder a
ella con sólo el pensamiento, sin presionar teclas, sin mover dispositivos, sin dar
órdenes verbales; en fin, sin ningún tipo de acción física visible que pudiera delatar a su
inhumana ayuda. El sistema tomó los datos necesarios de su casi infinita memoria y
aprovechó los conocimientos, la sabiduría y la experiencia acumulados por la
humanidad durante siglos. Casi de inmediato, y luego de ensayar billones de posibles
permutaciones, todas las combinaciones imaginables de las diversas variables, el
diminuto artefacto interrumpió súbitamente los tumultuosos pensamientos de Keila con
diferentes sensaciones que afectaban sus sentidos, directamente sobre su sistema
nervioso. Con inusitada rapidez, ella comprendió que lo que estaba percibiendo no eran
más que alucinaciones, meros espejismos de un cerebro que intentaba, casi con
desesperación, enfrentarse con algo nuevo e inédito, nunca antes experimentado. Sin
mediar pausa alguna en su emotivo diálogo, sin ningún tipo de concentración y en un
entorno tridimensional simulado, los valiosos resultados se arremolinaban y emergían
con fluidez dentro de su mente...
Esta situación, fácilmente confundible con una página de un cuento de ciencia ficción, se podría convertir en
algo común dentro de escasas décadas, gracias al desarrollo de nuevos sistemas computacionales
verdaderamente personales. En efecto, lo que se avizora para el futuro son computadoras tan pequeñas,
livianas, ergonómicas y eficientes (pero potentes, útiles, baratas y más confiables), que se integrarán totalmente
a los objetos y serán "vestidas" por las personas. Contarán con más de un microprocesador (el cerebro de la
máquina), serán más intuitivas y fáciles para usar, tan sencillas de instalar y operar como un electrodoméstico y
la incorporación de cualquier nuevo periférico se llevará a cabo simple y rápidamente, sin recurrir a manuales
de instalación ni programas de configuración.
Dispondrán de grandes bases de conocimiento -por lo que tendrán más "sentido común"- y contarán con modos
de comunicación más naturales y familiares: como serán capaces de "percibir" el contexto del usuario y detectar
sus estados emocionales (o el de otras personas), podrán entender lo que éste le quiere decir y responderle de
una manera más "humana", interactuando y hasta sugiriendo autónomamente información útil. La interfaz con el
hombre estará diluída, difuminada, y los usuarios ya no le darán órdenes ni ejercerán un control absoluto sobre
la computadora, sino que le delegarán trabajos y supervisarán los resultados.
Vendrán equipadas con videocámaras, micrófonos, pager y teléfono, y proveerán al usuario -en cualquier
momento y lugar- con una amplia variedad de información útil, actualizada y multimediática, como textos,
gráficos, fotografías, videos y sonidos. A diferencia de lo que ocurre hoy en día, liberarán al usuario del
transporte de todos estos equipos independientes, con la ventaja de que el conjunto será más liviano y
económico. Siempre encendidas, continuamente accesibles, trabajando, sensando... estas computadoras serán
realmente personales, particulares, íntimas. Más que meros componentes, se volverán parte integral de la vida
de todos los días. Podrán auto-reconfigurarse, auto-repararse y adaptarse a entornos imprevistos. En suma,
estas máquinas se acercarán más a las criaturas vivientes que a los objetos inanimados y se convertirán en
auxiliares inseparables de los humanos para complementar, extender, enriquecer y aumentar las habilidades de
su intelecto.
Los primeros pasos
Las computadoras son el reflejo de la inteligencia humana, representan la materialización de todos aquellos
aspectos del pensamiento que son automáticos, mecánicos, determinísticos. Ellas potencian enormemente las
capacidades intelectuales del hombre, simplifican las tareas administrativas, estadísticas y contables,
disminuyen las necesidades del trabajo humano y extienden la eficacia de cada persona -por el momento- más
amplia y rápidamente que cualquier otra tecnología. Son capaces de realizar cálculos muy complicados en
períodos extremadamente breves, manejar volúmenes de información infinitamente superiores a los que la
mente humana puede dominar, jugar magistralmente al ajedrez y controlar a la perfección las órbitas de los
satélites, los robots de una fábrica de autos o la trayectoria de un misil. Pueden analizar imágenes médicas muy
complejas, recordar millones de números telefónicos al mismo tiempo y resolver acertadamente problemas que
al ser humano normal le llevaría el trabajo de hasta cientos de años. Pero todavía son incapaces de escuchar a
una persona y menos hablarle; es difícil programar una computadora para que reconozca patrones, imágenes,
sonidos o aromas; no ofrece su ayuda a menos que uno se lo pida expresamente; y ninguna computadora
convencional con programa almacenado es capaz de adaptarse a entornos imprevistos. En síntesis, todavía
son muy limitadas.
El abrumador y explosivo éxito de las computadoras reside principalmente en que son máquinas universales -o
máquinas de propósito general, según la jerga de los ingenieros-, cuya especialización se efectúa
posteriormente a través del software que se le carga. Es decir, no fueron diseñadas para hacer nada en
especial, sino para ser capaces de realizar cualquier tarea que pueda reducirse a un conjunto adecuado de
instrucciones comprensibles y ejecutables por el microprocesador. Toda la "inteligencia" reside en su
programador o equipo de programadores, que deben establecer, organizar y codificar todos los posibles cursos
de acción, para que las computadoras hagan lo único que son capaces de hacer: obedecer la secuencia
previamente determinada de instrucciones que le fue ordenada, a fin de desarrollar todos aquellos trabajos que
para el ser humano se tornan rutinarios, fastidiosos, monótonos, y reiterativos. Si el programa (o sea, el
software) funciona exitosamente, es debido a que los informáticos fueron extremadamente cuidadosos y
tuvieron en cuenta todas las posibles variantes del problema; si falla, es porque sencillamente la línea de
pensamiento de los programadores fue confusa o imprecisa, o porque hubo incoherencias o contradicciones
ocultas. Es por eso que detrás de cada paquete de software, por modesto que sea, hay muchas miles de horas
de intensa actividad intelectual humana.
El componente principal de una computadora es el microprocesador, un dispositivo electrónico versátil y
universal (razón por la cual puede ser producido en masa), capaz de ejecutar cualquier tipo de tarea
computacional. En general, es la propia imaginación de los usuarios el único límite para su aplicación, la cual se
incrementa progresivamente a medida que aquellos usuarios se multiplican y se familiarizan con los nuevos
productos. Desde la invención de los circuitos integrados en 1961, el número de transistores que conforman un
único microprocesador se ha incrementado un millón de veces. En la actualidad, se pueden producir chips con
alrededor de 10 millones de transistores y en 10 años contendrán cerca de 1.000 millones. Reduciendo el ancho
de las pistas, aumentando el área del circuito integrado y apilando múltiples capas de chips, se podrán fabricar
en el futuro "cubos" de silicio con 10 billones de transistores, alcanzando quizás el límite de esta tecnología.
Con el incremento del poder y sofisticación de los microprocesadores, pueden integrarse más funciones en la
misma área y, por lo tanto, pueden automatizarse tareas cada vez más complejas, llegando a implementar
procesos que hasta hace poco tiempo hubieran sido imposible incorporar. Un mejor rendimiento del hardware,
un software más elaborado, una reducción del tamaño y un costo más bajo, darán lugar a computadoras cada
vez más rápidas, livianas, pequeñas, baratas y fáciles de utilizar que las actuales notebooks, tornando cada vez
más relevante su importancia en el mundo del futuro.
Trabajando en conjunto
La industria de software desarrolla casi diariamente aplicaciones más complejas que demandan un poder
computacional cada vez mayor. Gracias a los avances del hardware, el rendimiento de los procesadores ha
aumentado muchísimo durante los pasados años. Sin embargo, se estima que para el inicio de la próxima
década se estará llegando a los límites físicos de velocidad de un procesador. Esto implica una limitación en la
capacidad máxima que se puede obtener de una computadora tradicional.
La habilidad para integrar decenas de millones de transistores en un único chip conducirá, en el futuro, a la
implementación de sistemas de procesamiento que incluirán varios microprocesadores, pero gobernados y
coordinados por un único pero potente sistema operativo. El procesamiento en paralelo permite resolver una
tarea específica mediante la cooperación de múltiples procesadores, que dividen y distribuyen equitativamente
el trabajo en pequeñas tareas individuales. En lugar de hacer que fuese un único pero sofisticado procesador
central el encargado de ejecutar secuencialmente todos y cada uno de los pasos de una tarea, un conjunto de
dispositivos más simples y polivalentes trabajan en el mismo problema de forma autónoma -pero simultánea y
coordinadamente-, logrando de este modo un considerable incremento en la velocidad. Asimismo, un sistema
distribuido puede ser más confiable y capaz de sobrevivir a las fallas. La pérdida de cualquiera de los
componentes tiene un mínimo impacto y aquellos que se consideran clave se hacen redundantes para que el
sistema rápidamente tome el trabajo luego de la falla.
Así como hoy ya se observan servidores y estaciones de trabajo que contienen desde dos hasta diez
microprocesadores, en el futuro podrían existir computadoras escalables que ofrecieran la posibilidad de juntar
hasta decenas de ellos, a fin de acelerar la finalización de aquellas tareas complejas o que manejan una gran
cantidad de datos. Obviamente, hay que ver si el costo del sistema crece proporcionalmente con el número de
procesadores, lo cual no es típicamente el caso cuando se reemplaza un chip con otro de una generación
posterior. También es posible escalar memoria, ancho de banda de las interconexiones y capacidades de
entrada/salida. De esta forma, a medida que crece la carga, es posible aumentar el rendimiento del sistema en
forma gradual, invocando a otros procesadores para que ejecuten nuevas tareas. Pasado un tiempo, sin
embargo, todos los dispositivos estarán ocupados y realizarán las tareas secuencialmente.
El inconveniente de este enfoque es que aparecen dificultades de programación considerables, ya que se
requiere la sincronización de decenas de elementos de procesamiento para que ejecuten miles de tareas de
distinta duración y en diferentes sectores del sistema. Se necesita un sistema operativo especial para
aprovechar las bondades de esta arquitectura.
Una importante aplicación de este tipo de computación (llamada paralela) es la visualización científica. En los
últimos años, los avances en la tecnología han facilitado la obtención de grandes cantidades de información; no
obstante, estos datos por sí solos no son útiles, es necesario que el usuario tenga una forma fácil y eficiente de
interpretarlos y analizarlos. La visualización permite ver lo que el ojo humano no puede ver: reconocer patrones
de comportamiento en los datos, interpretar en una sola imagen o en una secuencia de imágenes (animación)
una gran cantidad de datos, comprender conceptos de tipo abstracto o predecir resultados con elevada
precisión. Gracias a ella, las soluciones, con anterioridad obtenidas en incontables hojas impresas repletas de
información numérica prácticamente indescifrable, se convierten en una fascinante exhibición de formas,
colores y texturas que representan los más variados fenómenos de la naturaleza. Entre ellos, la fractura de los
metales, la evolución de las estrellas, el crecimiento fetal o la evolución climática. Como antes el microscopio y
el telescopio, abren a los investigadores dominios completamente nuevos, merced a la simulación
computarizada de casi cualquier cosa: el fluido del aire alrededor de un cuerpo en movimiento, los esfuerzos
mecánicos que realizan los componentes de una estructura, el perfil de los compradores, una sequía
pronunciada, una duplicación de la población terrestre o la explosión de una supernova. Además, como las
imágenes son animadas, es posible la observación evolutiva de los procesos.
Por otro lado, la visualización es muy útil en la ayuda a la toma de decisiones. En efecto, gracias a los modelos
es fácil prever las repercusiones futuras de cualquier decisión presente. Mejor informado de las consecuencias
previsibles de sus actos, el ser humano podrá actuar más conscientemente, pudiendo elegir la mejor solución
entre todas.