Está en la página 1de 84

MEMORIA NATURAL Y ARTIFICIAL

Autor: LAURA VIANA CASTRILLÓN

COMITÉ DE SELECCIÓN
EDICIONES
AGRADECIMIENTOS
I. INTRODUCCIÓN
II. HISTORIA DE LA COMPUTACIÓN
III. PRINCIPIOS DE OPERACIÓN DE LAS COMPUTADORAS ACTUALES
IV. SISTEMA DE ARCHIVO Y BÚSQUEDA DE INFORMACIÓN
V. EL HOMBRE Y LAS MÁQUINAS PENSANTES
VI. EL CEREBRO Y LA MENTE
VII. MEMORIA Y APRENDIZAJE
VIII. MATERIALES MAGNETICOS
IX. COMPUTADORAS NEURONALES
BIBLIOGRAFÍA
COLOFÓN
CONTRAPORTADA
COMITÉ DE SELECCIÓN

Dr. Antonio Alonso

Dr. Juan Ramón de la Fuente

Dr. Jorge Flores

Dr. Leopoldo García-Colín

Dr. Tomás Garza

Dr. Gonzalo Halffter

Dr. Guillermo Haro †

Dr. Jaime Martuscelli

Dr. Héctor Nava Jaimes

Dr. Manuel Peimbert

Dr. Juan José Rivaud

Dr. Emilio Rosenblueth †

Dr. José Sarukhán

Dr. Guillermo Soberón

Coordinadora Fundadora:

Física Alejandra Jaidar †

Coordinadora:

María del Carmen Farías


EDICIONES

Primera edición, 1990

Segunda edición, 1995

La ciencia desde México es proyecto y propiedad del Fondo de Cultura Económica, al que pertenecen también sus
derechos. Se publica con los auspicios de la Subsecretaria de Educación Superior e Investigación Científica de la
SEP y del Consejo Nacional de Ciencia y Tecnología.

D.R. © 1990, FONDO DE CULTURA ECONÓMICA, S. A. DE C. V.

D.R. © 1995, FONDO DE CULTURA ECONÓMICA

Carretera Picacho-Ajusco 227; 14200 México, D.F.

ISBN 968-16-48O7-2 (2a. edición)

ISBN 968-16-3481-0 (1a. edición)

Impreso en México
AGRADECIMIENTOS

Quisiera agradecer a todas las personas que con sus comentarios y sugerencias me ayudaron en el desarrollo de
este libro. En particular, al matemático Arturo Gamietea, por su revisión cuidadosa del manuscrito, al señor
Francisco Ruiz por su trabajo en el laboratorio de fotografía, y al doctor José Alberto López G.

También quisiera agradecer al Centro Internacional de Física Teórica (ICTP), con sede en Trieste, Italia, por su
hospitalidad durante mi asistencia al "College on Neurophysics" (noviembre de 1988), en donde realicé parte de
este trabajo.
I. INTRODUCCIÓN

LOS fundamentos de la ciencia como un todo, y de la física en


particular, esperan sus grandes revelaciones de la biología, y
especialmente del análisis de las sensaciones... La observación
psicológica por un lado, y la observación física por el otro, pueden
progresar tanto que terminarán estando en contacto, y de esta manera,
muchos conocimientos podrán salir a la luz. Los resultados de esta
investigación no constituirán un dualismo sino una ciencia, la cual al
incluir tanto lo orgánico como lo inorgánico, interpretará los hechos
que son comunes a ambas.

(MACH,
1914)

EL HOMBRE siempre ha tenido interés por conocerse a sí mismo y al mundo que lo rodea y este interés ha sido
uno de los motores que le ha permitido, en su estancia relativamente corta sobre la Tierra, lograr una
transformación tan grande del mundo. Esta transformación se ha llevado a cabo primero muy lentamente, a lo
largo de miles de años, y después, de una forma cada vez más acelerada. Así, tenemos que durante este siglo se ha
producido la primera revolución técnico-científica: por un lado, se ha logrado un gran avance en el conocimiento
de la naturaleza fundamental de la materia, y por otro, la ciencia se ha involucrado, muy profundamente, con la
industria y la agricultura.

En los años cercanos a los albores del siglo XX, la vida era muy diferente a la que ahora tenemos. Así vemos que,
por ejemplo, las casas aún no contaban siquiera con luz eléctrica, ya que la lámpara incandescente recién se había
inventado (Figura 1). En aquellos años se realizaron inventos muy ingeniosos, como el kinetoscopio, antecedente
del cinematógrafo, en el cual únicamente una persona podía disfrutar del espectáculo. También corresponden a
esa época el lanzamiento al mercado de los primeros gramófonos y fonógrafos, de las primeras máquinas
sumadoras y el invento del teléfono, el cual vino a revolucionar el mundo de las telecomunicaciones. En el plano
del transporte, tenemos la creación y desarrollo del automóvil, de los primeros aviones pequeños y de los
gigantescos dirigibles. En el terreno militar, se inicia el uso de los primeros explosivos estables, los cuales no
estallan a menos de que se pongan en contacto con las substancias que los activan. En el ámbito de la
investigación en materiales, se crean los primeros plásticos útiles (la baquelita que se utiliza como aislante
eléctrico), etcétera. En cuanto a la actividad científica, ésta estaba prácticamente concentrada en Inglaterra,
Francia y Alemania. Por aquellos días se descubren los rayos X, se inventa el ultramicroscopio (capaz de
aumentar el tamaño de las imágenes 7 500 veces debido a que utiliza luz ultravioleta) y se confirma la naturaleza
atómica de la materia.

Por esos años se inició una aceleración súbita y sin precedentes de la actividad científica y de sus aplicaciones, la
cual continúa hasta nuestros días; de manera que en los últimos años, se han llevado a cabo más trabajos
científicos que en toda la historia previa de la humanidad. Como consecuencia, hemos experimentado un cambio
total en nuestra concepción del mundo y en nuestro estilo de vida. Este desenvolvimiento técnico tan acelerado,
ha dado origen y ha sido a su vez resultado de una interpenetración, en los países industrializados, entre la ciencia
y la industria. El avance científico y el progreso técnico han quedado ligados de manera que ahora es
prácticamente imposible hablar de ellos por separado.
Figura 1. Apuntes de Edison en los cuales se muestran los esbozos de las primeras bombillas eléctricas.

Algunas de las características que describen el desarrollo científico-técnico del presente siglo, son el inicio de la
producción en serie, el control automático de los procesos industriales, la disponibilidad y control de la energía, la
aparición de los medios de comunicación masiva, y la substitución del hombre en la ejecución de ciertos trabajos
por maquinas o dispositivos electrónicos. Todos estos factores proporcionaron la explotación en gran escala de los
recursos naturales, la producción de materias primas, y el desarrollo de industrias como la eléctrica, química,
farmacéutica, alimenticia, etc. Ahora contamos con fertilizantes, insecticidas, detergentes, plásticos y fibras
sintéticas, antibióticos, armas químicas, entre otros. Un elemento más de capital importancia en el avance de la
ciencia ha sido el deseo de dominio y supremacía del hombre sobre sus semejantes de manera que la industria
bélica ha sido responsable de muchos refinamientos e innovaciones de la electrónica, las telecomunicaciones, la
industria química, nuclear, etcétera.

Los diferentes esquemas de organización política y desarrollo económico también han desempeñado un papel
decisivo. Así, otra característica de nuestro tiempo ha sido, por un lado, el crecimiento de los grandes monopolios
de carácter comercial e industrial en cuyos departamentos de investigación se realiza 80% de la investigación
aplicable, y por otro lado, la institucionalización de la investigación científica, de modo que la planeación de la
investigación ha ido substituyendo a la inventiva aislada e individual.

Entre los frutos de este auge técnico-científico tenemos, a manera de ejemplo, los siguientes. El hombre ha
iniciado la conquista del espacio: ha sido capaz de llegar a la Luna y de enviar naves a hacer travesías en nuestro
sistema solar (véase la figura 2), las cuales han conseguido enviar información a la Tierra desde lugares tan
lejanos como Neptuno. También se han creado bombas que podrían acabar con la humanidad en cuestión de
horas. Posteriormente se han descubierto y fabricado materiales superconductores que, por debajo de cierta
temperatura, son capaces de conducir energía eléctrica prácticamente sin pérdidas de ésta (Figura 3). Se han
construido refrigeradores capaces de llegar a temperaturas muy cercanas al cero absoluto, microscopios capaces
de "ver" átomos individuales (Figura 4), y dispositivos electrónicos que detectan fotones (cuantos de luz), también
individuales. Otro instrumento creado es el láser, que tiene una serie muy amplia de aplicaciones, que van desde
su uso en tocadiscos compactos hasta su aplicación en microcirugía y en la industria bélica. Por otro lado, se han
desarrollado técnicas muy importantes con aplicaciones a la medicina, como el ultrasonido y la microcirugía, y se
han producido vacunas que han contribuido al control de enfermedades como la viruela y la poliomielitis,
etcétera, asimismo han nacido los primeros "bebés de laboratorio" engendrados en probetas.
Figura 2. Figura que muestra las trayectorias de las naves espaciales Vayager I y Voyager II, a través de la
parte exterior de nuestro sistema solar.

Uno de los desarrollos más sobresalientes del siglo XX, el cual aún no hemos mencionado, es el de las
computadoras. Estas han sido tan importantes que a menudo nuestra época se denomina "la era de las
computadoras". Las computadoras han sido, por un lado, un logro tecnológico de primera línea, y por otro lado
han desempeñado un papel muy importante por sí mismas. Primero, en el avance de la ciencia, ya que constituyen
una herramienta muy útil en la investigación científica (realización de cálculos matemáticos y simulación
numérica). Segundo en el desarrollo tecnológico, ya que han contribuido como herramienta de diseño e
instrumento de control en los procesos industriales (Figura 4). Y tercero, y no menos importante, han contribuido
como medio para el manejo y almacenamiento de información.

Figura 3. Esta fotografía muestra un imán levitando sobre un material superconductor (efecto Meisner).
Cortesía: doctor Ramiro Pérez, IFUNAM-Ensenada.
Figura 4. Fotografía de la imagen obtenida al observar una muestra de grafito a través de un microscopio
de tunelaje. En ella puede apreciarse la presencia de átomos individuales. Cortesía: doctor Leonardo
Morales, IFUNAM-Ensenada.

Figura 5. Los sistemas de visón automatizada permiten llevar a cabo el " control de calidad" durante todas
las etapas del proceso de producción.

El uso de las computadoras no ha quedado restringido a los ámbitos técnico, científico y administrativo. En los
últimos años su existencia ha cambiado radicalmente nuestras vidas, pues ahora forman parte esencial de la
mayoría de los aspectos del quehacer humano. Hace tan solo algunos años, el uso de las computadoras dentro del
hogar formaba parte de la ficción científica. Actualmente, en los países industrializados existen computadoras en
gran cantidad de hogares, y los cursos de computación constituyen una parte importante del currículum escolar
del nivel elemental. Además en estos países existen grandes bancos de datos a los cuales se puede tener acceso,
desde la comodidad del hogar, a través de una computadora personal. De esta manera, es posible conocer los
horarios de ferrocarriles y aviones, obtener información acerca de los espectáculos y del estado del tiempo, hacer
pedidos comerciales, tener acceso a las cuentas personales de banco, etcétera.

Algunas personas se alarman debido a que sienten que las computadoras están "reemplazando" al ser humano en
muchas de sus funciones. Si bien esto es en gran parte cierto, hasta ahora las computadoras no son capaces de
hacer nada por sí mismas, únicamente son capaces de seguir instrucciones. Pero, ¿continuará siempre siendo de
esta manera?, ¿podrán algún día crearse computadoras que al igual que el ser humano "aprendan" a partir de la
experiencia y sean capaces de autoprogramarse? Este ha sido el tema central de muchas novelas de ciencia
ficción, y aunque se están dando pasos muy importantes en esta dirección, la respuesta definitiva sólo la
tendremos con el paso del tiempo.

En la actualidad, una computadora pequeña es capaz de efectuar, en cuestión de segundos, una cantidad tal de
operaciones matemáticas, que a un hombre le tomaría meses o años realizarlas. Sin embargo, hay otro tipo de
trabajos para los cuales las computadoras están claramente en desventaja. Estas tareas suponen la solución de
problemas que se caracterizan por tener un gran número de soluciones, y por no ser posible dar instrucciones
concretas para encontrarlos, más adelante explicaremos a qué nos referimos. En lo sucesivo denominaremos a
estos problemas complejos. 1

Entre los problemas complejos, tenemos problemas de optimización o toma de decisiones, de reconocimiento,
etcétera. Por ejemplo, un niño de tres años es mucho más eficiente reconociendo imágenes como caras de
personas, que una poderosa computadora que trabaja con los programas más elaborados. Asimismo, un niño es
capaz de efectuar generalizaciones y clasificar imágenes que nunca ha visto, mediante el uso de elementos
extraídos de la experiencia previa, es decir, haciendo comparaciones y analogías entre el contenido de la imagen
nueva que se presenta y el contenido de las imágenes que ha visto en el pasado.

El origen de esta diferencia de eficacia radica en que los procedimientos utilizados por los humanos y las
computadoras son en esencia de carácter diferente. Las computadoras trabajan ejecutando instrucciones precisas,
las cuales pueden definirse de una manera sucinta en un algoritmo o receta del procedimiento a seguir. Una
computadora puede ser programada para hacer comparaciones, pero es necesario que el programador defina, de
manera concisa y exhaustiva, todos los criterios necesarios a considerar para efectuar dichas comparaciones.

Muy recientemente, se ha empezado a desarrollar un nuevo concepto en computadoras denominadas redes


neuronales, las cuales tienen como objetivo la solución de los problemas complejos. El diseño de estas
computadoras se basa en lo poco que conocemos acerca de la forma en que el cerebro humano procesa y
almacena la información. Estas máquinas se encuentran en sus primeras etapas de desarrollo, y muy lejos de
poderse considerar cerebros sintéticos, ya que su poder de procesamiento es inferior, por muchos órdenes de
magnitud, al de la mente humana; sin embargo, se espera que en cuanto estas computadoras sean perfeccionadas
contribuyan a resolver los problemas de manejo de información y toma de decisiones.

En este libro hablaremos de manera paralela de dos temas correlacionados. Por un lado, acerca de las
computadoras: de su evolución, y de la forma en que manejan información. Por otro lado, de lo que sabemos o
creemos saber acerca de los mecanismos por medio de los cuales se lleva a cabo el almacenamiento de la
memoria en los seres vivos, y la manera en que se recuerdan o evocan estas memorias. De esta manera, haremos
hincapié en las similitudes y diferencias de estos procesos.

Hablaremos además de los intentos recientes por crear máquinas útiles para resolver problemas complejos, cuyas
memorias funcionen mediante mecanismos similares a los utilizados por los seres vivos.

El plan de este libro es el siguiente: en el capítulo II relataremos, a grandes rasgos, la historia de la computación,
desde el momento en que el hombre adquirió la necesidad de contar, hasta finales de los años ochenta. En el
capítulo III hablaremos de los principios generales que hacen funcionar a las computadoras de hoy en día. En el
capítulo IV analizaremos de manera comparativa la eficiencia en el desempeño de los procesos de
almacenamiento y llamado de información de las computadoras y el hombre. En el capítulo V analizaremos
algunas características humanas que sería importante comprender y reproducir, si se desea crear máquinas
"pensantes". Más adelante, en el capítulo VI, hablaremos de manera muy general acerca del cerebro humano y de
los diferentes puntos de vista de su estudio. Posteriormente, en el capítulo VII, hablaremos de los conocimientos
con que contamos acerca de las bases fisiológicas de las capacidades humanas de memorización y remembranza.
En el capítulo VIII haremos un paréntesis para hablar de los materiales magnéticos, con el fin de hacer, en el
capítulo IX, una analogía entre el comportamiento de ciertos materiales magnéticos y el del cerebro humano. Esta
analogía nos permitirá utilizar herramientas de la física para hacer un tratamiento probabilístico del
comportamiento colectivo de un conjunto de neuronas interconectadas, y nos dará una visión cualitativa de los
mecanismos que permiten al cerebro almacenar y recuperar información. Y en este capítulo hablaremos un poco
acerca de la nueva generación de computadoras, y de los esfuerzos actuales por construir computadoras con
capacidades "más humanas".
Este libro trata, en gran parte, de temas que no tienen una explicación definitiva y que han inquietado al hombre
desde tiempos inmemorables. Sin embargo, la reciente incursión de la física estadística en la investigación del
funcionamiento de la mente, ha dado nueva luz a este problema y ha permitido apreciarlo desde un punto de vista
nuevo. Nuestra intención no es hacer una exposición profunda en ninguna de las disciplinas involucradas en este
tema, sino exponer, de manera sencilla y accesible, algunas ideas de un tema interdisciplinario de gran interés, e
introducir al lector al tipo de modelos que la física ha empezado a desarrollar para estudiar algunos aspectos del
funcionamiento del cerebro. Es por esto que no pretendemos dar la respuesta acerca del funcionamiento de la
memoria humana, sino únicamente compartir con el lector algunas ideas e inquietudes de un grupo cada vez más
grande de científicos que en la actualidad trabaja con gran entusiasmo en este tema.
II. HISTORIA DE LA COMPUTACIÓN

EN LA historia de la ciencia, hay ciertos momentos claves en los que el ingenio e inteligencia de ciertas personas,
aunados a toda una situación social e ideológica propicias, les permiten percibir algo que nadie antes había sido
capaz de ver. En muchas ocasiones esta revolución en los conceptos viene acompañada de innovaciones
tecnológicas que constituyen grandes saltos en el desarrollo de nuevos aparatos. De esta manera, nos encontramos
con que en general el avance científico-tecnológico tiene dos tipos de etapas: en la primera surge una idea o
descubrimiento innovador muy importante, y la segunda comprende los tiempos durante los cuales se maduran y
establecen las ideas. Durante estos periodos, se construyen aparatos cada vez más elaborados con base en estos
principios. Este proceso continúa hasta que surge una nueva idea que permite de nueva cuenta un avance
significativo.

Con esta idea en mente, podríamos dividir la historia de la computación en varias etapas, cada una caracterizada
por una revolución tecnológica importante. A continuación relataremos de manera muy general el desarrollo de la
computación, desde sus orígenes hasta finales de los años ochenta.

SISTEMAS NUMERALES

Puede decirse que la historia de la computación comienza cuando el hombre adquiere la necesidad de contar.
Seguramente en un principio el hombre comenzó a contar con los dedos, para después hacerlo mediante marcas
en el piso o utilizando piedras. Con la invención de la escritura, diferentes civilizaciones encontraron sendas
maneras de contar y más tarde, de efectuar operaciones. La figura 6 nos muestra, de una manera comparativa,
algunos sistemas numerales.

Figura 6. Esta figura nos muestra algunos sistemas numerales.


Figura 7. En la numeración maya un punto representa una unidad, una barra corresponde a cinco
unidades, y el número cero es representado por una concha. Combinando estos signos pueden escribirse los
números del 0 al 19. Para designar Números mayores al 19 se utiliza el sistema de posiciones: de abajo
hacia arriba, la n-ésima posición representa unidades de n-ésimo orden.

Una de las escrituras más antiguas que se conoce es la egipcia. Esta civilización adoptó un sistema de contar de
diez en diez, de manera que marcaban las unidades con líneas verticales y las decenas con un signo similar a la U
invertida. Otras culturas adoptaron sistemas más complicados; por ejemplo, los babilonios contaban de 60 en 60,
y aunque su sistema era muy poco práctico, se cree que de ellos provienen las bases del sistema actual de contar
los minutos y los segundos.

Otra numeración antiguamente utilizada fue la romana, la cual era muy simple y permitía efectuar operaciones
aritméticas aunque no con mucha sencillez. Aún perdura la tradición de utilizarla en algunos contextos
específicos; por ejemplo, en las carátulas de los relojes, para denominar los tomos o capítulos de los libros, para
escribir algunas fechas, etcétera.

Entre las culturas de América, es interesante señalar que los mayas contaron con un sistema numeral vigesimal
muy avanzado y utilizaron el cero aun antes que en Europa o Asia. La figura 7 nos muestra esta numeración.

Figura 8. En el sistema decimal se utiliza un criterio de posiciones con el cual cada dígito tiene un peso
diferente, de acuerdo con una base diez. Esta figura nos muestra la forma en que se construye el número 1
968.

Podríamos continuar esta lista señalando más culturas y explicando sus sistemas de numeración, sin embargo, tan
sólo queremos hacer hincapié en lo siguiente: la forma en que contamos actualmente, eso es, utilizando el sistema
decimal (arábico), no es ni la única posible ni la única correcta, sino sólo una forma que hemos heredado de
nuestros antepasados y que ha sobrevivido por ser simple y adecuada para nosotros debido a que tenemos diez
dedos en las manos. Los principios de esta numeración se ilustran en la figura 8.

USO DE ARTEFACTOS PARA SUMAR

El siguiente paso en el desarrollo de la computación se dio con la invención de aparatos útiles para efectuar
operaciones matemáticas. El ábaco es la primera calculadora o computadora de que tenemos noticias. Aunque se
inventó hace aproximadamente 4 000 años, aún tiene un uso muy amplio en algunos países de Asia, debido a que
se trata de una calculadora muy rápida y práctica, útil para efectuar operaciones de adición, substracción,
multiplicación y división. Este artefacto se muestra en la figura 9.

Muchos años tuvieron que pasar antes de que se lograran progresos en el desarrollo de nuevas calculadoras. En
1617, el escocés John Napier inventa los llamados huesos de Napier o tablas de multiplicar (de donde proviene el
nombre utilizado hasta nuestros días). Éstos consisten de una regla fija y otra móvil que se desliza sobre la
primera, de manera que deja ver el producto de dos números cualesquiera (véase la figura 10). Posteriormente las
tablas de Napier evolucionaron hasta llegar a la regla de cálculo, la cual funciona con el mismo principio pero es
útil para llevar a cabo operaciones de multiplicación, división y raíz cuadrada, entre otras. Debido a su
portabilidad, este artefacto tuvo una gran acogida en el mundo occidental y fue de uso frecuente hasta hace pocos
años, cuando se generalizó el uso de las calculadoras de bolsillo.

A mediados del siglo XVII se inicia una nueva era de calculadoras mecánicas cuando, en 1642, Blaise Pascal,
quien sólo contaba con 19 años de edad, introduce una máquina sumadora mecánica con el objeto de facilitar los
cálculos de su padre (Figura 11). Esta máquina consistía en un sistema con ruedas pequeñas acopladas entre sí y
que, de derecha a izquierda correspondían a unidades, decenas, centenas, etcétera. Estas ruedas se encontraban
divididas en 10 partes iguales; de manera que para efectuar una suma se hacían girar manualmente un número de
pasos acorde con el número que se deseaba introducir. La rotación completa de un círculo en la dirección positiva,
causaba automáticamente que el círculo a su izquierda avanzara una posición. Para efectuar sustracciones el
proceso era el inverso.

Figura 9. En el ábaco, cada barra horizontal contiene siete móviles separadas por una barra vertical.
Aquéllas en el lado izquierdo valen uno, y las del lado derecho valen cinco; el número cero está
representado cuando todas las cuentas están alejadas de la barra central. Las sumas se efectúan al mover,
hacia la barra central, las cuentas correspondientes a la cantidad que se desea sumar.

Algunos años más tarde, Leibniz inventa una máquina similar a la de Pascal pero más compleja, la cual podía
sumar, restar, multiplicar y dividir. Es la computadora, ilustrada en la figura 12, se empleó extensivamente hasta
el advenimiento de las computadoras electrónicas.

LA ERA DE LA PROGRAMACIÓN SE INICIA

Los siguientes avances significativos se logran hasta el siglo XIX, cuando Joseph Jacquard, quien era obrero en
una fábrica de sedas de Lyon, introduce la idea de programar máquinas mediante el uso de tarjetas perforadas. La
invención de Jacquard consistió en un telar que utilizaba tarjetas perforadas para controlar de manera automática
el diseño y los colores de los tejidos. Esta idea es adaptada a la computación, en la llamada "máquina analítica"
(Figura 13), por un matemático inglés llamado Charles Babbage, quien vivió obsesionado con el diseño y
construcción de máquinas calculadoras. Más adelante hablaremos de esta máquina.

Figura 10. Esta figura muestra una variante de las "tablas de multiplicar", en la cual las tablas se ven
substituidas por elementos que giran. Este aparato nunca llegó a funcionar satisfactoriamente.

Figura 11. Máquina de pascal.

Figura 12. Diagrama que muestra un corte de la máquina de calcular de Leibnitz.


Babbage hizo su primer esbozo de una máquina calculadora a la que llamó máquina diferencial", en 1822. Sin
embargo, constantemente tenía nuevas ideas que mejoraban el diseño original, por lo cual iba echando por tierra
todo el trabajo realizado anteriormente. Es probable que esta situación hubiese continuado por muchos años, de
no ser por una discusión que tuvo con su mecánico, después de la cual este último desmontó el taller y partió con
todos los diseños. En esta coyuntura, Babbage tiene que empezar un nuevo diseño, y así concibe una calculadora
totalmente nueva: su "máquina analítica", la cual habría de ser más fácil de construir y tendría mayor poder de
cálculo que la anterior. Así, diseña una computadora mecánica digital a la cual habrían de suministrársele datos e
instrucciones a seguir a través de tarjetas perforadas de acuerdo con un código. La computadora a su vez
proporcionaría las soluciones también en forma de perforaciones en tarjeta. Como consecuencia, esta máquina
"programable" ofrecía dos nuevas ventajas: i) por primera vez, una máquina sería capaz de utilizar durante un
cálculo los resultados de otro anterior sin necesidad de reconfigurar la máquina, lo cual permitiría llevar a cabo
cálculos iterativos, y ii) habría la posibilidad de que la computadora siguiese instrucciones alternas, dependiendo
de los resultados de una etapa anterior del cálculo. Babbage describió esta máquina como "la máquina que se
muerde la cola".

Figura 13. El dispositivo que se muestra en esta figura, forma parte de la máquina analítica de Babbage y
nos da idea de su complicación; está diseñado para efectuar la operación de multiplicar ( o dividir) un
número por una potencia de diez.

Los planes de Babbage eran crear una máquina de no menos de 20 cifras de capacidad y precisión de seis cifras.
Probablemente, las debilidades más grandes de este diseño fueron el cuidado y precisión requeridos para su
construcción. De manera que, aunque su diseñador dedicó el resto de su vida, y gran parte de su fortuna, a tratar
de terminar esta máquina, sólo pudo hacer una versión pequeña del modelo. De haberse construido, la máquina
hubiese consistido de cerca de dos toneladas de maquinaria de relojería de latón y acero.

Para dar una idea al lector de la importancia de "la máquina que se muerde la cola", diremos que hasta ese
momento, cada vez que se quería efectuar una serie de operaciones matemáticas, había que introducir, una a una y
manualmente, todas las instrucciones y datos de la operación conforme se iban necesitando. A cada paso la
máquina iba dando el resultado parcial d la operación específica efectuada, de manera que el "usuario" de la
máquina podía decidir cuál sería la siguiente operación.

LA ERA MODERNA DE LA COMPUTACIÓN

Con el desarrollo posterior de la electricidad aparecieron las llamadas computadoras electromecánicas, las cuales
utilizaban solenoides e interruptores mecánicos operados eléctricamente. La primera de ellas se creó en 1944 y
fue la llamada Mark I. Las instrucciones "se cargaban" por medio de cinta de papel con perforaciones, y los datos
se proporcionaban en tarjetas de cartón, también perforadas. Esta computadora tenía aproximadamente 15.5 m. de
largo por 2.5 de altura, y multiplicaba dos números en aproximadamente 3 segundos. Tres años más tarde, la
computadora Mark II. era capaz de llevar a cabo la misma operación en menos de un cuarto de segundo; esto es,
12 veces más rápido.

Mientras estas computadoras analógicas2 [Notaeran construidas, se gestaba un nuevo concepto de computadoras.
2]
Éstas eran las llamadas computadoras digitales, acerca de cuya paternidad existen gran cantidad de disputas. Sin
embargo, como narraremos a continuación, en una batalla legal en las cortes de los Estados Unidos de América se
atribuyó el derecho a llamarse inventor de la computadora digital" a John V. Atanasoff, un físico estadounidense,
hijo de un ingeniero eléctrico y una maestra de álgebra.

Desde muy pequeño, Atanasoff encontró gran placer en el estudio del álgebra. Cuando tenía 10 años de edad, su
madre le dio un libro en el cual se explicaba cómo calcular números en otras bases diferentes a la base diez. Años
más tarde, Atanasoff comentaría: "Cuando inicié mi trabajo en computadoras, una de las cosas que tenía en mente
era que tal vez las computadoras trabajarían mejor si utilizaran para sus cálculos alguna otra base que no fuese
diez."

Más adelante, Atanasoff estudió ingeniería eléctrica e hizo estudios de posgrado en matemática y física, para
posteriormente llegar a ser profesor asociado de física y matemáticas en la Universidad de Iowa. Una de las
motivaciones de Atanasoff para trabajar en el diseño de computadoras fue su gran frustración ante la incapacidad
de sus alumnos para encontrar las soluciones de sistemas grandes de ecuaciones diferenciales simultáneas; ya que
consideraba que el tiempo invertido en esta tarea les impedía dedicarse a otros problemas más interesantes. Dicho
sea de paso, la solución de este problema matemático era imposible de obtener utilizando las calculadoras
analógicas existentes en ese momento. Es en esta época cuando Atanasoff tuvo varias ideas muy brillantes que
revolucionaron las máquinas calculadoras y que de hecho hicieron posible el inicio de la era moderna de la
computación. Estas ideas fueron las siguientes:

1) El remplazo de los relevadores electromecánicos por bulbos. Los relevadores electromecánicos utilizados
hasta ese momento eran una especie de interruptores que podían abrirse o cerrarse cientos de veces por minuto.
Dada la naturaleza de este proceso, no podía llevarse a cabo con más rapidez. Por otro lado, los bulbos pueden
prenderse y apagarse (conducen o dejan de conducir electrones), cientos de veces por segundo. Esto es, operan
con una rapidez mucho mayor que los relevadores electromecánicos.

2) La substitución del sistema decimal por el sistema binario. Tanto los circuitos electrónicos como los
relevadores electromecánicos tienen dos estados posibles; esto es, pueden estar prendidos o apagados, lo cual
puede estar representado por ceros y unos, respectivamente. Esto hace que sea más natural para una computadora
efectuar cálculos utilizando para ello un sistema numérico binario.

3) La utilización de condensadores para construir dispositivos encargados de guardar información


("memorias"). Estos nuevos dispositivos estarían formados por un gran número de condensadores (también
llamados capacitores), los cuales, al estar cargados o descargados, guardarían información, de acuerdo con un
código binario. Sin embargo dado que es imposible lograr un aislamiento eléctrico perfecto del dispositivo, era de
esperarse que la carga se "escaparía" en cuestión de milisegundos. Atanasoff ideó entonces un procedimiento
llamado refrescamiento de memoria, el cual consiste en leer la información registrada en cada área de la memoria
e inmediatamente reescribirla en el mismo lugar. Esta operación debería llevarse a cabo periódica y
automáticamente, a intervalos de tiempo regulares.

Durante los años subsecuentes, Atanasoff trabajó junto con un estudiante en la construcción de un prototipo de
computadora que utilizara estos principios, y que fue de hecho la primera en hacer aritmética electrónicamente.
Ésta fue la llamada ABC (Atanasoff-Berry Computer), la cual utilizaba 300 bulbos para los circuitos lógicos, y
capacitores para la regeneración automática de la memoria. Por otro lado, mientras esto sucedía, Atanasoff firmó
un convenio con la universidad en la que prestaba sus servicios. En dicho documento, el inventor convenía en
ceder a la universidad la mitad de las regalías obtenidas por su computadora. A su vez, la universidad se
comprometía a tramitar la patente. Desafortunadamente, la universidad nunca cumplió con su parte,
aparentemente debido a negligencia y falta de confianza en este proyecto por parte de las autoridades.

Fue en est época, mientras trabajaba en el perfeccionamiento de la ABC, que Atanasoff tuvo su primer encuentro
con un experto en computadoras llamado John Mauchly. Con esta persona tuvo largas discusiones acerca del tema
que a ambos interesaba, le mostró los principios de operación de su computadora y le pidió que guardara el
secreto de su existencia hasta que ésta estuviese patentada. Fue entonces cuando estalló la segunda Guerra
Mundial; Atanasoff fue llamado entonces a colaborar con la Fuerza Naval de su país en un proyecto relacionado
con la supervisión de pruebas acústicas de minas. Debido a estas circunstancias, se tuvo que abandonar el
proyecto de la computadora ABC, por lo cual ésta nunca superó la etapa de pruebas.

La primera máquina que llegó a estar en plena operación utilizando los principios ideados por Atanasoff fue la
llamada ENIAC y fue ¡precisamente Mauchly! quien la construyó junto con otro colaborador llamado Presper
Eckert. Esta computadora tenía 19 000 bulbos, 1 500 relevadores, cientos de miles de capacitores, resistores e
inductores, y aproximadamente 500 000 conexiones soldadas. Por otro lado, consumía casi 200 kilovatios de
potencia y llevaba a cabo una multiplicación en 2.8 milisegundos (1 000 milisegundos = 1 segundo), esto es, ¡mil
veces más rápido que su predecesora, la computadora Mark II!

Aunque Mauchly sostenía que esta computadora era totalmente diferente de la ABC, años más tarde la patente de
la ENIAC fue invalidada. Después de una batalla de demandas y contrademandas entre compañías constructoras
de computadoras, por no pagar los derechos de patente, Atanasoff, apoyado por la IBM, inicio un juicio contra la
patente de la ENIAC. En este juicio, fue reconstruida la ABC y se demostraron los principios que ésta utilizaba en
su funcionamiento. El 19 de octubre de 1973, 28 años después de construida la ENIAC, el juez falló en favor de
Atanasoff. Sin embargo, esta noticia no tuvo el impacto que era de esperar, debido a que ese mismo día salió a la
luz el escándalo de Watergate.

En años subsecuentes ha habido un desarrollo acelerado de las computadoras electrónicas digitales: el invento del
transistor y el avance posterior en la electrónica han logrado una diferencia dramática en eficiencia y costos. Así
se han logrado: un aumento en la rapidez con que se efectúan las operaciones matemáticas, un aumento en la
cantidad de información que es posible manejar y almacenar, la disminución del volumen de las máquinas, y la
disminución de su costo de operación y mantenimiento. Para dar una idea de la magnitud de estos avances,
diremos que una pequeña calculadora programable de bolsillo tiene, hoy día, el mismo o un mayor poder para
hacer cálculos que las voluminosas computadoras de principios de los años cincuenta, además de estar al alcance
de casi cualquier bolsillo y tener un costo de mantenimiento prácticamente nulo.

La historia reciente de la computación se ha dividido en las llamadas generaciones de computadoras, cada una de
las cuales está caracterizada por un desarrollo o una innovación importante. A continuación haremos una breve
reseña de estas etapas.

Primera generación:

bulbos

Esta es la era de las computadoras construidas con bulbos; se inicia en 1951 con la primera computadora
industrial, la llamada UNIVAC 1. Las computadoras de esta generación eran muy grandes y de funcionamiento
costoso. Los bulbos eran de gran tamaño y consumían mucha energía eléctrica, por lo que generaban mucho calor
y se fundían con frecuencia. Por lo anterior estas computadoras debían ser instaladas en cuartos con aire
acondicionado, con el propósito de mantener el sistema lo más frío posible para disminuir la ocurrencia de fallas.

Segunda generación:

el transistor

La segunda generación de computadoras se inició, a finales de los años cincuenta, con el remplazo de los bulbos
por transistores. Los transistores son dispositivos electrónicos útiles para generar, amplificar y controlar señales
eléctricas. Si comparamos los bulbos con los transistores, podemos ver que estos últimos son mucho más
pequeños, más confiables, generan menos calor y requieren menos energía para su operación. Todo esto
contribuyó a crear computadoras más pequeñas, baratas y confiables. En esta época comenzó el auge de las
computadoras desde el punto de vista comercial, se crearon muchas compañías dedicadas a su diseño y
construcción.

Tercera generación:
las familias de computadoras

y los circuitos integrados

Las máquinas de la tercera generación se distinguen por dos aspectos importantes: por un lado, su componente
fundamental lo constituyen los circuitos integrados, y por otro, se forman las familias de computadoras
caracterizadas por tener compatibilidad hacia arriba. A continuación hablaremos de estos dos puntos.

Los circuitos integrados están formados por un elemento base de silicio (chip), con un gran número de transistores
y otras componentes integradas, interconectadas, que ocupan un espacio aproximado de 2.5 cm de largo por 1.25
cm de ancho. El uso de estos circuitos hizo a las computadoras más económicas, confiables, compactas y con un
costo de operación mucho más bajo. Todo esto, con respecto a las computadoras de generaciones anteriores.

Las familias de computadoras fueron creadas en un intento por lograr compatibilidad entre máquinas de modelos
diferentes, construidas por un mismo fabricante. Las computadoras de la segunda generación tenían el problema
de que los programas escritos para máquinas pequeñas no podían ser utilizados por máquinas más grandes (ni
viceversa), aunque ambas fuesen producidas por la misma firma comercial. Al construirse máquinas compatibles
se dio un paso muy importante desde el punto de vista comercial y práctico, ya que permitió a pequeñas empresas
en desarrollo el ir adquiriendo máquinas cada vez más poderosas según el aumento de sus necesidades. De esta
manera, los programas escritos para las máquinas pequeñas podrían ejecutarse en máquinas más grandes de la
misma familia, haciendo, en el peor de los casos, tan sólo pequeñas modificaciones.

Cuarta generación:

el microprocesador

La cuarta generación de computadoras se caracteriza por el uso del microprocesador. Éste consiste en un solo
circuito integrado, el cual contiene en su totalidad a la unidad central de procesamiento (CPU), o cerebro de la
computadora. En esta generación, el mayor logro consistió en hacer computadoras pequeñas, con mayor poder y
menor volumen y costo.

Quinta generación:

procesamiento en paralelo,

redes neuronales y

computadoras ópticas

Actualmente se trabaja en la creación de la quinta generación de computadoras. Esta nueva generación


seguramente incluirá dos cambios importantes. El primero consiste en un cambio fundamental en la manera de
efectuar el procesamiento de la información, y por tanto, implica el diseño de arquitecturas conceptualmente
diferentes.3 [Nota 3] El segundo cambio que esperamos, consiste en el desarrollo y adaptación de nuevas
tecnologías.

Las computadoras convencionales procesan la información en serie, efectúan una instrucción después de otra.
Como consecuencia, la mayor parte de la computadora y de sus periféricos están ociosos gran parte del tiempo
mientras esperan instrucciones del procesador central. Con el objeto de proceso, han sido diseñadas grandes
máquinas, llamadas supercomputadoras, cuyo propósito es llevar a cabo el procesamiento de la información en
paralelo; esto es, constan de varios elementos procesadores, cada uno de los cuales efectúa tareas de manera
independiente y simultánea. De esta forma, el trabajo se divide en subtrabajos independientes, los cuales son
asignados a diferentes elementos procesadores. Un ejemplo de estas máquinas es la computadora modelo CRAY
1, la cual consta de 64 elementos procesadores.

Estas supercomputadoras paralelas tienen un costo de producción muy alto, que se refleja en su costo de uso
comercial;4 [Nota 4] de manera que existen muy pocas en el mundo. Debido a esto, en los Estados Unidos de
América se han organizado centros de supercomputación en los cuales se da servicio a un gran número de
usuarios, a través de la línea telefónica.
Además de su elevado costo, este tipo de computación presenta algunas inconveniencias: es difícil programar una
computación paralela, ya que el programador debe fraccionar el problema en pequeñas tareas independientes, y
optimizar la manera de asignarlas. Además, la mayor parte de los problemas no son paralelos por naturaleza; es
decir, no siempre es posible dividir un trabajo en subtrabajos independientes, o hacerlo de manera eficiente, pues
algunos procesadores requieren de los resultados obtenidos por otros para poder continuar sus cálculos. Como
consecuencia, a menudo nos encontramos con que la más veloz supercomputadora opera casi a la misma
velocidad que un procesador en serie. Este problema es conocido como el cuello de botella de Neumann.

En los últimos años, ha aparecido un nuevo concepto en la computación, que probablemente proporcionará una
solución a algunos de los problemas recién indicados. Este nuevo concepto, conocido con el nombre de redes
neuronales, es radicalmente diferente al anterior: se utilizan elementos electrónicos que emulan neuronas
simplificadas, los cuales se conectan entre sí formando redes similares a las que se encuentran en el cerebro,
aunque a una escala mucho menor. Recientemente, los investigadores dedicados al desarrollo de las redes
neuronales han logrado resultados sorprendentes, y todo parece indicar que, en el futuro, estos dispositivos podrán
domar a las computadoras de capacidades similares a las humanas para la solución de problemas complejos. Más
adelante explicaremos las bases de las redes neuronales y discutiremos algunas de las perspectivas inmediatas en
cuanto a su aplicación a la computación.

El segundo cambio que creemos caracterizará a la quinta generación de computación consiste en el desarrollo y
adaptación de nuevas tecnologías. No es posible continuar reduciendo indefinidamente el tamaño de los circuitos
integrados, ni lograr que disipen menos energía, como tampoco es posible conseguir que los electrones se
transporten con mayor rapidez. Si se desea hacer una mejora substancial, es necesario recurrir al desarrollo y
adaptación de nuevas tecnologías que ofrezcan ventajas sobre las actuales. En este terreno, se avecina la era de las
computadoras ópticas, las cuales utilizarán fuentes de luz coherente (rayos láser), lentes, y fibras ópticas para
transportar a los fotones a lo largo de trayectorias no rectas. Por consiguiente, funcionarán con base en el
transporte de fotones y no de electrones, como sucede en la actualidad. Por último, tal vez pronto veremos
reflejado en las nuevas computadoras el hallazgo reciente de materiales que son superconductores a temperaturas
relativamente altas (hasta ahora del orden de -150°C). Lo cual significa que si estos materiales se mantienen por
debajo de una cierta temperatura, sus electrones son capaces de viajar sin disipar energía y por lo tanto, sin
[Nota
producir calor.5
5]
III. PRINCIPIOS DE OPERACIÓN DE LAS COMPUTADORAS ACTUALES

COMO ya se discutió anteriormente, en los últimos años la computación ha tenido un desarrollo acelerado y ha
contribuido en forma notable a la aparición de nuevas tecnologías y a la organización de la sociedad. Este
desarrollo se ha llevado a cabo en un periodo muy corto de tiempo, de manera que la mayor parte de las personas
adultas hoy en día, crecieron teniendo poco o nulo contacto con las computadoras, percatándose tiempo después
de la gran importancia que éstas tienen, ya que están presentes en casi todos los aspectos de nuestras vidas. Esto
ha ocasionado que todo el mundo esté familiarizado con las computadoras, pero que por otro lado, sean pocas las
personas que tienen conocimiento de lo que realmente son.

Existe todo un mito acerca de las capacidades de las computadoras, tanto que a menudo se mencionan cosas tan
impresionantes como que éstas: "pueden calcular la explosión de una bomba de hidrógeno, analizar las ondas de
choque y determinar la intensidad de la radiación resultante; todo ello en relación con las condiciones
atmosféricas existentes durante la explosión", o también que "son capaces de predecir los resultados de una
elección antes de que se hayan juntado todas las boletas de los votantes", o bien que "pueden determinar las
probabilidades de encontrar petróleo en ciertos tipos de subsuelo",6 [Nota 6] etc. Este tipo de aseveraciones
reflejan la creencia, bastante generalizada, de que las computadoras son capaces de llevar a cabo cualquier tarea
con tan solo "pedírselo".

La validez de esta afirmación depende del significado que se confiera a la palabra "pedir", ya que las
computadoras consisten en un complicado conjunto de circuitos electrónicos, el cual es capaz únicamente de
llevar a cabo operaciones aritméticas y lógicas, de la manera que más adelante explicaremos. Corresponde al
programador dar a la computadora las instrucciones precisas para llevar a cabo un cálculo o seguir un
procedimiento. Debido a esto último, tenemos que la solución a un problema dependerá de los modelos o criterios
utilizados por el programador para plantearlo. Por lo que los resultados sólo serán correctos en la medida en que
el modelo utilizado lo sea.

A continuación diremos, en términos generales, cuáles son los principios que utilizan las computadoras actuales
para su funcionamiento y el tipo de operaciones que desempeñan. Esto, con el objeto de posteriormente hablar un
poco acerca de los nuevos terrenos que la computación ha empezado a explorar.

CIRCUITERÍA Y PROGRAMAS

La ciencia de la computación tiene que ver con la información: cómo se representa, se procesa, se guarda y se
transmite. Para ello se requiere de dos tipos de elementos que se conocen como circuitería y programas.7
[Nota 7] La circuitería está constituida por los elementos físicos de la computadora y de su equipo periférico,
como son las impresoras, graficadoras, pantallas (monitores), cintas magnéticas o discos duros para almacenar
información, etcétera. La circuitería del procesador central es también conocida con el nombre de arquitectura.
Por otro lado, los programas están constituidos por las series de instrucciones que hacen posible el
funcionamiento de la computadora.

Estos dos aspectos de las computadoras están estrechamente ligados, y se reflejan el uno en el otro, ya que la
estructura de la computadora está diseñada de manera que ésta es capaz de ejecutar cierto tipo de tareas. Esto lo
explicaremos a continuación.

La mayoría de las computadoras procesan y almacenan todos los datos y las instrucciones para procesarlos en
forma de números binarios. Esto es así debido a que este sistema numeral es el más adecuado para ellas. Lo
anterior puede ser fácilmente comprendido si pensamos que para utilizar los números en su forma decimal, las
computadoras necesitarían 10 niveles diferentes de voltaje para poder expresar 10 dígitos. Por otro lado, los
dígitos binarios 0 y 1 pueden ser representados usando circuitos electrónicos muy simples, que tan solo necesitan
ser prendidos o apagados. Como consecuencia, tenemos que la única información que se puede manejar de esta
manera se reduce a un "sí" o un "no". Esta cantidad de información es llamada bit, y es la unidad fundamental de
todo dato. Las figuras 14 y 15 nos permiten apreciar la forma en que se representan los números en las
computadoras digitales.
Pero las computadoras no sólo "representan" números, sino que los procesan de acuerdo con las instrucciones
recibidas; además transfieren información de una parte a otra de ellas mismas, y de una máquina a otra (véase la
figura 16). Todas las instrucciones que estas máquinas deben ejecutar son resumidas en programas, los cuáles son,
en esencia, mensajes escritos de acuerdo con algún código binario. Esto es, el lenguaje de máquina también se
expresa en términos de bits.

Figura 14. Este diagrama nos ilustra el procedimiento de divisiones sucesivas, utilizado para cambiar un
número de representación decimal a su representación binaria. El número 1 983 está representado por
11110111111, lo cual se obtiene al leer los residuos de las divisiones empezando por el ultimo y teminando
con el primero ( o sea de abajo hacia arriba).

Aunque el lenguaje de máquina es el más adecuado para las computadoras, no lo es así para el hombre. Si fuese
necesario que nosotros utilizáramos dicho lenguaje para comunicarnos con las máquinas, tendríamos más
problemas de los que intentamos resolver. Para dar solución a este problema han sido creados los lenguajes de
alto nivel, los cuales consisten en una serie de instrucciones que pueden ser entendidas, y aprendidas, tanto por el
hombre como por las máquinas. Dentro de la computadora, estos programas puente, comprensibles para el
hombre, son traducidos al lenguaje de máquina por programas llamados compiladores.8 [Nota 8]
Figura 15. Esta figura muestra la representación binaria de los 10 dígitos del sistema decimal. Cualquiera
de estos números puede ser representado mediante las diferentes combinaciones, abierto o cerrado, de
cuatro interruptores.

Figura 16. Transmisión del número 4 utilizando cuatro cables, de acuerdo con la tabla de valores mostrada en la figura anterior.

Se han creado muchos lenguajes de alto nivel. Algunos lenguajes son más fáciles de utilizar para el hombre que
otros, o más simples, o más lógicos, o mejor estructurados, o más compactos, o con características más apropiadas
para llevar a cabo cierto tipo de trabajo, etcétera, pero todos sirven para el mismo fin: facilitar la comunicación
hombre-máquina. Entre los lenguajes más comunes tenemos el FORTRAN, el BASIC, el PASCAL, el "C",
etcétera.

Ahora bien, ¿de qué manera se lleva a cabo el procesamiento de la información?, ¿cómo puede un conjunto de
interruptores llevar a cabo operaciones matemáticas y procesar información tan compleja para así contribuir a
predecir, por ejemplo, los resultados de una explosión? La respuesta a estas preguntas está en la adaptación a las
computadoras de un álgebra especial, llamada álgebra booleana, la cual fue creada a finales del siglo pasado con
el objeto de hacer deducciones lógicas utilizando para ello el lenguaje de las matemáticas. A continuación
daremos una breve explicación de los principios básicos del álgebra booleana y de su aplicación en las
computadoras.
ÁLGEBRA BOOLEANA

Y CIRCUITOS LÓGICOS

En 1847, un matemático inglés llamado Georg Boole publicó un ensayo acerca del análisis matemático de la
lógica. En este documento estableció un conjunto de axiomas a partir de los cuales pueden deducirse afirmaciones
lógicas más complicadas. Lo interesante del método por él introducido es la herramienta utilizada para llevar a
cabo las deducciones: el álgebra. Esto es, las proposiciones son escritas en términos algebraicos mediante el uso
de símbolos que representan ideas, y se llega a las deducciones por medio de operaciones algebraicas.

En otras palabras, esta álgebra nos permite inferir, a partir de un conjunto de premisas, cuáles son las
conclusiones a las que se puede llegar de una manera lógica. Y dado que una conclusión puede ser verdadera o
falsa (2 estados), esta álgebra puede representarse mediante el uso de interruptores.

El álgebra booleana está basada en los siguientes principios:i) cualquier proposición única, simple o compleja, es
llamada variable y está representada por una letra del alfabeto; ii) existen ciertos símbolos que muestran las
relaciones entre las proposiciones; y iii) estas relaciones pueden expresarse matemáticamente. A continuación
explicaremos estos principios con algunos ejemplos:

Las proposiciones A, B, C y D pueden significar respectivamente: "mayor de 60 años más de veinticinco años de
servicio", "jubilación" y "jubilación con salario completo". Por otro lado, las relaciones básicas entre las
proposiciones son las siguientes: "OR" (O no exclusiva), "AND" (Y) y "NO" (NO).9 Estas relaciones se ilustran a
continuación.

A y B son dos afirmaciones independientes, entonces tenemos que la afirmación conjunta

"A OR B" (se denota A + B).


será verdadera si al menos una de las afirmaciones es verdadera. Esto es, la afirmación A + B = C será verdadera
si se trata de una persona ya sea mayor de 60 años o con 25 años de servicio. Por otro lado, si se trata de una
persona que además de ser menor de 60 años, tiene menos de 25 años trabajando, entonces la afirmación será
falsa (se trata de "OR" no exclusiva).

Ahora consideremos la afirmación conjunta

"A AND B" (se denota A · B)


Para que la afirmación A . B = D sea verdadera, será necesario que la persona cumpla con ambos requisitos para
obtener la jubilación con salario íntegro; esto es, deberá ser mayor de 60 y con más de 25 años de trabajo. Si
alguna de las afirmaciones, o ambas, son falsas, entonces la proposición "A AND B" será falsa.

Finalmente, la afirmación

"NO A" (se denota - )


será cierta únicamente si la persona en cuestión es menor de 60 años.

Pueden hacerse combinaciones más elaboradas de premisas, a partir de las relaciones básicas; así como también
es posible escribir una misma relación de maneras diferentes. Por ejemplo:

B A= A + B
significa: tener a "todos los que tienen más de 60 años de edad o que tienen más de 25 años de antigüedad" es lo
mismo que tener a todos los que son mayores de 60 años o que además de ser menores de 60 años tienen más de
25 años de antigüedad. Nótese que aun con relaciones muy simples como ésta se vuelve difícil traducirlas al
lenguaje común, y más aún, efectuar deducciones. Esto nos muestra que una de las grandes ventajas de reducir
operaciones lógicas a términos de operaciones matemáticas es que, a diferencia del lenguaje común, las
matemáticas no tienen ambigüedades. La figura 17 nos muestra un resumen de las leyes del álgebra booleana, las
cuales nos son útiles para simplificar expresiones.

Para utilizar el álgebra booleana en la computadora, se le asigna el valor "1" a la palabra VERDADERO, y el valor
0 a FALSO, o "prendido" y "apagado", respectivamente, y se construyen circuitos electrónicos dentro de la
computadora, que se comportan al igual que estas funciones lógicas. Éstos son los llamados circuitos lógicos9
[Nota(véase la figura 18). De esta manera, cuando la computadora ejecuta un programa, envía la información a los
9]
circuitos compatibles con el tipo de operación que se desea efectuar. Por otro lado, las figuras 19 y 20 muestran
los símbolos convencionales y las tablas de verdad para algunos circuitos simples.

Por supuesto, no es necesario construir un circuito especial para cada problema que deseamos resolver, ya que
cualquier problema expresable en términos matemáticos, por complicado que sea, puede realizarse por partes en
las diferentes unidades encargadas de efectuar operaciones. Dentro del cerebro central de una computadora existe
un gran número de circuitos lógicos, algunos de ellos de gran complejidad; cada uno de estos circuitos ha sido
diseñado para llevar a cabo cierta operación lógica específica, dependiendo de su arquitectura (Figura 21). Es
papel del procesador central el controlar cómo y cuándo deben efectuarse las operaciones, y transferir los datos e
instrucciones a las unidades encargadas de llevarlas a cabo.

Absorción :
Distribución :
A+(A+B)=A
A·(B+C)=(A·B)+(A·C)
A·(A+B)=A
A+(B·C)=(A+B)·(A+C)

Anulamiento :
Doble negación :
A+1=1
=A
A·0=0

Dualidad :
Asociación :
Principio útil ( en realidad no se trata de
(A+B)+C=A+(B una regla) :
+C)
Y = A · B equivale a = +
(A·B)·C=A·(B·
C)
Y = A + B equivale a = ·
Conmutación :
Identidad :
A+B=B+A
A+0=A
A·B=B·A
A·1=A

Complementos : Tautología :

A+ =1 A·A=A

A+A=A
A· =0

de De Morgan :

= ·

= +

Figura 17. Resumen de las leyes del álgebra booleana.


l

Figura 18. Circuitos que representan funciones lógicas, a) función AND ("Y"): a y B deben estar cerrados
para que la corriente circule a través del circuito; esto es, A · B = VERDADERO únicamente si
A=VERDADERO y B= VERDADERO; b) función OR ("O") : el circuito quedara cerrado a condición de
que la corriente circule, ya sea por A, por B o por ambas, esto es , si A= VERDADERO o B=
VERDADERO. Las tablas de verdad para estos dos circuitos se incluyen en la fig. 19.
Figura 19. En esta figura se muestran los símbolos convencionales y tablas de verdad para los circuitos
elementales NOT, AND y OR. Las tablas de verdad de un circuito están formadas por las partes de éste
ante todas las combinaciones de" FALSO "y "VERDADERO" de las funciones de entrada.
Figura 20. Símbolos convencionales y tablas de verdad para los circuitos compuestos NAND y NOR.

Figura 21. El primer paso para la construcción de un circuito es su diseño.

PRINCIPALES COMPONENTES DE UNA COMPUTADORA


Desde el punto de vista operativo, una computadora electrónica digital puede ser representada esquemáticamente
por tres subsistemas. Éstos son: la unidad de entrada y salida de datos, la unidad central de procesamiento y
finalmente, lo que nos ocupa en este libro, la memoria.

La unidad de entrada y salida de datos sirve como enlace entre la computadora y el exterior. Como su nombre lo
indica, tiene dos funciones: la primera consiste en permitir la entrada de los programas, datos e instrucciones a la
computadora, y la segunda es permitir la salida de la información, una vez que ésta ha sido procesada, ya sea
hacia el usuario de la máquina, hacia otras computadoras, o hacia algún otro dispositivo.

La unidad central de procesamiento es el cerebro de la computadora y está encargada de controlar su


funcionamiento integral. Esto es, lee los programas de la memoria, transfiere información de una parte a otra de la
máquina, lleva a cabo cálculos necesarios y las operaciones requeridas por el programa, y controla los
dispositivos asociados con la computadora.

Finalmente, las memorias son dispositivos utilizados para almacenar información en las computadoras, y se
denomina memorización al proceso por medio del cual se modifica el la memoria. Esta modificación se lleva a
cabo de acuerdo con un código, de manera que el nuevo estado del dispositivo representa la información que ha
sido almacenada.

MEMORIAS

Una de las funciones más importantes de las computadoras es el almacenamiento de grandes bancos de datos.
Pero las memorias no sirven únicamente para este propósito. Ellas son parte esencial de las computadoras, sin la
cual no sería posible el procesamiento de la información, ya que funcionan como gavetas en las cuales se guarda,
de una manera ordenada, todo el material mientras éste no es utilizado. Las memorias pueden clasificarse con
base en su función o conforme a sus características De acuerdo con la primera clasificación, se dividen en
memoria principal o de trabajo y memoria secundaria o auxiliar.

La memoria principal almacena temporalmente los programas que se están "ejecutando" o están en proceso de
[Nota
hacerlo, así como los datos, antes y después de ser procesados.10 Esta memoria puede ser complementada
con memoria secundaria o auxiliar, generalmente en forma de cinta10]o discos magnéticos, los cuales se encuentran
físicamente fuera de la computadora. Este tipo de memoria puede guardar de manera semipermanente, y por un
tiempo indefinido, toda la información que deseemos conservar. Por lo general se utiliza para guardar grandes
cantidades de información. La cantidad de información almacenable mediante el uso de memorias auxiliares es
prácticamente ilimitada, sin embargo ésta se recupera con mucha lentitud en comparación con la almacenada en la
memoria principal.

Por otro lado, de acuerdo con sus características, existen varios tipos de memorias, cada uno de los cuales ofrece
ventajas y desventajas frente a los otros, por lo cual resultan ser más apropiados para una u otra tarea.
Generalmente en estas memorias se puede leer y escribir información, aunque hay memorias en las cuales la
información almacenada no puede ser alterada, esto es, únicamente puede leerse. Entre las memorias mejor
conocidas, se encuentran las memorias de anillos magnéticos, las memorias semiconductoras y las memorias de
burbujas magnéticas.

Las memorias de anillos magnéticos están formadas por un arreglo de anillos de ferrita, cada uno de los cuales es
magnetizable en una de dos direcciones; de manera que puede representar un bit de información. La figura 22
muestra este tipo de memoria. Por otro lado, las memorias semiconductoras consisten en circuitería integrada a
diferentes escalas. Las memorias de muy grande escala de integración son muy compactas, ya que un chip de
silicón de medio centímetro de largo puede contener cientos de miles de circuitos microelectrónicos, cada uno de
los cuales guarda un dígito binario. Algunas memorias semiconductoras son volátiles, esto es, en cuanto se
interrumpe el suministro de energía eléctrica, se borra la información almacenada.

Todas estas memorias guardan la información de una manera conceptualmente igual, aunque técnicamente la
forma de construirlas sea diferente. La idea es la siguiente: las memorias están formadas por un gran número de
celdas individuales de almacenamiento, cada una de las cuales es capaz de retener un número binario. Estas
celdas se agrupan en localidades o palabras, constituidas por un cierto número de celdas básicas; este número
varía de una máquina a otra, siendo las palabras de ocho bits (conocidas como bytes) las más comúnmente
utilizadas. Por último a cada palabra se le asigna una identificación numérica, o dirección, la cual sirve para
señalar la posición de la palabra dentro del dispositivo, para así tener acceso a la información en ella contenida.
La capacidad o tamaño típico de las memorias de las computadoras personales de hoy en día es del orden de
kilobytes, K, por ejemplo 16k, 32 k, 64 k, etcétera (1 kilobyte es aproximadamente igual a 1 000 bytes)

FIGURA 22. Memoria de anillos magnéticos. En este tipo de memoria, cada anillo es del tamaño de una
cabeza de alfiler, y es capaz de guardar un bit de información. Actualmente, este tipo de memorias ha sido
substituido por las memorias semiconductoras.

En el próximo capítulo compararemos esta forma de almacenamiento de información con la que se piensa que
utilizan los seres vivos. Ambas formas de almacenamiento son esencialmente diferentes, lo cual se refleja en su
eficiencia en el desempeño de diversos tipos de tareas.
IV. SISTEMA DE ARCHIVO Y BÚSQUEDA DE INFORMACIÓN

Por qué viene el recuerdo

éste y no otro

si nada nunca

lo llama lo repite lo convoca

éste y no otro

éste

BENEDETTI

CON EL desarrollo de la sociedad aparece la necesidad de guardar cada día más cantidad de información. Así
tenemos que en la actualidad una de las funciones más importantes de las computadoras es ayudar a la
organización de la sociedad y al control de varios aspectos de ésta, mediante el almacenamiento y manejo de
grandes bancos de datos.

Hace ya algunos años, la aparición de las máquinas de oficina aceleró la rapidez del trabajo, pero trajo consigo
problemas de carácter diferente: se empezó a producir un número de documentos cada vez mayor, de manera que
se necesitaron más archiveros para almacenarlos. La gran cantidad de documentos hizo necesario idear un sistema
de archivo adecuado al tipo de empresa u organización en cuestión. Por ejemplo, en una oficina se podría
clasificar conforme a alguno de los siguientes criterios: por orden alfabético del nombre de las personas, por
fechas de inicio de operaciones, por número de registro, por orden cronológico de los sucesos, por temas, etcétera,
y la manera óptima de organizar la información depende de los objetivos de la o las personas interesadas en el
manejo de dicha información.

En un principio, esta información se guardaba "físicamente" en archiveros. Más adelante muchas empresas
utilizaron, por ejemplo, el sistema de microfichas, esto es, fotografías de tamaño reducido cuyos negativos sirven
como archivo permanente; de esta manera era posible almacenar un archivo de 2 600 tarjetas de 7.5 cm X 12.5 cm
en un rollo de 30 m de película de 16 milímetros.

Posteriormente, con la aparición de las computadoras modernas, gran parte de la información extraída de los
documentos se pudo grabar en cintas o discos magnéticos de acuerdo con un código binario. En estas
computadoras, la organización de la información se lleva a cabo de una manera muy similar a la requerida para
archivar en gavetas. El tiempo de acceso a la información, y el espacio físico que ocupan, son en la práctica las
principales diferencias entre ambos medios de almacenamiento. Es por esto que, teniendo claras estas diferencias,
en ocasiones hablaremos de manera indistinta de ambas formas de almacenar.

Las computadoras como nuevo medio de almacenamiento de datos, no sustituyen del todo a los sistemas de
microfichas y archivos en papel. Sin embargo, han permitido un importante ahorro de espacio y una disminución
considerable en el tiempo de acceso a la información, con respecto a los medios utilizados anteriormente. Pero
existe un problema: conforme aumenta la cantidad de información almacenada, se vuelve más difícil el acceso a
ésta. La situación se agrava cuando, debido a la naturaleza de la información requerida, no existen métodos
eficientes para encontrar los datos requeridos en un tiempo corto. Por ejemplo, algunas corporaciones han
invertido millones de dólares en bases de datos de proporciones inmensas. Sin embargo, aunque los ejecutivos
saben que esos enormes almacenes de información contienen todos los datos necesarios para tomar cierta
decisión, en términos prácticos es imposible tener acceso a éstos. A continuación explicaremos a que nos
referimos con esto.

ALMACENAMIENTO POR CONTENIDO

Y POR DIRECCIÓN
Para las computadoras es sumamente fácil buscar en listas ordenadas de datos, y ésta es por tanto una tarea que
llevan a cabo en fracciones de segundo. Sin embargo, hay veces que es necesario obtener información de otro
tipo. Por ejemplo, supongamos que un centro hospitalario cuenta con un archivo en el cual la información se
encuentra almacenada en orden alfabético del apellido de los pacientes. De esta manera, cuando un médico
requiere el expediente de un paciente, éste es encontrado de inmediato con sólo proporcionar su apellido. A este
tipo de almacenamiento se le denomina por dirección, ya que al conocer el apellido del paciente sabemos
exactamente la localización, o dirección, del expediente con respecto a los demás. Empero, si por ejemplo, en un
momento dado surgiera la necesidad de saber los datos de todas las personas que recibieron transfusiones de
sangre durante la semana 23 del año, debido a una sospecha de que hubo sangre contaminada con el virus del
SIDA, o si se quisiera obtener la lista de todas las personas a las cuales se les aplicó algún tratamiento o se les
administró cierto medicamento, o si se quisiera localizar grupos de alto riesgo para alguna enfermedad con base
en el sobrepeso, tipo de vivienda, antecedentes hereditarios, hábitos alimenticios, consumo de tabaco o alcohol,
etcétera, entonces sería necesario analizar, uno a uno, todos los expedientes para poder encontrar a los grupos de
personas de interés. Esto es, para localizar información con base en su contenido, la persona encargada del
archivo tendría que hacer una búsqueda secuencial. Si la información estuviese almacenada en una computadora,
esta búsqueda tomaría un tiempo bastante largo. Pero si estuviese en gavetas el trabajo sería prácticamente
irrealizable.

Al organizar un archivo o base de datos que será almacenado en una computadora, es posible dar varias vías de
acceso a la información.. Esto se hace definiendo ciertas palabras claves que funcionarán como etiquetas o
"banderas" que indiquen el contenido del archivo, lo cual equivaldría al uso de tarjeteros para los archiveros.
Estas palabras claves podrían ser sexo, ocupación, nivel socioeconómico, grupo de edad, apellido, clave del
Registro Federal de Causantes, o cualquiera otra. De esta manera, la computadora formula una lista ordenada,
para cada una de estas palabras claves, en la cual se incluye la dirección para tener acceso a la información
requerida. Entonces, se podría pedir a la computadora, por ejemplo, que hiciese un listado con base en las
palabras claves que incluyera a todas las mujeres entre los 30 y los 40 años de edad. Sin embargo, existen
complicaciones, ya que, por un lado, es imposible introducir como palabras claves toda la información que
pudiera llegar a ser importante o pertinente en un momento dado, y por otro, en el momento de organizar la base
de datos es necesario decidir cuáles serán estas palabras claves, pues la inclusión posterior de una palabra clave
implicaría la revisión, uno a uno, de todos los archivos, con el objeto de actualizar las banderas de salida de la
información almacenada.

Este procedimiento de organización es igual al utilizado en los diccionarios enciclopédicos, ya que se ha


encontrado que proporciona la forma más fácil de efectuar consultas. En estos libros, la información está
ordenada alfabéticamente por temas, y se incluye un índice alfabético de las palabras claves en una sección
especial. En dicho índice se incluyen los tomos y páginas donde aparece la información relacionada (esto es, su
dirección). De esta manera, si quisiéramos, por ejemplo, encontrar el nombre de los satélites del planeta Júpiter, o
el significado de alguna palabra, podríamos encontrarlos con suma rapidez. Sin embargo, si quisiéramos encontrar
un dato como la duración más corta de un reinado, o el nombre de la persona que escribió cierta novela, entonces
tendríamos que contar con otra información adicional que nos permitiera escoger ciertas palabras claves. Por
ejemplo, conocer los nombres de los países en que ha habido monarquías, o para el segundo ejemplo, conocer el
idioma o época en que la novela fue escrita. Las otras alternativas serían revisar, palabra por palabra, una gran
parte de la enciclopedia, o mejor aún, preguntar a alguna persona que supiese de historia y de literatura.

Esta última solución es la más fácil, debido a que este tipo de búsqueda de información es mucho más eficiente en
la mente humana. Podríamos decir que nosotros tenemos una infinidad de palabras claves que nos permiten tener
acceso a la información de muchas maneras diferentes y en un tiempo muy corto. Esto es, nosotros somos capaces
de almacenar información directamente por contenido y recordamos con base en asociaciones de ideas. Muchas
veces un olor, una palabra, algún sonido, etcétera, bastan para hacernos recordar algo. Somos capaces inclusive de
recordar información al azar, sin que aparentemente haya habido ninguna idea o estímulo que propiciara algún
recuerdo en particular.

Otra característica importante de nuestra memoria es que ésta tolera errores, y que a su vez, es capaz de
cometerlos. También tenemos la capacidad para establecer analogías entre cosas similares con base en diferentes
criterios. Podemos reconstruir imágenes, o situaciones con base en información incompleta. Podemos leer "entre
líneas", esto es, al leer un texto podemos intuir su significado real (cuando éste es diferente al consignado), si es
que tenemos información adicional relativa a los factores que intervienen en la situación. También podemos
captar un "doble sentido" en las expresiones que escuchamos; podemos "intuir" el estado de ánimo de una persona
con tan solo observar sus actitudes, etcétera. En el proceso de reconocimiento de imágenes, si únicamente
fuésemos capaces de reconocer imágenes "idénticas" a las que tenemos memorizadas, seríamos muy poco
eficientes, siendo que, por ejemplo, nunca percibiremos a una persona de la misma manera que en otro momento
anterior: variará el peinado, la expresión, habrá cambios causados por el tiempo, inclusive la cantidad y color de
la luz variarán de un momento a otro produciendo un efecto diferente en la apariencia del sujeto, etc. Sin
embargo, si la imagen que se nos presenta es lo suficientemente "cercana" a la información que tenemos
almacenada, esto es, al recuerdo que tenemos de dicha persona, no tendremos dificultad alguna en reconocerla.
Esta característica se extiende a otros tipos de identificación: si dentro de un texto nos encontramos con una
palabra escrita con un error ortográfico, somos capaces de saber el significado correcto de esta palabra
únicamente por el contexto. De igual modo, podemos reconocer de manera auditiva una misma palabra
pronunciada con diferentes acentos y timbres de voz, o incluso en diferentes idiomas (suponiendo que los
conozcamos). Todas las características anteriores son características naturales de la mente humana y no tienen
paralelo en las computadoras convencionales.

Se han creado programas para estas computadoras cuyo objetivo es llevar a cabo tareas específicas de
reconocimiento de algún tipo. Sin embargo, estos programas son de poca eficiencia y versatilidad comparados
con el desempeño humano. Por ejemplo, las ambigüedades inherentes a cualquier lenguaje han hecho difícil el
desarrollo de "programas" destinados a la lectura de textos "en voz alta", ya que este trabajo implica una cierta
comprensión de las frases con el objeto de darles el énfasis correspondiente. Una computadora, en caso de
encontrarse con una palabra escrita con un error ortográfico, le atribuiría a esta palabra el significado consignado
[Nota
en su diccionario (en caso de que existiese tal palabra), aunque la frase resultante careciese de significado.11
11]
Regresemos, al ejemplo utilizado en el capítulo I para definir los problemas complejos. Dicho ejemplo
corresponde a una tarea muy sencilla desde nuestro punto de vista. Si le presentamos a un niño de tres años una
serie de fotografías de personas, escogidas al azar entre la población, y le pedimos que identifique si se trata de
hombres o mujeres, nos encontraremos con que no tendrá ningún problema de reconocer a la mayoría de ellas. Si
repetimos la prueba de un niño un poco mayor veremos que el porcentaje de error se reducirá, aunque la
posibilidad de error siempre existirá (por pequeña que sea). Esto es debido a que, según el criterio del niño,
algunos individuos no tendrán exclusivamente características típicas de uno u otro sexo (con características típicas
nos referimos a rasgos ya sea de carácter biológico o social). Por otro lado, la probabilidad de error dependerá de
la experiencia previa del niño, esto es, del medio en que se desenvuelve, de su nivel socioeconómico y del tipo de
información que recibe: televisión, revistas, escuela, amistades de los padres, etcétera. Esto se debe a que los
humanos aprendemos a través de la experiencia. Es de esperarse que si al niño se le presentaran imágenes de
personas vestidas a la usanza del siglo XVII (¡o XVIII!), el porcentaje de aciertos no sería el mismo que el
obtenido con imágenes de personas propias de su tiempo y de su medio. Ya que debemos recordar que en el
hombre el desempeño de diferentes habilidades es producto, primordialmente, del entrenamiento obtenido.

Si ahora quisiéramos programar una computadora convencional para que llevara a cabo este mismo trabajo,
indispensable darle instrucciones precisas para que efectuara dicha identificación. Por ejemplo, podríamos decirle
que el pelo largo se da preferentemente en mujeres (lo cual es más cierto ahora que en los años setenta y
completamente falso en otras épocas o culturas), o que la gran mayoría de las personas que usan aretes son
mujeres, o que las mujeres tienen en general rasgos más suaves que los hombres. Como puede apreciarse, definir
estos criterios no es tarea fácil, ya que no siempre es verdad que el hombre sea feo, fuerte y formal, y un gran
número de personas no corresponde a los estereotipos. Además sería necesario determinar qué tan importante son
unos criterios con respecto a otros. Por otro lado, habría que dar a la computadora las definiciones de las
definiciones: ¿qué es el pelo?, ¿cómo distinguirlo de sombras?, ¿qué son las orejas, los aretes, la nariz, la
manzana de Adán?, ¿qué significa tener rasgos finos, boca grande, pestañas largas, mirada dulce?, ¿con respecto a
qué? Por otro lado, para complicar más la situación, todas estas definiciones no podrían darse en palabras, ya que
éstas no tienen ningún significado para la computadora, sino que habrían de darse en un lenguaje apropiado para
la máquina.12 [Nota 13] Dados los mecanismos de funcionamiento de las computadoras actuales, es fácil darse
cuenta de por qué un niño pequeño será capaz de llevar a cabo este trabajo con mucho más éxito que una gran
computadora que trabaja con programas muy elaborados.

Es común escuchar que las computadoras tienen una capacidad para almacenar y procesar información muy
superior a la del hombre. Nosotros creemos que esta información carece de sentido, ya que no es correcto
comparar habilidades diferentes. Por un lado, la capacidad de almacenamiento de las computadoras es
prácticamente ilimitada, ya que siempre es posible aumentarla mediante el uso de discos o cintas magnéticas;
aunque la rapidez para localizar esta información se ve seriamente mermada cuando se trata de obtener
información por contenido. Por otro lado, la cantidad de información que puede almacenar un hombre en su
memoria es inmensa, e imposible de cuantificar, aunque éste no siempre sea capaz de recordarla. Algunas
personas podrían calificar la mayor parte de la información que almacenamos como inútil en términos prácticos;
sin embargo ésta constituye gran parte de lo que son nuestro carácter, personalidad, sentido común, tacto,
intuición, capacidad para manejar situaciones, percepción de signos de peligro y de situaciones anormales,
etcétera. Esto dejando de lado todo el conocimiento necesario para efectuar con destreza el movimiento de las
diversas partes de nuestro cuerpo, indispensable para conservar el equilibrio, caminar, comer, escribir, correr,
rascarnos, sentarnos, etcétera. Tareas todas que debemos aprender a efectuar.

Casi todos hemos visto en el cine una u otra historia basada en la famosa novela acerca de Frankestein escrita por
Mary W. Shelley. Dicha novela trata de la historia del doctor Frankestein, quien construye un ser a partir de restos
de cadáveres humanos y es capaz de darle vida. Más adelante, esta criatura empieza a aprender los conocimientos
necesarios para desempeñarse como un ser humano. Si nos ponemos a pensar tan solo un momento en la cantidad
de información que necesitaría aprender para logran este objetivo, podremos darnos cuenta de lo ambicioso de
este proyecto, pues sería necesaria toda una vida para lograrlo. No es casual que los niños sean ingenuos, poco
maliciosos, espontáneos y que manifiesten sus estados de ánimo en forma más directa, esto es, que carezcan de
cierta "sofisticación" presente en los adultos, además de poseer menos datos, o información cuantificable en su
memoria (como lo que comúnmente se denomina "cultura general").

Para finalizar, quisiéramos mencionar otra característica que diferencia a las memorias de las computadoras de las
de los seres humanos. A una computadora se le puede programar para que haga una lista en la que incluya "toda"
la información que tiene almacenada. Esta tarea es realizable, en principio, independientemente de la cantidad de
información almacenada. Por el contrario, los seres humanos somos incapaces de hacer una relación de "todos"
[Nota
nuestros conocimientos; 13 y esta limitación no es sólo de carácter práctico, sino de índole fundamental. Esto
13]
se debe a que el procedimiento mediante el cual almacenamos y recordamos la información no es compatible con
esta tarea. Esperamos que esto sea claro para el lector al finalizar la lectura de este libro.

Esperamos también que a estas alturas se haya logrado despertar en el lector un interés por encontrar la respuesta
a preguntas como: ¿de qué manera consigue la mente humana recordar información en el momento en que la
necesita?, ¿cuáles son los mecanismos de almacenamiento y remembranza?, ¿en dónde es que se almacena dicha
información?, ¿cómo se procesa ésta? Aunque aún no podemos dar una respuesta a la mayoría de estas preguntas,
creemos tener una idea clara acerca de cuáles son los principios fundamentales que intervienen en el proceso de
almacenamiento de información. Los avances en este terreno, además de ser de un gran interés desde el punto de
vista de nuestra necesidad de conocernos a nosotros mismos, tienen un gran potencial tecnológico, pues de
conocerse las respuestas a estas preguntas, salvo limitaciones de carácter tecnológico, podrían utilizarse estos
mismos mecanismos en la construcción de computadoras.
V. EL HOMBRE Y LAS MÁQUINAS PENSANTES

Me parece que los ingredientes de la mayoría de las teorías de inteligencia artificial y de psicología, han sido en general
demasiado minuciosos, locales e inestructurados como para dar cuenta, práctica y fenomenológicamente, de la efectividad
del sentido común. Los "pedazos" de razonamiento, lenguaje, memoria y "percepción" deben ser más grandes y mejor
estructurados, y su contenido de hechos y procedimientos debe estar conectado más íntimamente para poder explicar la
rapidez y el poder de las actividades mentales. MINSKY, 1975

EN CAPÍTULOS anteriores hablamos acerca de las computadoras actuales; esto es del papel que desempeñan en
la sociedad, de su historia y evolución, de su arquitectura, de las bases de su funcionamiento y los métodos de
archivo de la información. En este capÍtulo quisiéramos comentar un poco acerca del camino que debemos
recorrer para lograr la construcción de máquinas con ciertas capacidades propias del hombre; es decir, con
habilidad para la solución de problemas complejos como la toma de decisiones para la planeación de empresas, la
evaluación de riesgos para las compañías de seguros, pruebas de eficiencia de motores, detección de arritmias
cardiacas, análisis y evaluación de encefalogramas, sismogramas, espectros de luz emitida o absorbida por
estrellas o por materiales, etcétera. Todos estos problemas consisten en optimización o toma de decisiones no
basada en reglas concretas.14 [Nota 14]

Entre el tipo de trabajos que estas máquinas podrían realizar, el de aplicación más directa es el reconocimiento y
procesamiento de imágenes. Esto engloba desde tareas relativamente simples y específicas, como la identificación
de firmas, voces, huellas dactilares, reconstrucción de imágenes con mucho ruido, etc., hasta tareas de gran
complejidad como la identificación y clasificación de personas y objetos. Este último tipo de tareas representa una
mayor dificultad debido a que se debe lograr invariancia de la detección con respecto a rotación, cambios de
escala, perspectiva, oclusión parcial, cambio en las condiciones de iluminación, etcétera.

Una computadora con las habilidades que acabamos de describir podría utilizarse de una manera limitada
únicamente por la imaginación. Por ejemplo, podrían construirse dispositivos provistos de visión artificial cuyo
objetivo fuese la identificación de huellas digitales, firmas o voces. Estos dispositivos podrían utilizarse en cajas
automáticas de banco, donde la única identificación necesaria para tener acceso a una cuenta sería la firma del
usuario, o el sonido de su voz. Este mismo método también podría utilizarse en lugar de un número de
combinación para las cajas de seguridad, a fin de tener acceso a claves de usuario de computadoras, como
substituto de llaves para la casa, oficina, automóvil, para ayudar a la identificación de personas buscadas por la
policía. También, el procesamiento de imágenes sería de utilidad para el análisis de imágenes médicas, de señales
obtenidas a través de percepción remota, para el procesamiento de datos experimentales, y por último, para la
construcción de robots "inteligentes".

ROBÓTICA

Conceptualmente, existen dos tipos diferentes de robots: los robots con trayectorias programadas, y los robots
"inteligentes". Los primeros son programados para llevar a cabo una y otra vez la misma función; los segundos,
en cambio, serían robots capaces de aprender con base en la experiencia y de tomar decisiones basadas en la
información con que contasen.

En la actualidad un gran número de robots de trayectoria programada se ha incorporado a la planta productiva en


los países desarrollados. Estos robots ofrecen grandes ventajas a los patrones (si bien no a los trabajadores
desplazados por ellos), ya que efectúan su trabajo con gran precisión y rapidez. Por otro lado, no causan
problemas laborales, no requieren de seguro social, no padecen enfermedades industriales, no faltan a su trabajo y
no pierden el tiempo platicando.

El segundo grupo de robots estaría formado por aquéllos dotados de inteligencia. Estos robots aún no existen
como tales, pero se encuentran en sus primeras etapas de desarrollo y las perspectivas para la construcción de
robots inteligentes destinados a tareas específicas son buenas. Sin embargo, ignoramos hasta dónde podrá llegar el
hombre en la construcción de este tipo de máquinas. De esto hablaremos más adelante.

Dentro de los robots "no inteligentes" existe un subgrupo constituido por robots que aunque "aparentan" ser
inteligentes, en realidad no lo son (Figura 23). Estos robots están dotados de ciertas capacidades de procesamiento
de imágenes y ajuste a las condiciones externas, tienen arquitecturas convencionales y basan su funcionamiento
en el uso de algoritmos o en el seguimiento de reglas concretas. Por ejemplo, tenemos robots provistos de un
sistema de navegación que les permite evadir obstáculos. La construcción de un robot con estas características no
es un trabajo fácil, ya que la imagen "visual" recibida es una imagen bidimensional, por lo cual se necesita idear
una estrategia que les permita diferenciar entre los objetos y el fondo, y que los dote de la capacidad de evaluar
profundidades y distancias (véase la figura 24). La disciplina que estudia el desarrollo de este tipo de robots, y de
dispositivos con algunas de estas capacidades, se denomina inteligencia artificial.

Figura 23. Existen robots que "aparentan" ser inteligentes, aunque en realidad no lo son.

En los últimos años, el desarrollo de esta rama de la computación ha cobrado una particular importancia, y se han
logrado grandes avances dentro de este terreno. Por ejemplo, se han creado programas capaces de hacer jugar
ajedrez a las computadoras. A simple vista, estas máquinas podrían ser confundidas con máquinas inteligentes, ya
que un hombre, para poder jugar, necesita manejar conceptos abstractos. Sin embargo, estos programas se basan,
por lo general, en el empleo de la llamada "fuerza bruta", esto es, en la evaluación exhaustiva de todas y cada una
de las posibles secuencias de n jugadas, junto con las posibles respuestas de su rival. Otros algoritmos, más
eficientes, desechan algunas de las posibilidades antes de evaluar la secuencia completa, por considerarlas malas
[Nota
jugadas. En cualquier caso, el cálculo está lejos de poder ser calificado como "inteligente",15 ya que la
computadora suple las capacidades humanas de análisis y planeación con su gran rapidez para 15] evaluar todas las
posibilidades.

Hace algún tiempo se pensó que se podrían hacer programas de computadora con los cuales sería fácil ganarle a
los mejores jugadores de ajedrez. Sin embargo, después de 30 años de trabajo intenso de muchas personas, aún no
se ha podido diseñar un programa capaz de vencer, sistemáticamente, a los mejores jugadores. Esto se debe a que
para jugar ajedrez se requiere de algo más que saber la posición de las piezas y las reglas del juego: la habilidad
humana para este juego requiere de "intuición educada", esto es, de la percepción conjunta de un grupo de piezas
interrelacionadas, de la existencia de un plan o estrategia a seguir, de la ejecución de jugadas tendientes a llevarlo
a cabo, de la anticipación de los movimientos del adversario, etcétera.

Una estrategia típica, comúnmente utilizada en el desarrollo de inteligencia artificial en computadoras


convencionales, es la siguiente: dado un problema concreto, se proporciona un árbol de decisiones en el cual se
jerarquizan los diferentes criterios a considerar y quedan definidos explícitamente cuáles criterios de evaluación
son más importantes que otros. Para esto, a cada criterio se le asigna un peso que intenta reflejar su importancia
relativa. Después se resuelve el problema considerando distintas alternativas y evaluándolas cuantitativamente de
acuerdo con este árbol. Este procedimiento proporciona resultados razonablemente buenos, pero pobres con
respecto al desempeño de un hombre entrenado en este tipo de tareas, pues la rapidez y eficacia de su
funcionamiento están limitadas por el tipo de mecanismo que las computadoras convencionales utilizan para
[Nota
evaluar situaciones y para recuperar información.16
16]

Figura 24. Un robot con capacidad autónoma de navegación, necesita contar con una estrategia que le
permita diferenciar entre los objetos y el fondo, y evaluar profundidades y distancias, para poder así evadir
obstáculos.

En suma, para evaluar situaciones en las cuales intervienen muchos factores tenemos que: i) un hombre capaz y
"entrenado" en una cierta tarea es mucho más eficiente que las computadoras y ii) para efectuar estas tareas el
hombre no utiliza los mismos procedimientos que las computadoras. Creemos que para lograr construir máquinas
cuya eficiencia en estas labores sea comparable con la del hombre, no basta con hacer computadoras más grandes,
más veloces, o más económicas. Es necesario cambiar el procedimiento utilizado por éstas, y este cambio de
procedimiento debe verse reflejado en su arquitectura.

Dado que el hombre es mucho más eficiente que las computadoras en la solución de problemas complejos, ofrece
un modelo inmejorable a imitar, de ahí que sea importante encontrar las estrategias por él utilizadas y tratar de
imitarlas. Es razonable suponer que si fuésemos capaces de diseñar una máquina con arquitectura similar a la del
cerebro humano (o de alguna subparte de éste), ésta sería más eficiente que las actuales para resolver este tipo de
problemas.

SISTEMAS SENSORIALES.

LA PERCEPCIÓN

En los seres vivos, toda la información que recibe el sistema nervioso proveniente del exterior es adquirida a
través de los órganos sensoriales. En el ser humano la percepción sensorial está siempre asociada a un proceso
cognoscitivo, lo cual significa que no basta con "ver" o escuchar algo, sino que también hace falta un cierto
procesamiento previo de la información antes de que ésta sea guardada e interpretada.

Existe una diferencia sutil, y muy importante, entre las funciones de "sentir" y "percibir". Nuestros órganos
sensoriales captan las señales provenientes del exterior, y las someten a un cierto procesamiento que las convierte
en percepciones; es hasta entonces que nosotros nos percatamos de la existencia de esa información. Dicho en
otras palabras, "sentir" es una operación simple a nivel de los sentidos, "percibir" es una función compleja a nivel
cerebral. Las figuras 25, 26 y 27 nos muestran tres casos en los cuales una misma señal de entrada nos puede
producir dos percepciones diferentes. Por todo lo que acabamos de mencionar, creemos que si hemos de crear
máquinas inteligentes, es necesario dotarlas de un sistema cognoscitivo, para lo cual es necesario comprender
mejor cuáles son los procesos cognoscitivos del hombre, o diseñar otros procesos artificiales que cumplan este
mismo propósito, pues en principio podrían existir problemas para los cuales alguna solución artificial pudiese ser
más eficiente que las soluciones biológicas, o al menos factible de construir desde el punto de vista tecnológico.

El tipo de procesamiento que realiza el cerebro humano para transformar las sensaciones en percepciones está
ilustrado por los ejemplos siguientes.

Figura 25. Cuando una imagen observada es ambigua, la imagen que se hace consiente, llamada Gestalt,
será una de las alternativas disponibles. Aunque se puede cambiar de Gestalt, únicamente una de las
alternativas puede ser observada a un mismo tiempo.

Figura 26. Esta figura nos puede mostrar ya sea a una bella joven o a una vieja desdentada.
Figura 27. Ilustraciones de Gestalt. Pato/ conejo de Jastrow y cubos de Necker.

Las imágenes mentales que almacenamos son copias directas de experiencias reales, las cuales han sido
simplificadas y promediadas. Estas imágenes corresponden a estereotipos que han sido el resultado de desechar
los detalles no esenciales y promediar con base en las características principales (Figura 28). Por ejemplo,
nosotros somos capaces de recordar un gran numero de imágenes: sin embargo, éstas no contienen toda la
información original, sino únicamente la información relevante. Así resulta que podemos recordar
"perfectamente" bien a una persona y no tener problema alguno para identificarla. Sin embargo, si necesitáramos
hacer una descripción detallada, o un dibujo de ésta, con base en la imagen memorizada, muy probablemente
seríamos incapaces de hacerlo, aunque tuviésemos la habilidad verbal o manual necesarias para hacerlo (Figura
29).

Otro ejemplo interesante es el siguiente: en el centro de nuestro campo visual tenemos una pequeña región
"ciega", la cual no puede percibir luz. Sin embargo nosotros subsanamos este problema utilizando la información
proveniente de las zonas vecinas del punto ciego y completando la imagen, de manera que no somos capaces de
darnos cuenta de que esta zona existe.

La percepción es un trabajo de sintetización y procesamiento de información que implica una combinación de


elementos simples en un "todo". Las personas perciben casas, árboles, perros, etc., en vez de percibir puntos,
líneas, colores, texturas, etc., por separado (Figura 30). También es necesario establecer una relación entre las
imágenes observadas y varios contextos, en diferentes grados de abstracción, para hacer una apreciación selectiva.

Figura 28. Esta figura muestra la forma en que nuestra concepción de las cosas altera la forma en que las
recordamos. A dos sujetos se les mostró, durante un tiempo breve, el dibujo que se encuentra en la parte
superior. Al primero, se le dijo que se trataba de unas gafas, y al segundo, que se trataba de una pesa para
hacer ejercicios. Después se les pidió que repitiesen el dibujo observado. Los resultados se muestran en la
parte inferior de la figura.

Figura 29. La figura izquierda nos muestra un reloj, tal como era recordado por un sujeto; mientras que la
figura a la derecha muestra una mejor reproducción del reloj en la realidad. Las omisiones y distorsiones
en la imagen recordada nos muestran que, al mirar el reloj, lo que miramos es la hora ; esto es, únicamente
tomamos la información que necesitamos.

Otra facultad del hombre es su capacidad para "poner atención" a cierta parte de la información que se recibe y
desechar el resto de ésta. Sin embargo, aun cuando el sujeto esté concentrado en una parte de la información, tiene
la sensación permanente de que el resto del mundo se halla presente en todo momento, aunque no esté dentro de
su campo visual. Continuamente recibimos información a través de nuestros cinco sentidos, y sin embargo sólo
estamos conscientes de una pequeña parte de ésta, esto es, tenemos un mecanismo de filtrado que solamente
permite el paso de cierta información relacionada con cambios abruptos del medio externo: por ejemplo un ruido
súbito o un cambio de temperatura. En general, nosotros podemos desactivar a voluntad ese mecanismo de
filtrado y poner atención a ciertos olores, sabores, imágenes, temperatura, presión, etcétera.

En términos físicos, podemos decir que las funciones automáticas, a las cuales no les prestamos ninguna atención,
son funciones que se llevan a cabo en la médula espinal. En el momento en que cobramos conciencia de una
sensación es porque hemos hecho partícipe de ésta a nuestro cerebro.

Figura 30. ¿ Qué tipo de estrategia utilizamos para reconocer en estas líneas a una bailarina?

EL "SENTIDO COMUN"

Otra importante diferencia entre los hombres y las computadoras es el llamado "sentido común". El hombre, en su
vida diaria, se enfrenta continuamente a la necesidad de tomar un sinnúmero de decisiones con base en una gran
cantidad de información y opciones alternativas. La mayoría de estas decisiones son tomadas sin siquiera
concederles unos segundos de atención, esto es, de manera automática. Por ejemplo, cuando manejamos un
automóvil, no pensamos continuamente en todas las operaciones que estamos efectuando; esto es, el uso que
hacemos del embrague, o de los cambios de velocidades, o el uso de las luces direccionales y el control del
volante. Todas éstas son funciones que efectuamos de manera automática.

Existen momentos en los cuales es necesario tomar decisiones más importantes o difíciles, para lo cual es preciso
elegir, en el nivel consciente, entre varias alternativas y razonar explícitamente la conveniencia de una sobre otra.
La mayor parte de las elecciones que el hombre enfrenta a lo largo de su vida las resuelve con base en su sentido
común, el cual está formado por un número inmenso de experiencias acumuladas durante su vida. El sentido
común es de naturaleza cualitativa, en el sentido de que raramente involucra relaciones numéricas entre
conceptos; en cambio, ofrece perspectivas múltiples de un problema, a veces de manera simultánea.

Alguien ha dicho que "el menos común de los sentidos es el sentido común", refiriéndose al hecho de que las
decisiones personales no siempre son adecuadas según los criterios de otras personas, o de acuerdo con las
consecuencias directas de llevarlas a cabo. Estas son otras características importantes del hombre: su manera de
razonar es individual y siempre existe la posibilidad de que cometa errores de juicio. Sin embargo, aunque a veces
nuestro sentido común nos lleva por caminos equivocados, constituye una herramienta fundamental para nuestra
supervivencia. Para poder construir computadoras que emulen ciertas capacidades mentales del hombre como el
sentido común, es de importancia primordial entender de qué manera se logra la organización de la información
en el cerebro humano, y conocer la forma en que se lleva a cabo el razonamiento.

En el capítulo anterior analizamos de manera comparativa la forma en que se desempeñan las computadoras y los
humanos, en cuanto se refiere al acceso a la información que tienen almacenada. De esta manera, pudimos
observar que este proceso tiene características muy diferentes en ambos. Esto nos hace suponer que los
mecanismos encargados del almacenamiento de la información, en computadoras y seres vivos, son por fuerza de
carácter fundamentalmente distinto. Más adelante veremos que la posibilidad de error es una consecuencia natural
de la estructura del cerebro, esto es, es inherente al hombre.

NUEVAS DIRECCIONES

Hasta el momento, una de las diferencias básicas que existen entre computadoras y seres humanos tiene que ver
con la utilidad práctica del material memorizado. Esta diferencia consiste en que mientras una computadora
almacena información que únicamente puede ser llamada de manera explícita por un programa, el ser humano
"aprende". En el hombre, la adquisición de nueva información modifica su comportamiento (o su forma de
pensar), en la medida que le aporta nuevos criterios para la toma de decisiones, tanto a nivel consciente como
inconsciente. El hombre debe su gran capacidad de adaptación, también llamada plasticidad, a su habilidad para
aprender.

Anteriormente mencionamos que para poder construir máquinas que tengan ciertas características de inteligencia
es necesario el diseño de arquitecturas radical y conceptualmente diferentes. Ésta es la filosofía presupuesta en el
estudio de las llamadas redes neuronales (artificiales). Estas redes constituyen un concepto totalmente nuevo y
diferente de la computación, el cual se basa en un modelo simplificado de la manera en que las neuronas se
organizan en redes dentro del cerebro. Más adelante explicaremos en qué consisten estos modelos.

Las "redes neuronales" (artificiales) se encuentran en sus primeras fases de desarrollo, sin embargo, se ha
encontrado que tienen capacidades autónomas de aprendizaje, y que la información que almacenan es recuperable
con base en su contenido. También se ha observado que estos sistemas pueden "recordar" a partir de información
incompleta o con mucho ruido. Todas éstas son características análogas a las de la mente humana.

Recientemente ha habido un gran auge de la investigación en redes neuronales y neurocomputadoras, y como


consecuencia se han logrado grandes avances de carácter fundamental. Estos avances comienzan a verse
reflejados en el plano tecnológico, ya que se empiezan a desarrollar computadoras que funcionan con base en
estos principios. En estos momentos ya existen en el mercado algunos programas que operan en computadoras
convencionales y que funcionan "imitando" estas nuevas arquitecturas. Estos programas son ejemplos modestos
de lo que tendremos en los años por venir.
Todo parece indicar que el estudio de este tipo de modelos contribuirá al desarrollo de los llamados "robots
inteligentes". Idealmente, la característica principal de estos nuevos robots inteligentes sería su alto grado de
adaptación, esto es, exhibirían un comportamiento que se ajustaría a las condiciones externas de una manera
apropiada. Para ello sería necesario dotarlos de funciones sensoriales artificiales, y de un sistema para procesar la
información recibida a través de los "sentidos". Después de procesada, la información sería almacenada, y de
manera paralela esta información recién aprendida modificaría las respuestas del robot al medio. Esto es, se
pretende lograr construir máquinas en las cuales los circuitos mismos aprendan a partir de la experiencia, y que se
autoorganicen. Por el momento, sin embargo, esto es aún ciencia ficción. Pero de eso hablaremos más adelante.
VI. EL CEREBRO Y LA MENTE

La mente es la más fina y pura de todas las cosas.

ANAXÁGORAS, aprox. 500 a.C.

Los propósito principales de todo sistema nervioso son el control centralizado de las funciones biológicas y el
control de la interacción del organismo, como un todo, con el ambiente. En el primer grupo de funciones tenemos
la regulación de procesos como el metabolismo, la respiración, el sistema cardiovascular, las funciones de
emergencia, etcétera, los cuales se llevan a cabo mediante mecanismos fisiológicos innatos.

Por otro lado, la interacción del organismo con el medio incluye tareas muy diversas que van desde acciones
elementales instintivas, hasta acciones muy complejas como el comportamiento social en los seres más
desarrollados.

Figura 31. Esta figura muestra el tamaño relativo de los cerebros de algunos vertebrados, y su aumento en complejidad.

En organismos inferiores el sistema nervioso es muy rudimentario; por ejemplo, en los invertebrados el centro de
aprendizaje (equivalente al cerebro) está formado tan solo por ganglios constituidos por agrupaciones de cuerpos
celulares. Conforme avanzamos en la escala evolutiva nos encontramos con sistemas nerviosos más desarrollados,
hasta llegar a los vertebrados, quienes poseen un órgano central llamado cerebro, el cual se encarga de controlar
las funciones más complejas. En los mamíferos, y de manera muy particular en e hombre, el comportamiento
social y las capacidades de aprendizaje tienen un grado de desarrollo muy grande (Figura 31).

De acuerdo con su estructura podríamos dividir al sistema nervioso en dos partes llamadas sistema nervioso
central (SNC) y sistema nervioso periférico (SNP). El SNP se encarga de transmitir hacia el centro la información
proveniente del interior y del exterior del organismo, y en sentido contrario. Por su parte, el SNC lleva a cabo el
procesamiento de la información y emite señales como respuesta. El SNC está integrado por la médula espinal
contenida en la columna vertebral, el tallo cerebral y el cerebro. El cerebro es el órgano maestro del sistema
nervioso, y es allí donde se llevan a cabo las funciones más complejas.

El estudio del cerebro humano se ha llevado a cabo desde diferentes puntos de vista, en diversas disciplinas, y a
diferentes niveles. Estos estudios podrían dividirse, a grosso modo en dos ramas principales que incluyen,
respectivamente, los aspectos físicos y los llamados aspectos mentales del cerebro. Por otro lado, todos los
conocimientos que tenemos acerca del cerebro se encuentran enmarcados por el conjunto de concepciones
filosóficas que la sociedad tiene del hombre y de su relación con el resto del Universo.
Entre los aspectos físicos del cerebro tenemos todos aquellos relacionados con un punto de vista biológico, los
cuales pueden reducirse a términos físicos y químicos. Por ejemplo, los puntos de vista anatómico, fisiológico,
bioquímico, biofísico, embriológico, etcétera. Estas disciplinas describen al cerebro, ya sea desde su punto de
vista morfológico, o con base en su funcionamiento desde el punto de vista de la operación de sus componentes a
partir de primeros principios (leyes fundamentales de la naturaleza).

Por otro lado, tenemos que los aspectos mentales del cerebro son examinados por otras disciplinas como la
psicología y la psiquiatría. La psicología estudia el comportamiento del hombre (y otros animales) y la manera de
percibir, pensar, razonar, etcétera. Algunas corrientes de esta disciplina estudian el cerebro como si fuese una
"caja negra", esto es, estudian su funcionamiento con base en el análisis de la conducta de los individuos. La
psiquiatría estudia los fenómenos psíquicos o de la mente y las desviaciones conductuales de individuos con
respecto al comportamiento del individuo promedio, etcétera. Por otro lado, la filosofía desempeña un papel muy
importante, ya que examina críticamente las bases de las creencias fundamentales y analiza los conceptos básicos
empleados en la expresión de tales creencias.

A continuación trataremos de dar una descripción acerca de los diversos puntos de vista presentes en el estudio
del cerebro. Esta división es un tanto superficial y arbitrana, por lo cual el lector podrá apreciar que los puntos de
vista a que hacemos mención poseen puntos en común y de contacto.

EL PUNTO DE VISTA FILOSÓFICO

El hombre, desde que adquirió la capacidad de razonar, ha tenido la inquietud de conocerse y ubicarse en el
Universo, y se ha hecho preguntas acerca de su origen, naturaleza y fin. Esto le ha permitido formarse conceptos
de sí mismo y del mundo que lo rodea, conceptos que a su vez han determinado su actitud frente a la vida.
Podríamos decir que desde el punto de vista filosófico, el interés en conocer la mente es muy antiguo, y que la
primera herramienta utilizada para inferir las características de su funcionamiento fue la introspección.

El interés filosófico en la percepción tiene su origen en las preguntas sobre la validez del conocimiento humano.
Algunas personas incluso han dudado de la existencia del mundo físico con independencia de la experiencia
humana. Ellos se han preguntado: aun en caso de existir el mundo físico, ¿cómo podemos saber qué propiedades
tiene y qué tan verdaderas o precisas son?, ¿cómo desligar su existencia objetiva de la percepción que tenemos de
él?

La actitud filosófica de una sociedad ante un problema es de gran importancia, ya que las ideas imperantes en un
momento dado determinan las bases que sirven de marco a todo conocimiento y estudio, y proporcionan una
referencia para la interpretación de los resultados observados. Por ejemplo, al proponer la teoría de la evolución
de las especies por medio de la selección natural, Charles Darwin tuvo que romper con la idea generalizada de
que Dios creó al hombre a su imagen y semejanza, durante el sexto día de la creación. Para esto, primero necesitó
tener la libertad de criterio necesaria para poder analizar, sin prejuicios, las evidencias colectadas en su viaje a las
Islas Galápagos, y así poder interpretarlas de manera objetiva. En segundo lugar, tuvo que convencer al mundo de
que su hipótesis era correcta. ¿Cómo convencer al mundo de que el hombre, "creado a imagen y semejanza de
Dios, y centro de la creación", tiene ancestros comunes con otros seres inferiores como son los monos, reptiles,
etc.?, ¿cómo hacerlo aceptar que nos hemos diferenciado del resto de los seres vivos, únicamente a través de un
proceso evolutivo?

Las revoluciones importantes en el pensamiento han tenido como característica común haber ofrecido una
explicación racional a ciertos aspectos de la naturaleza considerados en épocas anteriores como sobrenaturales, o
inexplicables en términos racionales. De esta manera, para que estas revoluciones se puedan dar, han debido venir
acompañadas de una ruptura epistemológica, esto es, de una ruptura con las ideas establecidas. Como otros
ejemplos de esta ruptura con las ideas imperantes tenemos que Copérnico señaló que la Tierra no es el centro del
Universo, que Einstein introdujo nuevas nociones del tiempo, del espacio, de la materia y la energía (Figura 32), y
a Watson y Crick, quienes demostraron que la herencia biológica puede ser entendida en términos de procesos
físicos y químicos. Creemos que ahora estamos cerca de explicar los mecanismos de la memoria y el aprendizaje,
y que éstos van a cambiar nuestra concepción del mundo, y de nosotros mismos, de una manera importante.
Asimismo creemos que estos conocimientos tendrán una repercusión importante en la tecnología de nuestra
época.
Figura 32. " La mayoría de nosotros preferimos ver hacia fuera, en lugar de hacia adentro de nosotros
mismos; ya que en el segundo caso no vemos sino un hoyo negro, lo cual significa: nada" (Einstein, 1933).
Dibujo de la autora.

Como consecuencia de la gran correlación entre la postura filosófica y las teorías científicas de una época,
tenemos que diferentes corrientes filosóficas se encuentran representadas por sus corrientes científicas
correspondientes. Por consiguiente, quisiéramos hablar un poco acerca de la posición de algunas de las corrientes
presentes en la filosofía occidental, frente a las facultades mentales del hombre. Como facultades mentales
entenderemos capacidades como la posesión de intenciones, sensaciones, imágenes, sueños, emociones,
memorias, creencias, expectativas, deseos, pensamientos, imaginaciones, etcétera. Facultades que parecen no
estar localizadas en ningún lugar específico del cerebro.

Tradicionalmente, cuando hablamos del cerebro, hacemos una separación tajante entre las cuestiones físicas y
mentales, ya que a menudo las consideramos cosas diferentes. Esta tendencia, muy arraigada en la filosofía
occidental, tiene sus orígenes en tiempos muy antiguos. Platón, por ejemplo, creía que la mente (psyque) era un
ente inmaterial, encargado del cuerpo y de la dirección de sus movimientos.

Por otro lado, desde entonces se sabe que la memoria humana opera utilizando principios asociativos. Estos
principios han sido resumidos en leyes de contigüidad, que relacionan en tiempo y lugar unos objetos con otros, y
leyes de refuerzo e interferencia, que nos indican que la presencia de estímulos positivos refuerza las conductas y
la de estímulos negativos produce su extinción u olvido. De hecho, algunas de estas ideas son expuestas por
Aristóteles, de manera cualitativa, en sus tratados acerca de la memoria y la remembranza.

Posteriormente, en el siglo XVII, nos encontramos con el dualismo, el cual es fuertemente influenciado por el
platonismo. Esta teoría, encabezada por el filósofo y naturalista francés René Descartes, propone que mente y
materia son dos tipos diferentes de substancia, de naturaleza opuesta, capaces de existir de manera independiente.
Sin embargo les concede cierta capacidad de interacción.

Entre las corrientes actuales se encuentra la reduccionista, la cual supone que las percepciones corresponden a
ciertos estados neurofisiológicos, por lo cual, al reproducirse un cierto estado neurofisiológico, se evoca la
percepción correspondiente. De manera que sentir dolor es para el cerebro estar en un estado neurofisiológico
determinado. Esta corriente es llamada en ocasiones teoría del paralelismo psicofísico de Spinoza o William
James. Las imágenes ópticas virtuales se explican por el mismo principio: para crear una ilusión es suficiente
reconstruir los planos de onda ópticos, los cuales son réplicas aproximadas de las imágenes originales.

EL PUNTO DE VISTA DE LA

PSICOLOGÍA Y LA PSIQUIATRÍA
Como dijimos en la sección anterior, la actitud filosófica determina en gran medida la actitud ante los problemas.
Por lo anterior, los estudios psicológicos y psiquiátricos del cerebro están fuertemente ligados a la concepción que
el hombre tiene del mundo que lo rodea.

Antiguamente, muchas enfermedades mentales eran consideradas como males de origen mágico o religioso. Se
pensaba que éstas eran causadas por espíritus malignos que, de alguna manera, lograban entrar al cuerpo del
enfermo. Fruto de esta creencia fue el hecho de que los egipcios utilizaran la trepanación con fines terapéuticos.
Ellos creían que al hacer un orificio en el cráneo permitían a los espíritus malignos, causantes de la enfermedad,
salir del cuerpo que los albergaba. También nos encontramos con ideas similares en el Nuevo Testamento de los
cristianos, donde Jesús expulsa a los espíritus malignos y desempeña un papel similar al psicoterapeuta de
nuestros días.

Tiempo después, surgen otros puntos de vista más materiales acerca de las enfermedades mentales. La actitud
naturalista considera que las enfermedades mentales o bien son resultado de vivir bajo fuertes presiones de
carácter social o psicológico, o tienen su origen en disfunciones orgánicas. La primera de estas ideas tuvo
importantes consecuencias en el siglo XIX, cuando Josef Breuer y Sigmund Freud encontraron que existe una
estrecha relación entre las experiencias traumáticas de la infancia y los desórdenes mentales. Estas ideas
constituyen la base del psicoanálisis, el cual consiste en utilizar la asociación libre de ideas para explorar la
personalidad de los pacientes. Este tratamiento ha tenido repercusiones trascendentales en la medicina y en la vida
de nuestro tiempo.

Además de crear el psicoanálisis, Sigmund Freud dio un gran impulso a la psiquiatría al proponer una importante
teoría que distingue tres zonas de la personalidad: el yo, formado a partir de la educación y la experiencia, el
super yo, producto del ideal de perfección del individuo, y el ello, el cual constituye la parte innata de los
individuos. Esta última zona está formada por los instintos y carece de inhibiciones y trabas de carácter moral,
estético o social.

A mediados del siglo XIX, la idea de que las enfermedades mentales estaban ligadas a enfermedades orgánicas
tuvo un gran auge. Esta idea tuvo muchas consecuencias negativas, ya que contribuyó a que los hospitales para
enfermos mentales se transformasen en reclusorios, en los cuales únicamente se aislaba a los pacientes para darles
un tratamiento que consistía exclusivamente en la administración de fármacos y descargas eléctricas. Cuando era
necesario calmar a un paciente se administraban depresores del sistema nervioso; en cambio, si lo que se deseaba
era sacar al enfermo de un estado de depresión, se le suministraban drogas útiles para excitarlo. Es de esperarse
que un tratamiento de este tipo, sin el uso de ninguna terapia de índole psiquiátrica, Sólo contribuyese a empeorar
el estado físico y mental del paciente, al descompensar la química de su organismo y producir
farmacodependencia.

La psicología es una disciplina científica que estudia el comportamiento humano y de otros animales. Para esto,
ignora el tipo de preguntas acerca de la validez de los conocimientos humanos y da por hecho la existencia del
mundo físico. Una rama muy importante de la psicología se dedica al estudio del proceso por el cual la
estimulación sensorial se traduce en experiencia organizada, esto es, en percepciones.

Al tratar de estudiar los procesos perceptuales, los psicólogos se encontraron frente a un serio problema: estos
procesos no son directamente observables (excepto por el sujeto perceptor), por lo cual la validez de las teorías de
la percepción únicamente puede ser comprobada de una manera indirecta. Originalmente, el estudio de la
percepción tenía como herramienta básica la introspección, complementada por un relato de parte del sujeto de
estudio, acerca de las "vivencias" obtenidas durante la experiencia de la percepción. De esta manera, estos
estudios se reducían a observaciones subjetivas sin carácter general.

John Watson fue un severo crítico de este método, y sus observaciones lo llevaron a proponer el conductismo, el
cual concibe los eventos perceptuales como meras inferencias. Por lo anterior, limita sus estudios a descripciones
objetivas y mediciones del comportamiento observable, verbal y no verbal. Esta doctrina se basa en la idea de que
existe una correspondencia entre términos mentales y conductuales, por lo cual afirma que la mente debe ser
analizada en términos de su conducta. No prohíbe el uso de la introspección como fuente de hipótesis, pero sí
como herramienta para comprobar la validez de éstas.

Durante el siglo XIX, encontramos otras teorías importantes que daban alguna explicación acerca de las
capacidades mentales del hombre. En particular, la frenología fue una hipótesis fisiológica que se desarrolló de
manera empírica y que tuvo un gran auge, aun hasta principios del siglo XX. Se basaba en cinco principios: i) el
cerebro es el órgano de la mente; ii) todas las capacidades mentales son una combinación de un número definido
de facultades independientes; iii) estas facultades son innatas, y cada una de ellas se localiza en una parte definida
de la superficie cerebral; iv) el tamaño de cada una de estas regiones es proporcional a la importancia, en el
carácter del individuo, de la facultad correspondiente; y v) el cráneo se adapta a la corteza cerebral, de manera que
basta con hacer una inspección visual de la forma exterior de su cráneo para poder describir moral e
intelectualmente a un individuo. En la figura 33 se muestra la localización y nomenclatura frenológica de Johann
K. Spurzheim, quien dividió el cráneo en 35 secciones con diferentes atributos.

La hipótesis frenológica fue desechada científicamente, ya que las descripciones de individuos hechas a partir de
la observación de sus protuberancias craneales no coincidían con la conducta que éstos manifestaban. Ahora
sabemos que las facultades intelectuales, afectivas e instintivas no se encuentran localizadas en ningún lugar del
cerebro. Por otro lado, hemos aprendido que sí existe un cierto tipo de localización, pero de un carácter
esencialmente distinto. Como veremos más adelante, han sido identificadas algunas áreas funcionales de la
corteza cerebral. La figura 34 muestra las áreas sensora y motora de la corteza.

LA PERCEPCIÓN

La capacidad de tener sensaciones es una capacidad innata. Esto es, nacemos con ella. Por otro lado, la percepción
es una capacidad individual y de índole personal, ya que es fruto de un aprendizaje, y como tal, depende de las
experiencias individuales, del entorno y de las características personales.

Como muestra de lo anterior podemos hablar de los siguientes experimentos. Se han hecho estudios en personas
ciegas de nacimiento a causa de la presencia de cataratas, quienes en la edad adulta han obtenido el don de la
vista. En un principio, cuando recién han adquirido sensibilidad a cambios de iluminación y color, en dichas
personas se observa que aunque pueden decir cuándo hay una figura presente, no pueden discriminar aún entre
formas simples. Después de varios meses de haber recobrado la vista, estas personas pueden diferenciar entre un
cuadrado y un triángulo con sólo observarlos; antes de esto, necesitan contar las esquinas de las figuras para poder
hacer la discriminación. Lo anterior nos indica que aunque estas personas poseen el concepto de las diferentes
figuras geométricas, ya que las pueden identificar si cuentan las esquinas, ese concepto no lo tienen relacionado
con las imágenes respectivas. Esto es, tienen que aprender a "percibir" imágenes visuales.
Figura 33. Mapa de Spurzheim, quien dividió el cráneo en 35 regiones con los siguientes atributos; 1)
amatividad; 2) filogenitura; 3) habitatividad; 4) afeccionividad; 5) combatividad; 6) destructividad; 7)
secretividad; 8) adquisitividad; 9) constructividad; 10) aprecio de si mismo; 11) aprobatividad; 12)
circunspección; 13) benevolencia; 14) veneración; 15) firmeza; 16) concienciosidad; 17) esperanza;
18)maravillosiadad; 19) idealoidad; 20) chistosidad; 21) imitación; 22) individualidad; 23) forma o
configuración; 24) tamaño o extensión; 25) peso o resistencia; 26) colorido; 27) localidad; 28) cálculo
numérico; 29) orden; 30) eventualidad; 31) tiempo o duración; 32) tonos; 33) lenguaje; 34) comparación;
35) casualidad.
Figura 34. Representación esquemática de los centros sensitivo-motores de la corteza cerebral del hombre.

De la misma manera, se ha encontrado que no existen conexiones innatas entre la identificación auditiva del
sonido producido por un objeto y su identificación visual. Todas estas asociaciones de ideas deben establecerse a
través de la experiencia y forman una parte importante del aprendizaje que se lleva a cabo en niños pequeños. De
aquí la importancia de que los niños crezcan en ambientes enriquecidos, ya que la experiencia temprana tiene una
gran importancia en el desarrollo perceptual, intelectual y emocional.

Más adelante expondremos la idea de que el proceso de desarrollo de la percepción, al igual que otros tipos de
aprendizaje, está íntimamente relacionado con cambios físicos y funcionales en el organismo.

LOS FÍSICOS Y LA PERCEPCIÓN

Durante la segunda mitad del siglo XIX, algunos físicos de renombre trabajaron exitosamente en el campo
interdisciplinario de la física y la psicobiología, e hicieron contribuciones importantes e este campo. Un ejemplo
notable lo constituye el físico Jame C. Maxwell quien, por un lado, contribuyó de manera importante al desarrollo
de la teoría electromagnética, y por otro, desarrolló una teoría tricromática del color. Por su lado Ernst Mach, gran
pensador y físico, quien contribuyera con sus ideas a la formulación de la teoría de la relatividad, es famoso
también por sus investigaciones en el campo de la visión. Por último, Hermann von Helmholtz, quien inició su
carrera científica como médico, hizo contribuciones importantes a la física en los terrenos de la óptica y la
acústica. Asimismo, contribuyó al desarrollo de teorías relacionadas con la percepción auditiva y visual. En este
último terreno formuló una hipótesis llamada de inferencia inconsciente, según la cual las imágenes que
percibimos están modificadas por la experiencia previa (Figura 35).
Figura 35. La serie de siluetas que aquí se muestran constituyen el test de Frenkel-Brunswik, utilizado para
investigar la flexibilidad o rigidez mental de los niños. La primera silueta muestra a un gato; luego va
perdiendo gradualmente sus características distintivas hasta convertirse en un perro. Cuando esta figuras
se presentan en secuencia para su identificación, los sujetos rígidos se aferran a su primera respuesta, y
continúan identificando como gato a las figuras ambiguas, hasta que al final de la prueba reconocen
súbitamente al perro.

Grossber afirma que a finales del siglo XIX hubo un gran cisma entre la física y la psicología. Uno de los motivos
principales de este rompimiento fue la revolución general del pensamiento ocurrida a principios del siglo XX. En
esta época, todas las teorías físicas que se desarrollaron eran expresables de manera cuantitativa en términos de
las matemáticas existentes en la época. Por ejemplo, cuando Einstein desarrolló su teoría general de la relatividad,
se encontró con que necesitaba cierto tipo de matemáticas para expresarla. Para su fortuna, también se encontró
con que la geometría de Bernhard Riemann, recién desarrollada, era una excelente herramienta para este
propósito. Los físicos interesados en el estudio del cerebro y de la mente no fueron tan afortunados, y se vieron
enfrentados a una disyuntiva debido a que las matemáticas de su tiempo no les servían para explicar los
fenómenos psicológicos. Como consecuencia de esta crisis, abandonaron el estudio de la psicología y la
neurobiología para dedicarse a desarrollar teorías de moda, pero no por eso menos valiosas, que pudiesen
expresarse cuantitativamente utilizando las herramientas matemáticas existentes. Por otro lado, los psicólogos y
los neurobiólogos devolvieron el favor, abandonando los conceptos físicos y las matemáticas, debido a que les
resultaban impertinentes por inútiles.

Este rompimiento entre las dos ciencias fue tan profundo, que actualmente los profesionistas de la carrera de
psicología no reciben un entrenamiento formal en la física y las matemáticas. Esto ha dificultado el trabajo
interdisciplinario, ya que profesionistas de diferentes áreas no poseen un lenguaje y herramientas comunes.

EL PUNTO DE VISTA BIOLÓGICO

[Nota
En este renglón17 hablaremos acerca de los estudios del cerebro y sistema nervioso que suelen clasificarse
17]
bajo el nombre de neurociencias. Esto abarca aspectos que pueden reducirse a términos físicos y químicos e
incluye disciplinas que estudian al cerebro desde sus puntos de vista morfológico y funcional, a diferentes niveles,
que van desde el estudio integral de sus componentes hasta estudios de tejidos, o celulares. Todos estos aspectos
son de importancia fundamental y son indispensables para comprender el funcionamiento del cerebro.

Desde finales del siglo XVII, el hombre tenía un conocimiento muy amplio acerca de la anatomía del cerebro y de
sus diversas partes. Sin embargo, el conocimiento del sistema nervioso a nivel celular inició hasta principios de
siglo. En parte esto fue una consecuencia natural de la falta de técnicas e instrumentos apropiados que permitiesen
llevar a cabo ciertas observaciones y experimentos. A lo largo del siglo XX esta situación se ha ido modificando,
y con ello las neurociencias han tenido un impulso muy importante. Entre el gran número de técnicas y
tecnologías desarrolladas durante este tiempo tenemos la autorradiografía, la tomografía de emisión de positrones,
[Nota
y la resonancia magnética nuclear. Gracias a las nuevas técnicas18 podemos en la actualidad observar el
18]
cerebro en funcionamiento e identificar cuáles grupos de neuronas están activas mientras realizamos diversas
actividades como hablar, escuchar, soñar, mover alguna parte de nuestro cuerpo, etcétera; lo cual ha permitido
hacer mapas de las conexiones entre las neuronas y las diferentes partes del sistema nervioso.

Como un ejemplo de la forma en que funcionan estas técnicas tenemos la autorradiografía, la cual consiste en lo
siguiente: se inyecta una substancia química radioactiva en alguna estructura del cerebro; esta substancia es
absorbida por los cuerpos celulares y transmitida a lo largo de las terminales nerviosas hasta sus extremos
(transporte anterógrado), o en sentido inverso, esto es, de los extremos hacia el cuerpo celular (transporte
retrógrado). Si una emulsión fotográfica es puesta en contacto con un corte de tejido cerebral, ésta es afectada por
la substancia radiactiva, dejando ver la trayectoria que siguen los axones.

Otra técnica que sirve para "marcar", a las neuronas que intervienen activamente en alguna función específica del
cerebro, se basa en el uso del análogo radioactivo de la glucosa, ya que la glucosa es la fuente de energía de las
neuronas y por tanto es requerida durante las funciones celulares. Si se inyecta esta substancia y después se aplica
un estímulo, las células activas toman la glucosa radioactiva pero no la pueden metabolizar. Por lo anterior, estas
neuronas quedan marcadas y pueden detectarse y seguirse desde fuera del cerebro.

A nivel del análisis del tejido nervioso tenemos otro grupo de técnicas que han sido fundamentales para el
nacimiento y desarrollo de las neurociencias. Éstas son las técnicas de teñido selectivo, las cuales permiten teñir o
marcar células individuales, o partes de ellas con propiedades en común, de manera que contrastan con respecto al
fondo y permiten hacer observaciones selectivas. Algunas de estas técnicas son útiles para obtener mapeos por
transporte retrógrado o anterógrado. Otra técnica permite teñir únicamente las terminaciones sinápticas, esto es,
los puntos de contacto entre neuronas o entre neuronas y órganos, lo cual permite apreciar las ramificaciones
neuronales. También tenemos que en la etapa embriológica es posible teñir a las neuronas con substancias que se
diluyen conforme se lleva a cabo la bipartición de las células, lo cual permite estudiar la migración y edad de las
neuronas. Todos estos métodos han contribuido al estudio de diversos aspectos de la morfología y la fisiología del
sistema nervioso y han permitido obtener una idea adecuada acerca de la geometría de las neuronas y de sus
conexiones.

Actualmente las neurociencias son un campo de investigación muy activo en el que se han logrado grandes
avances. Sin embargo, aún estamos muy lejos de poder decir que entendemos lo que sucede en el cerebro. La
metodología empleada es muy diversa e incluye estudios comparativos entre individuos de especies diferentes,
estudios del desarrollo embriológico en individuos normales e individuos con alguna alteración inducida, estudios
de las disfunciones en individuos con lesiones cerebrales localizadas, el estudio de la conducta de individuos en
los cuales se ha llevado a cabo la extirpación o aislamiento quirúrgico de ciertas regiones del cerebro, etcétera.
Podríamos llenar páginas y paginas acerca de todo lo que nos falta por conocer y entender. Sin embargo, entre
algunas de las preguntas que nos interesa resolver tenemos las siguientes: ¿cuáles son los mecanismos de reloj del
desarrollo neurológico?, ¿cuáles son los mecanismos de activación y control de los genes?, ¿cuáles son los
papeles de la herencia y del ambiente en el desarrollo neuronal?, ¿qué es lo que determina el crecimiento y
direccionamiento de las extensiones neuronales?, ¿qué papel desempeña la muerte neuronal?; y por supuesto,
preguntas relacionadas con los mecanismos por medio de los cuales se llevan a cabo los procesos de aprendizaje,
de memorización, etcétera, acerca de los cuales aún conocemos muy poco.

Las neuronas:

unidad básica del

sistema nervioso

En la práctica ha sido muy difícil estudiar la estructura del tejido nervioso debido a que las células que lo
constituyen, llamadas neuronas, están densamente empacadas y poseen un gran número de ramificaciones. Así
tenemos que en un centímetro cúbico de tejido nervioso existe un número del orden de 10 millones de neuronas,
cada una de ellas con un gran número de ramificaciones, delgadas y largas, las cuales forman una especie de
"maraña" extendida e imposible de separar, y en la cual es imposible distinguir unas neuronas de otras. Algunas
de estas extensiones neuronales llegan a tener más de un metro de largo y son tan delgadas que ocupan un
volumen muy pequeño.

Imaginemos que tuviésemos varios millones de madejas de estambre, todas del mismo color y enredadas entre sí
(y que ocuparan un volumen similar al de un cubo de 10 m de lado), y tuviésemos que decidir cuántas madejas
son, y dónde empieza y dónde acaba cada una de ellas. ¡Y en este ejemplo las madejas tienen una extensión única,
y no de cientos o miles de ellas!

Debido a lo anterior, los antiguos anatomistas tuvieron grandes problemas para apreciar neuronas individuales.
Tanto así que a finales del siglo XIX, la idea generalizada era que el tejido nervioso era un tejido continuo. Por
otro lado, las observaciones a través del microscopio óptico no aportaban evidencias que pusieran en duda esta
idea. Por aquellos días, Camilo Golgi observó bajo el microscopio un corte de tejido nervioso sobre el cual se
había derramado accidentalmente una solución de sales de plata, y encontró algo sorprendente: la plata había
impregnado ciertas áreas del tejido, revelando la existencia de células nerviosas individuales, y delineando la
forma de éstas y de sus extensiones (véase la figura 36). Así se demostró que las neuronas, unidad básica del
tejido nervioso, son células separadas unas de otras; con este descubrimiento se abrió el camino hacia la
neurociencia moderna.

Figura 36 . Copia de un dibujo de Ramón y Cajal, en el cual se muestra tejido nervioso proveniente de la
corteza visual de una rata teñido con la técnica de Golgi.
Ahora sabemos que las neuronas son células altamente especializadas cuya función central consiste en la
generación y transmisión de señales, esto, con el objeto de comunicarse con las demás neuronas del sistema
nervioso y con el exterior del organismo. Debido a su alto grado de especialización, las neuronas han perdido
hasta la capacidad de reproducirse. Así que en el momento del nacimiento, el ser humano cuenta con el máximo
número de neuronas que tendrá en su vida, aunque la mayoría de las conexiones entre ellas no están aún
establecidas. Sin embargo, aunque las neuronas que mueren no son substituidas por nuevas neuronas, en general
sí pueden ser remplazadas, desde el punto de vista funcional, por otras neuronas ya existentes.

Entre las neuronas encontramos una gran diversidad de formas y sus dimensiones varían entre .002 mm y .5 mm,
dependiendo del tipo de neurona de que se trate. Típicamente, están compuestas de tres partes: el cuerpo celular,
las dendritas y el axón, y los puntos de contacto entre neuronas se denominan sinapsis (véase la figura 37). El
cuerpo celular contiene al núcleo de la célula y es allí donde se sintetizan las enzimas y se llevan a cabo las
operaciones esenciales para la sobrevivencia de la célula. El conjunto de cuerpos celulares es lo que le da su color
característico a la llamada substancia gris. Las dendritas son extensiones del cuerpo celular con ramificaciones
cortas y tubulares, a través de las cuales cada neurona recibe señales provenientes de un número muy grande de
otras neuronas (miles, por lo general). Estas señales son sumadas o promediadas, y en caso de que la intensidad
total del estímulo recibido sea mayor que un cierto umbral característico de la neurona en cuestión, ésta generará
y emitirá una señal eléctrica de respuesta. Esta señal será enviada a través de una extensión larga denominada
axón —la cual también puede tener numerosas ramificaciones— hasta las sinapsis, en donde de nueva cuenta se
transmitirá la información hacia otras neuronas mediante intercambio químico.

Figura 37. Neurona Típica de un vertebrado, en la cual se pueden apreciar los tamaños relativos del cuerpo
celular y el axón. De acuerdo con la escala este axón que se muestra doblado, tendría 1 cm de largo; sin
embargo algunos axones llegan a tener más de un metro de largo.

La llegada de un impulso al final de una fibra nerviosa hace que se libere un compuesto químico, llamado
substancia transmisora, el cual excita a la neurona vecina. Una misma neurona podrá tener conexiones
inhibidoras y excitadoras con diferentes neuronas, para lo cual necesitará producir ciertas substancias químicas
que actúan como transmisores. Una sinapsis será excitadora o inhibidora, dependiendo de la presencia de
diferentes tipos de receptores y transmisores en la membrana celular (véase la figura 38). Los mecanismos
bioquímicos que intervienen en el metabolismo y funcionamiento de las neuronas son muy complicados. Prueba
de esta complejidad es el hecho de que en la transmisión de los impulsos nerviosos a través de las sinapsis
intervienen más de 30 moléculas diferentes. Sin embargo, todas las señales eléctricas transmitidas a lo largo de
los axones son en esencia iguales, independientemente del tipo de fibra nerviosa que intervenga (las fibras
nerviosas son haces de axones que parten de células relacionadas con una misma función). De tal suerte que lo
que varía de un caso a otro es el número de impulsos transmitidos por unidad de tiempo.

Los axones celulares están cubiertos por una substancia grasa llamada mielina, la cual da un color blanco
característico a ciertas partes del sistema nervioso (substancia blanca del encéfalo, médula y de algunos nervios).
Este envoltorio las aísla eléctricamente del exterior, de manera que la transmisión de los impulsos nerviosos se
lleva a cabo únicamente a través de las sinapsis.

Los impulsos nerviosos viajan a lo largo de las fibras nerviosas con una velocidad de casi 500 kilómetros por
hora. Esta velocidad es muy alta comparada con la que nosotros nos desplazamos (menos de 10 km/h), y muy
lenta si se compara con la velocidad de propagación del sonido en el aire (aproximadamente 1 300 km/h) o la
velocidad de la propagación de la luz en el vacío (300 000 km/seg ~ 109g km/h).

Otro nivel de organización:

el cerebro

Como mencionamos anteriormente el sistema nervioso central es el encargado de integrar y procesar la


información sensorial, y de dirigir las respuestas motoras del organismo. En los vertebrados este sistema está
formado por la médula espinal y el encéfalo.

Figura 38 Las sinapsis pueden ser excitadoras o inhibidoras dependiendo del tipo de transmisor que
liberan. Con ayuda del microscopio electrónico ambos tipos de sinapsis pueden ser distinguidos
morfologicamente.

La médula espinal está situada dentro de la columna vertebral. Entre las conexiones vertebrales existen unos
espacios por donde salen las prolongaciones laterales de la médula, las cuales se ligan a los ganglios y nervios
espinales. De manera que los nervios captan información del exterior, a través de los sentidos, y la transmiten al
encéfalo a través de la médula espinal.

El encéfalo está contenido dentro de la caja craneana, y está compuesto por el tallo cerebral y el cerebro. El
cerebro es la parte anterior y superior del encéfalo; es una parte muy importante del sistema nervioso de los
organismos superiores y también la más voluminosa e importante. En el hombre, este órgano es en el que residen
las actividades mentales superiores: es el centro del pensamiento, del razonamiento abstracto y de las actividades
conscientes, y su masa constituye aproximadamente 85% de la masa total del encéfalo.

El cerebro consiste de una gruesa capa de materia gris, con profundas circunvoluciones y separado en dos
hemisferios, izquierdo y derecho, por una fisura profunda. Estos hemisferios se encuentran conectados entre sí por
un grupo de fibras nerviosas llamado cuerpo calloso. Cada hemisferio se encuentra dividido por fisuras profundas
en cuatro secciones. Éstas son los lóbulos frontal, temporal, parietal y occipital. El hemisferio derecho controla la
mitad izquierda del cuerpo y la derecha de la cara, y viceversa.

A nivel macroscópico, ambos hemisferios son prácticamente imágenes de espejo. Sin embargo existen
importantes diferencias funcionales. Por ejemplo, en la mayoría de las personas las áreas que controlan el
lenguaje están localizadas en el hemisferio izquierdo, mientras que el control de las percepciones espaciales reside
en el derecho. Dentro de la corteza cerebral se han identificado algunas áreas funcionales, por ejemplo: la corteza
visual en el lóbulo occipital, la corteza auditiva en el lóbulo temporal, la corteza motora en el lóbulo frontal y la
corteza sensitiva en el lóbulo parietal. La figura 39 nos muestra un mapa de las regiones sensora y motora de la
corteza, llamado así debido a que en él se encuentran representadas todas las regiones del cuerpo; el área que cada
una de estas regiones ocupa es aproximadamente proporcional al grado de refinamiento del control y de la
sensibilidad requeridos por dichas áreas.

Figura 39. Regiones sensoras y motoras de la corteza cerebral humana. Cada parte de estas regiones está
relacionada con la parte del cuerpo que se muestra en el dibujo.

Sin embargo, en los primates, una gran parte de la corteza no se dedica a ninguna función motora o sensorial
específica.

Esta "corteza de asociación" aparentemente interviene en actividades mentales superiores, tales como el
razonamiento. En el hombre, esta parte constituye la mayor parte de su corteza cerebral.
VII. MEMORIA Y APRENDIZAJE

¿Qué es la mente? Esta palabra nos resulta útil, y a


menudo insustituible, pero carece de un significado
concreto y a menudo denota algo etéreo y no localizable.
Pero, ¿podemos concebir a la mente como algo sin bases
físicas?

AUNQUE cada una de las disciplinas mencionadas anteriormente ha aportado una cantidad enorme de
conocimientos acerca del cerebro, el funcionamiento de "la mente" sigue siendo, en lo fundamental, misterioso y
desconocido. En particular, es poco lo que estas disciplinas han aportado con respecto al conocimiento de los
procesos físicos por medio de los cuales se almacena y procesa la información a nivel global (Figura 40). Sin
embargo, gracias a estos estudios se ha acumulado una gran cantidad de conocimientos, que aunque por sí solos
no ofrecen una explicación integral acerca de los procesos por medio de los cuales se almacena la información y
se logra la evocación mental, constituyen algunas piezas del rompecabezas que tratamos de armar.

A lo largo de la historia han sido propuestas muchas teorías que intentan explicar los mecanismos de
almacenamiento y remembranza. Por ejemplo, hace algunos años se propuso la teoría de que la información se
almacenaba codificada en una secuencia de molécula, de una manera similar al modo en que la información
genética se almacena en las moléculas de ácido desoxirribonucleico (ADN). Para probar esta teoría se efectuaron
numerosos experimentos que consistían, por ejemplo, en entrenar animales de una cierta manera y después moler
sus cerebros para examinar si estas enseñanzas habían producido cambios químicos en ellos. Otros experimentos
consistían en utilizar como alimento los cerebros de animales entrenados, para después tratar de encontrar
,"estadísticamente significativas" en otros animales alimentados con éstos. Pero afortunadamente la teoría tuvo
que ser desechada debido a que no se encontraron evidencias que la apoyaran. (No resulta difícil imaginar las
implicaciones que esta teoría hubiese tenido, en caso de aceptarse como correcta).

Figura 40. Esquema de la organización global del cerebro, el cual sugiere el flujo de información. El área
izquierda representa las señales sensoriales de entrada y el área a la derecha representa a las neuronas
motoras que terminan en la células musculares. Es muy poco lo que sabemos acerca de lo que sucede en la
región intermedia. Esto es, la manera en que se procesa la información.

Las neuronas son células altamente especializadas y se distinguen de otros tipos de células, entre otras cosas,
porque son capaces de generar y transmitir señales eléctricas. Sin embargo, son regidas por las mismas leyes de la
naturaleza que las células de otros tejidos. Las señales químicas y eléctricas producidas y transmitidas por las
neuronas pueden ser medidas, registradas e interpretadas, de manera que resulta natural pensar que el
funcionamiento del cerebro puede estudiarse al igual que el de cualquier otra parte del cuerpo humano. Pero
entonces, ¿en qué momento es que la mente adquiere capacidades como las de la imaginación, la creatividad, el
aprendizaje, la memorización, etc., que parecen no estar localizadas en ninguna parte del cerebro? A falta de una
mejor respuesta a estas preguntas, en muchas civilizaciones, y desde épocas muy antiguas, se ha recurrido a ideas
[Nota
como la de la existencia del alma. En el diccionario19 encontramos las siguientes definiciones:
19]
Memoria. Potencia intelectual del alma por medio de la cual se retiene y recuerda lo pasado.

Mente. Potencia intelectual del alma.

Sin embargo, aunque atribuir estas funciones a un alma es la respuesta más fácil de formular, no tiene bases
científicas y por tanto, aceptarla o rechazarla viene a ser sólo un acto de fe, y no resuelve el problema. Por otro
lado, tenemos que otros seres vivos, con sistemas nerviosos menos desarrollados que el nuestro, y a los cuales
generalmente no se atribuye la posesión de un alma, comparten con nosotros algunas de estas características
aunque en ellos estos procesos no sean tan complejos. Por ejemplo, algunos chimpancés y gorilas han sido
enseñados a utilizar el "lenguaje norteamericano de señas", comúnmente utilizado por sordomudos. Estos
animales han sido capaces de adquirir un vocabulario de más de 100 palabras, y de improvisar nuevas palabras,
combinaciones de las ya conocidas, para ajustarse a situaciones nuevas.

Las siguientes preguntas resumen algunas de nuestras incógnitas: ¿cómo es posible que un grupo de células cuya
función primordial puede resumirse en la generación y transmisión de señales eléctricas, sea capaz de procesar y
almacenar información?, ¿de qué manera puede ser útil conocer en detalle los procesos que se llevan a cabo en
cada neurona para entender el funcionamiento de la mente?, ¿qué tan relevantes son los detalles estructurales del
cerebro con respecto a estas funciones? Por otro lado, ¿es posible reducir cualquier función mental a una
colección de señales eléctricas, reacciones químicas, etcétera? De ser así, ¿será posible la construcción de
máquinas que lleven a cabo eficazmente las mismas funciones que nosotros?, y en caso negativo, ¿se deberá esto
a limitaciones tecnológicas, o de carácter fundamental?

El cisma entre la física y la neurobiología que mencionamos en el capítulo anterior, contribuyó a que los físicos
creyesen imposible construir una teoría del comportamiento del cerebro. Sin embargo, esta creencia se ha ido
modificando gradualmente, y en los últimos 25 años los aspectos del aprendizaje y la memoria se han empezado a
estudiar desde el punto de vista de la física estadística. Por otro lado, las matemáticas han tenido un desarrollo
importante en años recientes, en cuanto a que han empezado a lidiar con sistemas cuyas características son no-
linealidad, no-localidad, y no-estacionalidad. Los resultados obtenidos por estas nuevas teorías son prometedores,
pues aunque apenas representan un entendimiento cualitativo de algunos de los procesos más elementales que
tienen lugar en el cerebro, este enfoque ha dado nueva luz a muchas cosas antes desconocidas por completo y nos
ha mostrado una nueva dirección par continuar la búsqueda.

MEMORIA Y APRENDIZAJE DESDE

EL PUNTO DE VISTA FISIOLÓGICO

Como ya mencionamos, ha habido algunas teorías tendientes a explicar los mecanismos de memoria y evocación
mental, las cuales no han podido sobrevivir debido a que carecen de rigor científico y no se encuentran
sustentadas por evidencias experimentales. Debido a lo anterior, no pasan de ser ideas interesantes. Si aceptamos
que el comportamiento colectivo de las células de nuestro cerebro es el responsable de todas nuestras capacidades
mentales, de nuestras emociones, gustos, intereses, habilidades, recuerdos, etc., entonces la siguiente pregunta
sería, ¿cuáles son los mecanismos responsables de ellas?, y en particular, ¿cuáles son los mecanismos
responsables de la memoria y del aprendizaje? Antes de intentar dar respuesta a esta última pregunta es
conveniente analizar cuáles son las evidencias de tipo fisiológico con que contamos.

Es muy difícil iniciar el estudio de un problema muy complicado empezando con el problema mismo. Por lo
anterior, a menudo buscamos problemas más simples de la misma naturaleza que nos puedan aportar
conocimientos de carácter general. Posteriormente, tratamos de analizar cuáles de sus características son
generalizables y qué esperaríamos encontrar en sistemas más complejos. Otro procedimiento consiste en separar
un sistema muy complicado en subsistemas más simples y estudiar las partes por separado. En cierto tipo de
problemas, otro método posible consistiría en estudiar el desarrollo de la formación de dicho sistema.

En la investigación del cerebro se han utilizado todos los recursos recién mencionados. Así, el estudio de
organismos simples ha ayudado a comprender, a nivel celular, la manera en que se lleva a cabo el aprendizaje. Por
otro lado, el estudio comparativo en animales de diferentes especies ha permitido observar que algunos procesos
neuronales tienen características comunes a todos estos sistemas. Por ejemplo, parece ser que las neuronas y
sinapsis del hombre son muy similares a las neuronas y sinapsis de organismos simples; de manera que no existen
diferencias fundamentales en su estructura, su química y sus funciones. Por otro lado, no es posible diferenciar
entre distintos tipos de neuronas de un mismo individuo, o aun entre neuronas pertenecientes a individuos de
especies diferentes, viendo tan solo el registro de un impulso nervioso de éstas. También tenemos que la
experimentación en animales desarrollados, como el chimpancé, ha sido de importancia fundamental. Por un lado,
estos animales son cercanos al hombre, poseen una gran destreza manual y pueden ser entrenados en conductas de
gran complejidad. Por otro lado, con ellos es posible realizar una serie de experimentos de gran importancia desde
el punto de vista científico, los cuales son imposibles de efectuar en seres humanos debido a problemas éticos.
Finalmente, el estudio del desarrollo fetal en animales simples y complejos ha contribuido al entendimiento de
muchos mecanismos y factores que intervienen en el desarrollo del sistema nervioso.

RESULTADOS EXPERIMENTALES

EN ORGANISMOS SIMPLES

Para entender los procesos de aprendizaje y memoria es muy importante encontrar a qué nivel de organización
aparecen los primeros siglos de aprendizaje que caracterizan el comportamiento humano. Por este motivo, es
conveniente iniciar el estudio con organismos muy simples, los cuales ofrecen grandes ventajas, ya que el número
[Nota
reducido de sus neuronas permite relacionar la función de células específicas con ciertos comportamientos.20
20]
Mediante el estudio de varios tipos de invertebrados se ha encontrado que estos son capaces de "habituarse" a
situaciones. Esta es la forma más rudimentaria y simple de aprendizaje, la cual consiste en lo siguiente: si a un
organismo se le presenta un estímulo desconocido, éste provocará una respuesta refleja de defensa; si el estímulo
se repite en numerosas ocasiones y no viene acompañado de ninguna agresión hacia el animal, este último
terminará por "habituarse", esto es, dejará de responder a su presencia con un reflejo de defensa.

Este aspecto ha sido estudiado extensivamente en un tipo de animal marino llamado Aplysia californica
que tiene un sistema nervioso muy simple con sus neuronas identificables individualmente (esto se muestra en la
figura 41). Estos animales fueron sometidos a una serie de estímulos táctiles, y se logró su habituación en una
sesión de 10 a 15 estímulos. Sin embargo, se encontró que esta "conducta" había sido completamente olvidada al
día siguiente. Por otro lado, si el habituamiento se lograba mediante cuatro sesiones de 10 estímulos cada una y
separadas por varias horas, la habituación persistía durante varias semanas (¡de aquí la importancia de no estudiar
únicamente antes de los exámenes!).

Al examinar las respuestas de las células nerviosas, antes y después de la habituación, se encontraron resultados
realmente interesantes: se observó que la habituación, ya sea de corta o de larga duración, provoca un cambio en
la efectividad de las interacciones sinápticas entre las neuronas sensoriales y las neuronas motoras. La única
diferencia encontrada entre ambos tipos de habituamiento radica en el periodo durante el cual persiste la
modificación mencionada. Éste es un resultado muy interesante debido a que anteriormente se pensaba que los
mecanismos celulares de almacenamiento de memoria, de corta y larga duración, eran esencialmente distintos.
Por otro lado, estudios similares llevados a cabo en muchos otros animales permiten concluir que este mecanismo
es general.
Figura 41. Esta figura muestra a la Aplysia californica, y a un mapa de su ganglio abdominal, en el cual se
pueden observar neuronas identificables individualmente.

Otro tipo de estudios, basados en el análisis citológico del tejido nervioso, nos indica que un gran número de
conexiones sinápticas son establecidas antes del nacimiento y el resto se establece a lo largo de la vida; siendo la
edad temprana, al menos en el hombre, la época de mayor "plasticidad" o capacidad para el establecimiento y
modificación de nuevas conexiones. El mecanismo de selección de conexiones incluye la formación inicial de un
número excesivo de ramas axonales y dendríticas, seguidas por la posterior degeneración y reabsorción de un
gran número de éstas. Esto fue descubierto en la primera década del siglo por Santiago Ramón y Cajal, quien
propuso que todas las ramificaciones que no establecen conexiones correctas desaparecen. Por otro lado, se
observa que el recién nacido presenta axones casi totalmente desprovistos de mielina; después del nacimiento se
inicia un proceso bastante rápido de recubrimiento de los axones, el cual finaliza alrededor de los cinco años de
edad.

LA MEMORIA DEL HOMBRE

A partir de su nacimiento, el hombre tiene que aprender una gran cantidad de cosas, que van desde el control
voluntario de las partes de su cuerpo, hasta el desarrollo de su percepción, de la adquisición del sentido común, de
la cultura, de las reglas de carácter social, moral, religioso. Todos estos, conocimientos fundamentales para su
sobrevivencia.

La memoria, el aprendizaje y el olvido, son procesos acumulativos que implican un cambio conductual, o en la
forma de pensar durante cierto tiempo. Sabemos muy poco acerca de los mecanismos que intervienen en el
proceso de memorización a nivel global. Sin embargo, a nivel celular sabemos que la memoria está relacionada
con modificaciones anatómicas y/o funcionales de las interacciones sinápticas.

La mayoría de los neurobiólogos opinan que todas las disposiciones humanas para tener sentimientos, emociones,
pensamientos, etcétera, residen en los patrones de interconexión de las neuronas. Por otra parte la presencia de
ciertos neuromoduladores controla y modifica la eficiencia de las sinapsis. Ahora es importante establecer un
puente entre los mecanismos de almacenamiento de información a nivel celular y a nivel global en el cerebro, esto
es, encontrar los mecanismos de almacenamiento a un nivel de organización más alto.

Existen evidencias de que en el hombre las funciones complejas del cerebro, como el razonamiento abstracto,
tienen lugar en la corteza cerebral. Antiguamente se pensaba que el aprendizaje tenía lugar exclusivamente en
regiones limitadas y especificas de la corteza. De esta manera se suponía, por ejemplo, que los lóbulos frontales
tenían un papel fundamental en la memorización necesaria para resolver problemas. Sin embargo, se ha
encontrado que animales, a los cuales se les ha removido quirúrgicamente la totalidad de la corteza cerebral, si
bien pierden su capacidad para aprender tareas complejas, continúan manifestando cierta capacidad para ser
condicionados.

El psicólogo Karl S. Lashley encontró que en los humanos todas las partes de la corteza cerebral son igualmente
importantes para el aprendizaje. Al analizar el comportamiento de individuos con lesiones en esta región del
cerebro, descubrió que mientras mayor es la cantidad de corteza dañada, mayor es la incapacidad posterior del
individuo para memorizar y realizar tareas complejas. Esto, independientemente de la localización de la parte
afectada.

Sabemos que en el cerebro existe la substitución funcional de unas neuronas por otras, a diferentes niveles.
Continuamente, el número de nuestras neuronas decrece, pues como dijimos antes, las neuronas no tienen
capacidad de reproducción. Sin embargo, la falta de un número pequeño de neuronas, con respecto al número
[Nota
total, no produce cambios apreciables en el desempeño de la memoria.21 A otro nivel, se ha observado que la
21]
remoción quirúrgica de una parte de los lóbulos temporales, practicada para controlar la epilepsia, puede producir
problemas de memoria. Cuando esta remoción se practica únicamente en el lóbulo dominante, el paciente puede
tener problemas para aprender de nuevo el material verbal hasta por tres años después de la cirugía. Esto es,
aunque hay pérdida de material almacenado, con el tiempo se logra la substitución funcional de unas neuronas por
otras y el material puede ser reaprendido. Por supuesto, el grado de recuperación depende del tamaño del área
afectada.

Los argumentos anteriores nos sugieren lo siguiente: i) el aprendizaje se lleva a cabo fundamentalmente en la
corteza cerebral, y ii) el aprendizaje no es una función exclusiva ni de la corteza, ni de regiones particulares de
ésta.

El cerebro está formado por un número muy grande de neuronas. Se considera que este número es del orden de
1011 células, y que en promedio cada una de ellas recibe o envía información de otras 104 células. De manera que
el número total de conexiones en el cerebro deber ser del orden de 1015. Se cree que dentro de esta maraña de
conexiones, los caminos principales de comunicación se encuentran predeterminados por la herencia, de manera
que las extensiones neuronales crecen durante la gestación hasta aquellos lugares donde posteriormente serán
requeridas. Sin embargo el resto de las conexiones deben ser adquiridas después del nacimiento, de manera que el
tamaño y estructura de esta red cambia radicalmente, y de manera continua, durante la vida de los individuos.
Esta programación, que se consigue después del nacimiento, está relacionada con el aprendizaje y una parte
importante tiene relación con la memoria. Básicamente tiene lugar a través de dos mecanismos: la modificación
de las estructuras de interconexión y el cambio de la eficacia de las sinapsis.

LA FÍSICA ESTADÍSTICA

Y EL CEREBRO

El cerebro humano es de una gran complejidad. Aunque la frase anterior es un cliché, no por eso deja de ser
verdad; se trata del sistema más complejo que conocemos en la naturaleza Sin embargo, si la física estadística ha
de ser exitosa en su tarea de describir algunos aspectos colectivos del funcionamiento del cerebro, como el
almacenamiento y llamado de información, necesita proporcionar un modelo con las características siguientes:
debe describir el cerebro o alguna subparte de éste de la manera más sencilla posible, y ha de ser capaz de captar
los ingredientes fundamentales responsables de llevar a cabo los procesos que nos ocupan. Esto es, se necesita de
un modelo simple que prediga, a partir de las características individuales relevantes de un arreglo de neuronas y
de sus interacciones, un comportamiento colectivo con ciertas características que describiremos más adelante.

Desde hace algunos años, ha habido intentos por hacer modelos físicos muy simples para describir algunos
aspectos del cerebro. Estos modelos se basan en el hecho de que el cerebro tiene un gran número de neuronas, del
[Nota
orden de 1010 a 1011,22 y en que no es relevante la contribución individual específica de cada una de ellas. Por
22]suponer que debe haber un mecanismo colectivo involucrado en las funciones que
lo anterior, es razonable
señalamos anteriormente; de ser así, parece adecuado hacer un tratamiento probabilístico de la actividad neuronal.
23
[Nota
23]
En esta medida, podríamos introducir un modelo muy simple, tomado de la física estadística, para describir el
comportamiento colectivo de un conjunto muy grande de neuronas interconectadas. Aunque este modelo es
completamente inadecuado para explicar y predecir el comportamiento de las neuronas a otros niveles, se ha
encontrado que capta algunas características fundamentales que permiten ver estos sistemas como almacenes de
información.

El modelo al que haremos mención se basa en una analogía matemática que puede ser establecida entre algunas
características de una red de neuronas interconectadas, y un tipo de materiales magnéticos denominados vidrios
de espín. Para poder comprender este modelo y sus implicaciones, haremos un paréntesis con el fin de hablar de
los materiales magnéticos que existen en la naturaleza.
VIII. MATERIALES MAGNETICOS

EN ALGUNOS materiales, a los que llamaremos materiales magnéticos, se observa que sus átomos o iones se
[Nota
comportan como si fuesen pequeños imanes que interactúan entre sí.24 En estos casos se dice que los átomos
24]
tienen un momento magnético diferente de cero, el cual se caracteriza por su magnitud y la dirección en la que
está orientado. En lo sucesivo, a estos pequeños imanes los denominaremos espines magnéticos o simplemente
espines.

Pero no todos estos materiales se comportan de la misma manera, debido a que sus propiedades magnéticas
dependen de dos factores. Éstos son: la magnitud de sus espines individuales, y la orientación relativa de éstos: Si
los espines no tuviesen ninguna interacción, ya sea entre ellos o con sus alrededores, entonces cada uno de ellos
podría apuntar en cualquier dirección, puesto que no tendría preferencia alguna. Sin embargo, éste no es en
general el caso: la orientación que tomará cada uno de ellos dependerá del balance de varios factores que pueden
resumirse en factores internos y externos.

Como su nombre lo indica, los factores internos dependen de las características intrínsecas de cada material, esto
es, del tipo de interacciones entre los espines. Por otro lado, los factores externos son los que están relacionados
con el ambiente, es decir, que dependen de la interacción del sistema con sus alrededores. Como ejemplo de
factores externos tenemos la posible existencia de un campo magnético producido por una fuente ajena al
material, y por otro lado, de manera muy importante, la temperatura ambiental, ya que el medio ambiente
funciona como una fuente de calor y agitación para el material.

Un ejemplo típico de un material magnético, que todos conocemos, es el de los imanes permanentes. En este caso,
una gran parte de los espines está alineada permanentemente en la misma dirección relativa. Y aunque el campo
producido por cada uno estos espines es muy pequeño, al sumarse sus contribuciones individuales se produce un
campo magnético que puede observarse macroscópicamente.

En el otro extremo tenemos los materiales paramagnéticos. En estos materiales los espines apuntan en direcciones
totalmente azarosas, por lo que las contribuciones de los espines individuales tienden a anularse. Como
consecuencia, a nivel macroscópico no se observa un campo magnético resultante. Sin embargo, existen
localmente pequeños campos magnéticos producidos por los espines, y un pequeño "imán de prueba" sentirá las
variaciones de este campo a lo largo del material.

INTERACCIONES ENTRE LOS ESPINES

Las interacciones entre los espines son originadas por mecanismos diversos, algunos de los cuales no son del todo
conocidos. Sin embargo, para nuestra discusión, únicamente es pertinente conocer el efecto de dichas
interacciones, sin importar las causas que las originan. Lo que sí es necesario señalar es que debido a un principio
muy general de la naturaleza, la orientación final de los espines será aquella en donde la energía libre del sistema
sea mínima. Para explicar a qué nos referimos, haremos una analogía entre un par de espines microscópicos y dos
imanes permanentes. Esta analogía nos permitirá hacernos una idea acerca de lo que sucede a nivel molecular.

Si tomamos dos imanes permanentes, observaremos que los extremos de uno y otro se atraen o se repelen, debido
a que cada uno de ellos tiene dos tipos de polos magnéticos. Como consecuencia, si los ponemos en contacto
veremos que tienden a alinearse de una cierta manera que resulta "natural" para ellos. Decimos entonces que los
imanes han tomado su posición de mínima energía, o de equilibrio. Si ahora tratamos de girar uno de ellos 180°,
veremos que necesitamos hacer un trabajo; esto es, dado que esta nueva posición es de energía mayor que la
anterior, necesitaremos suministrar energía para lograr y mantener esta nueva posición, ya que en el momento en
que dejemos de administrar esta energía extra, o sea, en cuanto dejemos de hacer fuerza para detener a los imanes
y les permitamos girar libremente, éstos cambiarán de dirección y se alinearán de nueva cuenta en su antigua
dirección, esto es, regresarán a su estado de mínima energía.

Algo similar sucede a nivel microscópico con los materiales a que nos hemos referido, únicamente que en vez de
tener un par de imanes, tendremos un número del orden de 1023 pequeños imanes interactuando entre sí. Entonces,
cada par de espines tratará localmente de orientarse de la forma más natural posible, es decir, de manera que la
energía de ese par sea mínima. Como resultado de este proceso tenemos una gran diversidad de comportamientos
en los diferentes materiales magnéticos.25 [Nota
25]
PROPIEDADES DE LOS

MATERIALES MAGNÉTICOS

Los materiales se clasifican de la siguiente manera de acuerdo con sus propiedades magnéticas (véase la figura
42):

1) Diamagnéticos. Son aquellos materiales en los que sus átomos no tienen momento magnético resultante;
debido a esto no pueden interactuar magnéticamente con otros materiales.

2) Paramgnéticos. Son materiales en los cuales los átomos sí tienen momento magnético. Sin embargo, en
ausencia de un campo magnético externo los espines individuales apuntan en direcciones diversas, de manera que
sus contribuciones individuales se anulan; como consecuencia, no se observa un campo magnético resultante. Si
se aplica un campo externo, entonces los espines se orientan ligeramente, dando como resultado una imantación
en la dirección del campo aplicado. Todos los materiales magnéticos se comportan como paramagnetos cuando se
encuentran a una temperatura alta;26 [Notase dice entonces que se encuentran en su fase paramagnética. Este
26]
comportamiento se debe a que a temperaturas altas los factores externos dominan sobre los internos, por lo cual el
tipo de interacciones entre los espines pierde importancia.

Figura 42. Diferentes tipos de materiales mágneticos. a) Paramagneto. Los espines apuntan en direcciónes
al azar, las cuales varían al paso del tiempo. b) Ferromagnetos. Los espines tienen tendencia a alinearse en
una misma dirección. c) antiferromagnetos. Tendencia de los espines a alinearse antiparalelamente a sus
vecinos. d) Vidrios de espín. Los espines apuntan en direcciones aparentemente al azar, pero fijas al paso
del tiempo. Para poder diferenciar entre los casos a) y b) necesitamos observar ambos sistemas durante un
largo tiempo.

3) Ferromagnéticos. En estos materiales las interacciones entre los espines son tales, que éstos tienden a alinearse
paralelamente. Debido a esto, a temperaturas bajas, esto es, cuando los efectos internos son mucho más
importantes que los externos, hay en estos materiales una orientación única con la cual se reduce a su valor
mínimo la energía del material. Esta orientación corresponde a todos los espines que apuntan exactamente en la
misma dirección.

4) Antiferromagnéticos. En estos materiales, las interacciones entre los espines tienden a alinearlos
antiparalelamente. Como resultado, a bajas temperaturas y en ausencia de un campo magnético externo, habrá una
configuración única de mínima energía. En este estado del sistema, todos los espines apuntan alternadamente
hacia arriba y hacia abajo, y el material no exhibe magnetismo a nivel macroscópico.

5) Vidrios de espín. En este tipo de materiales encontramos que algunos pares de espines van a reducir su energía
si se alinean paralelamente, mientras que otros lo van a hacer cuando sus posiciones sean antiparalelas. Dado que
cada espín interactúa con muchos otros espines, algunos de "sus compañeros" le pueden "pedir" que se alinee en
una dirección y otros en otra. Una consecuencia será que no todos los espines se puedan poner de acuerdo y que a
temperaturas bajas no habrá una, sino muchas configuraciones diferentes que correspondan a estados de energía
mínima. Para cada una de estas configuraciones tenemos que no todos los pares de espines contribuyen a reducir
la energía libre; entonces se dice que los pares que no contribuyen se encuentran frustrados. Por consiguiente toda
configuración de mínima energía contendrá muchos pares frustrados, diferentes en cada caso, ya que no será
posible hacer que todos ellos contribuyan simultáneamente a reducir la energía del sistema.

Durante la década pasada y principios de esta, los vidrios de espín atrajeron el interés de muchos científicos
debido a que presentan propiedades para las cuales no se encontraba explicación.27 [Nota 27] Actualmente se
entiende bastante bien su comportamiento, y se sabe que la frustración desempeña un papel central en éste. Todo
el trabajo de investigación realizado en este campo nos ha permitido entender otros problemas análogos, que
tienen en común la presencia de frustración; éstos son los problemas complejos.

Los vidrios espín serán el foco de nuestra atención debido a la propiedad de que su energía libre posee muchos
mínimos. Por tanto, más adelante volveremos a tocar este tema para explicar con mayor detalle sus propiedades.

MODELO MATEMÁTICO DE LOS SISTEMAS MAGNÉTICOS

Para poder predecir las propiedades de los materiales magnéticos es necesario, primero, hacer un modelo o
idealización que describa dichos materiales de una manera simple pero sin dejar de lado las características
esenciales del sistema, y segundo, hacer los cálculos pertinentes para ese modelo dentro del marco de la mecánica
estadística. Una vez que se han seguido estos dos puntos, se confrontan los resultados de los cálculos matemáticos
con los resultados obtenidos experimentalmente. Esta comparación nos permitirá evaluar si el modelo logró
captar las características fundamentales del sistema a estudiar, y nos aportará nuevos elementos que permitirán
confirmar, modificar o desechar el modelo.

Existen varios modelos para describir los materiales magnéticos. Nosotros utilizaremos el llamado modelo de
Ising, según el cual los espines pueden orientarse únicamente a lo largo de dos direcciones: hacia arriba o hacia
abajo. Para explicar la idea de este modelo, dividiremos mentalmente el material que queremos describir en
bloques pequeños, de manera que en cada bloque se encuentre localizado un espín. Matemáticamente,
denotaremos al espín que se encuentra en el lugar pésimo por medio de la cantidad Si, la cual podrá tornar dos
valores: +1 si el espín apunta hacia arriba, y -1 si apunta hacia abajo. Llamaremos configuración a cada uno de los
posibles arreglos o combinaciones de estados de los espines (véase la figura 43).

La función que representa la energía total del sistema se denomina hamiltoniana y está dada por la ecuación:

H= - Σ J ij S i S j - h Σ S i ,
( ij ) i (1)
en donde j es otro índice mudo, esto es, toma (de uno por uno) todos los valores entre 1 y N; Jij representa la
magnitud de la interacción existente entre los espines i yj. Por otro lado, el símbolo Σ , presente en el primero y
segundo términos de la ecuación (1), significa que debemos sumar, sobre todos los pares de espines y sobre todos
los espines respectivamente.
Figura 43. Este diagrama ilustra lo que sería el modelo de Ising para una pequeña muestra hipotética del
material magnético. El valor de i indica el número de cuadro dentro del material, y el valor de S1 nos dice
la orientación que tiene el espín localizado en dicho lugar.

La ecuación que acabamos de escribir nos dice lo siguiente: la energía total del material está dada por la suma de
las energías de interacción de cada uno de los pares de espines (i, j), más la energía de acoplamiento del sistema
con el campo magnético externo h. Es decir, si conocemos el valor de las interacciones {Jij}, el uso de esta
ecuación nos permitirá calcular la energía total que corresponde a cualquier configuración particular.

Debe notarse que el valor de las interacciones entre los espines es fijo y depende del material; por otro lado, de
acuerdo con el principio de mínima energía, los espines tienden a orientarse de manera que la energía total del
sistema, representada por H, sea mínima. Si pudiéramos dibujar el valor de H para cada uno de los estados
posibles, tendríamos una gráfica en N dimensiones; en ella podríamos observar que para algunos conjuntos de
valores de {Si}, H toma valores muy altos, lo cual nos indica que dichas configuraciones serán muy poco
probables debido a que tienen energías altas. De la misma manera, de acuerdo con este principio, las
configuraciones o estados para los cuales H toma su valor mínimo son los estados más naturales para el sistema.
La figura 44 muestra de manera esquemática el valor de H para diferentes configuraciones.
Figura 44. A partir de cualquier "estado inicial", el sistema evolucionará hacia estados de energía cada vez menor.

El modelo de Ising puede ser utilizado, con mayor o menor éxito, para describir cualquier tipo de material
magnético, siempre y cuando el conjunto de interacciones {Jij} tomen los valores adecuados. Para facilitar esta
explicación, vamos a considerar el caso en que no hay ningún campo magnético externo; esto es, tomaremos h =
0.

Si suponemos que la interacción Jij toma un valor J, mayor que cero, cuando los espines localizados en los
lugares i y j son contiguos, y vale cero en cualquier otro caso, entonces podemos observar lo siguiente: la
configuración {Si} para la cual H toma su mínimo valor posible, se da cuando todos los espines apuntan a lo largo
de la misma dirección; esto es, cuando todos valen +1, o equivalentemente, si todos valen -1 (véase la ecuación
(1). Si el material se encuentra en este estado, entonces todos y cada uno de los pares contribuyen a reducir el
valor de la energía.

Ahora supongamos que Jij toma el valor -J, (con J>0), si los lugares i y j son vecinos, y el valor cero en cualquier
otro caso. En esta ocasión, tenemos que el valor mínimo que H puede tomar corresponde al caso en que los
espines apuntan en direcciones alternadas. Esto se representa matemáticamente con Si = +1, Sj = -1, de manera
que la contribución de cada par (i, j), dada por el producto Jij X Si X Sj, tiene un valor mayor que cero, con lo
cual dicho par contribuirá a la reducción de la energía.

En los dos casos anteriores, si queremos construir mentalmente la configuración de mínima energía, entonces
tenemos que una vez escogida la dirección de uno de los espines, la dirección del resto quedará determinada.

Así, hemos visto que la ecuación (1) describe materiales ferromagnéticos o antiferromagnéticos cuando las
interacciones Jij tienen un valor mayor, o menor que cero, respectivamente. Pero, ¿qué sucede si algunas
interacciones tienen valores positivos y otras negativos?

Como mencionamos anteriormente, existen algunos materiales en los cuales no es posible que todos los pares de
espines contribuyan simultáneamente a reducir su energía. Este es el caso de los vidrios de espín, los cuales
pueden ser descritos con la ecuación (1) si algunas interacciones Jij tienen valores positivos y otras valores
negativos. Esta mezcla matemática de interacciones positivas y negativas refleja el hecho de que a algunos pares
les gusta alinearse paralelamente y a otros antiparalelamente. En estos materiales no podemos construir
mentalmente una configuración en la cual todos los pares de espines contribuyan a reducir la energía, ya que muy
pronto llegaremos a contradicciones (véase la figura 45). Por esto no habrá una configuración única, de energía
mínima. La figura 45(a) muestra una de las seis posibles configuraciones de mínima energía para un sistema
hipotético, compuesto de tan solo tres espines. En el caso de un material magnético con frustración, el número de
estados de energía mínima aumenta, muy rápidamente, en función del número de espines (para sistemas con
frustración). ¡Y los materiales reales tienen del orden de 1023 espines!

Pero si hay muchas configuraciones de energía mínima, ¿cuál de ellas será la que "escoja" el sistema? ¿Hacia cuál
de ellas evolucionará? En las secciones subsecuentes trataremos de dar respuesta a esta pregunta.

UN CAMINANTE EN

UNA REGIÓN MONTAÑOSA

Supongamos que un caminante, un poco corto de vista, con muy mala memoria y muy flojo, sale a dar un paseo
por el campo en una región montañosa. Sabemos que el esfuerzo que esta persona necesitará hacer será mayor si
asciende que si desciende. De manera que si caminara sin intención de llegar a algún lugar en particular, esto es,
de una manera un tanto azarosa, y quisiera hacer el menor esfuerzo posible, optaría siempre por descender.
También supondremos que la única fuente de energía de este singular caminante es su energía potencial (= masa
X gravedad X altura), y que además arrastra tanto los pies que pierde toda su energía conforme va descendiendo.
Si en un momento dado quisiéramos dar una descripción de la posición del caminante, podríamos proporcionar la
altitud del lugar en donde se encuentra como función de la latitud y la longitud de aquel lugar.
Figura 45. Este esquema nos muestra dos de los 23 =8 posibles estados en un pequeño sistema hipotético
compuesto por tres espines. Dos de los pares existentes interactúan ferromagnéticamente (+J) y el tercero,
antiferromagnéticamente (-J). a) Nos muestra una de las seis configuraciones de mínima energía, con H = -
J(podemos observar que únicamente un par está frustrado). b) Nos muestra una de las configuraciones de
energía mayor, con H = 3j; en este caso los tres pares de espines se encuentran " en desacuerdo"..

Esta persona podría caminar y caminar, y siempre hacia abajo, llegando a regiones cada vez más profundas. Por
ejemplo, podría ir caminando dentro de un cañón que tuviese una salida en alguna dirección, y probablemente esa
salida lo llevaría a regiones aún más profundas. Otras veces podría escoger entre dos o más direcciones
igualmente descendentes, ya que podría haber valles dentro de los valles, pero tarde o temprano llegaría a un lugar
profundo rodeado de regiones todas más altas que éste, esto es, se encontraría en el fondo de un valle. El lugar
final donde el caminante terminaría su recorrido, o sea el fondo de un valle particular, dependería de manera
importante, aunque no exclusivamente, del lugar donde el explorador iniciara su caminata (Figura 46), ya que en
ocasiones existen varios caminos igualmente descendentes que lo podrían conducir a diferentes valles.

Con respecto a la geografía del lugar, si el sujeto no conociera la región ni llevase mapas, y se encontrara en el
fondo de un valle, no tendría manera de saber si ese valle es el lugar más profundo del área, o si más allá de las
montañas existen lugares aún más profundos que éste. De manera que para él no tendría sentido hablar de la
profundidad o altura absoluta del lugar donde se encuentra. Tampoco tendría forma de saber cuántas cimas de
montañas existen, ni cuántos valles, ni cuántos cañones, ni de qué manera se encuentran éstos distribuidos. Sólo
tendría un conocimiento local de la región, ya que lo único que el caminador puede saber es que está en un lugar
profundo rodeado de montañas más altas. Además debemos tener presente que el tipo tiene muy mala memoria,
por lo que es incapaz de recordar la geografía de los lugares previamente recorridos, y que su vista no le permite
ver a lo lejos.

Una vez que el caminante se encontraba en el punto más bajo de un valle, tendría que resignarse a permanecer
indefinidamente en dicho lugar. Tal vez invirtiendo un poquito de energía sería capaz de subir una pequeña colina
para después encontrarse con un valle mucho más profundo. Sin embargo esto él no lo sabe, por lo que quedaría
atrapado a menos que sucediese alguna de las posibilidades siguientes: i) que tuviese la energía física necesaria
para hacer un esfuerzo mayor (la cual sería mayor cuanto más altas fuesen las montañas que rodean a este lugar),
o ii) que fuese rescatado y llevado a otra región, por ejemplo, por un helicóptero. Pero dado que esta persona no
está dispuesta a hacer ni el más mínimo esfuerzo, pensamos que la segunda posibilidad sería la única factible.
Figura 46. El caminante llegará, tarde o temprano, a un lugar profundo rodeado de regiones mas altas.

Ahora podemos volver a pensar en la función hamiltoniana y hacer una analogía entre la geografía de una región
montañosa y el espacio de configuraciones de un sistema físico con frustración, ya que la hamiltoniana es también
una función que puede tomar valores altos o bajos, para diferentes configuraciones. Esta analogía nos será útil
para dar una visión general de las ideas presentes.

EL ESPACIO DE ESTADOS

Como dijimos anteriormente, dado un sistema magnético, su hamiltoniano nos da el valor de la energía para cada
configuración posible. Esto es, dada una configuración o arreglo de espines es posible, en principio, calcular el
[Nota
valor de la energía correspondiente a dicha configuración.28 De manera que si tuviésemos una paciencia
28]
infinita, y una vida aún más larga que nuestra paciencia, podríamos calcular la energía para cada uno de los
estados posibles del sistema. (Este número está dado por 2n donde n es el número de espines en el material, el cual
es a su vez ¡del orden de 1023!) En este caso, tenemos un espacio de N dimensiones, ya que podemos variar el
estado de N espines, y no dos variables como en el caso del caminante en que se pueden variar su latitud y
longitud únicamente. Suponiendo que pudiésemos hacer dibujos N-dimensionales, con los resultados obtenidos
podríamos graficar el valor de la energía, lo que correspondería a la altura de las montañas del caso anterior,
como función de cada uno de los estados posibles del sistema. Para completar la analogía, diríamos que el
caminante parado en un lugar de la región montañosa correspondería a que el sistema magnético se encontrase en
el estado caracterizado por el valor de todos sus espines en ese momento. De esta manera, un paso del caminante
equivaldrá a invertir la dirección en que apunta alguno de los espines del material: si el paso es ascendente, en
horizontal, o hacia abajo, esto corresponderá al aumento, mantenimiento o disminución de la energía, para este
nuevo estado.

Si colocamos al caminante en un lugar arbitrario de la región y le pedimos que vague a su antojo, con la
restricción de que haga el menor esfuerzo posible, muy probablemente éste terminará en el fondo del valle dentro
de cuya cuenca se encontraba inicialmente. Por lo cual, para este efecto es completamente irrelevante si existen
otros valles más profundos más allá de las montañas. De la misma manera, si tenemos un vidrio de espín en un
estado inicial arbitrario, cuya energía no es mínima, entonces cada espín, bajo la presión de sus vecinos, variará su
orientación de manera que su estado concuerde con la petición de un número cada vez mayor de vecinos. Así, el
sistema evolucionará de manera natural, hasta llegar a un estado que tenga energía mínima, y en el cual quedará
atrapado. La geografía del lugar que hemos descrito, junto con el hecho de que para ir de un estado a otro es
necesario pasar por los estados intermedios, explican la gran dependencia de la historia que tienen tanto el
caminante como el vidrio de espín, el estado inicial y el final). Esto se ilustra en la historia que tienen tanto el
caminante como el vidrio de espín, (relación entre el estado inicial y el final). Esto se ilustra figura 47.
El continuo descender del caminante, o equivalentemente, el aumento en el número de pares de espines que
concuerdan, corresponderá a la evolución natural del sistema hasta estados de energía cada vez menor, y por
tanto, cada vez más probables. Decimos entonces que cada uno de los mínimos actúa como un atractor; la
importancia de un mínimo será mayor mientras mas grande sea su cuenca de atracción. Así, veremos que un valle
muy grande tiene mayor probabilidad de ser visitado que una pequeña hondonada en el camino. A los materiales
ferromagnéticos y antiferromagnéticos les corresponde una geografía en la cual hay únicamente un valle o una
cuenca de atracción, por lo que no resulta difícil predecir dónde terminara el paseo. En el primer caso, este
mínimo corresponde a un estado con todos los espines paralelos, y en el segundo, antiparalelos. Por el contrario,
en el caso de los vidrios de espín tenemos que debido a la presencia de frustración, existe un número muy grande
de montañas y valles.

Figura 47. El sistema permanecerá en un estado de energía mínima (localmente), independientemente de


que existan estados de energía aún menor, si para llegar a éstos necesita aumentar su energía.

Desafortunadamente, la imagen de una persona caminando en una región montañosa trae consigo la idea de lugar
en el espacio real, lo cual puede prestarse a confusiones. Debemos recordar que en el caso del material magnético,
su hamiltoniano nos da la energía como función del estado del sistema, y no como función de la ubicación de los
espines, por lo que dos estados serán cercanos si la mayor parte de los valores de las variables Si coinciden en
ambos. Todo esto, sin importar el lugar en que se localizan dichos espines.

Otra característica de nuestro sistema magnético consiste en que su estado total, descrito de acuerdo con el
hamiltoniano, es función del estado de todos los espines. Por otro lado, dado que el número de espines en el
material es muy grande (del orden de 1023), si en un momento dado se removieran algunos de ellos, sin perturbar
al material de alguna otra manera, su estado general no se afectaría de manera notable. Esta característica no tiene
paralelo en nuestra descripción geográfica debido a la diferencia de la dimensión de ambos sistemas.

La ecuación (1) nos permite obtener predicciones de algunas propiedades físicas del sistema por ella descrito;
para lo cual, afortunadamente, no es necesario llevar a cabo el trabajo de obtener el valor de la energía para cada
uno de los estados posibles a fin de "reconstruir la geografía" y después encontrar los estados de energía mínima.
Esto se debe a que contamos, por un lado, con las herramientas de la mecánica estadística,29 [Nota 29] la cual
estudia las características globales de un sistema a partir de las características individuales de sus componentes, y
por otro lado, con la simulación numérica (simulación de una situación utilizando la computadora).
IX. COMPUTADORAS NEURONALES

EN CAPÍTULOS anteriores mencionamos que la computación ha tomado un nuevo rumbo, y que se ha empezado a
trabajar en la creación de computadoras con habilidades para la solución de los problemas complejos. En este capítulo
tenemos tres objetivos: primero, quisiéramos explicar las bases de los modelos de física estadística, que se han introducido
con el objeto de describir y entender algunas de las propiedades colectivas de un arreglo de neuronas interconectadas; en
segundo lugar, quisiéramos revisar, desde esta nueva perspectiva, algunas características de las memorias asociativas, y por
último quisiéramos comentar acerca de algunos progresos que se han hecho en la construcción de redes neuronales
artificiales.

MODELO DE VIDRIO DE ESPÍN

PARA REDES NEURONALES

Denominaremos red neuronal a un conjunto compuesto por un número muy grande de neuronas interconectadas. Ahora
contamos con las herramientas matemáticas y los conceptos físicos necesarios para introducir el modelo de vidrio de espín
para redes neurona les, el cual nos permitirá estudiar algunas de sus propiedades colectivas. Únicamente se requiere hacer
algunas simplificaciones, que a continuación mencionamos, a propósito de las neuronas y de sus conexiones.

Aunque existe una gran variedad de formas y especializaciones entre las neuronas, básicamente su función puede
resumirse en la generación y envío de señales eléctricas (Figura 48); por lo anterior, tomaremos a cada una de las neuronas
como entes con dos estados posibles, ya que pueden estar activas o inactivas. Estas neuronas están en contacto, unas con
otras, de manera que reciben señales provenientes de otras neuronas a través de las sinapsis. La interacción entre las
neuronas podrá ser excitadora, si incita a la neurona a la actividad, o inhibidora, si tiende a mantenerla en reposo.
Finalmente, la red neuronal recibe señales del exterior a través de las células receptoras. De esta manera, cada neurona,
promediará las señales que recibe, y si la señal resultante tiene una magnitud mayor que un cierto umbral característico,
entonces ajustará su estado emitiendo una señal de respuesta (Figura 49). En caso contrario permanecerá en reposo, esto es,
no emitirá ninguna señal de respuesta.

[Nota
Si aceptamos estas simplificaciones,30 entonces podemos decir que una red de neuronas interconectadas podría ser
30]
descrita por el mismo hamiltoniano introducido en el capítulo anterior, si se escoge el conjunto apropiado de interacciones
Jij. De esta manera, sabemos que todas las características que este hamiltoniano predice para los vidrios de espín tienen
una contraparte en este modelo para las redes neuronales; en particular, la existencia de un espacio de configuraciones con
un gran número de mínimos locales. Y como explicaremos a continuación, esta característica es precisamente que permite
que un sistema tan simple como el que hemos descrito sea capaz de almacenar información. La figura 50 muestra un
cuadro en el que se establece la analogía entre una red neuronal y un vidrio de espín, y se incluye la traducción entre los
términos matemáticos utilizados en la descripción de ambos tipos de sistemas.
Figura 48. Aunque existe una gran variedad de formas y especializaciones entre las neuronas, básicamente su
función pueda resumirse con generación y envío de señales eléctricas.

Figura 49. Las hileras de libros de esta figura muestran que los impulsos nerviosos son un evento del tipo todo o
nada. Un estímulo es demasiado débil, no producirá ningún efecto; pero si su "fuerza" está por encima de cierto
umbral, entonces se generará un impulso nervioso. Si ahora hacemos el estímulo dos veces más intenso, tendrá el
mismo efecto que el anterior.

Físicamente, el hecho de que para una red de neuronas se prediga una energía" con muchos mínimos, se debe a que cada
neurona recibe señales provenientes de un número muy grande de otras neuronas, algunas de las cuales pueden ser
excitadoras y otras inhibidoras. Sin embargo, la neurona no puede excitarse e inhibirse simultáneamente, por lo que "suma"
las señales de entrada. Si la señal total es más fuerte que un cierto umbral, entonces la neurona se excita y emite una señal
de respuesta; en caso contrario, la neurona permanece inactiva. De esta manera, podemos decir que siempre habrá un gran
número de ''pares frustrados'' de neuronas, debido a que dichos pares no contribuyen a reducir la energía total de la red.31
[Nota
31]
La frustración existente en la red ocasiona que haya muchos estados "naturales o de energía mínima. En un momento dado,
la evolución hacia uno y otro de estos estados naturales dependerá, en gran medida, del estado neurofisiológico previo
(conjunto de los estímulos recibidos, tanto del interior como del exterior del organismo), de la misma manera que nuestro
caminante arribará a uno u otro valle dependiendo del lugar donde inició su caminata.

Según este esquema, los procesos de reconocimiento y aprendizaje consisten en lo siguiente. Continuamente nuestro
cerebro recibe una gran cantidad de información. Esta información es adquirida a través de las neuronas receptoras (vía
nervio óptico, neuronas sensoriales, terminales olfativas, etcétera), y su función es llevar al cerebro a un cierto estado al
que llamaremos "estado inicial" (estos estímulos actúan como el helicóptero que traslada al caminante de una región a
otra). A partir de ese momento se lleva a cabo un proceso de "relajamiento", por medio del cual el estado del cerebro
[Nota
evoluciona hacia estados cada vez "más naturales", hasta llegar a algún estado cercano de energía mínima;32 esto es,
reconocemos. De esta manera, ciertas imágenes visuales, sensaciones táctiles, sonidos, olores, nos evocan personas,32]
hechos, situaciones; conocimientos adquiridos anteriormente y relacionados de alguna manera con la señal que los
"provocó". Mientras esto sucede, las "montañas", "collados", "valles", de nuestro espacio de estados ser modifican a través
de un proceso continuo de aprendizaje y de ajuste a las condiciones externas, ya que en todo momento estamos
interactuando con el medio ambiente y somos retroalimentados por éste. Esto es, el aprendizaje consiste en el proceso por
medio del cual las interacciones sinápticas se modifican, de manera que un estado en particular se convierte en un estado
de energía mínima, y por lo tanto, en un estado "atractivo".

Figura 50. Esta tabla resume la analogía matemática entre una red de neuronas interconectadas y un vidrio de espín.

Este modelo nos permite tener una visión cualitativa acerca del carácter de los mecanismos relacionados, a nivel global, en
los procesos de aprendizaje y remembranza. Sin embargo, aunque en principio es aplicable al cerebro o al sistema nervioso
como un todo, en la práctica, si deseamos hacer cálculos matemáticos, es imposible considerar explícitamente las
diferencias existentes en la arquitectura de las conexiones neuronales, en una y otra región del sistema nervioso. Por lo
anterior, nos encontramos con que para poder tratar matemáticamente este modelo es necesario introducir una especie de
[Nota
"anatomía promedio" con la cual se desprecian estas diferencias.33 Por otro lado, este modelo puede ser aplicable a
33]En este caso entenderíamos por estímulos externos,
regiones grandes de tejido nervioso, por ejemplo a la corteza cerebral.
cualquier estímulo proveniente de neuronas ajenas a esta región.

Como explicamos previamente, en los materiales magnéticos el valor de las interacciones no varía como función del
tiempo y depende del material mismo. Por el contrario, en el caso de la red neuronal, las interacciones sinápticas dependen
de varios factores. A saber: la herencia, el medio ambiente y el aprendizaje. Una parte importante de la investigación a
realizar consiste en encontrar de qué manera se determinan estas interacciones, y expresarla matemáticamente en forma de
una regla de aprendizaje. Han sido propuestos varios modelos matemáticos para las reglas de aprendizaje, la mayor parte
de los cuales son variantes de una regla propuesta por Hebb en 1949. Esta regla nos dice que el cambio en la interacción
sináptica entre dos neuronas es proporcional a la correlación entre la actividad de las neuronas pre y postsináptica.

La concepción de la memoria como una propiedad colectiva de una red de neuronas interconectadas, que tiene origen en la
frustración, nos proporciona la mejor explicación que tenemos hasta este momento acerca de los procesos de aprendizaje y
remembranza, en seres vivos. Por otro lado, ha sido de gran utilidad en la construcción de memoria artificial.

MECANISMOS DE RECONOCIMIENTO

Y APRENDIZAJE

Hasta este momento, hemos logrado ya exponer nuestra tesis acerca de cuál es el mecanismo probable por medio del cual
se almacena la información en el cerebro humano (y en general, en el sistema nervioso). Podríamos resumir esta tesis de la
siguiente manera:

1) Cada percepción o evocación mental está relacionada con un estado neurofisiológico, en el cual participan,
colectivamente, un gran número de neuronas; por lo cual basta con repetir el estado neurofisiológico para evocar la
percepción correspondiente.

2) El proceso de evocación mental o remembranza consiste en un proceso de relajamiento, regido por las leyes de la
física, en el cual el estado del cerebro evoluciona hacia estados de "energía libre" cada vez menor.

3) La geografía del espacio de estados está determinada por el conjunto de las interacciones sinápticas, y los estados
memorizados corresponden a estados de energía mínima. Es por lo anterior que al cerebro "le gusta" encontrarse en
dichos estados.

4) El proceso de aprendizaje consiste en el establecimiento de nuevas conexiones sinápticas entre las neuronas, y la
modificación funcional o estructural de las ya existentes. De manera que la "geografía" del espacio de estados
cambia, con lo cual se crean nuevos mínimos o varía el tamaño de sus cuencas. Esto es, se adquiere nueva
información o se refuerza u olvida la ya almacenada.

5) Las conductas no aprendidas, esto es, innatas, reflejas o instintivas, corresponden a conexiones determinadas por la
herencia.

6) Las sensaciones son un vehículo utilizado para "colocar" al cerebro en un estado neurofisiológico, a partir del cual
se inicia el proceso de relajamiento que lleva a recordar.

7) La estructura del espacio de estados se modifica constantemente, debido a la continua interacción con el medio y a
los procesos de ajuste a éste.

Por supuesto que este conjunto de suposiciones no proporciona una explicación a todas las características del
funcionamiento de la mente, sino que, más bien, nos proporciona el marco conceptual en el que deberá llevarse a cabo la
investigación posterior. Por ejemplo, no nos da explicación alguna acerca del proceso de inferencia, de la diferencia entre
las actividades conscientes e inconscientes, del procesamiento explícito de la información que transforma a las sensaciones
en percepciones, etcétera. Sin embargo, nos ofrece una explicación cualitativa acerca del tipo de mecanismos que
intervienen en los procesos de aprendizaje y remembranza.

VOLVIENDO A LA

MEMORIA HUMANA

Aunque aún quedan muchas dudas por responder, estas ideas son consistentes con la forma en que recordamos. Esto es,
con el hecho de que almacenamos información por contenido, y que recordamos y reconocemos mediante el uso de
asociaciones de ideas. Para ilustrar lo anterior, podemos divagar y tratar de interpretar algunas situaciones de la vida diaria
[Nota
en términos de estas nuevas ideas.34 Seguramente al lector se le ocurrirán algunos otros ejemplos importantes.
34]
A veces tenemos recuerdos pasajeros que de pronto "se nos escapan", y pasamos algún tiempo tratando de recordar sin
conseguirlo. Esto lo podríamos interpretar como información almacenada en un valle poco profundo, de manera que
cualquier otro estímulo funciona como una perturbación que distrae y hace que la idea se pierda (véase la figura 51(a)); lo
cual equivale a dar un empujón al caminante lo suficientemente fuerte como para que éste salga del pequeño agujero en el
que se encontraba. Un procedimiento que utilizamos a menudo para volver a recordar tales ideas que se nos "acaban de
escapar, consiste en tratar de reproducir el ambiente y sensaciones presentes en el momento en que se originó la idea
(conversación, posición, etc.), con el objeto de volver a llegar a ella. Lo cual corresponde a tratar de reproducir la
"condición inicial" que nos provocó el recuerdo.
En capítulos anteriores mencionamos que el trabajo de recordar explícitamente "todos y cada uno" de los recuerdos que
tenemos, es una actividad incompatible con la manera en que almacenamos información. Ahora podemos justificar esta
opinión: los seres vivos no almacenamos información de una manera explícita. Lo que hacemos es modificar las
interacciones entre las neuronas de manera que ciertos estados neurofisiológicos se vuelven predilectos, con lo que se logra
una tendencia natural del organismo a evolucionar hacia ellos. Estos estados se recordaran si la información que llega al
cerebro en un momento dado es tal que lo sitúa en un estado lo suficientemente cercano a ellos. Por tanto, aunque
cualquier información particular almacenada puede ser recuperada, es imposible recordar todo, ya que no hay manera de
garantizar que el estado neurofisiológico del cerebro pasará lo suficientemente cerca de todos y cada uno de los recuerdos,
como para ser "atraído" por éstos (habrá recuerdos con cuencas muy pequeñas o de difícil acceso).

Figura 51. Representación esquemática de varios tipos de ideas. a) Una idea que " se escapa" a causa de una
perturbación (distracción), debido a que se trata de un valle poco profundo; b) una obsesión estaría caracterizada
por tener una cuenca de atracción muy amplia; c) una idea difícil de recordar, debido a que no muchos estados
iniciales conducen a ella.

Cualquier información particular "almacenada" en nuestra memoria es en principio recuperable; aunque en muchas
ocasiones sea difícil encontrar una ruta de acceso a ella. Cuando no podemos recordar dicha información, el olvido no es
un olvido real, sino una falla temporal debida a la incapacidad de encontrar la información en un momento dado. Esto es,
no encontramos una "ruta de acceso" a ésta. A veces pasamos un largo periodo tratando de recordar algún dato; tiempo
después, la información es recordada súbitamente debido a que continuábamos buscándola a nivel inconsciente.

De igual manera, muchas veces "olvidamos" hechos importantes de nuestra vida, debido a que nos hacen daño. Esto lo
hacemos como un mecanismo de defensa ante las frustraciones y situaciones dolorosas. Sin embargo, lo que hacemos no es
olvidarlos realmente, sino que perdemos el acceso a dichos recuerdos. Algunas veces es tan difícil el acceso a ellos, que se
hace necesario recurrir a técnicas, como el psicoanálisis o la hipnosis, para poder recordarlos. Es por eso que uno de los
objetivos del psicoanálisis consiste en recordar, analizar y racionalizar hechos y situaciones que nos causan daño, con el
objeto de que sean asimilados a nivel consciente por el individuo, y dejen así de producir ansiedad.

Cuando deseamos aprender algún dato "de memoria", si no existe una correlación natural entre el dato a aprender y
nuestros conocimientos, entonces debemos recurrir al uso de reglas mnemotécnicas. Estas reglas consisten en establecer
relaciones entre diversas ideas, de manera que se logra una ruta, fácil y conocida, de acceso a cierta información.

En los ancianos se observa la pérdida de la habilidad para memorizar nueva información; sin embargo la memoria antigua,
la cual se encuentra bien consolidada, se mantiene intacta. Este fenómeno encuentra una explicación en el hecho de que,
debido a la edad, se dificulta la modificación de las eficiencias sinápticas.

Las propiedades de la percepción han sido utilizadas por los psicólogos para explorar la personalidad de los pacientes. Por
ejemplo, en el test de Rorschach se presenta al paciente una serie de manchas de tinta, sin significado alguno, y se le pide
interpretarlas. Como las manchas carecen de sentido, los individuos se ven obligados a imaginar posibles interpretaciones,
y al hacerlo revelan sus conflictos y motivaciones más profundas. Por ejemplo, para el que tiene miedo una sombra puede
ser confundida con un hombre al acecho, y para una persona obsesionada por el sexo cualquier forma imprecisa puede
cobrar un significado erótico. De igual manera, la libre asociación de ideas constituye una herramienta muy importante en
la interpretación de los sueños. En ambos casos, la explicación de estos fenómenos se encuentra en que nuestras obsesiones
están relacionadas con muchos aspectos de nuestra vida. Podríamos ver las obsesiones como recuerdos con cuencas de
atracción muy amplias, las cuales cubren una gran proporción de los estados posibles, de manera que un gran número de
estímulos sensoriales conducen a ellas (véase la figura 51(b)). Esto hace que las obsesiones sean ideas difíciles de apartar
de nuestra mente.

También podríamos tratar de reinterpretar con base en estas ideas algunas enfermedades, como la esquizofrenia. En los
casos en que se produce un desdoblamiento de la personalidad, esto correspondería, tal vez, a una separación del "espacio
de estados", originada por la presencia dé una gran barrera; de manera que el acceso de una a otra región sea muy
improbable. Esto propicia que sea difícil pasar de una región a otra, y que haya ciertas situaciones concretas que propicien
este paso. Asimismo, puesto que algunas drogas modifican temporalmente la transmisión sináptica, tienen como efecto la
alteración de la percepción del individuo.

REDES NEURONALES ARTIFICIALES

Algunas personas califican a los modelos de física estadística para redes neuronales de meras metáforas. Sin embargo
creemos que se trata de más que una metáfora, ya que se ha demostrado que la frustración puede actuar como un
mecanismo que permite el almacenamiento de información en una red constituida por elementos simples, con dos estados
posibles, que interactúan entre sí. La prueba más palpable de que esto sucede la constituyen los logros recientes en la
construcción de redes neuronales artificiales, acerca de los cuales hablaremos a continuación.

Existen muchas variantes de redes neuronales, también llamadas "modelos conexionistas". Sin embargo, todas tienen una
estructura similar: están formadas por un gran número de procesadores simples, ya sea con dos estados posibles o con
[Nota
varios niveles de actividad.35 Estos elementos están agrupados, de manera que los elementos en un grupo se
35]sí; por otro lado existen conexiones entre diferentes grupos, o capas. Todas estas
encuentran interconectados entre
conexiones son modificables, con el objeto de que la red presente el comportamiento deseado.

La operación de las redes neuronales consiste de dos etapas, que pueden presentarse solas o combinadas. Estas son: i) la
[Nota
etapa de aprendizaje,36 durante la cual el valor de las interacciones es variado de acuerdo con la experiencia o
36]
"entrenamiento" proporcionado, con base en alguna regla de aprendizaje; y ii) una vez que las conexiones están
establecidas, la red debe ser "estimulada" de manera que lleve a cabo el trabajo que uno desea, esto se logra alimentando a
la red con un estado inicial, a partir del cual la red procede a encontrar la información deseada.

Además del tipo de computadoras con arquitectura "neuronal", existe la posibilidad de "simular" estas redes mediante el
uso de programas que operan en computadoras convencionales. Esto es, se hace un programa en el que se definen los
elementos base tipo neurona, y se supone una regla de aprendizaje; esta regla da un valor para las interacciones entre las
neuronas, como función de los datos administrados a la máquina. La rapidez de operación y capacidad obtenidas mediante
el uso de estos programas son mucho menores que las que se lograrían mediante el uso de una computadora neuronal (red
neuronal implementada en circuitería). Sin embargo, aunque estos programas son lentos, dan resultados más satisfactorios
que los logrados con algoritmos complicados. Por otro lado, constituyen una opción económica con respecto a las
computadoras con arquitectura neuronal, ya que no es necesario comprar una nueva computadora de uso específico.

Un ejemplo concreto de la eficiencia de las redes neuronales nos lo dan los programas cuyo propósito es la conversión de
texto escrito a inglés hablado (con ayuda de un sintetizador de voz). En este sentido el idioma inglés presenta un gran reto,
ya que aunque cuenta con muchas reglas fonéticas, estas reglas tienen un gran número de excepciones y casos particulares.
Por otro lado, lo ideal sería que la computadora "leyese de corrido", lo cual hace que se requiera gran rapidez en el
procesamiento de la información. A lo largo de varios años, fue desarrollado un paquete de software (para computadora
tradicional) denominado DECtalk. Este sistema, aunque de una gran complejidad, fue capaz de llevar a cabo esta tarea de
manera satisfac1toria, esto es, con pequeños y ocasionales errores de pronunciación. Recientemente, se creó un nuevo
[Nota
sistema,37 llamado NETtalk, con el mismo objetivo. En este caso, a sus creadores les tomó menos de tres meses
desarrollar, 37]
a partir de cero, un sistema que efectuara la misma tarea con una eficiencia similar. Resulta curioso, aunque
predecible, que durante la etapa de entrenamiento del sistema éste cometía el mismo tipo de errores que los niños
pequeños.

Con respecto a las arquitecturas neuronales, ya han sido patentados varios modelos de éstas. En estas computadoras, cada
"neurona" artificial constituye un elemento procesador que funciona independiente y simultáneamente a los demás. Las
diferencias principales entre las computadoras tradicionales y las computadoras neuronales se resumen en la figura 52.

EL FUTURO
Como mencionamos en la introducción, la evolución de la ciencia y la técnica en los países capitalistas se ha llevado a
cabo bajo las presiones de intereses políticos y económicos, principalmente. Dentro de este contexto, la creación de
máquinas pensantes es de primordial importancia, debido a su potencial de comercialización y a su uso con objetivos
militares. Podríamos decir que su rango de aplicaciones sería prácticamcnte ilimitado.

Computadoras Tradicionales Computadoras Neuronales

Útiles para seguir instrucciones precisas. Útiles para resolver problemas en lo que no es posible
dar una receta precisa

Excelente para efectuar calculos


matemáticos No muy confiables para efectuar cálculos matemáticos.

Se alimentan con programas; se requiere


Se alimentan con datos; no se requiere del uso de
del uso de algoritmos.
algoritmos.

No "aprenden "; su desempeño es siempre "Aprenden" mediante la inspeción de datos; su


el mismo. desempeño mejora con la cantidad de información
recibida.

No toleran errores.
Toleran errores.

No se "equivocan" (si acaso, el que se


equivoca es el programador). Pueden equivocarse.

No usan los datos guardados en su


memoria, a menos que éstos sean
Usa activamente, toda la información guardada en la
explícitamente "llamados" por el
memoria.
programa.

Su funcionamiento depende del buen


funcionamiento de TODOS sus Su funcionamiento no se ve alterado por la falla de un
componentes. pequeño número de sus componentes.
Figura 52. Esta tabla compara las características de las computadoras convencionales y las computadoras neuronales.

Lo anterior ha sido advertido por los gobiernos de los países poderosos, quienes apoyan de manera substancial proyectos
institucionales y regionales cuyo propósito es la planeación de la investigación en este campo. Como muestra de lo anterior
tenemos que Alemania (oeste) tiene un presupuesto gubernamental de 100 millones de dólares destinados exclusivamente
al desarrollo de esta área; Japón tiene un programa llamado fronteras humanas, y la Comunidad Económica Europea ha
creado un programa llamado BRAIN (investigación básica en inteligencia adaptativa y neurocomputación). Por otro lado,
a finales de 1988 la oficina de tecnología táctica del gobierno de Estados Unidos de América recomendó una inversión
federal de casi 400 millones de dólares para investigación y desarrollo de redes neuronales. De igual manera, en estos
países se han venido formando asociaciones científicas de investigadores activos y estudiantes interesados en estos
proyectos. Estas asociaciones agrupan personas con diversas formaciones profesionales, que incluyen psicólogos,
neurobiólogos, matemáticos, computólogos, físicos e ingenieros.

También la iniciativa privada ha dedicado fuertes sumas de dinero para el desarrollo de sus propios proyectos de redes
neuronales. Se calcula que para finales de 1988 había ya más de 200 compañías privadas en los Estados Unidos dedicadas
a la fabricación de redes neuronales; por otro lado, cualquier revista de computación contiene una larga lista de anuncios
relacionados con esta nueva tecnología que evoluciona día a día. Los cambios pequeños en las máquinas se dan mediante
un proceso similar al de selección natural. Un fabricante introduce variaciones en su producto que lo hacen más útil o, al
menos, más atractivo para el consumidor. Como resultado, el producto gana mercado a los productos elaborados por sus
competidores. Estos últimos, para poder subsistir y recuperar mercados, deben innovar su producto introduciendo
características análogas o superiores a las de los productos de los otros fabricantes. En este proceso muchas pequeñas
compañías, incapaces de incorporar todos los avances tecnológicos, desaparecen. Otras compañías se consolidan y
adquieren un lugar importante.

Creemos que bajo toda esta presión, las redes neuronales tendrán un gran impulso en los años que se avecinan (Figura 53),
y que esto repercutirá, aún más, en todos los aspectos de nuestra vida. Estas computadoras no substituirán a las
computadoras convencionales, sino que las complementarán. De manera que podremos contar con computadoras híbridas,
que utilicen uno u otro tipo de computación, dependiendo del problema, o de la parte del problema a resolver. Pero, ¿qué
tan lejos nos encontramos de construir máquinas tan poderosas como el cerebro humano?

Figura 53. Se avecina la era de las computadoras neuronales.

El cerebro humano tiene un número de conexiones del orden de 1015, transmite 1016 impulsos eléctricos por segundo; por
otro lado, el cerebro de una mosca trabaja enviando 109 señales por segundo. En comparación, la neurocomputadora TRW
Mark V tiene 107 interconexiones y envía 1.6 X107 señales por segundo; y los programas de redes neuronales escritos para
computadoras personales funcionan típicamente con 30 000 interconexiones que envían 25 000 señales por segundo. Como
podemos ver a partir de estas cifras, existe un abismo entre el cerebro humano y las neurocomputadoras.

Aunque la tecnología de este nuevo tipo de computadoras está aún en su infancia, existe un gran entusiasmo y optimismo
acerca de su futuro. Sin embargo, se considera muy remota la posibilidad de construir algo equiparable al cerebro humano.
Según B. Widrow, director de la Sociedad Internacional de Redes Neuronales e inventor de un dispositivo tipo red
neuronal utilizado para líneas de teléfonos de larga distancia, pasarán "más de mil años" antes de que se puedan construir
cerebros sinteticos. Y usted, ¿qué cree?
BIBLIOGRAFÍA

1.INTRODUCCIÓN

J.D. Bernal, La Ciencia en nuestro tiempo, UNAM/Ed. Nueva Imagen, México, 1979.

Nueva Enciclopedia Temática, vol. VII.

II. ,HISTORIA DE LA COMPUTACIÓN

British Encyclopaedia, 15a edición, 1985.

J.Hecht, Computers in Physics, vol. 1, núm. 1, PP. 44-49 (1987).

ITEC. The home study course in electronics and computers, GEJ Publishing Ltd., Londres, 1983.

Nueva Enciclopedia Temática, vol. VII.

III. PRINCIPIOS DE OPERACIÓN DE LAS COMPUTADORAS

British Encyclopaedia, 15a edición, 1985.

ITEC. The home study course in electronics and computers, GEJ Publishing Ltd., Londres, 1983.

Matemáticas en el mundo moderno, selecciones de Scientific American, Editorial Blume, 1974.

Nueva Enciclopedia Temática, vol. VII.

IV. SISTEMAS DE ARCHIVO Y BÚSQUEDA DE INFORMACIÓN

Nueva Enciclopedia Temática, vol. VII.

ITEC. The home study course in electronics and computers, GEJ Publishing Ltd., Londres, 1983.

*Las publicaciones marcadas con un asterisco son publicaciones especializadas.

V. EL HOMBRE Y LAS MÁQUINAS PENSANTES

James Burke, The day the universe changed, British Broadcasting Corporation, Londres, 1985.

D.R. Hofstadter, Gödel, Escher, Bach: An eternal golden braid, First Vintage Books Edition, 1980.

ITEC. The home study course in electronics and computers, GEJ Publishing Ltd., Londres, 1983.

José Luis Pinillos, La mente humana, Biblioteca básica Salvat núm. 24, Salvat Editores, 1971.

VI. EL CEREBRO Y LA MENTE

British Encyclopaedia, 15a edición, 1985.

James Burke, The day the universe changed, British Broadcasting Corporation, Londres, 1985.

The Brain, A Scientific American Book (los capítulos aparecieron originalmente como artículos en la revista
Scientific American de septiembre de 1979), W. H. Freeman and Company, San Francisco.

Ciencia ilustrada, enciclopedia en fascículos, vol. 6, editor Victor Civita, Abril S.A. Cultural e Industrial, Brasil.
*S. Grossberg, "Nonlinear Neural Networks: Principles, Mechanism, and Architectures", Neural Networks 1, p.
17, 1988.

Cristina Piña, La física en la medicina, La Ciencia desde México, vol. 37, Fondo de Cultura Económica, 1987.

Ricardo Tapia, Las células de la mente, La Ciencia desde México, vol. 30, Fondo de Cultura Económica, 1987.

VII. MEMORIA Y APRENDIZAJE

British Encyclopaedia, 15a edición, 1985.

The Brain, A Scientific American Book (los capítulos aparecieron originalmente como artículos en la revista
Scientific American de septiembre de 1979), W. H. Freeman and Company, San Francisco.

Diccionario Enciclopédico Espasa, Ed. Espasa-Calpe, S. A., 1979.

VIII. MATERIALES MAGNÉTICOS

D. S. Fisher, G. M. Grinstein y A. Khurana, "Theory of Random Magnets", publicado en Physics Toda y, p. 56,
vol. 41, diciembre de 1988.

J. Tagueña y E. Martina, De la brújula al espín. El magnetismo, La Ciencia desde México, vol. 56, Fondo de
Cultura Económica, 1989.

IX. COMPUTADORAS NEURONALES

J. A. Anderson, "Networks for fun and profit", publicado en Nature vol. 323, p. 406, julio de 1986.

*T. Kohonen, "An Introduction to Neural Computing", publicado en Neural Networks, vol. 1, p. 3, 1988.

*S. Grossberg, "Nonlinear Neural Networks: Principies, Mechanisms, and Architectures", Neural Networks, vol.
1, p. 17, 1988.

J. L. McClelland, D. E. Rumelhard & PDP Research Group, Parallel Distributed Processing, Cambridge,
Massachusetts, MIT Press, 1986.

H. Sompolinsky, "Statistical Mechanics of Neural Networks", publicado en PhysicsToda y, p. 71, vol. 41,
diciembre de 1988.

S. Sutherland, "Parallel Distributed Processing", publicado en Nature, vol. 323, p. 486, octubre de 1986.

D.W. Tank, J. J. Hopfield, "Collective Computation in Neuronlike Circuits", Scientific American, vol. 257, p.
104, diciembre de 1987.
COLOFÓN

Este libro se terminó de imprimir y encuadernar

en el mes de octubre de 1995 en Impresora y Encuadernadora Progreso, S. A. de C. V. (IEPSA), Calz.

de San Lorenzo, 244; 09830 México, D. F. Se tiraron

3 000 ejemplares.

La Ciencia desde México es coordinada editorialmente por

MARCO ANTONIO PULIDO Y MARÍA

DEL CARMEN FARÍAS.


CONTRAPORTADA

Hay quienes se alarman debido a que sienten que las computadoras están "reemplazando" al hombre en gran
número de sus funciones. Lo anterior es cierto en parte, y cabe añadir que hasta ahora las computadoras son
incapaces de hacer nada por sí mismas, únicamente siguen las instrucciones con que se las programa. Pero
¿continuará manteniéndose tal status?, se construirá algún día la computadora que, igual que el ser humano,
"aprenda" de su experiencia y sea capaz de autoprogramarse?

Este libro trata, en forma paralela, dos temas correlacionados: por una parte, de las computadoras, su evolución y
sus métodos para manejar la información, y en segundo lugar de lo que sabemos o creemos saber acerca de los
mecanismos mediante los cuales se lleva a cabo el almacenamiento y la evocación de la memoria en los seres
vivos, poniendo de relieve, al referirse a cada tema, las similitudes y diferencias de estos procesos. Finalmente,
menciona los intentos recientes de crear máquinas capaces de aprender, hacer generalizaciones y clasificar, cuyas
memorias funcionen empleando mecanismos semejantes a los utilizados por los seres vivos, y analiza las
perspectivas sobre las computadoras del futuro.

En buena parte, este libro aborda asuntos de los que no se tiene una explicación definitiva y que han inquietado al
hombre desde sus primeros tiempos —memoria, herencia, aprendizaje—, mas no intenta hacer una exposición
profunda de las disciplinas anexas, ni dar "la" respuesta aún imposible, o por otra parte, sobre el funcionamiento
de la mente humana. Exponer, de una manera sencilla y accesible, algunas ideas sobre la memoria natural y la
artificial, que revisten gran interés, e introducir así al lector al tipo de modelos que la física ha empezado a
desarrollar para estudiar algunos aspectos del funcionamiento del cerebro. Esto es, desea compartir con el lector
las ideas e inquietudes de un grupo cada vez más grande de científicos que en la actualidad trabaja con gran
entusiasmo en este campo.

Laura Viana Castrillón hizo sus estudios de licenciatura en física en la Facultad de Ciencias de la UNAM, y
obtuvo su doctorado en física teórica en la Universidad de Manchester, Inglaterra, con una tesis sobre los sistemas
magnéticos desordenados. Radica en Ensenada, B.C., donde trabaja como investigadora de tiempo completo en el
Instituto de Física de la UNAM.

También podría gustarte