Está en la página 1de 38

6.

Sistema neuronal vs
sistema electrnico
Comparativa

6. SISTEMA NEURONAL VS SISTEMA ELECTRNICO

En este captulo se pretende hacer una comparativa entre ciertos aspectos del sistema
neuronal y el sistema electrnico, tanto computadores como redes neuronales. Para ello,
previamente se hace una revisin de su historia y se describen sus caractersticas ms
importantes. Por ltimo se analizan las similitudes y diferencias entre ambos sistemas.

6.1 Sistema biolgico y computadores

6.1.1 Historia de la computacin

En la historia de la ciencia, hay ciertos momentos claves en los que el ingenio e


inteligencia de ciertas personas, aunados a toda una situacin social e ideolgica
propicias, les permiten percibir algo que nadie antes haba sido capaz de ver. En muchas
ocasiones esta revolucin en los conceptos viene acompaada de innovaciones
tecnolgicas que constituyen grandes saltos en el desarrollo de nuevos inventos. De esta
manera, nos encontramos con que en general el avance cientfico-tecnolgico tiene dos
tipos de etapas: en la primera surge una idea o descubrimiento innovador muy
importante, y la segunda comprende los tiempos durante los cuales se maduran y
establecen las ideas. Durante estos periodos, se construyen sistemas cada vez ms
elaborados con base en estos principios. Este proceso contina hasta que surge una
nueva idea que permite de nueva cuenta un avance significativo.

Con esta idea en mente, podramos dividir la historia de la computacin en varias


etapas, cada una caracterizada por una revolucin tecnolgica importante.

1 Etapa: Sistemas numerales

Puede decirse que la historia de la computacin comienza cuando el hombre adquiere la


necesidad de contar. Seguramente en un principio el hombre comenz a contar con los
dedos, para despus hacerlo mediante marcas en el suelo o utilizando piedras. Con la
invencin de la escritura, diferentes civilizaciones encontraron sendas maneras de
contar y ms tarde, de efectuar operaciones (Figura 51).

149
Comparativa

Figura 51. Algunos sistemas numerales.

Una de las escrituras ms antiguas que se conoce es la egipcia. Esta civilizacin adopt
un sistema de contar de diez en diez, de manera que marcaban las unidades con lneas
verticales y las decenas con un signo similar a la U invertida. Otras culturas adoptaron
sistemas ms complicados; por ejemplo, los babilonios contaban de 60 en 60, y aunque
su sistema era muy poco prctico, se cree que de ellos provienen las bases del sistema
actual de contar los minutos y los segundos.

Otra numeracin antiguamente utilizada fue la romana, que era muy simple y
permita efectuar operaciones aritmticas aunque no con mucha sencillez. An
perdura la tradicin de utilizarla en algunos contextos especficos; por ejemplo, en
las cartulas de los relojes, para denominar los tomos o captulos de los libros, para
escribir algunas fechas, etctera.

Entre las culturas americanas, es interesante sealar que los mayas contaron con un
sistema numeral vigesimal muy avanzado y utilizaron el cero aun antes que en Europa o
Asia.

150
Comparativa

2 Etapa: Uso de artefactos para sumar

El siguiente paso en el desarrollo de la computacin se dio con la invencin de


instrumentos tiles para efectuar operaciones matemticas. El baco es la primera
calculadora o computadora de que tenemos noticias. Aunque se invent hace
aproximadamente 4.000 aos, an tiene un uso muy amplio en algunos pases de Asia,
debido a que se trata de una calculadora muy rpida y prctica, til para efectuar
operaciones de adicin, substraccin, multiplicacin y divisin. Este artefacto se
muestra en la Figura 52.

Figura 52. En el baco cada barra horizontal contiene siete mviles separadas por una barra vertical. Las
del lado izquierdo valen uno y las del derecho cinco. Las sumas se efectan al mover, hacia la barra
central, las cuentas correspondientes a la cantidad que se desea sumar.

Muchos aos tuvieron que pasar antes de que se lograran progresos en el desarrollo de
nuevas calculadoras. En 1617, el escocs John Napier inventa los llamados huesos de
Napier o tablas de multiplicar (de donde proviene el nombre utilizado hasta nuestros
das). stos consisten de una regla fija y otra mvil que se desliza sobre la primera, de
manera que deja ver el producto de dos nmeros cualesquiera. Posteriormente las tablas
de Napier evolucionaron hasta llegar a la regla de clculo, la cual funciona con el
mismo principio pero es til para llevar a cabo operaciones de multiplicacin, divisin y
raz cuadrada, entre otras. Debido a su portabilidad, este artefacto tuvo una gran acogida
en el mundo occidental y fue de uso frecuente hasta hace pocos aos, cuando se
generaliz el uso de las calculadoras de bolsillo.

151
Comparativa

A mediados del siglo XVII se inicia una nueva era de calculadoras mecnicas cuando,
en 1642, Blaise Pascal, que slo tena 19 aos, introduce una mquina sumadora
mecnica con el objeto de facilitar los clculos de su padre (Figura 53). Esta mquina
consista en un sistema con ruedas pequeas acopladas entre s y que, de derecha a
izquierda correspondan a unidades, decenas, centenas, etctera. Estas ruedas se
encontraban divididas en 10 partes iguales, de manera que para efectuar una suma se
hacan girar manualmente un nmero de pasos acorde con el nmero que se deseaba
introducir. La rotacin completa de un crculo en la direccin positiva, causaba
automticamente que el crculo a su izquierda avanzara una posicin. Para efectuar
sustracciones el proceso era el inverso.

Figura 53. Mquina de Pascal.

Algunos aos ms tarde, Leibniz inventa una mquina similar a la de Pascal pero ms
compleja, la cual poda sumar, restar, multiplicar y dividir. Es la computadora, ilustrada
en la Figura 54 , que se emple extensivamente hasta el advenimiento de las
computadoras electrnicas.

Figura 54. Diagrama que muestra un corte de la mquina de calcular de Leibniz.

152
Comparativa

3 Etapa: Inicio de la era de la programacin

Los siguientes avances significativos no se logran hasta el siglo XIX, cuando Joseph
Jacquard, que era obrero en una fbrica de sedas de Lyon, introduce la idea de
programar mquinas mediante el uso de tarjetas perforadas. La invencin de Jacquard
consisti en un telar que utilizaba tarjetas perforadas para controlar de manera
automtica el diseo y los colores de los tejidos. Esta idea es adaptada a la computacin,
en la llamada "mquina analtica", por un matemtico ingls llamado Charles Babbage,
que vivi obsesionado con el diseo y construccin de mquinas calculadoras.

Babbage hizo su primer esbozo de una mquina calculadora a la que llam mquina
diferencial, en 1822. Sin embargo, constantemente tena nuevas ideas que mejoraban el
diseo original, por lo que iba echando por tierra todo el trabajo realizado
anteriormente. Es probable que esta situacin hubiese continuado durante muchos aos,
de no ser por una discusin que tuvo con su mecnico, despus de la cual este ltimo
desmont el taller y parti con todos los diseos. En esta coyuntura, Babbage tiene que
empezar un nuevo diseo, y as concibe una calculadora totalmente nueva: su "mquina
analtica", que habra de ser ms fcil de construir y tendra mayor poder de clculo que
la anterior. As, disea una computadora mecnica digital a la que habran de
suministrrsele datos e instrucciones a seguir a travs de tarjetas perforadas de acuerdo
con un cdigo. La computadora a su vez proporcionara las soluciones tambin en forma
de perforaciones en tarjeta. Como consecuencia, esta mquina "programable" ofreca
dos nuevas ventajas: i) por primera vez, una mquina sera capaz de utilizar durante un
clculo los resultados de otro anterior sin necesidad de reconfigurar la mquina, lo que
permitira llevar a cabo clculos iterativos, y ii) habra la posibilidad de que la
computadora siguiese instrucciones alternas, dependiendo de los resultados de una etapa
anterior del clculo. Babbage describi esta mquina como "la mquina que se muerde
la cola".

Los planes de Babbage eran crear una mquina de no menos de 20 cifras de capacidad y
precisin de seis cifras. Probablemente, las debilidades ms grandes de este diseo
fueron el cuidado y precisin requeridos para su construccin. De manera que, aunque
su diseador dedic el resto de su vida, y gran parte de su fortuna, a tratar de terminar
esta mquina, slo pudo hacer una versin pequea del modelo.

153
Comparativa

De haberse construido, la mquina hubiese consistido de cerca de dos toneladas de


maquinaria de relojera de latn y acero.

Para dar una idea de la importancia de "la mquina que se muerde la cola", diremos que
hasta ese momento, cada vez que se quera efectuar una serie de operaciones
matemticas, haba que introducir, una a una y manualmente, todas las instrucciones y
datos de la operacin conforme se iban necesitando. A cada paso la mquina iba dando
el resultado parcial de la operacin especfica efectuada, de manera que el "usuario" de
la mquina poda decidir cul sera la siguiente operacin.

4 Etapa: La era moderna de la computacin

Con el desarrollo posterior de la electricidad aparecieron los llamados computadores


electromecnicos, que utilizaban solenoides e interruptores mecnicos operados
elctricamente. El primero de ellos se cre en 1944 y fue llamado Mark I [40]. Las
instrucciones se cargaban por medio de cinta de papel con perforaciones, y los datos
se proporcionaban en tarjetas de cartn, tambin perforadas. Este computador tena
aproximadamente 15.5 m. de largo por 2.5 de altura, y multiplicaba dos nmeros en
aproximadamente 3 segundos. Tres aos ms tarde, el computador Mark II era capaz de
llevar a cabo la misma operacin en menos de un cuarto de segundo, esto es, 12 veces
ms rpido.

Mientras estos computadores analgicos eran construidos, se gestaba un nuevo concepto


de computadores. stos eran los llamados computadores digitales, acerca de cuya
paternidad existen gran cantidad de disputas. Sin embargo, como narraremos a
continuacin, en una batalla legal en las cortes de los Estados Unidos de Amrica se
atribuy el derecho a llamarse "inventor del computador digital" a John V. Atanasoff,
un fsico estadounidense, hijo de un ingeniero elctrico y una maestra de lgebra [41].

Desde muy pequeo, Atanasoff encontr gran placer en el estudio del lgebra. Cuando
tena 10 aos, su madre le dio un libro en el que se explicaba cmo calcular nmeros en
otras bases diferentes a la base diez. Aos ms tarde, Atanasoff comentara: "Cuando
inici mi trabajo en computadores, una de las cosas que tena en mente era que tal vez

154
Comparativa

los computadores trabajaran mejor si utilizaran para sus clculos alguna otra base que
no fuese diez."

Ms adelante, Atanasoff estudi ingeniera elctrica e hizo estudios de postgrado en


matemtica y fsica, para posteriormente llegar a ser profesor asociado de fsica y
matemticas en la Universidad de Iowa. Una de las motivaciones de Atanasoff para
trabajar en el diseo de computadores fue su gran frustracin ante la incapacidad de sus
alumnos para encontrar las soluciones de sistemas grandes de ecuaciones diferenciales
simultneas; ya que consideraba que el tiempo invertido en esta tarea les impeda
dedicarse a otros problemas ms interesantes. Dicho sea de paso, la solucin de este
problema matemtico era imposible de obtener utilizando las calculadoras analgicas
existentes en ese momento. Es en esta poca, cuando Atanasoff tuvo varias ideas muy
brillantes que revolucionaron las mquinas calculadoras y que de hecho hicieron posible
el inicio de la era moderna de la computacin. Estas ideas fueron las siguientes:

1) El reemplazo de los rels electromecnicos por vlvulas. Los rels electromecnicos


utilizados hasta ese momento eran una especie de interruptores que podan abrirse o
cerrarse cientos de veces por minuto. Dada la naturaleza de este proceso, no poda
llevarse a cabo con ms rapidez. Por otro lado, las vlvulas pueden conmutar (conducen
o dejan de conducir electrones), cientos de veces por segundo. Esto es, operan con una
rapidez mucho mayor que los relevadores electromecnicos.

2) La substitucin del sistema decimal por el sistema binario. Tanto los circuitos
electrnicos como los rels electromecnicos tienen dos estados posibles, pueden estar
encendidos o apagados, lo cual puede estar representado por unos y ceros,
respectivamente. Esto hace que sea ms natural para un computador efectuar clculos
utilizando para ello un sistema numrico binario.

3) La utilizacin de condensadores para construir dispositivos encargados de guardar


informacin (memorias). Estos nuevos dispositivos estaran formados por un gran
nmero de condensadores, los cuales, al estar cargados o descargados, guardaran
informacin de acuerdo con un cdigo binario. Sin embargo dado que es imposible
lograr un aislamiento elctrico perfecto del dispositivo, era de esperarse que la carga se
escapara en cuestin de milisegundos.

155
Comparativa

Atanasoff ide entonces un procedimiento llamado refrescamiento de memoria, que


consiste en leer la informacin registrada en cada rea de la memoria e inmediatamente
reescribirla en el mismo lugar. Esta operacin debera llevarse a cabo peridica y
automticamente, a intervalos de tiempo regulares.

Durante los aos subsecuentes, Atanasoff trabaj junto con un estudiante en la


construccin de un prototipo de computador que utilizara estos principios, y que fue de
hecho el primero en hacer aritmtica electrnicamente. ste fue el llamado ABC
(Atanasoff-Berry Computer), que utilizaba 300 vlvulas para los circuitos lgicos, y
condensadores para la regeneracin automtica de la memoria. Por otro lado, mientras
esto suceda, Atanasoff firm un convenio con la universidad en la que prestaba sus
servicios. En dicho documento, el inventor convena en ceder a sta la mitad de los
ingresos obtenidos por su computador. A su vez, la universidad se comprometa a
tramitar la patente. Desafortunadamente, la universidad nunca cumpli con su parte,
aparentemente debido a la negligencia y falta de confianza en este proyecto por parte de
las autoridades.

Fue en esta poca, mientras trabajaba en el perfeccionamiento del ABC, cuando


Atanasoff tuvo su primer encuentro con un experto en computadores llamado John
Mauchly. Con esta persona tuvo largas discusiones acerca del tema que a ambos
interesaba, le mostr los principios de operacin de su computador y le pidi que
guardara el secreto de su existencia hasta que ste estuviese patentado. Fue entonces
cuando estall la segunda Guerra Mundial; Atanasoff fue llamado entonces a colaborar
con la Fuerza Naval de su pas en un proyecto relacionado con la supervisin de pruebas
acsticas de minas. Debido a estas circunstancias, se tuvo que abandonar el proyecto del
computador ABC, por lo que ste nunca super la etapa de pruebas.

La primera mquina que lleg a estar en plena operacin utilizando los principios
ideados por Atanasoff fue la llamada ENIAC y fue precisamente Mauchly quien la
construy junto con otro colaborador llamado Presper Eckert [42]. Este computador
tena 19.000 vlvulas, 1.500 rels, cientos de miles de condensadores, resistencias e
inductores, y aproximadamente 500.000 conexiones soldadas. Por otro lado, consuma
casi 200 kilovatios de potencia y llevaba a cabo una multiplicacin en 2.8 milisegundos,
mil veces ms rpido que su predecesor, el computador Mark II.

156
Comparativa

Aunque Mauchly sostena que este computador era totalmente diferente del ABC, aos
ms tarde la patente del ENIAC fue invalidada. Despus de una batalla de demandas y
contrademandas entre compaas constructoras de computadores, por no pagar los
derechos de patente, Atanasoff, apoyado por la IBM, inici un juicio contra la patente
del ENIAC. En este juicio, fue reconstruido el ABC y se demostraron los principios que
ste utilizaba en su funcionamiento. El 19 de octubre de 1973, 28 aos despus de
construido el ENIAC, el juez fall en favor de Atanasoff.

En los aos siguientes ha habido un desarrollo acelerado de los computadores


electrnicos digitales, el invento del transistor y el avance posterior en la electrnica han
logrado una diferencia dramtica en eficiencia y costos. As se han logrado: un aumento
en la rapidez con que se efectan las operaciones matemticas, un aumento en la
cantidad de informacin que es posible manejar y almacenar, la disminucin del
volumen de las mquinas y de su costo de operacin y mantenimiento. Para dar una
idea de la magnitud de estos avances, diremos que una pequea calculadora
programable de bolsillo tiene, hoy da, el mismo o un mayor poder para hacer clculos
que los voluminosos computadores de principios de los aos cincuenta, adems de estar
al alcance de casi cualquier bolsillo y tener un costo de mantenimiento prcticamente
nulo.

La historia reciente de la computacin se ha dividido en las llamadas generaciones de


computadores [43,44], cada una de las cuales est caracterizada por un desarrollo o una
innovacin importante. A continuacin haremos una breve resea de estas etapas (las
fechas de inicio y fin de cada etapa son orientativas).

Primera generacin: vlvulas (1951-1958)

sta es la era de los computadores construidos con vlvulas; se inicia en 1951 con el
primer computador industrial, el llamado UNIVAC 1 [45]. Los computadores de esta
generacin eran muy grandes y de funcionamiento costoso. Las vlvulas eran de gran
tamao y consuman mucha energa elctrica, por lo que generaban mucho calor y se
fundan con frecuencia. Debido a esto, los computadores tenan que ser instalados en
cuartos con aire acondicionado, con el propsito de mantener el sistema lo ms fro
posible para disminuir la ocurrencia de fallos.

157
Comparativa

Segunda generacin: el transistor (1959-1964)

La segunda generacin de computadores se inici, a finales de los aos cincuenta, con el


reemplazo de las vlvulas por transistores. Los transistores son dispositivos electrnicos
tiles para generar, amplificar y controlar seales elctricas. Si comparamos las vlvulas
con los transistores, podemos ver que estos ltimos son mucho ms pequeos, ms
confiables, generan menos calor y requieren menos energa para su operacin. Todo
esto contribuy a crear computadores ms pequeos, baratos y confiables. En esta poca
comenz el auge de los computadores desde el punto de vista comercial, se crearon
muchas compaas dedicadas a su diseo y construccin.

Tercera generacin: las familias de computadoras y los circuitos integrados (1964-


1971)

Las mquinas de la tercera generacin se distinguen por dos aspectos importantes: por
un lado, su componente fundamental lo constituyen los circuitos integrados, y por otro,
se forman las familias de computadores caracterizadas por tener compatibilidad hacia
arriba. A continuacin hablaremos de estos dos puntos.

Los circuitos integrados estn formados por un elemento base de silicio (chip), con un
gran nmero de transistores y otros componentes integrados, interconectados, que
ocupan un espacio aproximado de 2.5 cm de largo por 1.25 cm de ancho. El uso de
estos circuitos hizo a los computadores ms econmicos, confiables, compactos y con
un costo de operacin mucho ms bajo.

Las familias de computadores fueron creadas en un intento por lograr compatibilidad


entre mquinas de modelos diferentes, construidas por un mismo fabricante. Los
computadores de la segunda generacin tenan el problema de que los programas
escritos para mquinas pequeas no podan ser utilizados por mquinas ms grandes (ni
viceversa), aunque ambas fuesen producidas por la misma firma comercial. Al
construirse mquinas compatibles se dio un paso muy importante desde el punto de
vista comercial y prctico, ya que permiti a pequeas empresas en desarrollo ir
adquiriendo mquinas cada vez ms poderosas segn el aumento de sus necesidades.

158
Comparativa

De esta manera, los programas escritos para las mquinas pequeas podran ejecutarse
en mquinas ms grandes de la misma familia, haciendo, en el peor de los casos, tan
slo pequeas modificaciones.

Cuarta generacin: el microprocesador (1971-1981)

La cuarta generacin de computadores se caracteriza por el uso del microprocesador.

El microprocesador se convirti en una realidad a mediados de la dcada de 1970, con


la introduccin del circuito de integracin a gran escala (LSI, acrnimo de Large Scale
Integrated) y, ms tarde, con el circuito de integracin a mayor escala (VLSI, acrnimo
de Very Large Scale Integrated), con varios miles de transistores interconectados
soldados sobre un nico sustrato de silicio. ste consiste en un solo circuito integrado,
el cual contiene en su totalidad a la unidad central de procesamiento (CPU), o cerebro
del computador. En esta generacin, el mayor logro consisti en hacer computadores
ms pequeos, con mayor poder y menor volumen y costo.

Quinta generacin: procesamiento en paralelo, redes neuronales e inteligencia


artificial (1982-1989)

Esta nueva generacin incluy dos cambios importantes. El primero consisti en un


cambio fundamental en la manera de efectuar el procesamiento de la informacin, y por
tanto, implic el diseo de arquitecturas conceptualmente diferentes. El segundo
cambio, consisti en el desarrollo y adaptacin de nuevas tecnologas.

Los computadores convencionales procesan la informacin en serie, efectan una


instruccin despus de otra. Como consecuencia, la mayor parte del computador y de
sus perifricos estn ociosos gran parte del tiempo mientras esperan instrucciones del
procesador central. Con el objeto de proceso, han sido diseadas grandes mquinas,
llamadas supercomputadores, cuyo propsito es llevar a cabo el procesamiento de la
informacin en paralelo; constan de varios elementos procesadores, cada uno de los
cuales efecta tareas de manera independiente y simultnea. De esta forma, el trabajo se
divide en subtrabajos independientes, que son asignados a diferentes procesadores. Un
ejemplo de estas mquinas es el computador modelo CRAY 1 [46], que consta de 64
procesadores.
159
Comparativa

Estos supercomputadores paralelos tienen un coste de produccin muy alto, que se


refleja en su coste de uso comercial, de manera que existen muy pocos en el mundo.
Debido a esto, en los Estados Unidos de Amrica se han organizado centros de
supercomputacin en los cuales se da servicio a un gran nmero de usuarios, a travs de
la lnea telefnica.

Adems de su elevado coste, este tipo de computacin presenta algunos inconvenientes:


es difcil programar una computacin paralela, ya que el programador debe fraccionar el
problema en pequeas tareas independientes, y optimizar la manera de asignarlas.

La mayor parte de los problemas no son paralelos por naturaleza; es decir, no siempre es
posible dividir un trabajo en subtrabajos independientes, o hacerlo de manera eficiente,
pues algunos procesadores requieren de los resultados obtenidos por otros para poder
continuar sus clculos. Como consecuencia, a menudo nos encontramos con que el ms
veloz supercomputador opera casi a la misma velocidad que un procesador en serie.
Este problema es conocido como el cuello de botella de Neumann.

En los ltimos aos, ha aparecido un nuevo concepto en la computacin, que


probablemente proporcionar una solucin a algunos de los problemas recin indicados.
Este nuevo concepto, conocido con el nombre de redes neuronales, es radicalmente
diferente al anterior: se utilizan elementos electrnicos que emulan neuronas
simplificadas, los cuales se conectan entre s formando redes similares a las que se
encuentran en el cerebro, aunque a una escala mucho menor. Recientemente, los
investigadores dedicados al desarrollo de las redes neuronales han logrado resultados
sorprendentes, y todo parece indicar que, en el futuro, estos dispositivos podrn dotar a
las computadoras de capacidades similares a las humanas para la solucin de problemas
complejos.

En esta quinta etapa es cuando aparece tambin el concepto de inteligencia artificial


[47]. Las computadoras de esta generacin contienen una gran cantidad de
microprocesadores trabajando en paralelo capaces de reconocer voz e imgenes.
Tambin tienen la capacidad de comunicarse con un lenguaje natural e irn adquiriendo
la habilidad para tomar decisiones en base a procesos de aprendizaje fundamentados en
sistemas expertos e inteligencia artificial.

160
Comparativa

Sexta generacin: 1999 hasta la fecha

Como supuestamente la sexta generacin de computadores est en marcha desde


principios de los aos noventa, debemos por lo menos, esbozar las caractersticas que
deben tener los computadores de esta generacin. Tambin se mencionan algunos de los
avances tecnolgicos de la ltima dcada del siglo XX y lo que se espera lograr en el
siglo XXI. Los computadores de esta generacin cuentan con arquitecturas combinadas
Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo
tiempo; se han creado computadores capaces de realizar ms de un milln de millones
de operaciones aritmticas de punto flotante por segundo (teraflops); las redes de rea
mundial (Wide Area Network, WAN) seguirn creciendo desorbitadamente utilizando
medios de comunicacin a travs de fibras pticas y satlites, con anchos de banda
impresionantes. Las tecnologas de esta generacin ya han sido desarrolladas o estn en
ese proceso. Algunas de ellas son: inteligencia artificial distribuida, teora del caos,
sistemas difusos, holografa, transistores pticos, etctera.

6.1.2 Caractersticas de los computadores

Definicin

Un computador (del latn computare -calcular-), tambin denominado como ordenador


o computadora, es una mquina electrnica que recibe y procesa datos para convertirlos
en informacin til. Es una coleccin de circuitos integrados y otros componentes
relacionados que puede ejecutar con exactitud, sorprendente rapidez, y de acuerdo a lo
indicado por un usuario o automticamente por otro programa, una mltiple variedad de
secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas
en funcin a una amplia gama de aplicaciones prcticas y precisamente determinadas,
proceso al cual se le ha denominado con el nombre de programacin. El computador u
ordenador, adems de la rutina o programa informtico, necesita de datos especficos (a
estos datos, en conjunto, se les conoce como "Input" en ingls) que deben ser
suministrados, y que son requeridos al momento de la ejecucin, para proporcionar el
producto final del procesamiento de datos, que recibe el nombre de "output".

161
Comparativa

La informacin puede ser entonces utilizada, reinterpretada, copiada, transferida, o


retransmitida a otras personas, computadores o componentes electrnicos local o
remotamente usando diferentes sistemas de telecomunicacin, pudiendo ser grabada,
salvada o almacenada en algn tipo de dispositivo o unidad de almacenamiento.

Tambin podemos definir al computador como un sistema digital con tecnologa


microelectrnica capaz de procesar datos a partir de un grupo de instrucciones
denominado programa.

La caracterstica principal que lo distingue de otros dispositivos similares, como una


calculadora no programable, es que puede realizar tareas muy diversas cargando
distintos programas en la memoria para que el microprocesador los ejecute.

Arquitectura

Aunque las tecnologas empleadas en los computadores digitales han cambiado mucho
desde que aparecieron los primeros modelos en los aos 40, la mayora todava utiliza la
arquitectura Eckert-Mauchly [48], publicada a principios de los aos 1940 por John von
Neumann pero que fue creada por John Presper Eckert y John William Mauchly.

La arquitectura Eckert-Mauchly describe un computador con 4 secciones principales: la


unidad lgica y aritmtica (ALU por sus siglas del ingls: Arithmetic Logic Unit), la
unidad de control, la memoria, y los dispositivos de entrada y salida (E/S). Estas partes
estn interconectadas por un conjunto de cables denominados buses (Figura 55).

Figura 55. Arquitectura Eckert-Mauchly de una computadora.

162
Comparativa

La memoria es una secuencia de celdas de almacenamiento numeradas, donde


cada una es un bit o unidad de informacin. La instruccin es la informacin
necesaria para realizar lo que se desea con el computador. Las celdas
contienen datos que se necesitan para llevar a cabo las instrucciones. El nmero
de celdas varan mucho de computador a computador, y las tecnologas
empleadas para la memoria han cambiado bastante; van desde los rels
electromecnicos, tubos llenos de mercurio en los que se formaban los pulsos
acsticos, matrices de imanes permanentes, transistores individuales a circuitos
integrados con millones de celdas en un solo chip. Normalmente encontramos
dos tipos de memorias:
 memoria RAM (memoria principal): se puede tanto leer como
escribir datos. Es una memoria voltil, es decir, requiere un flujo
constante de corriente para mantener su contenido. Tan pronto como
el suministro elctrico se interrumpido, todos los datos que estaban
en la RAM se pierden. Almacenamiento a corto plazo.
 Memoria ROM: los ordenadores contienen casi siempre una pequea
cantidad de memoria de solo lectura que guarda las instrucciones
para iniciar el ordenador. En la memoria ROM no se puede escribir.
El procesador (tambin llamado Unidad central de procesamiento o CPU) consta
de:
 La unidad lgica y aritmtica o ALU, es el dispositivo diseado y
construido para llevar a cabo las operaciones elementales como las
operaciones aritmticas (suma, resta), operaciones lgicas (Y, O,
NO), y operaciones de comparacin o relacionales. En esta unidad es
en donde se hace todo el trabajo computacional.
 La unidad de control sigue la direccin de las posiciones en memoria
que contienen la instruccin que el computador va a realizar en ese
momento; recupera la informacin ponindola en la ALU para la
operacin que debe desarrollar. Transfiere luego el resultado a
ubicaciones apropiadas en la memoria. Una vez terminada la
ejecucin de una instruccin, la unidad de control va a la siguiente
instruccin.

163
Comparativa

Los dispositivos E/S sirven al computador para obtener informacin del mundo
exterior y/o comunicar los resultados generados por el computador al exterior.

Representacin de la informacin

La informacin que maneja el ser humano se representa por una combinacin de


nmeros y letras con los que se forman cantidades y palabras. Para las cantidades se
emplea el sistema numrico decimal, que usa los dgitos del 0 al 9. Para las palabras se
emplea el alfabeto del idioma que se est utilizando, en nuestro caso el alfabeto espaol.
Sin embargo, el ordenador no es capaz de utilizar estos sistemas. l slo puede
representar dos estados, encendido y apagado. Es como un interruptor de la luz que deja
pasar o no la corriente elctrica. El estado encendido se representa por un 1 y el apagado
por un 0. Este sistema numrico, basado en la utilizacin de ceros y unos, se denomina
sistema binario, y es el que emplean todos los ordenadores en el mundo.

6.1.3 Comparativa cerebro/computadora

Una vez vista la evolucin de los ordenadores y algunas de sus caractersticas ms


importantes, en este punto vamos a analizar las similitudes y diferencias que existen
entre los computadores y el cerebro [38, 49,50].

Similitudes

1.- El ordenador est compuesto de dos elementos principales llamados hardware


(componentes materiales y el soporte fsico) y software (conjunto de componentes
inmateriales). Se podra decir, desde un punto de vista psicolgico, que el cerebro
humano, tambin: la parte material integrada por neuronas, cerebelo, bulbo raqudeo,
etc., y por la otra parte, incorprea, que denominamos mente (entendimiento y
conciencia).

2.- Ambos poseen diferentes tipos de memorias, a corto y largo plazo.

164
Comparativa

3.- Se puede decir que tanto el cerebro como los ordenadores poseen dispositivos con
capacidad de proceso lgico.

Diferencias

1.- El ordenador est fabricado con productos metlicos, plsticos y otras materias. El
cerebro humano, es mucho ms complejo, est compuesto de sustancias orgnicas:
protenas, lpidos, oligoelementos, etc, en una combinacin tan perfecta y con tantsimas
conexiones, reacciones fisicoqumicas y complicaciones enzimticas producidas por
amilasas, diastasas, lactasas, lipasas, maltasas, nucleasas, transaminasas, etc.

2.- El cerebro humano pesa aproximadamente entre 1300 y 1500 gramos y contiene
alrededor de 1011 neuronas. El microprocesador, cerebro de la computadora, puede
ocupar el espacio de una ua e integrar cientos y miles de millones de componentes
electrnicos.

3.- Las unidades bsicas funcionales de los ordenadores son los transistores que poseen
una alta velocidad de proceso (ps) mientras que las neuronas (unidades bsicas del
cerebro) son mucho ms lentas (ms).

4.- Las neuronas utilizan para codificar su informacin potenciales de accin que puede
ser considerado como un sistema de pulsos. Los ordenadores utilizan un sistema de
niveles o binario, en los que la unidad bsica es el bit (0 o 1).

5.- Los impulsos, en el cerebro, viajan a una velocidad entre 1 y 100 m/s. En las
computadoras, los impulsos fluyen a una fraccin de la velocidad de la luz.

6.- Las computadoras poseen una nica CPU o varias unidades de procesamiento pero
que tienen un paralelismo limitado, mientras que el cerebro posee un masivo
paralelismo.

165
Comparativa

7.- Podemos considerar al cerebro como un sistema de datos de mltiple propsito


capaz de tratar gran cantidad de informacin en poco tiempo pero no necesariamente
con exactitud. Los ordenadores son sistemas altamente especializados con capacidad
para procesar informacin muy concreta, siguiendo unas instrucciones dadas.
8.- La frecuencia de los impulsos nerviosos (potenciales de accin) puede variar,
mientras que en los ordenadores la frecuencia de transmisin es inalterable y est dada
por el reloj interno de la mquina (sistemas digitales sncronos).

9.- Las llamadas sinapsis cumplen en el cerebro la funcin simultnea de varias


compuertas (and, or, not). En las computadoras, las compuertas lgicas tienen una
funcin perfectamente definida e inalterable.

10.- La memoria est almacenada en diferentes partes del cerebro, de manera que
cuando buscamos informacin no hace falta que sepamos donde se encuentra
almacenada. La informacin, en los ordenadores, se guarda en posiciones de memoria
de acceso directo por su direccin.

11.- Los ordenadores son capaces de procesar datos a partir de un determinado grupo de
instrucciones fijas o programas, mientras que el cerebro es capaz de adaptarse a
diferentes entradas y posee la capacidad de aprender.

12.- La computadora es capaz de realizar en segundos clculos aritmticos que a un ser


humano le llevara aos. El cerebro, nos permite a los humanos, realizar tareas mucho
ms complejas como el aprendizaje, el reconocimiento, la visin, etc.

13.- Los cerebros son mucho ms tolerantes a fallos que las computadoras. El hecho de
que existan muchas neuronas le agrega otra ventaja al cerebro por encima del
computador, y es la capacidad de adaptacin al dao. Cuando el microprocesador sufre
un dao, con seguridad el computador dejar de funcionar, por el contrario en el cerebro
cuando algunas neuronas fallan, rpidamente otras asumen su trabajo, con lo que el
cerebro desarrolla una tolerancia a fallos muy amplia.

166
Comparativa

14.- El consumo de energa de un cerebro es de unos 30 vatios. Algunas CPUs


consumen muy poco, como por ejemplo las CPUs de los telfonos mviles que
normalmente slo consumen unos pocos vatios. Por otro lado, las CPUs que se utilizan
en microcomputadoras de propsito general, consumen ms potencia debido a su mayor
complejidad y velocidad. Pueden llegar a consumir del orden de decenas y centenas de
vatios.

En la Tabla 4 se muestra una comparativa entre el cerebro y el supercomputador Mare


Nostrum, instalado en el Centro Nacional de Supercomputacin de Barcelona [51].

SUPERCOMPUTADOR CEREBRO HUMANO


MARE NOSTRUM
Unidades computacionales 10.240 procesadores 1011 neuronas
Unidades de almacenamiento 20 Tbytes de RAM 1011 neuronas
280 Tbytes de disco 1014 sinapsis
Ciclo (tiempo) 11
45 10 seg. 10-3 seg.

Consumo 600 KW 30W


Peso 40.000 Kg. 1300-1500 gr.
Espacio ocupado Superficie:160 m2 Volumen: 900 cm3

Tabla 4. Comparativa entre el superordenador Mare Nostrum y el cerebro humano.

En la Figura 56 podemos observar la evolucin de la capacidad computacional de los


computadores desde el ao 1900 hasta el 2020 en funcin de su coste en dlares.

167
Comparativa

Figura 56. Evolucin de la capacidad computacional de los computadores y su coste (en dlares).

6.1.4 Blue Brain Project

El cerebro, especialmente el humano, sigue siendo un misterio para los cientficos, ya


que an se desconoce buena parte de su funcionamiento o qu es la conciencia o cmo
aparece sta en un determinado nivel de evolucin biolgica. Las primeras propuestas
para construir modelos neuronales artificiales se formularon hace 40 aos, pero
entonces no existan los recursos tcnicos para realizar la simulacin. Ahora, los
supercomputadores abren la puerta a esta posibilidad.

El proyecto Blue Brain [52], que se inici en julio del 2005, tiene como objetivo
estudiar la estructura del cerebro. Para ello se pretende crear una simulacin de todo el
cerebro humano a nivel molecular. Este proyecto que se inici con la colaboracin de la
cole Polytechnique Fdrale de Lausana (Suiza), de la mano del profesor Henry
Markram y la firma IBM, utiliza una mquina dotada con 8 mil procesadores que
trabajan en paralelo para simular la forma en que las neuronas intercambian informacin
en tiempo real.

168
Comparativa

El objetivo inicial del proyecto es simular la columna cortical, que puede considerarse la
menor unidad funcional del neocrtex (la parte del cerebro que se cree responsable de
las funciones superiores como el pensamiento consciente). Esta columna tiene una
altura de 2 milmetros, un dimetro de 0,5 milmetros y contiene unas 60.000 neuronas
en humanos. La simulacin se centra en la columna neocortical de las ratas, que tienen
una estructura muy similar pero que contienen nicamente 10.000 neuronas y 108
conexiones sinpticas.

El proyecto utiliza un supercomputador Blue Gene, denominado Brainsim, que tiene


una capacidad de clculo de 22 billones de operaciones por segundo. Esto le sita en la
posicin 103 del ranking mundial de supercomputadores, 77 posiciones por detrs del
Mare Nostrum, instalado en el Centro Nacional de Supercomputacin de Barcelona, que
ocupa la 26 [53]. En este supercomputador se ejecuta el software de simulacin que se
compone del MPI-based Neocortical Simulator (NCS), desarrollado por Phil Goodman,
combinado con el programa NEURON, de Michael Hines. La simulacin no consiste en
una simple red neuronal artificial sino que involucra modelos de neuronas mucho ms
realistas biolgicamente.

Pese al evidente poder informtico del Blue Brain Project, su capacidad de simulacin
del cerebro humano es an limitada. Slo puede imitar el funcionamiento de unas miles
de neuronas virtuales que se comporten como las reales. La mquina dedica un
procesador para simular cada una de las neuronas virtuales con todas sus
interconexiones y replica una columna neocortical con 10 mil clulas nerviosas. El
cerebro humano dispone de millones y millones de neuronas conectadas y por tanto una
simulacin integral del mismo es, hoy, imposible.

En noviembre de 2007 se anunci la finalizacin de la primera fase del proyecto, con la


presentacin de un nuevo mtodo para la creacin y validacin de la simulacin de una
columna neocortical a nivel celular, segn la pgina web oficial del proyecto.

Una vez finalizado este paso, el proyecto continuar en dos ramas diferentes:

1. Construccin de la simulacin a nivel molecular, cuyo inters reside que


permitir estudiar los efectos de los genes.

169
Comparativa

2. Simplificacin de la simulacin de la columna para permitir la simulacin


paralela de un gran nmero de columnas interconectadas, con el objetivo final de
simular un neocrtex completo (que en el caso de los humanos consiste en un milln
de columnas, aproximadamente).

6.2 Sistema neuronal biolgico y redes neuronales artificiales

6.2.1 Redes neuronales artificiales e inteligencia artificial

Si tuviramos que definir la principal caracterstica que nos separa del resto de animales
seguramente, la gran mayora de nosotros, responderamos la capacidad de raciocinio.
Esta capacidad nos ha permitido desarrollar una tecnologa propia de tal manera que, en
estos momentos, esta tecnologa se orienta a descubrir su origen. Cmo funciona el
cerebro? se pueden construir modelos artificiales que lo emulen? se pueden
desarrollar mquinas inteligentes? Todas estas preguntas han conducido a un rpido
desarrollo de un campo multidisciplinar del conocimiento conocido como Inteligencia
Artificial (I.A.). Este campo se podra dividir en dos clases que podramos definir como
macroscpico y microscpico.

En el primero de ellos se intenta modelar el funcionamiento del cerebro en base a reglas


del tipo si ocurre esto entonces..., el nombre de macroscpico se debe a que no se
toma en cuenta en ningn momento la estructura interna del cerebro sino que modela su
comportamiento en base a un funcionamiento que podramos definir como global.
En la segunda aproximacin se parte de la estructura que presenta el cerebro de tal
forma que se construyen modelos que tienen en cuenta dicha estructura. De esta forma
aparecen neuronas artificiales que se combinan entre s para formar estructuras
multicapas que, a su vez, pueden combinarse para formar comits de expertos, etc.

Esta forma de combinacin recuerda la estructura en niveles del cerebro. Esta


aproximacin de la I.A conocida como redes neuronales ha sufrido, en los ltimos aos,
un incremento espectacular en publicaciones, aplicaciones comerciales, nmero de
congresos celebrados, etc.

170
Comparativa

6.2.2 Historia de las redes neuronales artificiales


Los intentos por imitar el funcionamiento del cerebro han seguido la evolucin del
estado de la tecnologa [54,55]. Por ejemplo, al finalizar el siglo 19 se le compar con la
operacin de la bomba hidrulica; durante la dcada de 1920 a 1930 se intent utilizar la
teora de la conmutacin telefnica como punto de partida de un sistema de
conocimiento similar al del cerebro. Entre 1940 y 1950 los cientficos comenzaron a
pensar seriamente en las redes neuronales utilizando como concepto la nocin de que
las neuronas del cerebro funcionan como interruptores digitales (on - off) de manera
tambin similar al recin desarrollado computador digital. As nace la idea de
"revolucin ciberntica" que maneja la analoga entre el cerebro y el computador
digital.

Cuando se narra la corta pero intensa historia de las redes neuronales tambin conocidas
como modelos conexionistas se suele fijar el origen en los trabajos de McCulloch y
Pitts. Sin embargo, existen trabajos anteriores que abrieron el camino a estos
investigadores. Entre estos trabajos podemos destacar el realizado por Karl Lashley en
los aos 20. En su trabajo de 1950 se resume su investigacin de 30 aos, en el que
destaca que el proceso de aprendizaje es un proceso distribuido y no local a una
determinada rea del cerebro. Un estudiante de Lashley, D. Hebb recoge el testigo de su
maestro y determina una de las reglas de aprendizaje ms usadas en la regla del
conexionismo y que, lgicamente, se conoce con el nombre de aprendizaje hebbiano.

Las contribuciones de este investigador aparecen publicadas en su libro The


Organization of the Behavior [35]. sta es una regla para la modificacin de las
sinapsis, es decir, una regla de aprendizaje fisiolgica. Adems propone que la
conectividad del cerebro cambia continuamente conforme un organismo aprende cosas
nuevas, crendose asociaciones neuronales con estos cambios. En su postulado de
aprendizaje, Hebb sigue lo sugerido por Ramn y Cajal al afirmar que la efectividad de
una sinapsis variable entre dos neuronas se incrementa por una repetida activacin de
una neurona sobre otra a travs de esta sinapsis. Desde un punto de vista
neurofisiolgico la regla planteada por Hebb sera una regla variante-temporal, con un
alto mecanismo interactivo que incrementa la eficacia sinptica como una funcin de la

171
Comparativa

actividad pre y post sinptica. Desde un punto de vista conexionista la regla de Hebb es
un tipo de aprendizaje no supervisado (no se necesita ningn maestro) en el que las
conexiones entre dos neuronas se incrementan si ambas se activan al mismo tiempo.

La siguiente gran contribucin a considerar es el trabajo de McCulloch y Pitts [16]. En


este trabajo, se fijan las caractersticas de trabajo de lo que, posteriormente, se va a
conocer como neurona de McCulloch-Pitts, de la que ya hemos hablado en captulos
anteriores. Este tipo de neurona es un dispositivo binario (salida 0 1), que tiene un
umbral de funcionamiento por debajo del cual est inactiva y puede recibir entradas
excitadoras o inhibitorias. El modo de trabajo es simple, si no existe ninguna entrada
inhibidora se determina la resultante de las entradas excitadoras y si sta es mayor que
el umbral, la salida es 1 y si no, la salida es 0. Se puede observar que, con un elemento
tan simple como el que se acaba de definir, se pueden implementar un gran nmero de
funciones lgicas mediante su combinacin con elementos similares. Adems, dado el
estado de la neurofisiologa en 1943, el modelo de McCulloch-Pitts se acercaba a lo
conocido por esa poca acerca de la actividad sinptica neuronal. Esta capacidad de
modelizar funciones lgicas desat la euforia por estos elementos individuales; si se
pueden modelizar funciones lgicas, por qu no implementar un sistema de
conocimiento mediante el uso de estas neuronas? Veremos ms adelante cmo acab
este sueo.

En 1956, Rochester, Holland, Haibt y Duda presentan un trabajo en el que, por primera
vez, se verifica mediante simulaciones una teora neuronal basada en el postulado de
Hebb. Para realizar este trabajo eminentemente prctico, se tuvieron que hacer varias
suposiciones que, inicialmente, no estaban en el trabajo de Hebb. Por ejemplo se acot
el valor de las sinapsis que, en principio, poda crecer sin lmite.

Otro gran genio matemtico, John Von Neumann, se plante ideas conexionistas: en
una recopilacin de sus trabajos posterior a su muerte sugiere como posible camino para
mejorar los ordenadores, de los cuales se puede considerar como uno de los padres, el
estudio del sistema nervioso central [56]. En 1958 se producen las aportaciones de
Selfridge y Rosenblatt. Estas contribuciones plantean implementaciones fsicas de
sistemas conexionistas [57].

172
Comparativa

En su trabajo Selfridge plantea el sistema conocido como Pandemonium. Este sistema


consta de una serie de capas compuestas por lo que se conocen como demonios. Cada
una de las diferentes capas de este sistema se reparten las diferentes tareas a realizar.

Por su parte, Rosenblatt, quince aos despus del estudio de McCulloch-Pitts, presenta
una nueva aproximacin al problema de reconocimiento de patrones mediante la
introduccin del perceptrn. Rosenblatt, plante un dispositivo que realizara tareas que
le interesaran a los psiclogos (l lo era). El hecho que fuera una mquina capaz de
aprender la haca irresistiblemente atractiva para los ingenieros.

En 1960 Widrow y Hoff presentan su ADALINE. Estas siglas tienen una historia
curiosa: cuando las redes neuronales estaban en su mximo apogeo eran el acrnimo de
Adaptive Linear Neuron; cuando las cosas empezaron a ir mal para las redes neuronales
pero este sistema se segua usando por los buenos resultados obtenidos con l se cambi
a Adaptive Linear Element. El sistema planteado por Widrow estaba regido por un
algoritmo de aprendizaje muy sencillo denominado LMS (Least Mean Square). Con este
trabajo se propone un sistema adaptativo que puede aprender de forma ms precisa y
rpida que los perceptrones existentes. El trabajo de Widrow posibilit el desarrollo de
un rea del procesado digital de seales (control de sistemas) que se conoce con el
nombre de procesado (control) adaptativo.

Block presenta en 1962 un trabajo que estudia los perceptrones ms concretamente,


presenta resultados sobre el perceptrn MARK I con 400 dispositivos receptores
fotosensitivos dispuestos en una matriz 20 por 20 con un conjunto de 8 unidades de
salida.
Llegamos al trabajo de Minsky y Papert titulado Perceptrons [58] que paraliz durante
10 aos el avance de este campo de la inteligencia artificial. Este trabajo, que fue escrito
y expuesto brillantemente, puso de manifiesto las limitaciones de los perceptrones.
Estas limitaciones hacan referencia a la clase de problemas que se podan resolver
usando estos elementos.

173
Comparativa

Minsky y Papert demostraron que un perceptrn slo poda resolver problemas


linealmente separables que, para desgracia de los conexionistas, son los menos. Adems
los autores expusieron, y por esto se les ha criticado, sus opiniones sobre las extensiones
de los perceptrones (a sistemas multicapa); ellos plantearon su absoluta inutilidad
prctica. Tambin hay que tener en cuenta que, en el momento de la publicacin de su
trabajo, Minsky y Papert trabajaban en otro campo de la inteligencia artificial. Sin
embargo, como se demostr ms tarde, se equivocaron en sus conjeturas. El trabajo de
Minsky y Papert supuso una paralizacin de los trabajos sobre temas conexionistas, sin
embargo algunos investigadores continuaron trabajando.

Kohonen y Anderson proponen el mismo modelo de memoria asociativa de forma


simultnea. A modo de demostracin de los diferentes campos de conocimiento que
engloban los sistemas conexionistas estos autores tienen una formacin diferente
(Kohonen es ingeniero elctrico y Anderson es neurofisilogo). En el modelo artificial
planteado la neurona es un sistema lineal que usa como regla de aprendizaje la regla de
Hebb modificada: estamos ante un asociador lineal.

En 1980, Stephen Grossberg [59], uno de los autores ms prolficos en el campo de las
redes neuronales, establece un nuevo principio de auto-organizacin desarrollando las
redes neuronales conocidas como ART (Adaptive Resonance Theory). Grossberg ha
planteado diferentes modelos neuronales que han presentado una gran utilidad prctica
(principalmente en el campo del reconocimiento de patrones).

En 1982 J. Hopfield publica un trabajo clave para el resurgimiento de las redes


neuronales. Gran parte del impacto de este trabajo se debi a la fama de Hopfield como
distinguido fsico terico. En l, desarrolla la idea del uso de una funcin de energa
para comprender la dinmica de una red neuronal recurrente con uniones sinpticas
simtricas. En este primer trabajo, Hopfield slo permite salidas bipolares (0 1). En un
trabajo posterior ampla la funcin energa planteada para estos sistemas permitiendo la
salida continua de las neuronas. El principal uso de estas redes ha sido como memorias
y como instrumento para resolver problemas de optimizacin como el problema del
viajante.

174
Comparativa

En el mismo ao de 1982 Kohonen publica un importante artculo sobre mapas


autoorganizativos que se ordenan de acuerdo a unas simples reglas [60]. El aprendizaje
que se da en el modelo planteado no necesita de un maestro; estamos ante un
aprendizaje de tipo no supervisado.

Al ao siguiente, en el nmero especial sobre modelos neuronales de la revista


especializada IEEE Transactions on Systems, Man and Cybernetics, aparecen dos
trabajos de gran importancia en el desarrollo de las redes neuronales [61]. Fukushima,
Miyake e Ito presentan una red neuronal, el Neocognitron, de tal forma que combinando
ideas del campo de la fisiologa, ingeniera y de la teora neuronal crean un dispositivo
que es capaz de ser aplicado con xito en problemas de reconocimiento de patrones.
Este trabajo, y de ah lo de Neo, supone un perfeccionamiento de un modelo anterior
presentado por los mismos autores y conocido como Cognitron. Este sistema fue
probado con la tarea de identificar nmeros escritos a mano.

El segundo trabajo, presentado por Barto, Sutton y Anderson estudia el aprendizaje


reforzado y su aplicacin en control. En este trabajo se plantea este nuevo tipo de
aprendizaje en el que, a diferencia de trabajos anteriores sobre modelos supervisados, no
es necesario un conocimiento total del error cometido por la red, lo nico que se
necesita es conocer el signo del error.

En 1986 aparece un trabajo que, junto al de Hopfield, resucitar el inters por las redes
neuronales. En este trabajo Rumelhart, Hinton y Williams [62], desarrollan el algoritmo
de aprendizaje de retropropagacin (backpropagation) para redes neuronales multicapa
dando una serie de ejemplos en los que se muestra la potencia del mtodo desarrollado.
A partir de ese ao, el nmero de trabajos sobre redes neuronales ha aumentado
exponencialmente apareciendo un gran nmero de aportaciones tanto a los mtodos de
aprendizaje como a las arquitecturas y aplicaciones de las redes neuronales. Se podra
destacar de entre todas estas aportaciones el trabajo de Broomhead y Lowe y el de
Poggio y Girosi sobre el diseo de redes neuronales en capas usando RBF (Radial Basis
Functions), el trabajo intensivo desarrollado sobre las mquinas de vectores soporte, el
desarrollo de la unin entre elementos neuronales y difusos y, por ltimo, los trabajos
sobre neuronas de pulsos (spike neurons)[63,64,65].

175
Comparativa

Finalmente hay que hacer mencin a uno de los motores en el desarrollo de las redes
neuronales: la prediccin en series temporales. Una generalizacin de las redes TDNN
(orientadas especialmente para ser usadas con series temporales) la realiz Eric Wan.
En su trabajo los pesos sinpticos, conexiones sinpticas, eran filtros digitales.

6.2.3 Caractersticas de las redes neuronales artificiales

Definicin

Las redes neuronales artificiales (RNAs) son un paradigma de aprendizaje y


procesamiento automtico inspirado en la forma en que funciona el sistema nervioso de
los animales. Se trata de un sistema de interconexin de neuronas en una red que
colabora para producir un estmulo de salida.

Funcionamiento

Antes de explicar el funcionamiento de las redes neuronales artificiales, aunque ya se ha


hablado de ste en el captulo 4, vamos a realizar una breve explicacin de las redes
neuronales biolgicas.

A grandes rasgos, recordemos que el cerebro humano se compone de decenas de


billones de neuronas interconectadas entre s formando circuitos o redes que
desarrollan funciones especficas. Una neurona tpica recoge seales procedentes
de otras neuronas a travs de una plyade de delicadas estructuras llamadas
dendritas. La neurona emite impulsos de actividad elctrica a lo largo de una fibra
larga y delgada denominada axn, que se escinde en millares de ramificaciones.

Las extremidades de estas ramificaciones llegan hasta las dendritas de otras


neuronas y establecen unas conexiones llamadas sinapsis, en las cuales se produce
una transformacin del impulso elctrico en un mensaje neuroqumico, mediante la
liberacin de unas sustancias llamadas neurotransmisores. El efecto de los
neurotransmisores sobre la neurona receptora puede ser excitador o inhibitorio, y es
variable (la intensidad del efecto depende de numerosos factores), de manera que

176
Comparativa

podemos hablar de la fuerza o efectividad de una sinapsis. Las seales excitadoras


e inhibitorias recibidas por una neurona se combinan, y en funcin de la
estimulacin total recibida, la neurona toma un cierto nivel de activacin, que se
traduce en la generacin de breves impulsos nerviosos con una determinada
frecuencia o tasa de disparo, y su propagacin a lo largo del axn hacia las
neuronas con las cuales est conectada. De esta manera la informacin se transmite
de unas neuronas a otras y va siendo procesada a travs de las conexiones
sinpticas y las propias neuronas.

El aprendizaje de las redes neuronales se produce mediante la variacin de la


efectividad de las sinapsis, de esta manera cambia la influencia que unas neuronas
ejercen sobre otras, de aqu se deduce que la arquitectura, el tipo y la efectividad de
las conexiones en un momento dado, representan en cierto modo la memoria o
estado de conocimiento de la red.

Una de las misiones en una red neuronal artificial consiste en simular las propiedades
observadas en los sistemas neuronales biolgicos a travs de modelos matemticos
recreados mediante mecanismos artificiales (como un circuito integrado, un ordenador o
un conjunto de vlvulas). El objetivo es conseguir que las mquinas den respuestas
similares a las que es capaz de dar el cerebro que se caracterizan por su generalizacin y
su robustez.

Una red neuronal se compone de unidades de proceso artificiales llamadas neuronas


(Figura 57). Cada neurona recibe una serie de entradas a travs de interconexiones y
emite una salida. Esta salida viene dada por tres funciones:

1. Una funcin de propagacin o de red: Calcula el valor de base o entrada total a


la unidad, generalmente como simple suma ponderada de todas las entradas
recibidas, es decir, de las entradas multiplicadas por el peso o valor de las
conexiones. Equivale a la combinacin de las seales excitadoras e inhibitorias
de las neuronas biolgicas. Si el peso es positivo, la conexin se denomina
excitadora y si es negativo, se denomina inhibitoria.

177
Comparativa

2. Una funcin de activacin, que modifica a la anterior: Es quizs la caracterstica


principal o definitoria de las neuronas, la que mejor define el comportamiento de
la misma. Se usan diferentes tipos de funciones, desde simples funciones de
umbral a funciones no lineales. Se encarga de calcular el nivel o estado de
activacin de la neurona en funcin de la entrada total.
3. Una funcin de transferencia, que se aplica al valor devuelto por la funcin de
activacin. Se utiliza para acotar la salida de la neurona y generalmente viene
dada por la interpretacin que queramos darle a dichas salidas. Algunas de las
ms utilizadas son la funcin sigmoide (para obtener valores en el intervalo
[0,1]) y la tangente hiperblica (para obtener valores en el intervalo [-1,1]). El
valor de salida cumplira la funcin de la tasa de disparo en las neuronas
biolgicas.

Figura 57. Estructura de una neurona artificial.

En la Tabla 5 podemos ver una comparacin entre las neuronas artificiales y las
biolgicas.

178
Comparativa

REDES NEURONALES REDES NEURONALES


BIOLGICAS ARTIFICIALES
Neuronas Unidades de proceso
Conexiones sinpticas Conexiones ponderadas
Efectividad de las sinapsis Peso de las conexiones
Efecto excitador o inhibitorio de una conexin Signo del peso de una conexin
Efecto combinado de las sinapsis Funcin de propagacin o de red
Activacin  Tasa de disparo Funcin de activacin  Salida

Tabla 5. Comparacin entre las neuronas biolgicas reales y las unidades de proceso artificiales.

Estructura y aprendizaje

La mayora de los cientficos coinciden en que una RNA es muy diferente en trminos
de estructura de un cerebro animal. Al igual que el cerebro, una RNA se compone de un
conjunto masivamente paralelo de unidades de proceso muy simples y es en las
conexiones entre estas unidades donde reside la inteligencia de la red. Sin embargo, en
trminos de escala, un cerebro es muchsimo mayor que cualquier RNA creada hasta la
actualidad, y las neuronas artificiales tambin son ms simples que su contrapartida
animal.

Biolgicamente, un cerebro aprende mediante la reorganizacin de las conexiones


sinpticas entre las neuronas que lo componen. De la misma manera, las RNA tienen un
gran nmero de procesadores virtuales interconectados que de forma simplificada
simulan la funcionalidad de las neuronas biolgicas. En esta simulacin, la
reorganizacin de las conexiones sinpticas biolgicas se modela mediante un
mecanismo de pesos, que son ajustados durante la fase de aprendizaje.

En una RNA entrenada, el conjunto de los pesos determina el conocimiento de esa RNA
y tiene la propiedad de resolver el problema para el que la RNA ha sido entrenada.

Por otra parte, en una RNA, adems de los pesos y las conexiones, cada neurona tiene
asociada una funcin matemtica denominada funcin de transferencia. Dicha funcin
genera la seal de salida de la neurona a partir de las seales de entrada.

179
Comparativa

La entrada de la funcin es la suma de todas las seales de entrada por el peso asociado
a la conexin de entrada de la seal. Algunos ejemplos de entradas son la funcin
escaln o Heaviside, la lineal o mixta, la sigmoidal y la funcin gaussiana, recordando
que la funcin de transferencia es la relacin entre la seal de salida y la entrada.

Propiedades

1) Son sistemas distribuidos no lineales: Una neurona es un elemento no lineal por lo


que una interconexin de ellas (red neuronal) tambin ser un dispositivo no lineal. Esta
propiedad permitir la simulacin de sistemas no lineales y caticos, simulacin que,
con los sistemas clsicos lineales, no se puede realizar.

2) Son sistemas tolerantes a fallos: Una red neuronal, al ser un sistema distribuido,
permite el fallo de algunos elementos individuales (neuronas) sin alterar
significativamente la respuesta total del sistema. Este hecho las hace especialmente
atractivas frente a las computadoras actuales que, por lo general, son sistemas
secuenciales de tal forma que un fallo en uno de sus componentes conlleva que el
sistema total no funcione.

3) Adaptabilidad: Una red neuronal tiene la capacidad de modificar los parmetros de


los que depende su funcionamiento de acuerdo con los cambios que se produzcan en su
entorno de trabajo (cambios en las entradas, presencia de ruido, etc...). Con respecto a la
capacidad de adaptacin hay que tener en cuenta que sta no puede ser tampoco
excesivamente grande ya que conducira a tener un sistema inestable respondiendo a
pequeas perturbaciones. Este es el problema conocido como el dilema plasticidad-
estabilidad.

4) Flexibilidad: Una RNA puede manejar cambios no importantes en la informacin de


entrada, como seales con ruido u otros cambios en la entrada (ej. si la informacin de
entrada es la imagen de un objeto, la respuesta correspondiente no sufre cambios si la
imagen cambia un poco su brillo o el objeto cambia ligeramente).

180
Comparativa

5) Establecen relaciones no lineales entre datos. Las redes neuronales son capaces de
relacionar dos conjuntos de datos mediante relaciones complejas.

6) Posibilidad de implementacin en VLSI: Esta posibilidad permite que estos sistemas


puedan ser aplicados en sistemas de tiempo real, simulando sistemas biolgicos
mediante elementos de silicio.

6.2.4 Comparativa entre las redes neuronales biolgicas y las artificiales

Una red neuronal artificial en un sistema basado en el cerebro humano, por tanto
presentan una fuerte similitud con el cerebro biolgico.

1. La unidad bsica funcional del cerebro es la neurona. Bsicamente una neurona


biolgica recibe entradas de otras fuentes, las combina de alguna manera, realiza
generalmente una operacin no lineal sobre el resultado y entonces, saca el
resultado final. Los nodos o unidades de procesamiento de las redes neuronales
artificiales son las neuronas artificiales que son muchos ms simples que las
neuronas biolgicas pero son capaces de realizar las cuatro funciones bsicas
nombradas.

2. Tanto las neuronas biolgicas como las artificiales estn unidas mediante
conexiones. El tipo de conexin sinptica (inhibidora o excitadora) de las
conexiones biolgicas es representada mediante los pesos sinpticos en las redes
artificiales.

3. La distribucin de las neuronas dentro de las RNA se realiza formando niveles o


capas de un nmero determinado de neuronas cada una, existiendo capas de
entrada y salida y capas ocultas. Las neuronas biolgicas se organizan en
circuitos locales que a su vez constituyen capas o ncleos. Regiones y ncleos se
conectan entre s formando sistemas y sistemas de sistemas, cuya complejidad se
incrementa en cada paso.

181
Comparativa

4. Un cerebro es mucho mayor que cualquier red neuronal creada hasta la


actualidad.

5. Un cerebro aprende mediante la reorganizacin de las conexiones sinpticas


entre las neuronas que lo compone. Las redes neuronales artificiales estn
formadas por la conexin de un gran nmero de neuronas artificiales. En las
RNA, la reorganizacin de las conexiones sinpticas biolgicas se modela
mediante un mecanismo de pesos, que son ajustados durante la fase de
aprendizaje.

6. En una red neuronal artificial toda la informacin adquirida se almacena en el


valor de cada peso sinptico. En el sistema neuronal biolgico se cree que el
conocimiento se almacena en las sinapsis.

7. Ambos sistemas presentan una alta plasticidad, aunque es mayor en el sistema


cerebral, y una gran adaptabilidad de manera que son capaces de cambiar
dinmicamente con el medio.

8. Las redes neuronales artificiales al igual que el cerebro presentan un alto nivel
de tolerancia a fallos.

9. Ambos sistemas utilizan un procesamiento paralelo de la informacin.

10. Existes redes neuronales artificiales, las redes neuronales de impulsos (spinking
neural networks) que son capaces, al igual que el sistema neuronal biolgico, de
codificar la informacin mediante el nmero de impulsos y el tiempo entre stos.

182
Comparativa

6.3 Conclusiones

En este captulo se han analizado las similitudes y diferencias existentes entre el sistema
neuronal o biolgico y los sistemas electrnicos, como los computadores y las redes
neuronales.

Las redes neuronales artificiales, son un paradigma de aprendizaje y procesamiento


automtico inspirado en la forma en que funciona el sistema nervioso de los animales,
por tanto presentan una gran similitud con el cerebro humano: utilizan como unidad de
funcionamiento bsica neuronas artificiales, que son ms simples que las biolgicas
pero su funcionamiento es similar, poseen conexiones sinpticas tanto excitadoras como
inhibidoras modeladas mediante pesos, son capaces de aprender mediante la
reorganizacin de sus conexiones, etc. La principal diferencia es que an no se ha
creado ninguna red neuronal artificial que sea tan grande y compleja como un cerebro.

Las principales caractersticas que diferencian al cerebro de los computadores son:

El cerebro humano pesa aproximadamente entre 1300 y 1500 gramos y contiene


alrededor de 1011 neuronas (unidades bsicas) cuya velocidad de proceso es del
orden de ms. El microprocesador, cerebro de la computadora, puede ocupar el
espacio de una ua e integrar cientos y miles de millones de componentes
electrnicos, principalmente transistores, que poseen una alta velocidad de
proceso (ps).

Las neuronas utilizan para codificar su informacin un sistema de pulsos


(potenciales de accin). Los ordenadores utilizan un sistema de niveles o
binario, en los que la unidad bsica es el bit (0 o 1).

La frecuencia de los impulsos nerviosos (potenciales de accin) puede variar,


mientras que en los ordenadores la frecuencia de transmisin es inalterable y
est dada por el reloj interno de la mquina (sistemas digitales sncronos).

183
Comparativa

La memoria est almacenada en diferentes partes del cerebro, de manera que


cuando buscamos informacin no hace falta que sepamos donde se encuentra
almacenada. La informacin, en los ordenadores, se guarda en posiciones de
memoria de acceso directo por su direccin.

Los ordenadores son capaces de procesar datos a partir de un determinado grupo


de instrucciones fijas o programas, mientras que el cerebro es capaz de adaptarse
a diferentes entradas y posee la capacidad de aprender.

La computadora es capaz de realizar en segundos clculos aritmticos que a un


ser humano le llevara aos. El cerebro, nos permite a los humanos, realizar
tareas mucho ms complejas como el aprendizaje, el reconocimiento, la visin,
etc.

Los cerebros son mucho ms tolerantes a fallos que las computadoras.

El consumo de energa de un cerebro es de unos 30 vatios. El consumo de las


CPUs puede variar desde unos pocos vatios (telfonos mviles) hasta decenas
y centenas de vatios (microcomputadores).

En cuanto a sus similitudes podemos decir que, ambos sistemas poseen memorias a
corto y a largo plazo y que tanto el cerebro como los computadores poseen dispositivos
con capacidad de proceso lgico (sinapsis y puertas lgicas).

184

También podría gustarte