Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Sistema Neuronal Vs Sistema Electrónico
Sistema Neuronal Vs Sistema Electrónico
Sistema neuronal vs
sistema electrnico
Comparativa
En este captulo se pretende hacer una comparativa entre ciertos aspectos del sistema
neuronal y el sistema electrnico, tanto computadores como redes neuronales. Para ello,
previamente se hace una revisin de su historia y se describen sus caractersticas ms
importantes. Por ltimo se analizan las similitudes y diferencias entre ambos sistemas.
149
Comparativa
Una de las escrituras ms antiguas que se conoce es la egipcia. Esta civilizacin adopt
un sistema de contar de diez en diez, de manera que marcaban las unidades con lneas
verticales y las decenas con un signo similar a la U invertida. Otras culturas adoptaron
sistemas ms complicados; por ejemplo, los babilonios contaban de 60 en 60, y aunque
su sistema era muy poco prctico, se cree que de ellos provienen las bases del sistema
actual de contar los minutos y los segundos.
Otra numeracin antiguamente utilizada fue la romana, que era muy simple y
permita efectuar operaciones aritmticas aunque no con mucha sencillez. An
perdura la tradicin de utilizarla en algunos contextos especficos; por ejemplo, en
las cartulas de los relojes, para denominar los tomos o captulos de los libros, para
escribir algunas fechas, etctera.
Entre las culturas americanas, es interesante sealar que los mayas contaron con un
sistema numeral vigesimal muy avanzado y utilizaron el cero aun antes que en Europa o
Asia.
150
Comparativa
Figura 52. En el baco cada barra horizontal contiene siete mviles separadas por una barra vertical. Las
del lado izquierdo valen uno y las del derecho cinco. Las sumas se efectan al mover, hacia la barra
central, las cuentas correspondientes a la cantidad que se desea sumar.
Muchos aos tuvieron que pasar antes de que se lograran progresos en el desarrollo de
nuevas calculadoras. En 1617, el escocs John Napier inventa los llamados huesos de
Napier o tablas de multiplicar (de donde proviene el nombre utilizado hasta nuestros
das). stos consisten de una regla fija y otra mvil que se desliza sobre la primera, de
manera que deja ver el producto de dos nmeros cualesquiera. Posteriormente las tablas
de Napier evolucionaron hasta llegar a la regla de clculo, la cual funciona con el
mismo principio pero es til para llevar a cabo operaciones de multiplicacin, divisin y
raz cuadrada, entre otras. Debido a su portabilidad, este artefacto tuvo una gran acogida
en el mundo occidental y fue de uso frecuente hasta hace pocos aos, cuando se
generaliz el uso de las calculadoras de bolsillo.
151
Comparativa
A mediados del siglo XVII se inicia una nueva era de calculadoras mecnicas cuando,
en 1642, Blaise Pascal, que slo tena 19 aos, introduce una mquina sumadora
mecnica con el objeto de facilitar los clculos de su padre (Figura 53). Esta mquina
consista en un sistema con ruedas pequeas acopladas entre s y que, de derecha a
izquierda correspondan a unidades, decenas, centenas, etctera. Estas ruedas se
encontraban divididas en 10 partes iguales, de manera que para efectuar una suma se
hacan girar manualmente un nmero de pasos acorde con el nmero que se deseaba
introducir. La rotacin completa de un crculo en la direccin positiva, causaba
automticamente que el crculo a su izquierda avanzara una posicin. Para efectuar
sustracciones el proceso era el inverso.
Algunos aos ms tarde, Leibniz inventa una mquina similar a la de Pascal pero ms
compleja, la cual poda sumar, restar, multiplicar y dividir. Es la computadora, ilustrada
en la Figura 54 , que se emple extensivamente hasta el advenimiento de las
computadoras electrnicas.
152
Comparativa
Los siguientes avances significativos no se logran hasta el siglo XIX, cuando Joseph
Jacquard, que era obrero en una fbrica de sedas de Lyon, introduce la idea de
programar mquinas mediante el uso de tarjetas perforadas. La invencin de Jacquard
consisti en un telar que utilizaba tarjetas perforadas para controlar de manera
automtica el diseo y los colores de los tejidos. Esta idea es adaptada a la computacin,
en la llamada "mquina analtica", por un matemtico ingls llamado Charles Babbage,
que vivi obsesionado con el diseo y construccin de mquinas calculadoras.
Babbage hizo su primer esbozo de una mquina calculadora a la que llam mquina
diferencial, en 1822. Sin embargo, constantemente tena nuevas ideas que mejoraban el
diseo original, por lo que iba echando por tierra todo el trabajo realizado
anteriormente. Es probable que esta situacin hubiese continuado durante muchos aos,
de no ser por una discusin que tuvo con su mecnico, despus de la cual este ltimo
desmont el taller y parti con todos los diseos. En esta coyuntura, Babbage tiene que
empezar un nuevo diseo, y as concibe una calculadora totalmente nueva: su "mquina
analtica", que habra de ser ms fcil de construir y tendra mayor poder de clculo que
la anterior. As, disea una computadora mecnica digital a la que habran de
suministrrsele datos e instrucciones a seguir a travs de tarjetas perforadas de acuerdo
con un cdigo. La computadora a su vez proporcionara las soluciones tambin en forma
de perforaciones en tarjeta. Como consecuencia, esta mquina "programable" ofreca
dos nuevas ventajas: i) por primera vez, una mquina sera capaz de utilizar durante un
clculo los resultados de otro anterior sin necesidad de reconfigurar la mquina, lo que
permitira llevar a cabo clculos iterativos, y ii) habra la posibilidad de que la
computadora siguiese instrucciones alternas, dependiendo de los resultados de una etapa
anterior del clculo. Babbage describi esta mquina como "la mquina que se muerde
la cola".
Los planes de Babbage eran crear una mquina de no menos de 20 cifras de capacidad y
precisin de seis cifras. Probablemente, las debilidades ms grandes de este diseo
fueron el cuidado y precisin requeridos para su construccin. De manera que, aunque
su diseador dedic el resto de su vida, y gran parte de su fortuna, a tratar de terminar
esta mquina, slo pudo hacer una versin pequea del modelo.
153
Comparativa
Para dar una idea de la importancia de "la mquina que se muerde la cola", diremos que
hasta ese momento, cada vez que se quera efectuar una serie de operaciones
matemticas, haba que introducir, una a una y manualmente, todas las instrucciones y
datos de la operacin conforme se iban necesitando. A cada paso la mquina iba dando
el resultado parcial de la operacin especfica efectuada, de manera que el "usuario" de
la mquina poda decidir cul sera la siguiente operacin.
Desde muy pequeo, Atanasoff encontr gran placer en el estudio del lgebra. Cuando
tena 10 aos, su madre le dio un libro en el que se explicaba cmo calcular nmeros en
otras bases diferentes a la base diez. Aos ms tarde, Atanasoff comentara: "Cuando
inici mi trabajo en computadores, una de las cosas que tena en mente era que tal vez
154
Comparativa
los computadores trabajaran mejor si utilizaran para sus clculos alguna otra base que
no fuese diez."
2) La substitucin del sistema decimal por el sistema binario. Tanto los circuitos
electrnicos como los rels electromecnicos tienen dos estados posibles, pueden estar
encendidos o apagados, lo cual puede estar representado por unos y ceros,
respectivamente. Esto hace que sea ms natural para un computador efectuar clculos
utilizando para ello un sistema numrico binario.
155
Comparativa
La primera mquina que lleg a estar en plena operacin utilizando los principios
ideados por Atanasoff fue la llamada ENIAC y fue precisamente Mauchly quien la
construy junto con otro colaborador llamado Presper Eckert [42]. Este computador
tena 19.000 vlvulas, 1.500 rels, cientos de miles de condensadores, resistencias e
inductores, y aproximadamente 500.000 conexiones soldadas. Por otro lado, consuma
casi 200 kilovatios de potencia y llevaba a cabo una multiplicacin en 2.8 milisegundos,
mil veces ms rpido que su predecesor, el computador Mark II.
156
Comparativa
Aunque Mauchly sostena que este computador era totalmente diferente del ABC, aos
ms tarde la patente del ENIAC fue invalidada. Despus de una batalla de demandas y
contrademandas entre compaas constructoras de computadores, por no pagar los
derechos de patente, Atanasoff, apoyado por la IBM, inici un juicio contra la patente
del ENIAC. En este juicio, fue reconstruido el ABC y se demostraron los principios que
ste utilizaba en su funcionamiento. El 19 de octubre de 1973, 28 aos despus de
construido el ENIAC, el juez fall en favor de Atanasoff.
sta es la era de los computadores construidos con vlvulas; se inicia en 1951 con el
primer computador industrial, el llamado UNIVAC 1 [45]. Los computadores de esta
generacin eran muy grandes y de funcionamiento costoso. Las vlvulas eran de gran
tamao y consuman mucha energa elctrica, por lo que generaban mucho calor y se
fundan con frecuencia. Debido a esto, los computadores tenan que ser instalados en
cuartos con aire acondicionado, con el propsito de mantener el sistema lo ms fro
posible para disminuir la ocurrencia de fallos.
157
Comparativa
Las mquinas de la tercera generacin se distinguen por dos aspectos importantes: por
un lado, su componente fundamental lo constituyen los circuitos integrados, y por otro,
se forman las familias de computadores caracterizadas por tener compatibilidad hacia
arriba. A continuacin hablaremos de estos dos puntos.
Los circuitos integrados estn formados por un elemento base de silicio (chip), con un
gran nmero de transistores y otros componentes integrados, interconectados, que
ocupan un espacio aproximado de 2.5 cm de largo por 1.25 cm de ancho. El uso de
estos circuitos hizo a los computadores ms econmicos, confiables, compactos y con
un costo de operacin mucho ms bajo.
158
Comparativa
De esta manera, los programas escritos para las mquinas pequeas podran ejecutarse
en mquinas ms grandes de la misma familia, haciendo, en el peor de los casos, tan
slo pequeas modificaciones.
La mayor parte de los problemas no son paralelos por naturaleza; es decir, no siempre es
posible dividir un trabajo en subtrabajos independientes, o hacerlo de manera eficiente,
pues algunos procesadores requieren de los resultados obtenidos por otros para poder
continuar sus clculos. Como consecuencia, a menudo nos encontramos con que el ms
veloz supercomputador opera casi a la misma velocidad que un procesador en serie.
Este problema es conocido como el cuello de botella de Neumann.
160
Comparativa
Definicin
161
Comparativa
Arquitectura
Aunque las tecnologas empleadas en los computadores digitales han cambiado mucho
desde que aparecieron los primeros modelos en los aos 40, la mayora todava utiliza la
arquitectura Eckert-Mauchly [48], publicada a principios de los aos 1940 por John von
Neumann pero que fue creada por John Presper Eckert y John William Mauchly.
162
Comparativa
163
Comparativa
Los dispositivos E/S sirven al computador para obtener informacin del mundo
exterior y/o comunicar los resultados generados por el computador al exterior.
Representacin de la informacin
Similitudes
164
Comparativa
3.- Se puede decir que tanto el cerebro como los ordenadores poseen dispositivos con
capacidad de proceso lgico.
Diferencias
1.- El ordenador est fabricado con productos metlicos, plsticos y otras materias. El
cerebro humano, es mucho ms complejo, est compuesto de sustancias orgnicas:
protenas, lpidos, oligoelementos, etc, en una combinacin tan perfecta y con tantsimas
conexiones, reacciones fisicoqumicas y complicaciones enzimticas producidas por
amilasas, diastasas, lactasas, lipasas, maltasas, nucleasas, transaminasas, etc.
2.- El cerebro humano pesa aproximadamente entre 1300 y 1500 gramos y contiene
alrededor de 1011 neuronas. El microprocesador, cerebro de la computadora, puede
ocupar el espacio de una ua e integrar cientos y miles de millones de componentes
electrnicos.
3.- Las unidades bsicas funcionales de los ordenadores son los transistores que poseen
una alta velocidad de proceso (ps) mientras que las neuronas (unidades bsicas del
cerebro) son mucho ms lentas (ms).
4.- Las neuronas utilizan para codificar su informacin potenciales de accin que puede
ser considerado como un sistema de pulsos. Los ordenadores utilizan un sistema de
niveles o binario, en los que la unidad bsica es el bit (0 o 1).
5.- Los impulsos, en el cerebro, viajan a una velocidad entre 1 y 100 m/s. En las
computadoras, los impulsos fluyen a una fraccin de la velocidad de la luz.
6.- Las computadoras poseen una nica CPU o varias unidades de procesamiento pero
que tienen un paralelismo limitado, mientras que el cerebro posee un masivo
paralelismo.
165
Comparativa
10.- La memoria est almacenada en diferentes partes del cerebro, de manera que
cuando buscamos informacin no hace falta que sepamos donde se encuentra
almacenada. La informacin, en los ordenadores, se guarda en posiciones de memoria
de acceso directo por su direccin.
11.- Los ordenadores son capaces de procesar datos a partir de un determinado grupo de
instrucciones fijas o programas, mientras que el cerebro es capaz de adaptarse a
diferentes entradas y posee la capacidad de aprender.
13.- Los cerebros son mucho ms tolerantes a fallos que las computadoras. El hecho de
que existan muchas neuronas le agrega otra ventaja al cerebro por encima del
computador, y es la capacidad de adaptacin al dao. Cuando el microprocesador sufre
un dao, con seguridad el computador dejar de funcionar, por el contrario en el cerebro
cuando algunas neuronas fallan, rpidamente otras asumen su trabajo, con lo que el
cerebro desarrolla una tolerancia a fallos muy amplia.
166
Comparativa
167
Comparativa
Figura 56. Evolucin de la capacidad computacional de los computadores y su coste (en dlares).
El proyecto Blue Brain [52], que se inici en julio del 2005, tiene como objetivo
estudiar la estructura del cerebro. Para ello se pretende crear una simulacin de todo el
cerebro humano a nivel molecular. Este proyecto que se inici con la colaboracin de la
cole Polytechnique Fdrale de Lausana (Suiza), de la mano del profesor Henry
Markram y la firma IBM, utiliza una mquina dotada con 8 mil procesadores que
trabajan en paralelo para simular la forma en que las neuronas intercambian informacin
en tiempo real.
168
Comparativa
El objetivo inicial del proyecto es simular la columna cortical, que puede considerarse la
menor unidad funcional del neocrtex (la parte del cerebro que se cree responsable de
las funciones superiores como el pensamiento consciente). Esta columna tiene una
altura de 2 milmetros, un dimetro de 0,5 milmetros y contiene unas 60.000 neuronas
en humanos. La simulacin se centra en la columna neocortical de las ratas, que tienen
una estructura muy similar pero que contienen nicamente 10.000 neuronas y 108
conexiones sinpticas.
Pese al evidente poder informtico del Blue Brain Project, su capacidad de simulacin
del cerebro humano es an limitada. Slo puede imitar el funcionamiento de unas miles
de neuronas virtuales que se comporten como las reales. La mquina dedica un
procesador para simular cada una de las neuronas virtuales con todas sus
interconexiones y replica una columna neocortical con 10 mil clulas nerviosas. El
cerebro humano dispone de millones y millones de neuronas conectadas y por tanto una
simulacin integral del mismo es, hoy, imposible.
Una vez finalizado este paso, el proyecto continuar en dos ramas diferentes:
169
Comparativa
Si tuviramos que definir la principal caracterstica que nos separa del resto de animales
seguramente, la gran mayora de nosotros, responderamos la capacidad de raciocinio.
Esta capacidad nos ha permitido desarrollar una tecnologa propia de tal manera que, en
estos momentos, esta tecnologa se orienta a descubrir su origen. Cmo funciona el
cerebro? se pueden construir modelos artificiales que lo emulen? se pueden
desarrollar mquinas inteligentes? Todas estas preguntas han conducido a un rpido
desarrollo de un campo multidisciplinar del conocimiento conocido como Inteligencia
Artificial (I.A.). Este campo se podra dividir en dos clases que podramos definir como
macroscpico y microscpico.
170
Comparativa
Cuando se narra la corta pero intensa historia de las redes neuronales tambin conocidas
como modelos conexionistas se suele fijar el origen en los trabajos de McCulloch y
Pitts. Sin embargo, existen trabajos anteriores que abrieron el camino a estos
investigadores. Entre estos trabajos podemos destacar el realizado por Karl Lashley en
los aos 20. En su trabajo de 1950 se resume su investigacin de 30 aos, en el que
destaca que el proceso de aprendizaje es un proceso distribuido y no local a una
determinada rea del cerebro. Un estudiante de Lashley, D. Hebb recoge el testigo de su
maestro y determina una de las reglas de aprendizaje ms usadas en la regla del
conexionismo y que, lgicamente, se conoce con el nombre de aprendizaje hebbiano.
171
Comparativa
actividad pre y post sinptica. Desde un punto de vista conexionista la regla de Hebb es
un tipo de aprendizaje no supervisado (no se necesita ningn maestro) en el que las
conexiones entre dos neuronas se incrementan si ambas se activan al mismo tiempo.
En 1956, Rochester, Holland, Haibt y Duda presentan un trabajo en el que, por primera
vez, se verifica mediante simulaciones una teora neuronal basada en el postulado de
Hebb. Para realizar este trabajo eminentemente prctico, se tuvieron que hacer varias
suposiciones que, inicialmente, no estaban en el trabajo de Hebb. Por ejemplo se acot
el valor de las sinapsis que, en principio, poda crecer sin lmite.
Otro gran genio matemtico, John Von Neumann, se plante ideas conexionistas: en
una recopilacin de sus trabajos posterior a su muerte sugiere como posible camino para
mejorar los ordenadores, de los cuales se puede considerar como uno de los padres, el
estudio del sistema nervioso central [56]. En 1958 se producen las aportaciones de
Selfridge y Rosenblatt. Estas contribuciones plantean implementaciones fsicas de
sistemas conexionistas [57].
172
Comparativa
Por su parte, Rosenblatt, quince aos despus del estudio de McCulloch-Pitts, presenta
una nueva aproximacin al problema de reconocimiento de patrones mediante la
introduccin del perceptrn. Rosenblatt, plante un dispositivo que realizara tareas que
le interesaran a los psiclogos (l lo era). El hecho que fuera una mquina capaz de
aprender la haca irresistiblemente atractiva para los ingenieros.
En 1960 Widrow y Hoff presentan su ADALINE. Estas siglas tienen una historia
curiosa: cuando las redes neuronales estaban en su mximo apogeo eran el acrnimo de
Adaptive Linear Neuron; cuando las cosas empezaron a ir mal para las redes neuronales
pero este sistema se segua usando por los buenos resultados obtenidos con l se cambi
a Adaptive Linear Element. El sistema planteado por Widrow estaba regido por un
algoritmo de aprendizaje muy sencillo denominado LMS (Least Mean Square). Con este
trabajo se propone un sistema adaptativo que puede aprender de forma ms precisa y
rpida que los perceptrones existentes. El trabajo de Widrow posibilit el desarrollo de
un rea del procesado digital de seales (control de sistemas) que se conoce con el
nombre de procesado (control) adaptativo.
173
Comparativa
En 1980, Stephen Grossberg [59], uno de los autores ms prolficos en el campo de las
redes neuronales, establece un nuevo principio de auto-organizacin desarrollando las
redes neuronales conocidas como ART (Adaptive Resonance Theory). Grossberg ha
planteado diferentes modelos neuronales que han presentado una gran utilidad prctica
(principalmente en el campo del reconocimiento de patrones).
174
Comparativa
En 1986 aparece un trabajo que, junto al de Hopfield, resucitar el inters por las redes
neuronales. En este trabajo Rumelhart, Hinton y Williams [62], desarrollan el algoritmo
de aprendizaje de retropropagacin (backpropagation) para redes neuronales multicapa
dando una serie de ejemplos en los que se muestra la potencia del mtodo desarrollado.
A partir de ese ao, el nmero de trabajos sobre redes neuronales ha aumentado
exponencialmente apareciendo un gran nmero de aportaciones tanto a los mtodos de
aprendizaje como a las arquitecturas y aplicaciones de las redes neuronales. Se podra
destacar de entre todas estas aportaciones el trabajo de Broomhead y Lowe y el de
Poggio y Girosi sobre el diseo de redes neuronales en capas usando RBF (Radial Basis
Functions), el trabajo intensivo desarrollado sobre las mquinas de vectores soporte, el
desarrollo de la unin entre elementos neuronales y difusos y, por ltimo, los trabajos
sobre neuronas de pulsos (spike neurons)[63,64,65].
175
Comparativa
Finalmente hay que hacer mencin a uno de los motores en el desarrollo de las redes
neuronales: la prediccin en series temporales. Una generalizacin de las redes TDNN
(orientadas especialmente para ser usadas con series temporales) la realiz Eric Wan.
En su trabajo los pesos sinpticos, conexiones sinpticas, eran filtros digitales.
Definicin
Funcionamiento
176
Comparativa
Una de las misiones en una red neuronal artificial consiste en simular las propiedades
observadas en los sistemas neuronales biolgicos a travs de modelos matemticos
recreados mediante mecanismos artificiales (como un circuito integrado, un ordenador o
un conjunto de vlvulas). El objetivo es conseguir que las mquinas den respuestas
similares a las que es capaz de dar el cerebro que se caracterizan por su generalizacin y
su robustez.
177
Comparativa
En la Tabla 5 podemos ver una comparacin entre las neuronas artificiales y las
biolgicas.
178
Comparativa
Tabla 5. Comparacin entre las neuronas biolgicas reales y las unidades de proceso artificiales.
Estructura y aprendizaje
La mayora de los cientficos coinciden en que una RNA es muy diferente en trminos
de estructura de un cerebro animal. Al igual que el cerebro, una RNA se compone de un
conjunto masivamente paralelo de unidades de proceso muy simples y es en las
conexiones entre estas unidades donde reside la inteligencia de la red. Sin embargo, en
trminos de escala, un cerebro es muchsimo mayor que cualquier RNA creada hasta la
actualidad, y las neuronas artificiales tambin son ms simples que su contrapartida
animal.
En una RNA entrenada, el conjunto de los pesos determina el conocimiento de esa RNA
y tiene la propiedad de resolver el problema para el que la RNA ha sido entrenada.
Por otra parte, en una RNA, adems de los pesos y las conexiones, cada neurona tiene
asociada una funcin matemtica denominada funcin de transferencia. Dicha funcin
genera la seal de salida de la neurona a partir de las seales de entrada.
179
Comparativa
La entrada de la funcin es la suma de todas las seales de entrada por el peso asociado
a la conexin de entrada de la seal. Algunos ejemplos de entradas son la funcin
escaln o Heaviside, la lineal o mixta, la sigmoidal y la funcin gaussiana, recordando
que la funcin de transferencia es la relacin entre la seal de salida y la entrada.
Propiedades
2) Son sistemas tolerantes a fallos: Una red neuronal, al ser un sistema distribuido,
permite el fallo de algunos elementos individuales (neuronas) sin alterar
significativamente la respuesta total del sistema. Este hecho las hace especialmente
atractivas frente a las computadoras actuales que, por lo general, son sistemas
secuenciales de tal forma que un fallo en uno de sus componentes conlleva que el
sistema total no funcione.
180
Comparativa
5) Establecen relaciones no lineales entre datos. Las redes neuronales son capaces de
relacionar dos conjuntos de datos mediante relaciones complejas.
Una red neuronal artificial en un sistema basado en el cerebro humano, por tanto
presentan una fuerte similitud con el cerebro biolgico.
2. Tanto las neuronas biolgicas como las artificiales estn unidas mediante
conexiones. El tipo de conexin sinptica (inhibidora o excitadora) de las
conexiones biolgicas es representada mediante los pesos sinpticos en las redes
artificiales.
181
Comparativa
8. Las redes neuronales artificiales al igual que el cerebro presentan un alto nivel
de tolerancia a fallos.
10. Existes redes neuronales artificiales, las redes neuronales de impulsos (spinking
neural networks) que son capaces, al igual que el sistema neuronal biolgico, de
codificar la informacin mediante el nmero de impulsos y el tiempo entre stos.
182
Comparativa
6.3 Conclusiones
En este captulo se han analizado las similitudes y diferencias existentes entre el sistema
neuronal o biolgico y los sistemas electrnicos, como los computadores y las redes
neuronales.
183
Comparativa
En cuanto a sus similitudes podemos decir que, ambos sistemas poseen memorias a
corto y a largo plazo y que tanto el cerebro como los computadores poseen dispositivos
con capacidad de proceso lgico (sinapsis y puertas lgicas).
184