Está en la página 1de 63

22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Oldcivilizations's Blog

Antiguas civilizaciones y enigmas

De la ingeniería inversa del cerebro biológico al


cerebro artificial

i
2 Votes

Autor: Manel Sancho (https://oldcivilizations.wordpress.com


(https://oldcivilizations.wordpress.com/)); fecha: 26/12/2022

Al final del articulo puede descargarse en formato PDF

Al comienzo del siglo XXI, la humanidad se encuentra al borde del período más transformador y
emocionante de su historia, por si no fueran suficientes los cambios habidos en las últimas décadas.
Será una era en la que la naturaleza misma de lo que significa ser humano se verá tanto enriquecida
como desafiada, a medida que nuestra especie rompa las cadenas de
su legado genético y alcance alturas inconcebibles de inteligencia,
progreso material y longevidad. Esto puede ser positivo en distintos
ámbitos, pero también presenta grandes peligros y riesgos. De todos
modos en este artículo me centraré en los aspectos supuestamente
positivos. Durante más de tres décadas, el inventor estadounidense,
además de músico, empresario, escritor y científico especializado en
Ciencias de la Computación e Inteligencia Artificial, siendo además,
desde 2012, director de Ingeniería en Google, Ray Kurzweil, ha sido uno de los defensores más
respetados y provocadores del papel de la tecnología en nuestro futuro y, por lo tanto, en el
transhumanismo, del que ya he hablado en los últimos tres artículos titulados «Las extrañas vinculaciones
del esoterismo con nuestro devenir histórico (https://oldcivilizations.wordpress.com/2022/12/06/las-extranas-
vinculaciones-del-esoterismo-con-nuestro-devenir-historico-3-3/#more-12762)«. En su libro La era de la
máquina espiritual, Kurzweil presentó el audaz argumento de que con el ritmo cada vez más acelerado
del cambio tecnológico, las computadoras rivalizarían con la inteligencia humana. Posteriormente, en
su libro La singularidad está cerca examina el próximo paso en este inexorable proceso evolutivo. Se
trata de la unión de humanos y máquinas, en la que el conocimiento y las habilidades integrados en
nuestros cerebros se combinarán con la capacidad, la velocidad y el conocimiento mucho mayores de
las computadoras, compartiendo la capacidad de nuestras propias creaciones. Según Kurzweil, la
fusión es la esencia de lo que él llama Singularidad, una era en la que nuestra inteligencia se volverá

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 1/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

cada vez más no biológica y billones de veces más poderosa de lo que es hoy. Para ello es fundamental
el conocimiento del cerebro humano mediante la ingeniería inversa. Ello, según los transhumanistas,
significaré el amanecer de una nueva civilización que nos permitirá trascender las limitaciones
biológicas y amplificar nuestra creatividad. En este nuevo mundo, no habrá una distinción clara entre
humanos y máquinas, realidad física y realidad virtual. Podremos asumir diferentes cuerpos y asumir
una variedad de personajes a voluntad. En términos prácticos, el envejecimiento humano y la
enfermedad se revertirán; se detendrá la contaminación; se resolverá el hambre y la pobreza en el
mundo. La nanotecnología hará posible crear prácticamente cualquier producto físico utilizando
procesos de información económicos y, en última instancia, convertirá incluso la muerte en un
problema soluble.

Si bien las ramificaciones sociales y filosóficas de estos cambios serán profundas y las amenazas que
plantean serán considerables, Kurzweil mantiene una visión radicalmente optimista del curso futuro
del desarrollo humano. Como tal, ofrece una visión de la era venidera que es, a la vez, una
culminación de los siglos de ingenio tecnológico y una visión genuinamente inspiradora de nuestro
destino final. ¿Qué se considera, entonces, la Singularidad? Según Kurzweil es un período futuro
durante el cual el ritmo del cambio tecnológico será tan rápido, su impacto tan profundo, que la vida
humana se transformará irreversiblemente. Esta época transformará los conceptos en los que nos
basamos para dar sentido a nuestras vidas, desde nuestros modelos de negocio hasta el ciclo de la vida
humana, pasando por la muerte misma. Comprender la Singularidad alterará nuestra perspectiva sobre
el significado de nuestro pasado y las ramificaciones para nuestro futuro. Comprenderlo
verdaderamente cambia inherentemente la visión de la vida en general y la propia vida en particular.
Kurzweil ve implicaciones obvias en lo que ha llamado la ley de los rendimientos acelerados, que
significa la aceleración inherente de la tasa de evolución, con la evolución tecnológica como
continuación de la evolución biológica. La idea clave que subyace en la Singularidad inminente es que
el ritmo de cambio de nuestra tecnología creada por los propios seres humanos se está acelerando y
sus poderes se están expandiendo a un ritmo exponencial. El crecimiento exponencial es engañoso, ya
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 2/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

que comienza casi imperceptiblemente y luego estalla con una furia inesperada si uno no tiene
cuidado de seguir su trayectoria. Consideremos al campeón mundial de ajedrez, Gary Kasparov, quien
despreció el patético estado del ajedrez computarizado en 1992. Sin embargo, la implacable
duplicación del poder de la computadora cada año permitió que una computadora lo derrotara solo
cinco años después. La lista de formas en que las computadoras ahora pueden superar las capacidades
humanas está creciendo rápidamente. Además, las aplicaciones de la inteligencia artificial informática,
que alguna vez fueron restringidas, se están ampliando gradualmente en un tipo de actividad tras
otra. Por ejemplo, las computadoras están diagnosticando electrocardiogramas e imágenes médicas,
volando y aterrizando aviones, controlando las decisiones tácticas de las armas automatizadas,
tomando decisiones crediticias y financieras, y asumiendo la responsabilidad de muchas otras tareas
que solían requerir inteligencia humana. El rendimiento de estos sistemas se basa cada vez más en la
integración de múltiples tipos de inteligencia artificial (IA). Pero mientras exista una deficiencia de la
IA en cualquier área, los escépticos señalarán esa área como un bastión inherente de la superioridad
humana permanente sobre las capacidades de nuestras propias creaciones.

Sin embargo, Kurzweil cree que, dentro de pocas décadas, las tecnologías basadas en la información
abarcarán todo el conocimiento y la competencia humanos, y en última instancia incluirán los poderes
de reconocimiento de patrones, propios del funcionamiento del cerebros, así como las habilidades para
resolver problemas y la inteligencia emocional y moral del propio cerebro humano. Aunque
impresionante en muchos aspectos, el cerebro humano sufre de severas limitaciones. Usamos su
paralelismo masivo, que implica unos cien billones de conexiones interneuronales operando
simultáneamente, para reconocer rápidamente patrones sutiles. Pero nuestro pensamiento es
extremadamente lento, ya que las transacciones neuronales básicas son varios millones de veces más
lentas que los circuitos electrónicos contemporáneos. Eso hace que nuestro ancho de banda fisiológico
para procesar nueva información sea extremadamente limitado en comparación con el crecimiento
exponencial de la base de conocimiento humano en general. Nuestros cuerpos biológicos actuales
también son frágiles y están sujetos a una miríada de modos de falla, sin mencionar los engorrosos
procesos de mantenimiento que requieren. Si bien la inteligencia humana a veces es capaz de elevarse
en su creatividad y expresividad, gran parte del pensamiento humano es derivado del de otros. Según
Kurzweil y otros científicos la Singularidad nos permitirá trascender estas limitaciones de nuestros
cuerpos y cerebros biológicos, con lo que. ganaremos poder sobre nuestros destinos. Nuestra
mortalidad estará en nuestras propias manos. Podremos vivir todo el tiempo que queramos, que es
una declaración sutilmente diferente de decir que viviremos para siempre. Comprenderemos
completamente el pensamiento humano y extenderemos y expandiremos enormemente su alcance. A
finales del siglo XXI, la parte no biológica de nuestra inteligencia será billones de billones de veces
más poderosa que la inteligencia humana sin ayuda. Ahora estamos en las primeras etapas de esta
transición. La aceleración del cambio de paradigma, o la velocidad a la que cambiamos los enfoques
técnicos fundamentales, así como el crecimiento exponencial de la capacidad de la tecnología de la
información, hace perceptible que se esté comenzando a alcanzar la etapa en la que se produce una
tendencia exponencial. Poco después de esta etapa, la tendencia se volverá rápidamente explosiva.
Antes de mediados de este siglo XXI, las tasas de crecimiento de nuestra tecnología serán tan
pronunciadas que parecerán esencialmente verticales. Desde una perspectiva estrictamente
matemática, las tasas de crecimiento seguirán siendo finitas pero tan extremas que los cambios que
produzcan parecerán romper el tejido de la historia humana. Esa, al menos, será la perspectiva de la
humanidad biológica que no sea mejorada.

La Singularidad representará la culminación de la fusión de nuestro pensamiento y existencia


biológicos con nuestra tecnología, dando como resultado un mundo que seguirá siendo humano pero
que trascenderá nuestras raíces biológicas. No habrá distinción, post-Singularidad, entre humano y
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 3/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

máquina o entre realidad física y virtual. Si nos preguntamos qué permanecerá inequívocamente
humano en un mundo así, es simplemente que nuestra especie buscará extender su alcance físico y
mental más allá de las limitaciones actuales. Muchos opinan que estos cambios se centran en lo que
perciben como una pérdida de algún aspecto vital de nuestra humanidad que resultará de esta
transición. Todas las máquinas que hemos conocido hasta la fecha carecen de la sutileza esencial de las
cualidades biológicas humanas. Aunque la Singularidad tiene muchas caras, su implicación más
importante es que nuestra tecnología igualará y luego superará ampliamente el refinamiento y la
flexibilidad de lo que consideramos como el mejor de los rasgos humanos, en lo que sería la cumbre
del transhumanismo. En la década de 1950, el matemático húngaro-estadounidense que realizó
contribuciones fundamentales en física cuántica, análisis funcional, teoría de conjuntos, teoría de
juegos, ciencias de la computación, economía, análisis numérico, cibernética, hidrodinámica,
estadística y muchos otros campos, John von Neumann, fue citado diciendo que «el progreso cada vez
más acelerado de la tecnología da la apariencia de acercarse a una singularidad esencial en la historia de la raza
más allá de la cual los asuntos humanos, como sabemos, no podrían continuar«. Von Neumann hace dos
observaciones importantes aquí: aceleración y singularidad. La primera idea es que el progreso
humano es exponencial, es decir, se expande al multiplicar repetidamente por una constante, en lugar
de lineal, en quje se expande al sumar repetidamente una constante. La segunda es que el crecimiento
exponencial comienza lentamente y casi imperceptiblemente, pero pronto se vuelve explosivo y
profundamente transformador. El futuro es ampliamente malinterpretado, ya que nuestros
antepasados esperaban que fuera más o menos como su presente, que había sido más o menos como
su pasado. Las tendencias exponenciales ya existían hace mil años, pero se encontraban en una etapa
muy temprana en la que eran tan planas y lentas que parecían no tener ninguna tendencia. Como
resultado, se cumplió la expectativa de los observadores de un futuro sin cambios. Hoy, anticipamos el
progreso tecnológico continuo y las repercusiones sociales que le siguen. Pero el futuro será mucho
más sorprendente de lo que la mayoría de la gente cree, porque pocos observadores han internalizado
realmente las implicaciones del hecho de que la tasa de cambio en sí se está acelerando.

La mayoría de los pronósticos a largo plazo de lo que es técnicamente factible en períodos de tiempo
futuros subestiman dramáticamente el poder de los desarrollos futuros porque se basan en una visión
«lineal intuitiva» de la historia en lugar de la visión «exponencial histórica«. Los modelos que maneja Ray
Kurzweil muestran que estamos duplicando la tasa de cambio de paradigma cada década. Así, el siglo
XX fue acelerando gradualmente hasta alcanzar el ritmo de progreso actual. Para expresarlo de otra
manera, no viviremos cien años de avance tecnológico en el siglo XXI, sino que seremos testigos del
orden equivalente a veinte mil años de progreso o aproximadamente unas mil veces mayor que lo que
se logró en el siglo XX. Las percepciones erróneas sobre la forma del futuro surgen con frecuencia y en
una variedad de contextos. Como un ejemplo de muchos, Kurzweil nos explica que en un debate
reciente en el que participó sobre la viabilidad de la fabricación molecular, un ganador del Premio
Nobel descartó las preocupaciones de seguridad con respecto a la nanotecnología y proclamó que «no
vamos a ver entidades de nanoingeniería autorreplicantes [dispositivos construidos fragmento molecular por
fragmento] durante cien años«. Kurzweil señaló que cien años era una estimación razonable y en
realidad coincidía con su propia evaluación de la cantidad de progreso técnico requerido para lograr
este hito en particular cuando se mide a la tasa de progreso actual, que es cinco veces la tasa de cambio
promedio que vimos en el siglo XX. Pero debido a que estamos duplicando la tasa de progreso cada
década, veremos el equivalente a un siglo de progreso, al ritmo actual, en solo veinticinco años. De
manera similar, en la conferencia Future of Life de la revista Time, celebrada en 2003 para conmemorar
el quincuagésimo aniversario del descubrimiento de la estructura del ADN, se preguntó a todos los
oradores invitados cómo pensaban que serían los próximos cincuenta años. Prácticamente todos los
presentadores observaron el progreso de los últimos cincuenta años y lo usaron como modelo para los
próximos cincuenta años. Por ejemplo, James Watson, el codescubridor del ADN, dijo que en
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 4/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

cincuenta años tendremos medicamentos que nos permitirán comer todo lo que queramos sin
engordar. Kurzweil le respondió: «¿Cincuenta años?» Ya hemos logrado esto en ratones al bloquear el gen del
receptor de insulina grasa que controla el almacenamiento de grasa en las células grasas. Los medicamentos para
uso humano (usando ARN de interferencia y otras técnicas) están en desarrollo ahora y estarán en las pruebas de
la FDA en varios años. Estos estarán disponibles en cinco a diez años, no cincuenta«. Otras proyecciones
fueron igualmente miopes, reflejando las prioridades de la investigación contemporáneas en lugar de
los profundos cambios que traerá el próximo medio siglo. De todos los pensadores en esta conferencia,
fueron principalmente el pionero del desarrollo de software estadounidense, que en 1982 cofundó Sun
Microsystems, Bill Joy, y Ray Kurzweil quienes tomaron en cuenta la naturaleza exponencial del futuro.

Pensemos en los bioquímicos que, en 1990, se mostraron escépticos ante el objetivo de transcribir el
genoma humano completo en apenas quince años. Estos científicos acababan de pasar un año entero
transcribiendo apenas una diezmilésima parte del genoma. Entonces, incluso con avances anticipados
razonables, les parecía natural que tomaría un siglo, si no más, antes de que se pudiera secuenciar el
genoma completo. O consideremos el escepticismo expresado a mediados de la década de 1980 de que
Internet alguna vez sería un fenómeno significativo, dado que entonces incluía solo decenas de miles
de nodos, también conocidos como servidores. De hecho, el número de nodos se duplicaba cada año,
por lo que probablemente habría decenas de millones de nodos diez años después. Pero esta tendencia
no fue apreciada por quienes lucharon con la tecnología de punta en 1985, lo que permitió agregar solo
unos pocos miles de nodos en todo el mundo en un solo año. El error conceptual inverso ocurre
cuando ciertos fenómenos exponenciales se reconocen por primera vez y se aplican de manera
demasiado agresiva sin modelar el ritmo de crecimiento adecuado. Si bien el crecimiento exponencial
gana velocidad con el tiempo, no es instantáneo. La adopción real de Internet y el comercio electrónico
mostró un crecimiento exponencial suave durante su auge y su caída temporal, pero la expectativa
demasiado entusiasta de crecimiento afectó solo las valoraciones de capital (acciones). Hemos visto
errores comparables durante cambios de paradigma anteriores, por ejemplo, durante la era ferroviaria
temprana, en la década de 1830, cuando se produjo un frenesí de expansión ferroviaria. Otro error que
cometen los pronosticadores es considerar las transformaciones que resultarán de una sola tendencia
en el mundo de hoy como si nada más fuera a cambiar. Un buen ejemplo es la preocupación de que la
extensión radical de la vida resulte en superpoblación y el agotamiento de los recursos materiales
limitados para sostener la vida humana, lo que ignora la creación de riqueza comparablemente radical
a partir de la nanotecnología y la IA fuerte. Por ejemplo, los dispositivos de fabricación basados en
nanotecnología serán capaces antes de final de la década actual (de 2020) de crear casi cualquier
producto físico, incluyendo alimentos, a partir de información y materias primas económicas.

Kurzweil hace hincapié en la perspectiva exponencial versus lineal porque es el fracaso más
importante que cometen los pronosticadores al considerar las tendencias futuras. La mayoría de los
pronósticos y pronosticadores tecnológicos ignoran por completo esta visión histórica exponencial del
progreso tecnológico. De hecho, casi todas las personas con las que Kurzweil se ha encontrado tienen
una visión lineal del futuro. Es por eso que la gente tiende a sobrestimar lo que se puede lograr a corto
plazo, porque tendemos a dejar de lado los detalles necesarios, pero subestima lo que se puede lograr
a medio y largo plazo, porque se ignora el crecimiento exponencial. La evolución es un proceso de
creación de patrones de orden creciente. Kurzweil considera que es la evolución de los patrones lo que
constituye la última historia de nuestro mundo. La evolución funciona indirectamente, en que cada
etapa o época utiliza los métodos de procesamiento de información de la época anterior para crear la
siguiente. Kurzweil conceptualiza la historia de la evolución, tanto biológica como tecnológica, como
si ocurriera en seis épocas. Kurzweil cree que la Singularidad comenzará en la Quinta Época y se
extenderá desde la Tierra al resto del universo en la Sexta Época. La Primera Época: se basa en la Física
y la Química. Podemos rastrear nuestros orígenes hasta un estado que representa la información en
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 5/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

sus estructuras básicas: patrones de materia y energía. Las teorías recientes de la gravedad cuántica
sostienen que el tiempo y el espacio se dividen en cuantos discretos, esencialmente fragmentos de
información. Existe controversia sobre si la materia y la energía son, en última instancia, de naturaleza
digital o analógica, pero independientemente de la resolución de este problema, sabemos que las
estructuras atómicas almacenan y representan información discreta. Unos cientos de miles de años
después del Big Bang, se considera que los átomos comenzaron a formarse, ya que los electrones
quedaron atrapados en órbitas alrededor de núcleos formados por protones y neutrones. La estructura
eléctrica de los átomos los hizo «pegajosos«. La Química nació unos millones de años después cuando
los átomos se unieron para crear estructuras relativamente estables llamadas moléculas. De todos los
elementos, el carbono demostró ser el más versátil, ya que es capaz de formar enlaces en cuatro
direcciones, en lugar de una a tres para la mayoría de los otros elementos, lo que da lugar a estructuras
tridimensionales complicadas y ricas en información.

Las reglas de nuestro universo y el equilibrio de las constantes físicas que gobiernan la interacción de
las fuerzas básicas son tan exquisita, delicada y exactamente apropiadas para la codificación y
evolución de la información, lo que resulta en una complejidad creciente, que uno se pregunta cómo
una situación tan extraordinariamente improbable pudo producirse. Donde algunos ven una mano
divina, otros ven nuestras propias manos, a saber, el principio antrópico, que sostiene que solo en un
universo que permitiera nuestra propia evolución estaríamos aquí para hacer tales preguntas. Teorías
recientes de la física sobre múltiples universos especulan que nuevos universos se crean regularmente,
cada uno con sus propias reglas únicas, pero que la mayoría de estos se extinguen rápidamente o
continúan sin la evolución de ningún patrón interesante, como la Tierra, en que se ha creado una
determinada biología, porque sus reglas no soportan la evolución de formas cada vez más complejas.
Es difícil imaginar cómo podríamos probar estas teorías de la evolución aplicadas a la cosmología
primitiva, pero está claro que las leyes físicas de nuestro universo son precisamente lo que deben ser
para permitir la evolución de niveles crecientes de orden y complejidad. La Segunda Época se
distingue por la Biología y el ADN. En la segunda época, que comenzó hace varios miles de millones
de años, los compuestos a base de carbono se volvieron cada vez más complejos hasta que agregados
complejos de moléculas formaron mecanismos autorreplicantes y se originó la vida. En última
instancia, los sistemas biológicos desarrollaron un mecanismo digital preciso (ADN) para almacenar
información que describe una sociedad más grande de moléculas. Aunque en mi opinión, que coincide
con la de bastantes científicos, el código ADN es demasiado complejo como para haberse generado al
azar (ver mi artículo Evolucionismo o Creacionismo, ¿dónde está la verdad?
(https://oldcivilizations.wordpress.com/2010/11/13/creacionismo-o-evolucionismo/#more-85)) Esta
molécula y su maquinaria de apoyo de codones y ribosomas permitieron llevar un registro de los
experimentos evolutivos de esta segunda época. La Tercera Época se centra en los Cerebros. Cada
época continúa la evolución de la información a través de un cambio de paradigma a un nivel más
alto, es decir, la evolución usa los resultados de una época para crear la siguiente. Por ejemplo, en la
tercera época, la evolución guiada por el ADN produjo organismos que podían detectar información
con sus propios órganos sensoriales y procesar y almacenar esa información en sus propios cerebros. y
sistemas nerviosos. Estos fueron posibles gracias a mecanismos de la segunda época, como el ADN e
información epigenética de proteínas y fragmentos de ARN que controlan la expresión génica, que
indirectamente habilitaron y definieron mecanismos de procesamiento de información de la tercera
época, tales como el cerebro y el sistema nervioso de los organismos. La tercera época comenzó con la
capacidad de los primeros animales para reconocer patrones, lo que aún representa la gran mayoría de
la actividad de nuestro cerebro. En última instancia, nuestra propia especie desarrolló la capacidad de
crear modelos mentales abstractos del mundo que experimentamos y contemplar las implicaciones
racionales de estos modelos. Tenemos la capacidad de rediseñar el mundo en nuestras propias mentes
y poner estas ideas en acción.
É
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 6/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

La Cuarta Época se centra en la Tecnología. Combinando la dotación del pensamiento racional y


abstracto con nuestro pulgar oponible, nuestra especie marcó el comienzo de la cuarta época y el
siguiente nivel, que sería la evolución de la tecnología creada por humanos. Esto comenzó con
mecanismos simples y se convirtió en autómatas elaborados, en la forma de máquinas mecánicas
automatizadas. En última instancia, con sofisticados dispositivos informáticos y de comunicación, la
tecnología fue capaz de detectar, almacenar y evaluar patrones elaborados de información. Para
comparar la tasa de progreso de la evolución biológica de la inteligencia con la de la evolución
tecnológica, considere que los mamíferos más avanzados han agregado aproximadamente una
pulgada cúbica de materia cerebral cada cien mil años, mientras que estamos duplicando
aproximadamente la capacidad computacional de las computadoras cada año. Por supuesto, ni el
tamaño del cerebro ni la capacidad de la computadora son los únicos determinantes de la inteligencia,
pero representan factores habilitadores. Si colocamos los hitos clave tanto de la evolución biológica
como del desarrollo tecnológico humano en un solo gráfico trazando tanto el eje x (número de años
atrás) como el eje y (el tiempo del cambio de paradigma) en escalas logarítmicas, encontramos un
gráfico con una línea razonablemente recta (aceleración continua), con la evolución biológica que
conduce directamente al desarrollo dirigido por humanos. Las cifras anteriores reflejan la visión de
Kurzweil de los desarrollos clave en la historia biológica y tecnológica. Tenga en cuenta, sin embargo,
que la línea recta, que demuestra la aceleración continua de la evolución, no depende de una selección
particular de eventos. Muchos observadores y libros de referencia han compilado listas de eventos
importantes en la evolución biológica y tecnológica, cada uno de los cuales tiene su propia
idiosincrasia. Sin embargo, a pesar de la diversidad de enfoques, si combinamos listas de una
variedad de fuentes, como la Enciclopedia Británica y otros, observamos la misma aceleración suave
obvia. La tendencia general, sin embargo, es muy clara. Los atributos que están creciendo
exponencialmente en estos gráficos son el orden y la complejidad. Esta aceleración coincide con
nuestras observaciones de sentido común. Hace mil millones de años, no sucedió mucho en el
transcurso de un millón de años. Pero hace un cuarto de millón de años, eventos trascendentales como
la evolución de nuestra especie ocurrieron en marcos de tiempo de solo cien mil años. En tecnología, si
retrocedemos cincuenta mil años, no pasó mucho en un período de mil años. Pero en el pasado
reciente, vemos nuevos paradigmas, como la World Wide Web, en que su progreso desde el inicio hasta
la adopción masiva se ha producido en solo una década.

La Quinta Época se centra en la fusión de la tecnología humana con la inteligencia humana. En unas
cuantas décadas la Singularidad comenzará con la quinta época. Será el resultado de la fusión del vasto
conocimiento incrustado en nuestros propios cerebros con la capacidad, la velocidad y la capacidad de
compartir conocimientos mucho mayores de nuestra tecnología. La quinta época permitirá que
nuestra civilización humano-máquina trascienda las limitaciones del cerebro humano de apenas cien
billones de conexiones extremadamente lentas. La Singularidad nos permitirá superar antiguos
problemas humanos y amplificar enormemente la creatividad humana. Conservaremos y mejoraremos
la inteligencia que la evolución nos ha otorgado, mientras superamos las profundas limitaciones de la
evolución biológica. Pero la Singularidad también amplificará la capacidad de actuar sobre nuestras
inclinaciones destructivas, por lo que aún no se ha escrito su historia completa. La Sexta Época es
descrita por Kurzweil como el Universo Despierta. Como consecuencia de la Singularidad, la
inteligencia, derivada de sus orígenes biológicos en el cerebro humano y sus orígenes tecnológicos en
el ingenio humano, comenzará a saturar la materia y la energía en su seno. Lo logrará reorganizando
la materia y la energía para proporcionar un nivel óptimo de computación, para extenderse desde su
origen en la Tierra. Actualmente entendemos la velocidad de la luz como un factor limitante en la
transferencia de información. Eludir este límite debe considerarse altamente especulativo, pero hay
indicios de que esta restricción puede ser superada. Si hay incluso desviaciones sutiles, finalmente
aprovecharemos esta habilidad superlumínica. Si nuestra civilización infunde al resto del universo su
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 7/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

creatividad e inteligencia rápida o lentamente depende de su inmutabilidad. En cualquier caso, la


materia y los mecanismos «tontos» del universo se transformarán en formas exquisitamente sublimes
de inteligencia, lo que constituirá la sexta época en la evolución de los patrones de información, en que
según el transhumanismo, podríamos ser como dioses. Este sería el destino final de la Singularidad y del
universo.

Para poner el concepto de Singularidad en una perspectiva más amplia, exploremos la historia de la
palabra misma. «Singularidad» es una palabra que significa un evento único con implicaciones
singulares. La palabra fue adoptada por los matemáticos para denotar un valor que trasciende
cualquier limitación finita, como la explosión de magnitud que resulta al dividir una constante por un
número que se acerca cada vez más a cero. El siguiente campo en adoptar la palabra fue la astrofísica.
Si una estrella masiva experimenta una explosión de supernova, su remanente finalmente colapsa
hasta el punto de un volumen aparentemente cero y una densidad infinita, y se crea una «singularidad»
en su centro. Debido a que se pensaba que la luz no podía escapar de la estrella después de que
alcanzaba esta densidad infinita, se le llamó agujero negro, que constituye una ruptura en el tejido del
espacio-tiempo. Una teoría especula que el universo mismo comenzó con tal Singularidad.
Curiosamente, sin embargo, el horizonte de sucesos (superficie) de un agujero negro tiene un tamaño
finito, y la fuerza gravitatoria solo es teóricamente infinita en el centro del agujero negro que es de
tamaño cero. En cualquier lugar que pueda medirse, las fuerzas son finitas, aunque extremadamente
grandes. La primera referencia a la Singularidad como un evento capaz de romper el tejido de la
historia humana es la declaración de John von Neumann citada anteriormente. En la década de 1960,
el matemático británico Irving John Good escribió sobre una «explosión de inteligencia» resultante de las
máquinas inteligentes que diseñan su próxima generación sin intervención humana. Vernor Vinge,
matemático e informático de la Universidad Estatal de San Diego, escribió sobre una «singularidad
tecnológica» que se acercaba rápidamente en un artículo para la revista Omni en 1983 y en una novela
de ciencia ficción, Marooned in Realtime (Abandonado en tiempo real), en 1986. En su libro de 1989, La era
de las máquinas inteligentes, Kurzweil ya presentaba un futuro que se dirigía inevitablemente hacia
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 8/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

máquinas que superaban con creces la inteligencia humana en la primera mitad del siglo XXI. El libro
Mind Children: The Future of Robot and Human Intelligence del investigador en robótica en la Carnegie
Mellon University, Hans Moravec, publicada en 1988, llega a una conclusión similar al analizar la
progresión de la robótica.

En 1993 Vernor Vinge presentó un artículo en un simposio organizado por la NASA que describía la
Singularidad como un evento inminente que resultaba principalmente del advenimiento de «entidades
con una inteligencia superior a la humana«, que Vinge vio como el presagio de un fenómeno fuera de
control. En su libro de 1999, La era de las máquinas espirituales: cuando las computadoras superan la
inteligencia humana, Kurzweil describía la conexión cada vez más íntima entre nuestra inteligencia
biológica y la inteligencia artificial que estamos creando. El libro de Hans Moravec, Robot: Mere
Machine to Transcendent Mind (Robot: mera máquina para la mente trascendente), también publicado en
1999, describió a los robots de la década de 2040 como nuestros «herederos evolutivos«, máquinas que
«crecerán a partir de nosotros, aprenderán nuestras habilidades y compartirán nuestros objetivos y valores,
siendo hijos de nuestras mentes». Los libros del escritor australiano de ciencia ficción y divulgación
científica Damien Broderick, publicados en 1997 y 2001, ambos titulados The Spike (El Pico), analizaron
el impacto generalizado de la fase extrema de aceleración tecnológica anticipada dentro de varias
décadas. En una extensa serie de escritos, el filósofo australiano y académico John Jamieson Carswell
«Jack» Smart ha descrito la Singularidad como el resultado inevitable de lo que él llama compresión
«MEST» (materia, energía, espacio y tiempo). Kurzweil opina que la Singularidad tiene muchas caras.
Representa la fase casi vertical de crecimiento exponencial que ocurre cuando la tasa es tan extrema
que la tecnología parece expandirse a una velocidad infinita. Por supuesto, desde una perspectiva
matemática, no hay discontinuidad, ni ruptura, y las tasas de crecimiento siguen siendo finitas,
aunque extraordinariamente grandes. Pero desde un marco actual limitado, este evento inminente
parece ser una ruptura aguda y abrupta en la continuidad del progreso. Una de las implicaciones más
destacadas de la Singularidad será un cambio en la naturaleza de nuestra capacidad de comprensión,
ya que seremos mucho más inteligentes a medida que nos fusionemos con nuestra tecnología. Pero
aquí podemos preguntarnos, ¿puede el ritmo del progreso tecnológico seguir acelerándose
indefinidamente? ¿No hay un punto en el que los humanos sean incapaces de pensar lo
suficientemente rápido para mantenerse al día? Para humanos no mejorados con la tecnología, ello
sería evidente. Y Kurzweil se hace esta sorprendente y preocupante pregunta: ¿Qué lograrían 1.000
científicos, cada uno de ellos 1.000 veces más inteligente que los científicos humanos actuales, y cada
uno operando 1.000 veces más rápido que los humanos contemporáneos, debido a que el
procesamiento de información en sus cerebros principalmente no biológicos fuese más rápido? Un año
cronológico nuestro sería como un milenio para ellos. Entonces, ¿qué se les ocurriría? ¿Sobrarían los
humanos que no estuviesen a su nivel?

Probablemente inventarían nueva tecnología para volverse aún más inteligentes, porque su
inteligencia ya no tendría una capacidad limitada. Cambiarían sus propios procesos de pensamiento
para permitirles pensar aún más rápido. Cuando los científicos se vuelvan un millón de veces más
inteligentes y operen un millón de veces más rápido, una hora resultaría en un siglo de progreso en
términos actuales. La Singularidad implica una serie de principios, en línea con las ideas del
transhumanismo, como la de que la tasa de cambio de paradigma (innovación técnica) se está
acelerando, ahora mismo duplicándose cada década. Por otro lado, el poder (precio-rendimiento,
velocidad, capacidad y ancho de banda) de las tecnologías de la información está creciendo
exponencialmente a un ritmo aún más rápido, y ahora se duplica cada año. Este principio se aplica a
una amplia gama de medidas, incluida la cantidad de conocimiento humano. También tenemos que
para las tecnologías de la información, existe un segundo nivel de crecimiento exponencial: es decir,
crecimiento exponencial en la tasa de crecimiento exponencial. La razón es que a medida que una
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 9/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

tecnología se vuelve más rentable, se despliegan más recursos para su avance, por lo que la tasa de
crecimiento exponencial aumenta con el tiempo. Por ejemplo, la industria informática en la década de
1940 consistía en un puñado de proyectos que ahora son históricamente importantes. En la actualidad,
los ingresos totales de la industria informática superan el billón de dólares, por lo que los
presupuestos de investigación y desarrollo son comparativamente más altos. Actualmente el escaneo
del cerebro humano es una de estas tecnologías que mejoran exponencialmente. La resolución
temporal y espacial, así como el ancho de banda del escaneo cerebral se duplican cada año. Recién
ahora estamos obteniendo las herramientas suficientes para comenzar una ingeniería inversa seria
(descodificación) de los principios de funcionamiento del cerebro humano. Ya tenemos impresionantes
modelos y simulaciones de un par de docenas de varios cientos de regiones del cerebro. Dentro de, tal
vez, una década, tendremos una comprensión detallada de cómo funcionan todas las regiones del
cerebro humano. Asimismo tendremos el hardware necesario para emular la inteligencia humana con
supercomputadoras para fines de esta década de 2020 y con dispositivos del tamaño de una
computadora personal para fines de la década siguiente. Tendremos modelos de software efectivos de
inteligencia humana para mediados de la década de 2020. Con el hardware y el software necesarios
para emular completamente la inteligencia humana, podemos esperar que las computadoras pasen la
prueba de Turing, lo que indicará una inteligencia indistinguible de la de los humanos biológicos, para
fines de la década de 2020. Cuando alcancen este nivel de desarrollo, las computadoras podrán
combinar las fortalezas tradicionales de la inteligencia humana con las fortalezas de la inteligencia
artificial.

Las fortalezas tradicionales de la inteligencia humana incluyen una capacidad formidable para
reconocer patrones, estructuras que le facilitan a nuestro cerebro el poner en práctica ciertas tareas
diarias, con el fin de ahorrarse el trabajo de procesar tareas repetitivas una y otra vez. La naturaleza
masivamente paralela y autoorganizada del cerebro humano es una arquitectura ideal para reconocer
patrones que se basan en propiedades sutiles e invariantes. Los seres humanos también somos capaces
de aprender nuevos conocimientos aplicando conocimientos e infiriendo principios a partir de la
experiencia, incluida la información recopilada a través del lenguaje. Una capacidad clave de la
inteligencia humana es la capacidad de crear modelos mentales de la realidad y realizar experimentos
mentales de «qué pasaría si» variando los aspectos de estos modelos. Por otro lado, los puntos fuertes
tradicionales de la inteligencia artificial incluyen la capacidad de recordar miles de millones de hechos
con precisión y recuperarlos al instante. Otra ventaja de la inteligencia no biológica es que una vez que
una máquina domina una habilidad, se puede realizar repetidamente a alta velocidad, con una
precisión óptima y sin cansarse. Quizás lo más importante es que las máquinas pueden compartir su
conocimiento a una velocidad extremadamente alta, en comparación con la velocidad muy lenta del
intercambio de conocimiento humano a través del lenguaje. La inteligencia no biológica podrá
descargar habilidades y conocimientos de otras máquinas, eventualmente también de seres humanos.
Las máquinas procesarán y cambiarán las señales a una velocidad cercana a la de la luz, de alrededor
de trescientos millones de metros por segundo, en comparación con los cien metros por segundo de
las señales electroquímicas utilizadas en los cerebros biológicos de los mamíferos. Esta relación de
velocidad es de al menos tres millones a uno. Asimismo las máquinas tendrán acceso a través de
Internet a todo el conocimiento de nuestra civilización humano-máquina y podrán dominar todo este
conocimiento. Por otro lado, las máquinas pueden poner en común sus recursos, inteligencia y
memorias. Dos máquinas, o un millón de máquinas, pueden unirse para convertirse en una y luego
volver a separarse. Múltiples máquinas pueden hacer ambas cosas al mismo tiempo: convertirse en
una y separarse simultáneamente. Los humanos llaman a esto enamorarse, pero nuestra capacidad
biológica para hacerlo es fugaz y poco confiable. La combinación de estas fortalezas tradicionales, la

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 10/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

capacidad de reconocimiento de patrones de la inteligencia humana biológica y la velocidad,


capacidad y precisión de la memoria, y habilidades para compartir conocimientos y habilidades de la
inteligencia no biológica, será formidable.

La inteligencia artificial tendrá total libertad de diseño y arquitectura, es decir, no estará restringida
por limitaciones biológicas, como la velocidad de conmutación lenta de nuestras conexiones
interneuronales o un tamaño de cráneo fijo, así como un rendimiento constante en todo momento. Una
vez que la inteligencia no biológica combine las fortalezas tradicionales de humanos y máquinas, la
porción no biológica de la inteligencia de nuestra civilización continuará beneficiándose del doble
crecimiento exponencial de la relación precio-rendimiento, velocidad y capacidad de las máquinas.
Una vez que las máquinas alcancen la capacidad de diseñar y crear tecnología como lo hacen los
humanos, solo que a velocidades y capacidades mucho más altas, tendrán acceso a sus propios
diseños (código fuente) y la capacidad de manipularlos. Los humanos ahora estamos logrando algo
similar a través de la biotecnología, cambiando la genética y otros procesos de información
subyacentes a nuestra biología, pero de una manera mucho más lenta y mucho más limitada de lo que
las máquinas podrán lograr modificando sus propios programas. La biología tiene limitaciones
inherentes. Por ejemplo, todo organismo vivo debe construirse a partir de proteínas que se pliegan a
partir de cadenas unidimensionales de aminoácidos. Los mecanismos basados en proteínas carecen de
fuerza y velocidad. Seremos capaces de rediseñar todos los órganos y sistemas en nuestros cuerpos y
cerebros biológicos para que sean mucho más capaces. Asimismo, la inteligencia humana tiene una
cierta cantidad de plasticidad o capacidad para cambiar su estructura, más de lo que se había
entendido previamente. Pero la arquitectura del cerebro humano es, no obstante, profundamente
limitada. Por ejemplo, solo hay espacio para unos cien billones de conexiones interneuronales en cada
uno de nuestros cráneos. Un cambio genético clave que permitió una mayor capacidad cognitiva de
los humanos en comparación con la de nuestros ancestros primates fue el desarrollo de una corteza
cerebral más grande, así como el desarrollo de un mayor volumen de tejido de materia gris en ciertas
regiones del cerebro. Este cambio ocurrió, sin embargo, en la escala de tiempo muy lenta de la
evolución biológica y todavía implica un límite inherente a la capacidad del cerebro. Las máquinas
podrán reformular sus propios diseños y aumentar sus propias capacidades sin límite. Mediante el
uso de diseños basados en nanotecnología, sus capacidades serán mucho mayores que las de los
cerebros biológicos sin aumentar el tamaño o el consumo de energía.

Las máquinas también se beneficiarán del uso de circuitos moleculares tridimensionales muy rápidos.
Los circuitos electrónicos actuales son más de un millón de veces más rápidos que la conmutación
electroquímica utilizada en los cerebros de los mamíferos. Los circuitos moleculares del mañana se
basarán en dispositivos como los nanotubos, que son diminutos cilindros de átomos de carbono que
miden unos diez átomos de ancho y son quinientas veces más pequeños que los transistores de silicio
actuales. Dado que las señales tienen menos distancia para viajar, también podrán operar a
velocidades de terahercios (billones de operaciones por segundo) en comparación con las velocidades
de unos pocos gigahercios (miles de millones de operaciones por segundo) de los chips actuales. La
tasa de cambio tecnológico no se limitará a las velocidades mentales humanas. La inteligencia artificial
mejorará sus propias capacidades en un ciclo de retroalimentación que la inteligencia humana sin
ayuda no podrá seguir. Este ciclo de inteligencia artificial que mejora iterativamente su propio diseño
será cada vez más rápido. De hecho, esto es exactamente lo que predice la fórmula para la aceleración
continua de la tasa de cambio de paradigma. Una de las objeciones que se han planteado a la
continuación de la aceleración del cambio de paradigma es que, en última instancia, se vuelve
demasiado rápido para que los humanos lo sigan y, por lo tanto, se argumenta, no puede suceder. Sin
embargo, el cambio de la inteligencia biológica a la no biológica permitirá que la tendencia continúe.
Junto con el acelerado ciclo de mejora de la inteligencia no biológica, la nanotecnología permitirá la
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 11/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

manipulación de la realidad física a nivel molecular. La nanotecnología permitirá diseñar nanobots:


robots diseñados a nivel molecular, medidos en micras (millonésimas de metro), como los
«respirocitos» (glóbulos rojos mecánicos). Los nanobots tendrán innumerables funciones dentro del
cuerpo humano, incluida la reversión del envejecimiento humano, en la medida en que esta tarea aún
no se haya completado a través de la biotecnología, como la ingeniería genética. Los nanobots
interactuarán con las neuronas biológicas para ampliar enormemente la experiencia humana mediante
la creación de realidad virtual desde dentro del propio sistema nervioso. Miles de millones de
nanobots en los capilares del cerebro también ampliarán enormemente la inteligencia humana. Una
vez que la inteligencia no biológica se afiance en el cerebro humano, lo que ya comenzó con los
implantes neuronales computarizados, la inteligencia artificial en nuestros cerebros crecerá
exponencialmente, como lo ha estado haciendo todo el tiempo, al menos duplicando su poder cada
año. En contraste, la inteligencia biológica es efectivamente de capacidad limitada. Así, la porción no
biológica de nuestra inteligencia finalmente predominará.

Los nanobots también mejorarán el medio ambiente al revertir la contaminación de la


industrialización anterior. Nanobots llamados foglets que pueden manipular imágenes y ondas de
sonido traerán las cualidades cambiantes de la realidad virtual al mundo real. Esta nanotecnología se
basa en el concepto de robots minúsculos y autorreplicantes, en que en lugar de construir el objeto que
se desea átomo a átomo, los minúsculos robots enlazarían sus brazos unos con otros para formar una
masa sólida con la forma de dicho objeto. Después, simplemente desplazándose un poco a su
alrededor podrían formar en su lugar, por ejemplo, otra forma totalmente diferente, y así
sucesivamente. La capacidad humana para comprender y responder adecuadamente a las emociones,
la llamada inteligencia emocional, es una de las formas de inteligencia humana que será comprendida
y dominada por la futura inteligencia artificial. Algunas de nuestras respuestas emocionales están
sintonizadas para optimizar nuestra inteligencia en el contexto de nuestros cuerpos biológicos
limitados y frágiles. La inteligencia artificial del futuro también tendrá «cuerpos«, como, por ejemplo,
cuerpos virtuales en realidad virtual o proyecciones en realidad real usando los foglets antes
mencionados, para interactuar con el mundo, pero estos cuerpos creados con nanotecnología serán
mucho más capaces y duraderos que los cuerpos humanos biológicos. Por lo tanto, algunas de las
respuestas «emocionales» de la futura inteligencia artificial serán rediseñadas para reflejar sus
capacidades físicas enormemente mejoradas. A medida que la realidad virtual desde dentro del
sistema nervioso se vuelve competitiva con la realidad física en términos de resolución y credibilidad,
nuestras experiencias se llevarán a cabo cada vez más en entornos virtuales. En la realidad virtual,
podemos ser una persona diferente tanto física como emocionalmente. De hecho, otras personas, como
nuestra pareja, podrán seleccionar un cuerpo diferente para nosotros, y viceversa. La ley de
rendimientos acelerados pronosticada por Kurzweil continuará hasta que la inteligencia no biológica
llegue a «saturar» la materia y la energía en nuestra vecindad del universo con nuestra inteligencia
humano-máquina. Por saturación, Kurzweil se refiere a utilizar los patrones de materia y energía para
la computación en un grado óptimo, según nuestra comprensión de la física de la computación. A
medida que nos acerquemos a este límite, la inteligencia de nuestra civilización continuará su
capacidad de expansión extendiéndose hacia el resto del universo. La velocidad de esta expansión
alcanzará rápidamente la velocidad máxima a la que puede viajar la información. ¿Puede ser que otras
civilizaciones galácticas ya hayan alcanzado este nivel?

En última instancia, todo el universo se saturará con nuestra inteligencia, lo que tal vez ya ha sucedido
con otras civilizaciones. Este es el destino del universo que prevén los transhumanistas.
Determinaremos nuestro propio destino en lugar de dejar que lo determinen las actuales fuerzas
simples y mecánicas que gobiernan la mecánica celestial. El tiempo que tardará el universo en
volverse inteligente hasta este punto depende de si la velocidad de la luz es o no un límite inmutable.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 12/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Hay indicios de posibles sutiles excepciones a este límite, que, si existen, la vasta inteligencia de
nuestra civilización en este tiempo futuro podrá explotar. Todo esto es la Singularidad. Algunos dirían
que no podemos comprenderlo, al menos con nuestro nivel actual de comprensión. Por esa razón, no
podemos mirar más allá de su horizonte de eventos y dar un sentido completo a lo que hay más allá.
Esta es una de las razones por las que Kurzweil y otros científicos, especialmente los transhumanistas,
llaman a esta transformación la Singularidad. A pesar de nuestras profundas limitaciones de
pensamiento, tenemos suficientes poderes de abstracción para hacer declaraciones significativas sobre
la naturaleza de la vida después de la Singularidad. Lo que es más importante, la inteligencia que
surgirá supuestamente seguirá representando a la civilización humana, que ya será una civilización
humano-máquina. En otras palabras, las futuras máquinas podrán ser consideradas «humanas«,
aunque no sean biológicas. Este será el próximo paso en la evolución, el próximo cambio de
paradigma de alto nivel. La mayor parte de la inteligencia de nuestra civilización será, en última
instancia, no biológica. A finales de este siglo XXI, será billones de billones de veces más poderosa que
la inteligencia humana. Sin embargo, para abordar las preocupaciones expresadas con frecuencia, esto
no implica el fin de la inteligencia biológica, incluso si se la arroja de su posición de superioridad
evolutiva. Incluso las formas no biológicas se derivarán del diseño biológico, por lo que podemos
considerar que nuestra civilización seguirá siendo humana. De hecho los transhumanistas creen que, en
muchos sentidos será más ejemplar en lo que consideramos humano de lo que es hoy, aunque nuestra
comprensión del término irá más allá de sus orígenes biológicos. No obstante, muchos observadores
han expresado su alarma por el surgimiento de formas de inteligencia no biológica superiores a la
inteligencia humana, ya que pueden considerar que somos prescindibles.

El potencial para aumentar nuestra propia inteligencia a través de una conexión íntima con otros
sustratos de pensamiento no necesariamente alivia la preocupación, ya que algunas personas han
expresado el deseo de permanecer «sin mejorar» y al mismo tiempo mantener su lugar en la parte
superior de la cadena intelectual. Desde la perspectiva de la humanidad biológica, estas inteligencias
sobrehumanas parecerán ser nuestros servidores devotos, satisfaciendo nuestras necesidades y deseos.
Pero tal vez suceda al revés. Pero cumplir los deseos de un legado biológico reverenciado ocupará solo
una porción trivial del poder intelectual que traerá la Singularidad. La aceleración en curso de la
tecnología es la implicación y el resultado inevitable de lo que Kurzweil llama la ley de rendimientos
acelerados, que describe la aceleración del ritmo y el crecimiento exponencial de los productos de un
proceso evolutivo. Hay muchos ejemplos del crecimiento exponencial que implica la ley de
rendimientos acelerados, en áreas tan variadas como la electrónica de todo tipo, la secuenciación del
ADN, las comunicaciones, el escaneo cerebral, la ingeniería inversa del cerebro, el tamaño y el alcance
del conocimiento humano y la rápida reducción del tamaño de la tecnología. Esta última tendencia
está directamente relacionada con la aparición de la nanotecnología. La futura era GNR (genética,
nanotecnología, robótica) surgirá no solo de la explosión exponencial de la computación, sino más
bien de la interacción y la miríada de sinergias que resultarán de múltiples avances tecnológicos
entrelazados. Cuando se puso en marcha el escaneo del genoma humano en 1990, los críticos
señalaron que, dada la velocidad con la que se podría escanear el genoma, llevaría miles de años
terminar el proyecto. Sin embargo, el proyecto se completó en primera instancia en 2003. El costo de la
secuenciación del ADN se redujo de unos diez dólares por par de bases en 1990 a un par de centavos
en 2004 y sigue cayendo rápidamente. Ha habido un crecimiento exponencial suave en la cantidad de
datos de secuencias de ADN que se han recopilado. Un ejemplo reciente de esta capacidad mejorada
fue la secuenciación del virus del SARS, que tardó solo treinta y un días desde la identificación del
virus, en comparación con los más de quince años para el virus del VIH.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 13/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

El crecimiento exponencial de la tecnología de las comunicaciones ha sido durante muchos años


incluso más explosivo que el procesamiento o el crecimiento de memoria de computación y no es
menos importante en sus implicaciones. Una vez más, esta progresión implica mucho más que la
reducción de transistores en un circuito integrado, sino que incluye avances acelerados en fibra óptica,
conmutación óptica, tecnologías electromagnéticas y otros factores. Actualmente nos estamos alejando
de la maraña de cables en nuestras ciudades y en nuestra vida diaria a través de la comunicación
inalámbrica, cuyo poder se duplica cada diez u once meses. Desde la perspectiva de la mayoría de los
observadores, nada sucedía en esta área de las comunicaciones hasta mediados de la década de 1990,
cuando aparentemente de la nada surgieron la World Wide Web (Internet) y el correo electrónico. Pero
el surgimiento de Internet como un fenómeno mundial era fácilmente predecible al examinar los datos
de tendencias exponenciales a principios de la década de 1980 de ARPANET, predecesor de Internet.
Para adaptarse a este crecimiento exponencial, la velocidad de transmisión de datos de la red troncal
de Internet ha crecido exponencialmente. Otra tendencia que tendrá profundas implicaciones para el
siglo XXI es el movimiento generalizado hacia la miniaturización. Los tamaños de características clave
de una amplia gama de tecnologías, tanto electrónicas como mecánicas, están disminuyendo y a un
ritmo exponencial. En la actualidad, estamos reduciendo la tecnología en un factor de
aproximadamente cuatro por dimensión lineal por cada década. Esta miniaturización es una fuerza
impulsora que también se refleja en el tamaño de todos los sistemas electrónicos, por ejemplo, el
almacenamiento magnético. A medida que el tamaño de las características sobresalientes de una
amplia gama de tecnologías se acerca inexorablemente al rango de menos de cien nanómetros, la mil
millonésima parte de un metro, ha ido acompañado de un rápido crecimiento en el interés por la
nanotecnología. Las citas de la ciencia de la nanotecnología han aumentado significativamente
durante la última década,

La revolución de la genética (en el ámbito de la biotecnología) está trayendo la revolución de la


información, con su capacidad y menor precio-rendimiento en aumento exponencial, al campo de la
biología. De manera similar, la revolución de la nanotecnología traerá el rápido aumento del dominio
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 14/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

de la información a los materiales y sistemas mecánicos. La revolución de la robótica y la «IA fuerte»


involucra llevar a cabo la ingeniería inversa del cerebro humano, lo que significa llegar a comprender
la inteligencia humana en términos de información y luego combinar los conocimientos resultantes
con plataformas computacionales cada vez más poderosas. Por lo tanto, las tres transformaciones
superpuestas (genética, nanotecnología y robótica) que dominarán la primera mitad de este siglo XXI
representan diferentes facetas de la revolución de la información. Vemos pues, que todos los aspectos
de la información y la tecnología de la información están creciendo a un ritmo exponencial. Inherente
a la expectativa de que ocurra una Singularidad en la historia humana está la importancia generalizada
de la información para el futuro de la experiencia humana. Vemos información en todos los niveles de
la existencia. Todas las formas de conocimiento humano y expresión artística, como ideas, diseños
científicos y de ingeniería, literatura, música, imágenes, películas, pueden expresarse como
información digital. Nuestros cerebros también funcionan digitalmente, a través de disparos discretos
de nuestras neuronas. El cableado de nuestras conexiones interneuronales se puede describir
digitalmente, y el diseño de nuestros cerebros se especifica mediante un código genético digital
sorprendentemente pequeño. De hecho, toda la biología opera a través de secuencias lineales de pares
de bases de ADN de 2 bits, que a su vez controlan la secuenciación de solo veinte aminoácidos en las
proteínas. Las moléculas forman arreglos discretos de átomos. El átomo de carbono, con sus cuatro
posiciones que establecen conexiones moleculares, es particularmente hábil para crear una variedad
de formas tridimensionales, lo que explica su papel central tanto en biología como en tecnología.
Dentro del átomo, los electrones adquieren niveles discretos de energía. Otras partículas subatómicas,
como los protones, comprenden cantidades discretas de quarks. Aunque las fórmulas de la mecánica
cuántica se expresan en términos de campos continuos y niveles discretos, sabemos que los niveles
continuos se pueden expresar con cualquier grado deseado de precisión utilizando datos binarios. De
hecho, la mecánica cuántica, como implica la palabra «cuántica«, se basa en valores discretos o quanta.

El físico y matemático Stephen Wolfram proporciona amplia evidencia para mostrar cómo la
complejidad creciente puede originarse en un universo que es, en esencia, un sistema algorítmico
determinista, o sea, un sistema basado en reglas fijas con resultados predeterminados. En su libro A
New Kind of Science, Wolfram ofrece un análisis completo de cómo los procesos subyacentes a una
construcción matemática llamada «un autómata celular» tienen el potencial para describir todos los
niveles de nuestro mundo natural. Un autómata celular es un mecanismo computacional simple que,
por ejemplo, cambia el color de cada celda en una cuadrícula según el color de las celdas cercanas
adyacentes de acuerdo con una regla de transformación. En su opinión, es factible expresar todos los
procesos de información en términos de operaciones en autómatas celulares, por lo que las ideas de
Wolfram se relacionan con varios temas clave relacionados con la información y su omnipresencia.
Wolfram postula que el universo mismo es una computadora celular autómata gigante. En su
hipótesis hay un básico digital para los fenómenos aparentemente analógicos, como el movimiento y
el tiempo, y para las fórmulas de la física, y podemos modelar nuestra comprensión de la física como
la simple transformación de un autómata celular. Otros científicos han propuesto esta posibilidad. El
físico Richard Feynman se preguntó al respecto al considerar la relación de la información con la
materia y la energía. El matemático y filósofo estadounidense, conocido como el fundador de la
cibernética, Norbert Wiener, anunció un cambio fundamental en el enfoque de la energía a la
información en su libro Cybernetic de 1948 y sugirió que la transformación de la información, no la
energía, era el componente fundamental del universo. Quizás el primero en postular que el universo
está siendo computado en una computadora digital fue Konrad Zuse en 1967. Zuse es mejor conocido
como el inventor de la primera computadora programable en funcionamiento, que desarrolló entre
1935 y 1941. Un defensor entusiasta de una teoría de la física basada en la información fue Edward
Fredkin, quien a principios de la década de 1980 propuso una «nueva teoría de la física» basada en la
idea de que el universo está compuesto en última instancia por software. No deberíamos pensar en la
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 15/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

realidad como compuesta de partículas y fuerzas, según Fredkin, sino como bits de datos modificados
de acuerdo con las reglas de cálculo. Fredkin fue citado por el periodista y académico estadounidense,
además de un galardonado autor sobre ciencia, psicología evolucionista, historia, religión y teoría de
juegos, Robert Wright, en la década de 1980 diciendo: «Hay tres grandes cuestiones filosóficas. ¿Qué es la
vida? ¿Qué es la conciencia y el pensamiento y la memoria y todo eso? ¿Y cómo funciona el universo? El punto
de vista de la información abarca los tres. Lo que digo es que en el nivel más básico de complejidad, un proceso de
información ejecuta lo que consideramos física. En un nivel mucho más alto de complejidad, la vida, el ADN, ya
sabes, la función bioquímica, están controlados por un proceso de información digital. Luego, en otro nivel,
nuestros procesos de pensamiento son básicamente procesamiento de información… Encuentro la evidencia que
respalda mis creencias en diez mil lugares diferentes. Y para mí es totalmente abrumador. Es como si hubiera un
animal que quiero encontrar. He encontrado sus huellas. He encontrado sus excrementos. He encontrado la
comida a medio masticar. Encuentro pedazos de su piel, y así sucesivamente. En todos los casos se ajusta a un
tipo de animal, y no se parece a ningún animal que nadie haya visto jamás. La gente dice, ¿Dónde está este
animal? Digo, bueno, estuvo aquí, es así de grande, esto aquello y lo otro. Y sé mil cosas sobre él. No lo tengo en
la mano, pero sé que está ahí. Lo que veo es tan convincente que no puede ser una criatura de mi imaginación«.

Asimismo, al comentar sobre la teoría de la física digital de Fredkin, Wright escribe: «Fredkin está
hablando de una característica interesante de algunos programas de computadora, incluidos muchos autómatas
celulares: no hay atajos para descubrir a dónde conducirán. Esta, de hecho, es una diferencia básica entre el
enfoque ‘analítico’ asociado con las matemáticas tradicionales, incluidas las ecuaciones diferenciales, y el enfoque
‘computacional’ asociado con los algoritmos. Puede predecir un estado futuro de un sistema susceptible al
enfoque analítico sin averiguar qué estados ocupará entre ahora y entonces, pero en el caso de muchos autómatas
celulares, debe pasar por todos los estados intermedios para descubrir cuál es el final. será como decir: no hay
forma de conocer el futuro excepto verlo desarrollarse. Fredkin explica: ‘No hay forma de saber la respuesta a
alguna pregunta más rápido que lo que está pasando’. Fredkin cree que el universo es muy literalmente una
computadora y está siendo utilizada por alguien, o algo, para resolver un problema. Suena como una broma de
buenas y malas noticias: la buena noticia es que nuestras vidas tienen un propósito; la noticia básica es que su
propósito es ayudar a algún hacker remoto a estimar pi en nueve billones de decimales«. Fredkin continuó
demostrando que aunque se necesita energía para almacenar y recuperar información, podemos
reducir arbitrariamente la energía requerida para realizar cualquier ejemplo particular de
procesamiento de información. y que esta operación no tiene límite inferior. Eso implica que la
información, en lugar de la materia y la energía, puede considerarse como la realidad más
fundamental. La idea de que un proceso completamente determinista puede producir resultados que
son completamente impredecibles es de gran importancia, ya que proporciona una explicación de
cómo el mundo puede ser inherentemente impredecible mientras aún se basa en reglas
completamente deterministas. En un nivel diferente, lo vemos en el propio cerebro humano, que
comienza con solo alrededor de treinta a cien millones de bytes de especificación en el genoma
comprimido pero termina, en base al aprendizaje, con una complejidad que es aproximadamente mil
millones de veces mayor.

El ser humano cumple un propósito altamente exigente: sobrevivir en un nicho ecológico desafiante.
Los seres humanos representan una jerarquía extremadamente intrincada y elaborada de otros
patrones. El físico y matemático Stephen Wolfram considera que cualquier patrón que combine
algunas características reconocibles y elementos impredecibles es efectivamente equivalente a otro.
Pero no muestra cómo un autómata celular puede aumentar su complejidad, y mucho menos
convertirse en un patrón tan complejo como un ser humano. Aquí hay un eslabón perdido, uno que
explicaría cómo uno pasa de los patrones interesantes pero en última instancia rutinarios de un
autómata celular a la complejidad de las estructuras persistentes que demuestran niveles más altos de
inteligencia. Entonces, los autómatas celulares solo nos llevan hasta cierto punto. Entonces, ¿cómo
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 16/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

pasamos de estos patrones interesantes pero limitados a las más importantes obras artísticas? Un
concepto que debemos tener en cuenta es la evolución. Si agregamos otro concepto simple, un
algoritmo evolutivo, al de los autómatas celulares simples de Wolfram, comenzamos a obtener
resultados mucho más emocionantes e inteligentes. Un algoritmo evolutivo puede comenzar con
soluciones potenciales generadas aleatoriamente para un problema, que se codifican en un código
genético digital. Luego se provoca que las soluciones compitan entre sí en una batalla evolutiva
simulada. Las mejores soluciones sobreviven y procrean en una reproducción sexual simulada en la
que se crean soluciones descendientes, extrayendo su código genético de dos «padres«. También
podemos introducir una tasa de mutación genética. Varios parámetros de alto nivel de este proceso,
como la tasa de mutación, la tasa de descendencia, etc., se denominan apropiadamente «parámetros de
Dios«, y es el trabajo del ingeniero que diseña el algoritmo evolutivo establecer razonablemente los
valores óptimos. El proceso se ejecuta durante muchos miles de generaciones de evolución simulada y
al final del proceso es probable que se encuentren soluciones de un orden claramente superior a las
iniciales. Los resultados de estos algoritmos evolutivos, a veces llamados genéticos, pueden ser
soluciones elegantes e inteligentes para problemas complejos. Se han utilizado, por ejemplo, para crear
diseños artísticos y diseños para formas de vida artificiales, así como para ejecutar una amplia gama
de tareas prácticas, como el diseño de motores a reacción. Los algoritmos genéticos son un enfoque de
la inteligencia artificial «debil«, es decir, la creación de sistemas que pueden realizar funciones
particulares que solían requerir la aplicación de la inteligencia humana.

Pero todavía falta algo. Aunque los algoritmos genéticos son una herramienta útil para resolver
problemas específicos, nunca han logrado nada parecido a una IA «fuerte«, es decir, una aptitud que se
asemeje a las características amplias, profundas y sutiles de la inteligencia humana, en particular su
poder de reconocimiento de patrones y su lenguaje de comandos. ¿El problema es que no ejecutamos
los algoritmos evolutivos durante el tiempo suficiente? Después de todo, los humanos evolucionaron a
través de un proceso evolutivo que se supone tomó miles de millones de años. Quizás no podamos
recrear ese proceso con solo unos días o semanas de simulación por computadora. Sin embargo, esto
no funcionará porque los algoritmos genéticos convencionales alcanzan una asíntota, concepto que se
utiliza en el ámbito de la geometría para nombrar a una recta que, a medida que se prolonga de
manera indefinida, tiende a acercarse a una cierta curva o función, aunque sin alcanzar a hallarla, en
su nivel de rendimiento, por lo que ejecutarlos durante un período de tiempo más largo no ayudaría.
Un tercer nivel, más allá de la capacidad de los procesos celulares para producir aparente aleatoriedad
y algoritmos genéticos para producir soluciones inteligentes enfocadas, es realizar la evolución en
múltiples niveles. Los algoritmos genéticos convencionales permiten la evolución solo dentro de los
límites de un problema limitado y un único medio de evolución. El código genético mismo necesita
evolucionar, ya que las reglas de la evolución necesitan evolucionar. La naturaleza no se quedó con un
solo cromosoma, por ejemplo. Ha habido muchos niveles incorporados en el proceso evolutivo
natural. Y requerimos un entorno complejo en el que tenga lugar la evolución. Sin embargo, para
construir una IA fuerte, se tendrá la oportunidad de acortar este proceso mediante la ingeniería
inversa del cerebro humano, un proyecto que ya está en marcha, beneficiándose así del proceso
evolutivo que ya ha tenido lugar. Se aplicaran algoritmos evolutivos dentro de estas soluciones tal
como lo hace el cerebro humano. Por ejemplo, el cableado en un feto es inicialmente aleatorio dentro
de las limitaciones especificadas en el genoma en al menos algunas regiones. Investigaciones recientes
muestran que las áreas que tienen que ver con el aprendizaje experimentan más cambios, mientras que
las estructuras que tienen que ver con el procesamiento sensorial experimentan menos cambios
después del nacimiento.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 17/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Dado que el universo corre a la velocidad más rápida que puede correr, por lo general no hay forma
de cortocircuitar el proceso. Sin embargo, tenemos los beneficios de los miles de millones de años de
evolución que ya han tenido lugar, los cuales son responsables del gran aumento del orden de
complejidad en el mundo natural. Ahora podemos beneficiarnos de ello mediante el uso de
herramientas evolucionadas para aplicar ingeniería inversa a los productos de la evolución biológica,
de los que el más importante es cerebro humano. Sí, es cierto que algunos fenómenos de la naturaleza
que pueden parecer complejos en algún nivel son simplemente el resultado de simples mecanismos
computacionales subyacentes que son esencialmente autómatas celulares en funcionamiento. Wolfram
nos brinda una base teórica convincente para expresar estos procesos y sus patrones resultantes. Otra
importante propuesta de Wolfram radica en su tratamiento completo de la computación como un
fenómeno simple y ubicuo. Por supuesto, sabemos desde hace más de un siglo que la computación es
intrínsecamente simple, aunque podemos construir cualquier nivel posible de complejidad a partir de
la manipulación de información más simple posible. Aunque necesitamos conceptos adicionales para
describir un proceso evolutivo que crea soluciones inteligentes a los problemas, la demostración de
Wolfram de la simplicidad y ubicuidad de la computación es una contribución importante en nuestra
comprensión del significado fundamental de la información en el mundo. La ley de rendimientos
acelerados es fundamentalmente una teoría económica. La teoría y las políticas económicas
contemporáneas se basan en modelos obsoletos que enfatizan los costos de la energía, los precios de
las materias primas y la inversión de capital en plantas y equipos como factores impulsores clave,
mientras que en gran medida pasan por alto la capacidad computacional, la memoria, el ancho de
banda, el tamaño de la tecnología, la propiedad intelectual, el conocimiento, y otros componentes cada
vez más vitales y cada vez más crecientes, que están impulsando la economía. Es el imperativo
económico de un mercado competitivo la fuerza principal que impulsa la tecnología y alimenta la ley
de rendimientos acelerados. A su vez, la ley de rendimientos acelerados está transformando las
relaciones económicas. El imperativo económico es el equivalente a la supervivencia en la evolución
biológica. Nos estamos moviendo hacia máquinas más inteligentes y más pequeñas como resultado de
una miríada de pequeños avances, cada uno con su propia justificación económica particular. Las
máquinas que pueden llevar a cabo sus misiones con mayor precisión tienen un mayor valor, lo que
explica por qué se están construyendo. Hay decenas de miles de proyectos que están avanzando en los
diversos aspectos de la ley de rendimientos acelerados en diversas formas incrementales.

Independientemente de los ciclos comerciales a corto plazo, el apoyo a la «alta tecnología» en la


comunidad empresarial y, en particular, al desarrollo de software, ha crecido enormemente.
Tendríamos que derogar el capitalismo y todo vestigio de competencia económica para detener esta
progresión. Es importante señalar que avanzamos hacia la «nueva» economía basada en el
conocimiento de manera exponencial pero, no obstante, paulatina. Cuando la llamada nueva
economía no transformó los modelos de negocios de la noche a la mañana, muchos observadores
descartaron rápidamente la idea como inherentemente defectuosa. Pasarán un par de décadas antes de
que el conocimiento domine la economía, pero representará una profunda transformación cuando
suceda. Vimos el mismo fenómeno en los ciclos de auge y caída de Internet y las telecomunicaciones.
Los auges fueron impulsados por la idea válida de que Internet y la comunicación electrónica
distribuida representaban transformaciones fundamentales. Pero cuando estas transformaciones no se
produjeron en plazos poco realistas, se desvanecieron más de dos billones de dólares de capitalización
de mercado en las empresas .com. Pero la adopción real de estas tecnologías progresó sin problemas
sin indicios de auge o caída. Prácticamente todos los modelos económicos que se enseñan en las clases
de economía y que utiliza la Junta de la Reserva Federal para establecer la política monetaria, las
agencias gubernamentales para establecer la política económica y los pronosticadores económicos de
todo tipo, tienen fallas fundamentales en su visión de las tendencias a largo plazo. Esto se debe a que
se basan en la visión «lineal intuitiva» de la historia, o la suposición de que el ritmo de cambio
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 18/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

continuará al ritmo actual, en lugar de la visión exponencial. La razón por la que estos modelos
lineales parecen funcionar por un tiempo es la misma razón por la que la mayoría de las personas
adoptan la vista lineal intuitiva en primer lugar, ya que las tendencias exponenciales parecen ser
lineales cuando se ven y experimentan durante un breve período de tiempo, particularmente en las
primeras etapas de una tendencia exponencial. Pero una vez que se alcanza la punto adecuado en la
curva, el crecimiento exponencial estalla y los modelos lineales se derrumban.

Tengamos en cuenta que el crecimiento exponencial subyacente en la economía es una fuerza mucho
más poderosa que las recesiones periódicas. Lo que es más importante, las recesiones, incluidas las
depresiones, representan solo desviaciones temporales de la curva subyacente. Incluso la Gran
Depresión de 1929 representa solo un pequeño bache en el contexto del patrón subyacente de
crecimiento. En cada caso, la economía termina exactamente donde habría estado si la
recesión/depresión nunca hubiera ocurrido. La economía mundial continúa acelerándose. La
productividad (producción económica por trabajador) también ha estado creciendo exponencialmente.
De hecho, estas estadísticas están muy subestimadas porque no reflejan completamente las mejoras
significativas en la calidad y las características de los productos y servicios. Los medicamentos
farmacéuticos son cada vez más efectivos porque ahora están siendo diseñados para llevar a cabo
modificaciones precisas en las rutas metabólicas exactas que subyacen a la enfermedad y los procesos
de envejecimiento, con efectos secundarios mínimos. Los productos pedidos en cinco minutos en la
Web y entregados en su puerta valen más que los productos que tiene que ir a buscar uno mismo. La
ropa hecha a medida para tu cuerpo único vale más que la ropa que encuentras en el estante de una
tienda. Este tipo de mejoras se están produciendo en la mayoría de las categorías de productos y
ninguna de ellas se refleja en las estadísticas de productividad. Los métodos estadísticos que subyacen
a las mediciones de la productividad tienden a descartar las ganancias al concluir esencialmente que
todavía obtenemos solo un dólar de productos y servicios por un dólar, a pesar de que obtenemos
mucho más por ese dólar. Las computadoras son un ejemplo extremo de este fenómeno, pero está
generalizado. El profesor de la Universidad de Chicago, Pete Klenow, y el profesor de la Universidad de
Rochester, Mark Bils, estiman que el valor en dólares constantes de los bienes existentes ha aumentado
un 1,5% anual durante los últimos veinte años debido a las mejoras cualitativas. Esto todavía no tiene
en cuenta la introducción de productos y categorías de productos completamente nuevos, como los
teléfonos celulares, los buscapersonas, las computadoras de bolsillo, las canciones descargadas y los
programas de software. No considera el floreciente valor de la propia Web. ¿Cómo valoramos la
disponibilidad de recursos gratuitos como las enciclopedias en línea y los motores de búsqueda que
brindan cada vez más puertas de entrada efectivas al conocimiento humano?

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 19/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Una preocupación de los economistas es que si los consumidores pueden comprar lo que necesitan y
quieren con menos dólares, la economía se contraerá. Esto ignora, sin embargo, las necesidades y los
deseos intrínsecamente insaciables de los consumidores humanos. Sí, es cierto que el crecimiento
económico y otros factores similares son inflacionarios, estos factores se ven compensados por las
tendencias exponenciales en la relación precio-rendimiento de todas las tecnologías basadas en la
información: computación, memoria, comunicaciones, biotecnología, miniaturización e incluso la tasa
general de progreso técnico. Estas tecnologías afectan profundamente a todas las industrias. También
estamos experimentando una desintermediación masiva en los canales de distribución a través de la
Web y otras nuevas tecnologías de comunicación, así como una mayor eficiencia en las operaciones y
la administración. Es importante señalar que una implicación clave de la nanotecnología es que llevará
la economía del software al hardware, es decir, a los productos físicos. Los precios del software se
están desinflando aún más rápidamente que los del hardware. El impacto de las comunicaciones
distribuidas e inteligentes se ha sentido quizás con mayor intensidad en el mundo de los negocios. Los
nuevos modelos basados en la comunicación directa y personalizada con el cliente transformarán
todas las industrias, lo que dará como resultado una desintermediación masiva de las capas
intermedias que tradicionalmente han separado al cliente de la fuente última de productos y servicios.
Ampliar el acceso al conocimiento también está cambiando las relaciones de poder. Los consumidores
de prácticamente todo, desde lavadoras, automóviles y viviendas hasta banca y seguros, ahora
utilizan agentes de software automatizados para identificar rápidamente las opciones correctas con las
características y los precios óptimos. Los servicios web como eBay están conectando rápidamente a
compradores y vendedores de formas sin precedentes. Los deseos y anhelos de los clientes, a menudo
desconocidos incluso para ellos mismos, se están convirtiendo rápidamente en la fuerza motriz de las
relaciones comerciales. Los compradores de ropa bien conectados, por ejemplo, seleccionarán los
materiales y estilos correctos al ver cuántas combinaciones posibles se ven en una imagen
tridimensional de su propio cuerpo, basado en un escaneo corporal detallado, y luego tendrán las
opciones fabricadas a medida.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 20/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Las desventajas actuales del comercio basado en la Web, como, por ejemplo, las limitaciones en la
capacidad de interactuar directamente con los productos y las frecuentes frustraciones de interactuar
con menús y formularios inflexibles en lugar de personal humano, se disolverán gradualmente a
medida que las tendencias se muevan con fuerza a favor de la electrónica. Para fines de esta década,
las computadoras desaparecerán como objetos físicos distintos, con pantallas integradas en nuestros
anteojos y dispositivos electrónicos entretejidos en nuestra ropa, proporcionando una realidad virtual
visual de inmersión total. Así, «ir a un sitio Web» supondrá entrar en un entorno de realidad virtual, al
menos para los sentidos visual y auditivo, donde podremos interactuar directamente con productos y
personas, tanto reales como simuladas. Aunque las personas simuladas todavía no estarán a la altura
de los estándares humanos, serán bastante satisfactorias como agentes de ventas, encargados de
reservas y asistentes de investigación. Las interfaces hápticas (táctiles) nos permitirán tocar productos
y personas. Es difícil identificar alguna ventaja duradera del viejo mundo de las tiendas físicas que no
será finalmente superada por las ricas interfaces interactivas que pronto llegarán. Estos desarrollos
tendrán implicaciones significativas para la industria de bienes raíces. La necesidad de congregar a los
trabajadores en las oficinas disminuirá gradualmente. Actualmente ya somos capaces de organizar de
manera efectiva equipos geográficamente dispares, algo que era mucho más difícil hace una década.
Los entornos de realidad virtual visual-auditiva de inmersión total, como el Metaverso, que serán
omnipresentes durante la década de 2020, acelerarán la tendencia a que las personas vivan y trabajen
donde quieran. Una vez que tengamos entornos de realidad virtual de inmersión total que incorporen
todos los sentidos, lo que será factible probablemente a fines de la década de 2020, no habrá razón
para utilizar oficinas reales. Asimismo, gran parte de los bienes raíces se volverán virtuales.

Además, la innovación y el ritmo de cambio de paradigma no se ven notablemente afectados por las
pequeñas desviaciones provocadas por los ciclos económicos. Todas las tecnologías que exhiben un
crecimiento exponencial continúan sin perder el ritmo debido a las desaceleraciones económicas. El
crecimiento general de la economía refleja formas y capas completamente nuevas de riqueza y valor
que no existían anteriormente, o al menos que no constituían previamente una parte significativa de la
economía, como nuevas formas de materiales basados en nanopartículas, información genética,
propiedad intelectual, portales de comunicación, sitios web, ancho de banda, software, bases de datos
y muchas otras categorías nuevas basadas en tecnología. El sector de la tecnología de la información
en general está aumentando rápidamente su participación en la economía y tiene una influencia cada
vez mayor en todos los demás sectores. Si podemos construir una IA genuina, hay razones para creer
que podemos construir cosas como neuronas que sean un millón de veces más rápidas. Eso lleva a la
conclusión de que se pueden hacer sistemas que piensen un millón de veces más rápido que una
persona. Con Inteligencia Artificial (IA), estos sistemas podrían incluso hacer diseños de ingeniería.
Combinando esto con la capacidad de un sistema para construir algo mejor que él mismo, tenemos la
posibilidad de una transición muy abrupta. Esta situación puede ser más difícil de manejar incluso
que la nanotecnología, pero es mucho más difícil pensar en ella de manera constructiva en este
momento. En la edición del 19 de abril de 1965 de la revista Electronics, el doctorado en química y
física en el Instituto de Tecnología de California, además de ser cofundador de Intel y autor de la famosa
Ley de Moore, Gordon Moore, escribió: «El futuro de la electrónica integrada es el futuro de la electrónica
misma. Las ventajas de la integración provocarán una proliferación de la electrónica, impulsando esta ciencia
hacia muchas áreas nuevas«. Con esas palabras, Moore marcó el comienzo de una revolución que aún
está ganando impulso. El artículo de Moore describía la duplicación anual repetida del número de
transistores que podrían instalarse en un circuito integrado. Su predicción de la «Ley de Moore» de 1965
fue criticada en ese momento porque su gráfico logarítmico de la cantidad de componentes en un chip
tenía solo cinco puntos de referencia, por lo que proyectar esta tendencia naciente hasta 1975 se
consideró como prematuro. La estimación inicial de Moore era incorrecta y la revisó a la baja una

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 21/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

década después. Pero la idea básica, el crecimiento exponencial de la relación precio-rendimiento de la


electrónica basado en la reducción del tamaño de los transistores en un circuito integrado, era válida y
profética.

La aceleración de la computación lo ha transformado todo, desde las relaciones sociales y económicas


hasta las instituciones políticas. Pero Moore no señaló en sus artículos que la estrategia de reducir el
tamaño de las características no era, de hecho, el primer paradigma que trajo un crecimiento
exponencial a la computación y la comunicación. Ya podemos ver las líneas generales del siguiente, la
computación a nivel molecular y en tres dimensiones. Debe hacerse un análisis de la cantidad de
cómputo y memoria requerida para alcanzar los niveles humanos de inteligencia y por qué podemos
estar seguros de que estos niveles se alcanzarán en computadoras económicas a finales de la actual
década del 2020. Incluso estas computadoras tan poderosas estarán lejos de ser óptimas, por lo que
debemos ver cuáles son los límites de la computación de acuerdo con las leyes de la física tal como la
entendemos hoy. Esto nos llevará a las computadoras de finales del siglo XXI. Los pasos intermedios
ya están en marcha, por lo que las nuevas tecnologías que conducirán al paradigma de la computación
tridimensional molecular incluyen nanotubos y circuitos de nanotubos, computación molecular,
autoensamblaje en circuitos de nanotubos, sistemas biológicos que emulan el ensamblaje de circuitos,
computación con ADN, espintrónica, o computación con el espín de los electrones, computación con
luz y computación cuántica. Muchas de estas tecnologías independientes pueden integrarse en
sistemas computacionales que eventualmente se acercarán a la capacidad máxima teórica de la
materia y la energía para realizar cálculos y superarán con creces las capacidades computacionales de
un cerebro humano. Los nanotubos siguen siendo la mejor apuesta. En La era de las máquinas
espirituales, Kurzweil cita los nanotubos, que usan moléculas organizadas en tres dimensiones para
almacenar bits de memoria y actuar como puertas lógicas, como la tecnología más probable para
marcar el comienzo de la era de la computación molecular tridimensional. Los nanotubos, sintetizados
por primera vez en 1991, son tubos formados por una red hexagonal de átomos de carbono que se han
enrollado para formar un cilindro sin costuras. Los nanotubos son muy pequeños, ya que los
nanotubos de una sola pared tienen solo un nanómetro de diámetro, una milmillonésima parte del
metro, por lo que pueden alcanzar altas densidades. También son potencialmente muy rápidos.
pudiendo llegar ser aproximadamente 1000 veces más rápido que las velocidades de las
computadoras modernas. Una pulgada cúbica de circuitos de nanotubos, una vez completamente
desarrollada, sería hasta cien millones de veces más poderosa que el cerebro humano. Los circuitos de
nanotubos fueron controvertidos, pero ha habido un progreso espectacular de la tecnología en los
últimos años. Además de los nanotubos, en los últimos años se ha avanzado mucho en la computación
con una sola molécula o con pocas. La idea de computar con moléculas fue sugerida por primera vez a
principios de la década de 1970 por Avi Aviram de IBM y Mark A. Ratner de la Universidad
Northwestern. En ese momento, no teníamos las tecnologías habilitadoras, lo que requería avances
simultáneos en electrónica, física, química e incluso la ingeniería inversa de procesos biológicos para
que la idea ganara fuerza.

En 2002, científicos de la Universidad de Wisconsin y la Universidad de Basilea crearon una «unidad de


memoria atómica» que utiliza átomos para emular un disco duro. Se podría agregar o quitar un solo
átomo de silicio de un bloque de otros veinte usando un microscopio de efecto túnel. Usando este
proceso, los investigadores creen que el sistema podría usarse para almacenar millones de veces más
datos en un disco de tamaño comparable, con una densidad de aproximadamente 250 terabits de
datos por pulgada cuadrada. Un tipo de molécula que los investigadores han encontrado que tiene
propiedades deseables para la computación se llama «rotaxano«, que puede cambiar de estado
cambiando el nivel de energía de una estructura en forma de anillo contenida dentro de la molécula.
Se han demostrado dispositivos de conmutación electrónica y de memoria de rotaxano, y muestran el
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 22/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

potencial de almacenar cien gigabits (1011 bits) por pulgada cuadrada. El potencial sería aún mayor si
se organizara en tres dimensiones. El autoensamblaje de circuitos a nanoescala es otra técnica
habilitadora clave para una nanoelectrónica eficaz. El autoensamblaje permite que los componentes
formados incorrectamente se desechen automáticamente y hace posible que los billones de
componentes del circuito se organicen por sí mismos, en lugar de ensamblarse minuciosamente en un
proceso de arriba hacia abajo. Permitiría que se crearan circuitos a gran escala en tubos de ensayo en
lugar de en fábricas multimillonarias, usando química en lugar de litografía, según científicos de la
Universidad de California, Los Ángeles (UCLA). Investigadores de la Universidad de Purdue ya han
demostrado estructuras de nanotubos autoorganizados, utilizando el mismo principio que hace que
las hebras de ADN se unan en estructuras estables. Los científicos de la Universidad de Harvard dieron
un paso clave en junio de 2004 cuando demostraron otro método de autoorganización que se puede
utilizar a gran escala. La técnica comienza con la fotolitografía para crear una matriz grabada de
interconexiones, o conexiones entre elementos computacionales. Luego, se deposita en la matriz una
gran cantidad de transistores de efecto de campo de nanocables e interconexiones a nanoescala. Estos
luego se conectan en el patrón correcto. En 2004, investigadores de la Universidad del Sur de California y
el Centro de Investigación Ames de la NASA demostraron un método que autoorganiza circuitos
extremadamente densos en una solución química. La técnica crea nanocables espontáneamente y
luego hace que las células de memoria a nanoescala, cada una capaz de contener tres bits de datos, se
autoensamblen en los cables. La tecnología tiene una capacidad de almacenamiento de 258 gigabits de
datos por pulgada cuadrada que, según los investigadores, podría multiplicarse por diez, en
comparación con los 6,5 gigabits de una tarjeta de memoria flash. También en 2003, IBM demostró un
dispositivo de memoria de trabajo que utiliza polímeros que se autoensamblan en estructuras
hexagonales de veinte nanómetros de ancho. También es importante que los nanocircuitos se
autoconfiguren. La gran cantidad de componentes del circuito y su fragilidad inherente, debido a su
pequeño tamaño, hacen que sea inevitable que algunas partes de un circuito no funcionen
correctamente. No sería económicamente factible descartar un circuito completo simplemente porque
una pequeña cantidad de transistores de un billón no funcionen. Para abordar esta preocupación, los
circuitos futuros monitorearán continuamente su propio desempeño y enrutarán la información
alrededor de las secciones que no son confiables, de la misma manera que la información en Internet
se enruta alrededor de los nodos que no funcionan. IBM ha sido particularmente activa en esta área de
investigación y ya ha desarrollado diseños de microprocesadores que automáticamente diagnostican
problemas y reconfiguran los recursos del chip en consecuencia.

La idea de construir sistemas electrónicos o mecánicos que se autorreplican y se autoorganizan está


inspirada en la biología, que se basa en estas propiedades. La investigación publicada en Proceedings of
the National Academy of Sciences describió la construcción de nanocables autorreplicantes basados en
priones, que son proteínas biológicas autorreplicantes. Una forma de prión parece desempeñar un
papel en la memoria humana. El equipo involucrado en el proyecto utilizó priones como modelo
debido a su fuerza natural. Sin embargo, debido a que los priones normalmente no conducen la
electricidad, los científicos crearon una versión genéticamente modificada que contiene una fina capa
de oro, que conduce la electricidad con baja resistencia. La profesora de biología del MIT, Susan
Lindquist, quien dirigió el estudio, comentó: «La mayoría de las personas que trabajan en nanocircuitos
intentan construirlos utilizando técnicas de fabricación ‘de arriba hacia abajo’. Pensamos que probaríamos un
enfoque ‘de abajo hacia arriba’, y dejemos que el autoensamblaje molecular haga el trabajo duro por nosotros«. La
última molécula autorreplicante de la biología es, por supuesto, el ADN. Los investigadores de la
Universidad de Duke crearon bloques de construcción moleculares llamados «mosaicos» a partir de
moléculas de ADN autoensambladas. Pudieron controlar la estructura del ensamblaje resultante,
creando «nanogrids» o nano redes en cuadricula. Esta técnica adjunta automáticamente moléculas de

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 23/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

proteína a la celda de cada nanogrid, que podría usarse para realizar operaciones informáticas.
También demostraron un proceso químico que recubría las nanocintas de ADN con plata para crear
nanocables. Comentando el artículo del número del 26 de septiembre de 2003 de la revista Science, el
investigador principal, Hao Yan, dijo: «Durante años se ha buscado usar el autoensamblaje del ADN para
moldear moléculas de proteínas u otras moléculas, y esta es la primera vez que ha sido demostrado tan
claramente«. El ADN es la propia computadora de nanoingeniería de la naturaleza, y su capacidad para
almacenar información y realizar manipulaciones lógicas a nivel molecular ya ha sido explotada en
«computadoras de ADN» especializadas. Una computadora de ADN es esencialmente un tubo de
ensayo lleno de agua que contiene billones de moléculas de ADN, y cada molécula actúa como una
computadora.

El objetivo del cálculo es resolver un problema, con la solución expresada como una secuencia de
símbolos. Por ejemplo, la secuencia de símbolos podría representar una prueba matemática o
simplemente los dígitos de un número. Así es como funciona una computadora de ADN. Se crea una
pequeña hebra de ADN utilizando un código único para cada símbolo. Cada cadena de este tipo se
replica billones de veces mediante un proceso llamado «reacción en cadena de la polimerasa» (PCR). Estos
conjuntos de ADN se colocan luego en un tubo de ensayo. Debido a que el ADN tiene afinidad para
unir cadenas, se forman cadenas largas automáticamente, con secuencias de cadenas que representan
los diferentes símbolos, cada uno de ellos una posible solución al problema. Dado que habrá muchos
trillones de hilos de este tipo, hay varios hilos para cada respuesta posible, es decir, cada secuencia
posible de símbolos. El siguiente paso del proceso es probar todos los hilos simultáneamente. Esto se
hace mediante el uso de enzimas especialmente diseñadas que destruyen las hebras que no cumplen
con ciertos criterios. Las enzimas se aplican al tubo de ensayo secuencialmente y, al diseñar una serie
precisa de enzimas, el procedimiento eliminará finalmente todas las hebras incorrectas, dejando solo
las que tengan la respuesta correcta. La clave del poder de la computación de ADN es que permite
probar cada uno de los billones de hilos simultáneamente. En 2003, científicos israelíes dirigidos por
Ehud Shapiro en el Instituto de Ciencias Weizmann combinaron ADN con trifosfato de adenosina (ATP),
el combustible natural para sistemas biológicos como el cuerpo humano. Con este método, cada una
de las moléculas de ADN pudo realizar cálculos y proporcionar su propia energía. Los científicos del
Instituto de Ciencias Weizmann demostraron una configuración que constaba de dos cucharadas de este
sistema de supercomputación líquida, que contenía treinta billones de billones de computadoras
moleculares y realizaba un total de 660 billones de cálculos por segundo. El consumo de energía de
estas computadoras es extremadamente bajo, solo cincuenta millonésimas de vatio para los treinta
billones de computadoras. Sin embargo, existe una limitación para la computación de ADN, ya que
cada uno de los muchos billones de computadoras tiene que realizar la misma operación al mismo
tiempo, aunque con diferentes datos, de modo que el dispositivo es una arquitectura de «datos
múltiples de instrucción única» (SIMD). Si bien hay clases importantes de problemas que pueden
resolverse en un sistema SIMD, como, por ejemplo, procesar cada píxel de una imagen para mejorar o
comprimir la imagen y resolver problemas de lógica combinatoria, no es posible programarlos para
algoritmos de propósito general, en el que cada ordenador es capaz de ejecutar cualquier operación
necesaria para su misión particular.

Además de su carga eléctrica negativa, los electrones tienen otra propiedad que puede aprovecharse
para la memoria y la computación: el espín. Según la mecánica cuántica, los electrones giran sobre un
eje, de forma similar a como la Tierra gira sobre su eje. Este concepto es teórico, porque se considera
que un electrón ocupa un punto en el espacio, por lo que es difícil imaginar un punto sin tamaño que,
sin embargo, gire. No obstante, cuando una carga eléctrica se mueve, provoca un campo magnético
que es real y medible. Un electrón puede girar en una de dos direcciones, descritas como «arriba» y
«abajo«, por lo que esta propiedad puede explotarse para el cambio lógico o para codificar un poco de
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 24/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

memoria. La emocionante propiedad de la espintrónica es que no se requiere energía para cambiar el


estado de espín de un electrón. El profesor de física de la Universidad de Stanford, Shoucheng Zhang, y
el profesor de la Universidad de Tokio, Naoto Nagaosa, lo expresaron de esta manera: «Hemos descubierto
el equivalente de una nueva ‘Ley de Ohm’ [la ley de la electrónica que establece que la corriente en un cable es
igual al voltaje dividido por la resistencia]. La nueva ley dice que el espín del electrón se puede transportar sin
pérdida de energía ni disipación. Además, este efecto se produce a temperatura ambiente en materiales que ya se
utilizan ampliamente en la industria de los semiconductores, como el arseniuro de galio. Eso es importante
porque podría habilitar una nueva generación de dispositivos informáticos«. El potencial, entonces, es lograr
las eficiencias de los superconductores, es decir, mover información a la velocidad de la luz o cerca de
ella sin pérdida de información, a temperatura ambiente. También permite que se utilicen múltiples
propiedades de cada electrón para la computación, lo que aumenta el potencial de la memoria y la
densidad computacional. Una forma de espintrónica ya es familiar para los usuarios de
computadoras. Se trata de la magnetorresistencia, un cambio en la resistencia eléctrica causado por un
campo magnético, que se usa para almacenar datos en discos duros magnéticos. Se espera que una
nueva y emocionante forma de memoria no volátil basada en espintrónica llamada MRAM (memoria
magnética de acceso aleatorio) ingrese al mercado dentro de unos años. Al igual que los discos duros,
la memoria MRAM retiene sus datos sin alimentación, pero no utiliza piezas móviles y tendrá
velocidades y capacidad de reescritura comparables a las de la memoria RAM convencional.

MRAM almacena información en aleaciones metálicas ferromagnéticas, que son adecuadas para el
almacenamiento de datos pero no para las operaciones lógicas de un microprocesador. El santo grial
de la espintrónica sería lograr efectos prácticos de la espintrónica en un semiconductor, lo que nos
permitiría utilizar la tecnología tanto para la memoria como para la lógica. La fabricación de chips
actual se basa en silicio, que no tiene las propiedades magnéticas requeridas. En marzo de 2004, un
grupo internacional de científicos informó que al dopar una mezcla de silicio y hierro con cobalto, el
nuevo material podía mostrar las propiedades magnéticas necesarias para la espintrónica mientras
mantenía la estructura cristalina que requiere el silicio como semiconductor. Parece claro un papel
importante para la espintrónica en el futuro de la memoria de las computadoras, y es probable que
también contribuya a los sistemas lógicos. El espín de un electrón es una propiedad cuántica. sujeta a
las leyes de la mecánica cuántica, por lo que quizás la aplicación más importante de la espintrónica sea
en los sistemas de computación cuántica, utilizando el espín de los electrones entrelazados
cuánticamente para representar qubits. El espín también se ha utilizado para almacenar información en
el núcleo de los átomos, utilizando la compleja interacción de los momentos magnéticos de sus
protones. Los científicos de la Universidad de Oklahoma también demostraron una técnica de «fotografía
molecular» para almacenar 1.024 bits de información en una sola molécula de cristal líquido que
comprende diecinueve átomos de hidrógeno. Otro enfoque de la computación Single Instruction,
Multiple Data (SIMD), «una instrucción, múltiples datos» es una técnica empleada para conseguir
paralelismo a nivel de datos. SIMD consiste en utilizar múltiples haces de luz láser en los que la
información se codifica en cada flujo de fotones. Entonces, los componentes ópticos pueden usarse
para realizar funciones lógicas y aritméticas en los flujos de información codificada. Por ejemplo, un
sistema desarrollado por Lenslet, una pequeña empresa israelí, utiliza 256 láseres y puede realizar ocho
billones de cálculos por segundo, realizando el mismo cálculo en cada uno de los 256 flujos de datos.
El sistema se puede utilizar para aplicaciones tales como realizar la compresión de datos en 256
canales de video.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 25/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Las tecnologías SIMD, como las computadoras de ADN y las computadoras ópticas, desempeñarán
funciones especializadas importantes en el futuro de la computación. La replicación de ciertos
aspectos de la funcionalidad del cerebro humano, como el procesamiento de datos sensoriales, puede
utilizar arquitecturas SIMD. Para otras regiones del cerebro, como las que se ocupan del aprendizaje y
el razonamiento, se requerirá computación de propósito general con sus arquitecturas de «múltiples
instrucciones, múltiples datos» (MIMD). Para la computación MIMD de alto rendimiento, necesitaremos
aplicar los paradigmas de computación molecular tridimensional descritos anteriormente. La
computación cuántica es una forma aún más radical de procesamiento paralelo SIMD, pero se
encuentra en una etapa de desarrollo mucho más temprana en comparación con las otras nuevas
tecnologías que hemos discutido. Una computadora cuántica contiene una serie de qubits, que
esencialmente son cero y uno al mismo tiempo. El qubit se basa en la ambigüedad fundamental
inherente a la mecánica cuántica. En una computadora cuántica, los qubits están representados por una
propiedad cuántica de las partículas, por ejemplo, el estado de espín de los electrones individuales.
Cuando los qubits están en un estado de «superposición cuántica«, cada uno está simultáneamente en
ambos estados. En un proceso llamado «decoherencia cuántica«, se resuelve la ambigüedad de cada
qubit, dejando una secuencia inequívoca de unos y ceros. Si la computadora cuántica está configurada
de la manera correcta, esa secuencia decoherente representará la solución a un problema.
Esencialmente, solo la secuencia correcta sobrevive al proceso de decoherencia. Al igual que con la
computadora de ADN descrita anteriormente, una clave para la computación cuántica exitosa es una
declaración cuidadosa del problema, incluida una forma precisa de probar las posibles respuestas. La
computadora cuántica prueba efectivamente todas las combinaciones posibles de valores para los
qubits. Entonces, una computadora cuántica con mil qubits probaría 21000 de soluciones potenciales
simultáneamente. Una computadora cuántica de mil qubits superaría con creces a cualquier
computadora de ADN concebible o, en realidad, a cualquier computadora no cuántica concebible. Sin
embargo, existen dos limitaciones en el proceso. La primera es que, como el ADN y las computadoras
ópticas discutidas anteriormente, solo un conjunto especial de problemas es susceptible de ser

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 26/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

presentado a una computadora cuántica. En esencia, necesitamos poder probar cada respuesta posible
de una manera simple. Las clases interesantes de problemas que se pueden resolver con la
computación cuántica incluyen descifrar códigos de encriptación. El otro problema es que la potencia
computacional de una computadora cuántica depende de la cantidad de qubits entrelazados. En efecto,
todos los qubits tienen que estar entrelazados cuánticamente, y eso ha demostrado ser un desafío.

Una pregunta clave es: ¿qué tan difícil es agregar cada qubit adicional? El poder computacional de una
computadora cuántica crece exponencialmente con cada qubit agregado, pero si resulta que agregar
cada qubit adicional hace que la tarea de ingeniería sea exponencialmente más difícil, no estaremos
ganando ningún apalancamiento. Es decir, el poder computacional de una computadora cuántica será
solo linealmente proporcional a la dificultad de ingeniería. En general, los métodos propuestos para
agregar qubits hacen que los sistemas resultantes sean significativamente más delicados y susceptibles
a una decoherencia prematura. Hay propuestas para aumentar significativamente el número de qubits.
Por ejemplo, Stephan Gulde y sus colegas de la Universidad de Innsbruck han construido una
computadora cuántica usando un solo átomo de calcio que tiene el potencial de codificar
simultáneamente docenas de qubits, posiblemente hasta cien, usando diferentes propiedades cuánticas
dentro del átomo. Pero incluso si una computadora cuántica con cientos de qubits entrelazados resulta
factible, seguirá siendo un dispositivo de propósito especial, aunque con capacidades notables que no
se pueden emular de ninguna otra manera. Cuando Kurzweil sugirió en su libro La era de las máquinas
espirituales que la computación molecular sería el sexto paradigma informático principal, la idea
seguía siendo controvertida. Ha habido tanto progreso en los últimos años que ha habido un cambio
radical en la actitud de los expertos, y esta es ahora una opinión generalizada. Ya tenemos pruebas de
concepto para todos los requisitos principales de la computación molecular tridimensional, tales como
transistores de una sola molécula, celdas de memoria basadas en átomos, nanocables y métodos para
autoensamblar y autodiagnosticar los potenciales billones de billones de componentes. La electrónica
contemporánea procede desde los diseños detallados de chips hasta la fotolitografía y la fabricación de
chips en grandes fábricas centralizadas. Es más probable que se creen nanocircuitos en pequeños
frascos de sustancias químicas, un desarrollo que será otro paso importante en la descentralización de
nuestra infraestructura industrial y mantendrá la ley de rendimientos acelerados a lo largo de este
siglo XXI y más allá.

¿Cuál es la capacidad computacional de un cerebro humano? Se han realizado una serie de


estimaciones basadas en la replicación de la funcionalidad de las regiones del cerebro que han sido
investigadas mediante ingeniería inversa a niveles humanos de rendimiento. Una vez que tenemos
una estimación de la capacidad computacional para una región del cerebro en particular, podemos
extrapolar esa capacidad a todo el cerebro considerando qué parte del cerebro representa esa región.
Estas estimaciones se basan en la simulación funcional, que replica la funcionalidad general de una
región en lugar de simular cada neurona y conexión interneuronal en esa región. Se ha descubierto
que varias evaluaciones de diferentes regiones del cerebro proporcionan estimaciones razonablemente
cercanas para todo el cerebro. El hecho de que diferentes formas de hacer la misma estimación
proporcionen respuestas similares corrobora el enfoque e indica que las estimaciones se encuentran en
un rango adecuado. La predicción de que la Singularidad, una expansión de la inteligencia humana por
un factor de billones a través de la fusión con una parte no biológica, se calcula que ocurrirá dentro de
las próximas décadas. Pero incluso si esta estimación de la cantidad de computación necesaria para
simular el cerebro humano fuera demasiado optimista, eso retrasaría la Singularidad solo unos pocos
años. Hans Moravec, el legendario experto en robótica de la Universidad Carnegie Mellon, ha analizado
las transformaciones realizadas por los circuitos neuronales de procesamiento de imágenes contenidos
en la retina. Se sabe que la retina tiene unos dos centímetros de ancho y medio milímetro de espesor.
La mayor parte de la profundidad de la retina se dedica a capturar una imagen, pero una quinta parte
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 27/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

se dedica al procesamiento de imágenes, que incluye distinguir la oscuridad y la luz, y detectar


movimiento en aproximadamente un millón de pequeñas regiones de la imagen. La retina, según el
análisis de Moravec, realiza diez millones de estas detecciones de movimiento y borde cada segundo.
Basándose en sus varias décadas de experiencia en la creación de sistemas de visión robótica, estima
que se requiere la ejecución de unas cien instrucciones informáticas para recrear cada una de estas
detecciones a niveles humanos de rendimiento, lo que significa que replicar la funcionalidad de
procesamiento de imágenes de esta parte de la retina requiere 1.000 MIPS (millones de instrucciones
por segundo). El cerebro humano es unas 75.000 veces más pesado que los 0,02 gramos de neuronas
de esta parte de la retina, lo que da como resultado una estimación de unas 1014 (100 billones) de
instrucciones por segundo para todo el cerebro.

Otra estimación proviene del trabajo del neurocientífico Lloyd Watts y sus colegas sobre la creación de
simulaciones funcionales de regiones del sistema auditivo humano. Una de las funciones del software
desarrollado por Watts es una tarea llamada «separación de flujo«, que se utiliza en teleconferencias y
otras aplicaciones para lograr la telepresencia, como la localización de cada participante en una
teleconferencia de audio remota. Para lograr esto, explica Watts, significa «medir con precisión el tiempo
de retraso entre los sensores de sonido que están separados en el que ambos reciben el sonido«. El proceso
implica el análisis de tono, la posición espacial y las señales del habla, incluidas las señales específicas
del idioma. «Una de las señales importantes que utilizan los humanos para localizar la posición de una fuente
de sonido es la diferencia de tiempo interaural (ITD), es decir, la diferencia en el tiempo de llegada de los sonidos
a los dos oídos«. El propio grupo de Watts ha creado recreaciones funcionalmente equivalentes de estas
regiones del cerebro derivadas de la ingeniería inversa. Estima que se requieren 1011 cps (ciclos por
segundo) para lograr la localización de sonidos a nivel humano. Las regiones de la corteza auditiva
responsables de este procesamiento comprenden al menos el 0,1 por ciento de las neuronas del
cerebro. Así que nuevamente llegamos a una estimación aproximada de alrededor de 1014 cps. Otra
estimación proviene de una simulación en la Universidad de Texas que representa la funcionalidad de
una región del cerebelo que contiene 104 neuronas; esto requirió alrededor de 108 cps, o alrededor de
104 cps por neurona. Extrapolando esto sobre un estimado de 1011 neuronas da como resultado una
cifra estimada de alrededor de 1015 cps para todo el cerebro. Parece claro que podemos emular la
funcionalidad de las regiones del cerebro con menos computación de la que se requeriría para simular
la operación no lineal precisa de cada neurona y todos los componentes neuronales, es decir, todas las
interacciones complejas que tienen lugar dentro de cada neurona. Se llega a la misma conclusión
cuando intentamos simular la funcionalidad de los órganos del cuerpo. Por ejemplo, se están
probando dispositivos implantables que simulan la funcionalidad del páncreas humano para regular
los niveles de insulina. Estos dispositivos funcionan midiendo los niveles de glucosa en la sangre y
liberando insulina de manera controlada para mantener los niveles en un rango adecuado. Si bien
siguen un método similar al de un páncreas biológico, no intentan, sin embargo, simular cada célula
de los islotes pancreáticos, y no habría ninguna razón para hacerlo.

La simulación funcional del cerebro es suficiente para recrear los poderes humanos de reconocimiento
de patrones, intelecto e inteligencia emocional. Por otro lado, si queremos «cargar» la personalidad de
una persona en particular, es decir, capturar todos sus conocimientos, habilidades y personalidad,
entonces es posible que necesitemos simular procesos neuronales a nivel de neuronas individuales y
porciones de neuronas, como el soma (cuerpo celular), el axón (conexión de salida), las dendritas
(árboles de conexiones entrantes) y las sinapsis (regiones que conectan axones y dendritas) . Para esto,
necesitamos mirar modelos detallados de neuronas individuales. El número de conexiones
interneuronales por neurona se estima en 103. Con una estimación de 1011 neuronas, eso representa
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 28/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

alrededor de 1014 conexiones. Con un tiempo de reinicio de cinco milisegundos, eso equivale a unas
1016 transacciones sinápticas por segundo. Las simulaciones del modelo de neuronas indican la
necesidad de alrededor de 103 cálculos por transacción sináptica para capturar las interacciones
complejas en las dendritas y otras regiones neuronales, lo que da como resultado una nueva
estimación general de alrededor de 1019 cps para simular el cerebro humano a este nivel. Por lo tanto,
podemos considerar esto como un límite superior para lograr la equivalencia funcional de todas las
regiones del cerebro. La supercomputadora Blue Gene/L de IBM, ya proporciona 360 billones de
cálculos por segundo (3,6×1014 cps). Esta cifra ya es mayor que las estimaciones más bajas descritas
anteriormente. Blue Gene/L también tiene alrededor de cien terabytes (alrededor de 1015 bits) de
almacenamiento principal, más que nuestra estimación de memoria para la emulación funcional del
cerebro humano. De acuerdo con las predicciones anteriores, las supercomputadoras alcanzarán
durante esta década de 2020 unos 1016 cps para la emulación del cerebro humano funcional. Las
computadoras personales actuales ya proporcionan más de 109 cps y se prevé que alcanzaran los 1016
antes de finales de la década de 2020. Sin embargo, hay varias formas en que se puede acelerar esta
línea de tiempo. En lugar de utilizar procesadores de uso general, se pueden utilizar circuitos
integrados específicos de la aplicación (ASIC) para proporcionar una mejor relación precio-
rendimiento para cálculos muy repetitivos. Dichos circuitos ya proporcionan un rendimiento
computacional extremadamente alto para los cálculos repetitivos que se utilizan para generar
imágenes en movimiento en los videojuegos. Los ASIC pueden multiplicar por mil la relación precio-
rendimiento, reduciendo el tiempo para lograrlo. Los variados programas que comprenderá una
simulación del cerebro humano también incluirán una gran cantidad de repeticiones y, por lo tanto,
serán susceptibles de implementación de ASIC. El cerebelo, por ejemplo, repite un patrón de cableado
básico miles de millones de veces.

También podremos amplificar el poder de las computadoras personales aprovechando el poder de


cómputo no utilizado de los dispositivos en Internet. Los nuevos paradigmas de comunicación, como
la computación en «malla«, contemplan tratar cada dispositivo en la red como un nodo. En otras
palabras, en lugar de que los dispositivos, como computadoras personales y PDA, simplemente
envíen información hacia y desde los nodos, cada dispositivo actuará como un nodo en sí mismo,
enviando información hacia y recibiendo información de todos los demás dispositivos. Eso creará
redes de comunicación muy sólidas y autoorganizadas. También facilitará que las computadoras y
otros dispositivos aprovechen los ciclos de CPU no utilizados de los dispositivos en su región de la
malla. Actualmente, al menos el 99 por ciento de la capacidad computacional de todas las
computadoras en Internet no se utiliza. El aprovechamiento efectivo de este cálculo puede
proporcionar otro factor de hasta 103 en una mayor relación precio-rendimiento. Por estas razones, es
razonable esperar que la capacidad del cerebro humano, al menos en términos de capacidad
computacional de hardware, sea de solo mil dólares para la actual década de 2020. Otro enfoque más
para acelerar la disponibilidad de computación a nivel humano en una computadora personal es usar
transistores en su modo «analógico» nativo. Muchos de los procesos en el cerebro humano son
analógicos, no digitales. Aunque podemos emular procesos analógicos con cualquier grado deseado
de precisión con la computación digital, perdemos varios órdenes de magnitud de eficiencia al
hacerlo. Un solo transistor puede multiplicar dos valores representados como niveles analógicos,
mientras que hacerlo con circuitos digitales requiere miles de transistores. Carver Mead del Instituto de
Tecnología de California ha sido pionero en este concepto. Una desventaja del enfoque de Mead es que el
tiempo de diseño de ingeniería requerido para dicha computación analógica nativa es largo, por lo
que la mayoría de los investigadores que desarrollan software para emular regiones del cerebro
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 29/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

generalmente prefieren el rápido cambio de las simulaciones de software. Pero, ¿cómo se compara la
capacidad computacional con la capacidad de la memoria humana? Resulta que llegamos a
estimaciones de marco de tiempo similares si observamos los requisitos de memoria humana. El
número de «fragmentos» de conocimiento dominados por un experto en un dominio es de
aproximadamente 105 para una variedad de dominios. Estos fragmentos representan patrones, como
las caras de personas, así como conocimientos específicos. Por ejemplo, se estima que un maestro de
ajedrez de clase mundial ha dominado unas 100.000 posiciones en el tablero. Shakespeare usó 29,000
palabras pero cerca de 100,000 significados de esas palabras. El desarrollo de sistemas expertos en
medicina indica que los humanos pueden dominar unos 100.000 conceptos en un dominio. Si
estimamos que este conocimiento «profesional» representa tan solo el 1% del patrón general y el
almacenamiento de conocimiento de un ser humano, llegamos a una estimación de 107 fragmentos.

Según la experiencia de Kurzweil en el diseño de sistemas que pueden almacenar fragmentos de


conocimiento similares en sistemas expertos basados en reglas o en sistemas de reconocimiento de
patrones autoorganizados, una estimación razonable es de unos 106 bits por fragmento, que puede ser
un patrón o elemento de conocimiento, lo que llevaría a una estimación de una capacidad total de
1013 (10 billones) de bits para la memoria funcional de un ser humano. Actualmente ya podemos
comprar 1013 bits de memoria por menos de mil dólares. Además, debemos tener en cuenta que esta
memoria será millones de veces más rápida que el proceso de memoria electroquímica utilizado en el
cerebro humano y, por lo tanto, se supone que será mucho más eficaz. Si modelamos la memoria
humana en el nivel de las conexiones interneuronales individuales, obtenemos una estimación más
alta. Podemos estimar alrededor de 104 bits por conexión para almacenar los patrones de conexión y
las concentraciones de neurotransmisores. Con un estimado de 1014 conexiones, eso equivale a 1018
(un billón de billones) de bits. En base a los análisis anteriores, es razonable esperar que el hardware
que puede emular la funcionalidad del cerebro humano esté disponible por aproximadamente mil
dólares a inicios de la actual década de 2020, pero el software que replicará esa funcionalidad tardará
aproximadamente una década más. Sin embargo, el crecimiento exponencial de la relación precio-
rendimiento, capacidad y velocidad de nuestra tecnología de hardware continuará durante ese
período, por lo que para 2030 se necesitarán unos mil cerebros humanos para igualar el valor de mil
dólares en computación. Sin embargo, se prevé que para 2050 mil dólares de computación superarán
el poder de procesamiento de todos los cerebros humanos en la Tierra. Si bien las neuronas humanas
son creaciones maravillosas, no se están diseñando circuitos informáticos utilizando los mismos
métodos lentos del cerebro biológico. A pesar del ingenio de los diseños desarrollados a través de la
selección natural, son muchos órdenes de magnitud menos capaces de lo que podremos diseñar
artificialmente. A medida que aplicamos ingeniería inversa a nuestros cuerpos y cerebros, estaremos
en posición de crear sistemas comparables que sean mucho más duraderos y que operen a millones de
veces más rápido que nuestros sistemas evolucionados naturalmente. Nuestros circuitos electrónicos
ya son más de un millón de veces más rápidos que los procesos electroquímicos de una neurona, y
esta velocidad continúa acelerándose.

La mayor parte de la complejidad de una neurona humana se dedica a mantener sus funciones de
soporte vital, no a sus capacidades de procesamiento de información. En última instancia, seremos
capaces de trasladar nuestros procesos mentales a un sustrato computacional más adecuado. Entonces
nuestras mentes no tendrán que permanecer tan pequeñas. Ya hemos tenido cinco paradigmas:
calculadoras electromecánicas, computación basada en relés, tubos de vacío, transistores discretos y
circuitos integrados, que han proporcionado un crecimiento exponencial a la relación precio-
rendimiento y las capacidades de computación. Cada vez que un paradigma llegaba a sus límites, otro
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 30/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

paradigma tomaba su lugar. Ya podemos ver los contornos del sexto paradigma, que llevará la
computación a la tercera dimensión molecular. Debido a que la computación subyace en los cimientos
de todo lo que nos importa, desde la economía hasta el intelecto humano y la creatividad, bien
podríamos preguntarnos: ¿existen límites definitivos para la capacidad de la materia y la energía para
realizar la computación? Si es así, ¿cuáles son estos límites y cuánto tiempo llevará alcanzarlos?
Nuestra inteligencia humana se basa en procesos computacionales que estamos aprendiendo a
comprender. En última instancia, multiplicaremos nuestros poderes intelectuales aplicando y
ampliando los métodos de la inteligencia humana utilizando la capacidad mucho mayor de la
computación no biológica. Entonces, considerar los límites últimos de la computación es realmente
preguntar: ¿cuál es el destino de nuestra civilización? Un desafío común a estas ideas es que estas
tendencias exponenciales deben alcanzar un límite, como lo hacen comúnmente las tendencias
exponenciales. Cuando una especie se encuentra con un nuevo hábitat, como en el famoso ejemplo de
los conejos en Australia, su número crece exponencialmente por un tiempo. Pero finalmente alcanza
los límites de la capacidad de ese entorno para soportarlo. Seguramente el procesamiento de la
información debe tener limitaciones similares. Resulta que, sí, existen límites para el cálculo basado en
las leyes de la física. Pero estos aún permiten una continuación del crecimiento exponencial hasta que
la inteligencia no biológica sea billones de billones de veces más poderosa que toda la civilización
humana actual, incluidas las computadoras contemporáneas. Un factor importante al considerar los
límites computacionales es el requerimiento de energía. No obstante, la energía requerida por los
MIPS necesarios para los dispositivos informáticos ha ido cayendo también exponencialmente.

Sin embargo, también sabemos que la cantidad de MIPS en los dispositivos informáticos ha ido
creciendo exponencialmente. La medida en que las mejoras en el uso de energía han seguido el ritmo
de la velocidad del procesador depende de la medida en que usamos el procesamiento paralelo. Una
mayor cantidad de computadoras menos poderosas pueden funcionar inherentemente más frías
porque el cálculo se extiende sobre un área más grande. La velocidad del procesador está relacionada
con el voltaje y la potencia requerida es proporcional al cuadrado del voltaje. Por lo tanto, ejecutar un
procesador a una velocidad más lenta reduce significativamente el consumo de energía. Si invertimos
en más procesamiento paralelo en lugar de procesadores individuales más rápidos, es factible que el
consumo de energía y la disipación de calor se mantengan al ritmo del crecimiento de MIPS por dólar.
Esta es esencialmente la misma solución que la evolución biológica desarrolló en el diseño de cerebros
de animales. Los cerebros humanos usan alrededor de cien billones de computadoras, como son las
conexiones interneuronales, donde tiene lugar la mayor parte del procesamiento. Pero estos
procesadores tienen muy poca potencia computacional y, por lo tanto, funcionan relativamente bien.
Hasta hace poco, la empresa Intel enfatizó el desarrollo de procesadores de un solo chip cada vez más
rápidos, que han estado funcionando a temperaturas cada vez más altas. Pero Intel está cambiando
gradualmente su estrategia hacia la paralelización al colocar múltiples procesadores en un solo chip.
Veremos que la tecnología de chips avanza en esta dirección como una forma de mantener bajo control
los requisitos de energía y la disipación de calor. En última instancia, organizar la computación con
procesamiento paralelo masivo, como se hace en el cerebro humano, no será suficiente por sí solo para
mantener los niveles de energía y la disipación térmica resultante a niveles razonables. El paradigma
informático actual se basa en lo que se conoce como computación irreversible, lo que significa que, en
principio, no podemos ejecutar programas de software hacia atrás. En cada paso de la progresión de
un programa, los datos de entrada se descartan (borran) y los resultados del cálculo pasan al siguiente
paso. Los programas generalmente no retienen todos los resultados intermedios, ya que eso
consumiría grandes cantidades de memoria innecesariamente. Este borrado selectivo de la
información de entrada es particularmente cierto para los sistemas de reconocimiento de patrones.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 31/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Los sistemas de visión, por ejemplo, ya sean humanos o artificiales, reciben tasas de entrada muy altas
de los ojos o sensores visuales, pero producen salidas relativamente compactas, como la identificación
de patrones reconocidos. El acto de borrar datos genera calor y por lo tanto requiere energía. Cuando
se borra un poco de información, esa información tiene que ir a alguna parte. De acuerdo con las leyes
de la termodinámica, el bit borrado se libera esencialmente en el entorno circundante, lo que aumenta
su entropía, que puede verse como una medida de información, incluida la información
aparentemente desordenada, en un entorno. Esto da como resultado una temperatura más alta para el
medio ambiente, porque la temperatura es una medida de entropía, que implica cualquier
degradación que exista en la materia o en la energía, llevándola a un estado inerte. En términos de
informática podemos entender la entropía como la medida de la incertidumbre generada ante una
cantidad de mensajes cuando solo se espera recibir uno. Si, por otro lado, no borramos cada bit de
información contenido en la entrada de cada paso de un algoritmo, sino que simplemente lo movemos
a otra ubicación, ese bit permanece en la computadora y no se libera al medio ambiente. Por lo tanto,
no genera calor y no requiere energía del exterior de la computadora. El concepto fundamental en la
computación reversible es que si se mantienen todos los resultados intermedios y luego se ejecuta el
algoritmo hacia atrás cuando haya terminado su cálculo, terminará donde comenzó, sin usar energía
ni generar calor. En el camino, sin embargo, ha calculado el resultado del algoritmo. Ya hemos visto
que los átomos pueden almacenar información a una densidad superior a un bit por átomo, como en
los sistemas informáticos construidos a partir de dispositivos de resonancia magnética nuclear.
Investigadores de la Universidad de Oklahoma almacenaron 1.024 bits en las interacciones magnéticas de
los protones de una sola molécula que contiene diecinueve átomos de hidrógeno. Si, por otro lado,
organizamos las partículas de una simple roca de una manera útil, podríamos tener una computadora
genial, sin consumo de energía, con una memoria de alrededor de mil billones de billones de bits y
una capacidad de procesamiento de 1042 operaciones por segundo. que es aproximadamente diez
billones de veces más poderoso que todos los cerebros humanos en la Tierra, incluso si usamos la
estimación más conservadora.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 32/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Una observación clave con respecto a la Singularidad es que los procesos de información (computación)
finalmente impulsarán todo lo que es importante. Esta base primaria para la tecnología futura parece
no requerir energía. Pero la realidad práctica es un poco más complicada. Si realmente queremos
averiguar los resultados de un cálculo, es decir, recibir la salida de una computadora, el proceso de
copiar la respuesta y transmitirla fuera de la computadora es un proceso irreversible, que genera calor
por cada bit transmitido. Sin embargo, para la mayoría de las aplicaciones de interés, la cantidad de
cómputo que se requiere para ejecutar un algoritmo supera ampliamente el cómputo requerido para
comunicar las respuestas finales, por lo que este último no cambia apreciablemente la ecuación de
energía. Sin embargo, debido a los efectos térmicos y cuánticos esencialmente aleatorios, las
operaciones lógicas tienen una tasa de error inherente. Podemos superar los errores usando códigos de
detección y corrección de errores, pero cada vez que corregimos un poco, la operación no es reversible,
lo que significa que requiere energía y genera calor. En general, las tasas de error son bajas. Pero
incluso si los errores ocurren a razón de, digamos, uno por cada 1010 operaciones, solo hemos logrado
reducir los requisitos de energía por un factor de 1010, no eliminando la disipación de energía por
completo. A medida que consideramos los límites de la computación, el problema de la tasa de error
se convierte en un problema de diseño importante. Ciertos métodos para aumentar la tasa
computacional, como aumentar la frecuencia de la oscilación de las partículas, también aumentan las
tasas de error, por lo que esto pone límites naturales a la capacidad de realizar cálculos utilizando
materia y energía. Otra tendencia importante con relevancia aquí será el alejamiento de las baterías
convencionales hacia celdas de combustible diminutas, que son dispositivos que almacenan energía en
productos químicos, como formas de hidrógeno, que se combinan con el oxígeno disponible. Las
celdas de combustible ya se están construyendo utilizando la tecnología MEMS (sistemas mecánicos
microelectrónicos). A medida que avanzamos hacia la computación molecular tridimensional con
características a nanoescala, los recursos energéticos en forma de celdas de nanocombustible se
distribuirán ampliamente en todo el medio informático entre los procesadores paralelos masivos.

Incluso con las restricciones que hemos relatado, los límites finales de las computadoras son
enormemente altos. La cantidad potencial de computación aumenta con la energía disponible. La
energía en una cantidad de materia es la energía asociada con cada átomo (y partícula subatómica).
Así que cuantos más átomos, más energía. Como se discutió anteriormente, cada átomo puede usarse
potencialmente para el cálculo. Entonces, cuantos más átomos, más computación. La energía de cada
átomo o partícula crece con la frecuencia de su movimiento: cuanto más movimiento, más energía. La
misma relación existe para el cálculo potencial: cuanto mayor sea la frecuencia de movimiento, más
cálculo puede realizar cada componente, que puede ser un átomo. Vemos esto en los chips
contemporáneos: cuanto mayor sea la frecuencia del chip, mayor será su velocidad computacional.
Entonces, existe una relación proporcional directa entre la energía de un objeto y su potencial para
realizar cálculos. Si usamos la cifra de 1016 cps, una computadora portátil podría realizar el
equivalente de todo el pensamiento humano durante los últimos diez mil años en una diezmilésima
de nanosegundo. Al analizar la entropía máxima, o los grados de libertad representados por el estado
de todas las partículas, en dicho dispositivo, Lloyd muestra que tal computadora tendría una
capacidad de memoria teórica de 1031 bits. Es difícil imaginar tecnologías que lleguen hasta el final
para alcanzar estos límites. Pero podemos imaginar fácilmente tecnologías que se acerquen
razonablemente a hacerlo. Como muestra el proyecto de la Universidad de Oklahoma, ya se ha
demostrado la capacidad de almacenar al menos cincuenta bits de información por átomo. Almacenar
1027 bits de memoria en los 1025 átomos en un kilogramo de materia, por lo tanto, debería ser
eventualmente alcanzable. Pero debido a que muchas propiedades de cada átomo podrían explotarse
para almacenar información, como la posición precisa, el espín y el estado cuántico de todas sus

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 33/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

partículas, probablemente podrían ampliarse los 1027 bits. El neurocientífico Anders Sandberg estima
la capacidad potencial de almacenamiento de un átomo de hidrógeno en unos cuatro millones de bits.
Sin embargo, estas densidades aún no se han demostrado, por lo que es mejor utilizar una estimación
más conservadora. Como se indicó anteriormente, se podrían lograr 1042 cálculos por segundo sin
producir calor significativo. Al implementar completamente técnicas de computación reversibles, usar
diseños que generan bajos niveles de errores y permitir cantidades razonables de disipación de
energía, deberíamos terminar entre 1042 y 1050 cps (cálculos por segundo). No obstante, el terreno de
diseño entre estos dos límites es complejo. Entonces, una vez que lleguemos a una civilización con
1042 cps por cada kilo, los científicos e ingenieros de ese día usarán su inteligencia no biológica para
averiguar cómo obtener más cps y así sucesivamente. Kurzweil cree que nos acercaremos mucho a los
límites finales.

Pero incluso si tiene la misma capacidad que nuestro propio cerebro, esta parte no biológica de nuestra
inteligencia será más poderosa porque combinará los poderes de reconocimiento de patrones de la
inteligencia humana con la capacidad de compartir memoria y las habilidades y la precisión de la
memoria de las máquinas. La parte no biológica siempre operará al máximo de su capacidad, lo que
está lejos de ser el caso de la humanidad biológica actual. Sin embargo, este estado de computación a
principios de la década de 2030 no representará la Singularidad, porque todavía no corresponde a una
profunda expansión de nuestra inteligencia. Sin embargo, a mediados de la década de 2040, ese valor
de cómputo de mil dólares probablemente equivaldrá a 1026 cps, por lo que la inteligencia creada por
año será aproximadamente mil millones de veces más poderosa que todas las inteligencias humanas
hoy. De hecho, eso representará un cambio profundo. y es por esa razón que Kurzweil fija la fecha
para la Singularidad, que representa una transformación profunda y disruptiva en la capacidad
humana, para el 2045. A pesar del claro predominio de la inteligencia no biológica a mediados de la
década de 2040, la nuestra seguirá siendo una civilización humana. Trascenderemos la biología, pero
no nuestra humanidad. Volviendo a los límites de la computación según la física, las estimaciones
anteriores se expresaron en términos de computadoras portátiles porque ese es un factor de forma
familiar en la actualidad. Sin embargo, para la segunda década de este siglo, la mayor parte de la
computación no estará organizada en dispositivos de este tipo, sino que estará muy distribuida por
todo el entorno. La informática estará en todas partes: en las paredes, en nuestros muebles, en
nuestros electrodomésticos, en nuestra ropa y en nuestros cuerpos y cerebros. Y, por supuesto, la
civilización humana no se limitará a computar con unos cuantos kilos de materia, sino que debemos
plantear el potencial computacional no solo a nivel de un planeta del tamaño de la Tierra, sino en
computadoras a la escala de los sistemas solares, de las galaxias y de todo el universo conocido. Como
veremos, la cantidad de tiempo requerida para que nuestra civilización humana alcance escalas de
cómputo e inteligencia que van más allá de nuestro planeta y hacia el universo puede ser mucho más
corta de lo que hubiésemos podido pensar. Tal como hemos dicho, Kurzweil prevé la fecha de la
Singularidad, que representa una transformación profunda y disruptiva en la capacidad humana, en el
año 2045, para el que solo faltan 23 años. La inteligencia no biológica en ese año será mil millones de
veces más poderosa que toda la inteligencia humana actual.

Es sorprendente hasta qué punto la evolución biológica ha sido capaz de pasar de sistemas
esencialmente sin inteligencia, como podría ser una roca ordinaria, que no realiza ningún cálculo útil,
a la capacidad última de la materia para realizar cálculos con un determinado propósito. La evolución
biológica nos llevó a una parte del camino, y la evolución tecnológica, que según los transhumanistas
como Kurzweil representa una continuación de la evolución biológica, nos llevará muy cerca de esos
límites. Tenemos que tener en cuenta que una roca de 1 kg. tiene del orden de 1027 bits de información

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 34/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

codificada en el estado de sus átomos y alrededor de 1042 cps representados por la actividad de sus
partículas. Podemos usar una piedra para hacer cálculos. Por ejemplo, al dejar caer la piedra desde
una altura particular, podemos calcular la cantidad de tiempo que se tarda en dejar caer un objeto
desde esa altura. Por supuesto, esto representa muy poco cómputo: quizás 1 cps, lo que significa que
su eficiencia computacional es aún muy baja. En comparación, ¿qué podemos decir sobre la eficiencia
del cerebro humano? Ya hemos visto antes cómo cada una de las aproximadamente 1014 conexiones
interneuronales puede almacenar aproximadamente 104 bits en las concentraciones de
neurotransmisores de la conexión y las no linealidades sinápticas y dendríticas para un total de 1018
bits. El cerebro humano pesa poco más que la piedra antes mencionada. Sin embargo, a pesar de que
la tecnología avanza exponencialmente, nuestras experiencias están en un mundo lineal, y en una
escala lineal, el cerebro humano está mucho más cerca de la piedra que de la última computadora.
Entonces, ¿cuál es la eficiencia computacional del cerebro? Nuevamente, necesitamos considerar el
principio de equivalencia y usar la estimación de 1016 cps requerida para emular la funcionalidad del
cerebro. Con la capacidad teórica de los átomos del cerebro estimada en 1042 cps, esto nos da una
eficiencia computacional tan baja como de 10–26 . Nuevamente, eso está más cerca de una roca que de
la computadora portátil, incluso en una escala logarítmica.

Nuestros cerebros biológicos han evolucionado significativamente en su memoria y eficiencia


computacional a partir de objetos anteriores a la biología, tal vez como piedras. Pero claramente
tenemos muchos órdenes de magnitud de mejora para aprovechar durante la primera mitad de este
siglo XXI. Pero los límites antes mencionados se basan en la computación con átomos y representan los
límites de la nanotecnología basados en nuestra comprensión actual. Pero ¿qué pasa con la
picotecnología, medida en billonésimas (10-12) de metro, y la femtotecnología, con escalas de 10-15 de
metro? A estas escalas, necesitaríamos computación ya no con átomos, sino con partículas
subatómicas. Con un tamaño tan pequeño tendríamos el potencial para una velocidad y densidad aún
mayores. Tenemos al menos varias tecnologías de picoescala. Científicos de la Universidad de California
en Santa Bárbara han desarrollado un detector de medición extremadamente sensible con un haz físico
hecho de cristal de arseniuro de galio y un sistema de detección que puede medir una flexión del haz
de tan solo un picómetro. El dispositivo en principio está destinado a proporcionar una prueba del
principio de incertidumbre de Heisenberg. En la dimensión del tiempo, los científicos de la Universidad
de Cornell han demostrado una tecnología de imágenes basada en la dispersión de rayos X que puede
grabar películas del movimiento de un solo electrón. Cada cuadro representa solo cuatro attosegundos
(cada uno una milmillonésima de una milmillonésima de segundo). El dispositivo puede lograr una
resolución espacial de 100 picómetros. Sin embargo, nuestra actual comprensión de la materia a estas
escalas, particularmente en el rango del femtómetro, todavía no está lo suficientemente bien
desarrollada para proponer paradigmas informáticos, pero todo llegará. Aún no se ha escrito un
equivalente para la picotecnología o femtotecnología al libro An Engines of Creation de Eric Drexler,
publicado en 1986, que sentó las bases para la nanotecnología. Sin embargo, cada una de las teorías en
competencia sobre el comportamiento de la materia y la energía en estas escalas se basa en modelos
matemáticos basados en transformaciones computables. Muchas de las transformaciones de la física
proporcionan la base para la computación universal, es decir, transformaciones a partir de las cuales
podemos construir computadoras de uso general, y es posible que el comportamiento en el rango de
los picómetros y femtómetros también lo haga.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 35/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Por supuesto, incluso si los mecanismos básicos de la materia en estos rangos proporcionan en teoría
computación universal, todavía tendríamos que idear la ingeniería necesaria para crear cantidades
masivas de elementos informáticos y aprender a controlarlos adecuadamente. Estos son similares a los
desafíos en los que ahora estamos progresando rápidamente en el campo de la nanotecnología. En este
momento, tenemos que considerar la viabilidad de la picocomputación y la femtocomputación como
simplemente especulativa. Pero la nanocomputación proporcionará niveles masivos de inteligencia,
por lo que sí es posible hacerlo, es probable que nuestra inteligencia futura descubra los procesos
necesarios para entrar en la picocomputación y la femtocomputación. El experimento mental que
deberíamos hacer no es si los humanos, tal como los conocemos hoy, serán capaces de diseñar
tecnologías de picocomputación y femtocomputación, sino si la vasta inteligencia de la futura
inteligencia basada en nanotecnología, que será billones de billones de veces más capaz que la
inteligencia humana biológica contemporánea, será capaz de representar estos diseños tecnológicos.
Aunque Kurzweil cree que es probable que nuestra futura inteligencia basada en nanotecnología sea
capaz de diseñar computación a escalas más finas que las actuales, las proyecciones actuales sobre la
Singularidad no se basan en esta especulación. Además de hacer que los soportes informáticos sean
más pequeños, podemos hacerlos más grandes, es decir, podemos replicar estos dispositivos muy
pequeños a gran escala. Con la nanotecnología a gran escala, los recursos informáticos pueden
autorreplicarse y, por lo tanto, pueden convertir rápidamente la masa y la energía en una forma
inteligente. Sin embargo, nos encontramos con la limitación de la velocidad de la luz, porque la
materia del universo se extiende a lo largo de grandes distancias. Pero hay ciertas sugerencias de que
la velocidad de la luz puede no ser inmutable. Los físicos Steve Lamoreaux y Justin Torgerson del
Laboratorio Nacional de Los Álamos analizaron datos de un antiguo reactor nuclear supuestamente
natural que hace dos mil millones de años produjo una reacción de fisión que duró varios cientos de
miles de años en lo que ahora es África occidental. Al examinar los isótopos radiactivos que quedaron
del reactor y compararlos con los isótopos de reacciones nucleares similares actuales, determinaron
que la constante física alfa, o constante de estructura fina, que determina la intensidad de la fuerza
electromagnética, aparentemente ha cambiado en los dos mil millones de años. Esto es de gran
importancia para el mundo de la física, porque la velocidad de la luz es inversamente proporcional a
alfa, y ambas han sido consideradas constantes inmutables. Alfa parece haber disminuido. De
confirmarse, esto implicaría que la velocidad de la luz ha aumentado.

Pero estos resultados exploratorios deberán verificarse cuidadosamente. Si es cierto, pueden tener una
gran importancia para el futuro de nuestra civilización. Si la velocidad de la luz ha aumentado,
presumiblemente no lo ha hecho sólo como resultado del paso del tiempo, sino porque ciertas
condiciones han cambiado. Si la velocidad de la luz ha cambiado debido a circunstancias cambiantes,
eso abre la puerta lo suficiente como para que los vastos poderes de nuestra futura inteligencia y
tecnología abran la puerta de par en par. Este es el tipo de conocimiento científico que los tecnólogos
pueden explotar. La ingeniería humana a menudo toma un efecto natural, frecuentemente sutil, y lo
controla con miras a aprovecharlo y magnificarlo en gran medida. Incluso si nos resultase difícil
aumentar significativamente la velocidad de la luz en las largas distancias del espacio, hacerlo dentro
de los pequeños límites de un dispositivo informático también tendría consecuencias importantes para
ampliar el potencial de la computación. La velocidad de la luz es uno de los límites que restringen los
dispositivos informáticos incluso hoy en día, por lo que la capacidad de aumentarla extendería aún
más los límites de la computación. Exploraremos varios otros enfoques intrigantes para posiblemente
aumentar o eludir la velocidad de la luz. Expandir la velocidad de la luz es, por supuesto,
especulativo hoy en día, y ninguno de los análisis que subyacen a la expectativa de la Singularidad se
basan en esta posibilidad. Otra posibilidad intrigante y altamente especulativa es enviar un proceso
computacional atrás en el tiempo a través de un «agujero de gusano» en el espacio-tiempo. El físico

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 36/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

teórico Todd Brun del Instituto de Estudios Avanzados de Princeton ha analizado la posibilidad de
computar usando lo que él llama una «curva temporal cerrada» (CTC). Según Brun, los CTC podrían
«enviar información (como el resultado de los cálculos) a sus propios conos de luz anteriores«.

Todd Brun no proporciona un diseño para tal dispositivo, pero establece que tal sistema es consistente
con las leyes de la física. Su computadora que viaja en el tiempo tampoco crea la «paradoja del abuelo«,
citada a menudo en discusiones sobre viajes en el tiempo. Esta conocida paradoja señala que si una
persona retrocede en el tiempo, podría matar a su abuelo, lo que provocaría que esta persona no
existiera, lo que daría como resultado que su abuelo no fuera asesinado por él, por lo que esta persona
existiría y, por lo tanto, podría regresar y matar a su abuelo, y así hasta el infinito. El proceso
computacional de extensión del tiempo de Brun no parece presentar este problema porque no afecta el
pasado. Produce una respuesta determinada e inequívoca en el presente a una pregunta planteada. La
pregunta debe tener una respuesta clara, y la respuesta no se presenta hasta después de formular la
pregunta, aunque el proceso para determinar la respuesta puede tener lugar antes de que se formule
la pregunta utilizando una «curva temporal cerrada» (CTC). Por el contrario, el proceso podría tener
lugar después de hacer la pregunta y luego usar un CTC para devolver la respuesta al presente, pero
no antes de que se hiciera la pregunta, porque eso introduciría la paradoja del abuelo. Es muy posible
que existan barreras (o limitaciones) fundamentales para dicho proceso que aún no comprendemos,
pero esas barreras aún no se han identificado. Si es factible, ampliaría enormemente el potencial de la
computación local. Una vez más, todas las estimaciones de las capacidades computacionales y de las
capacidades de la Singularidad no se basan en la conjetura tentativa de Brun.

Según el neurocientífico Lloyd Watts hay buenas razones para creer que estamos en un punto de
inflexión y que será posible en esta década de 2020 formular una comprensión significativa de la
función cerebral. Esta visión optimista se basa en varias tendencias medibles y en una simple
observación que se ha probado repetidamente en la historia de la ciencia: los avances científicos son
posibles gracias a un avance tecnológico que nos permite ver lo que no habíamos podido ver antes.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 37/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Aproximadamente a principios del siglo XXI, pasamos por un punto de inflexión detectable tanto en el
conocimiento de la neurociencia como en el poder de la computación. Por primera vez en la historia,
colectivamente sabemos lo suficiente sobre nuestros propios cerebros y hemos desarrollado una
tecnología informática tan avanzada que ahora podemos emprender seriamente la construcción de un
modelo verificable, en tiempo real y de alta resolución de partes significativas de nuestra inteligencia.
El cerebro es una prueba de que cierta disposición de la materia puede producir mente, realizar un
razonamiento inteligente, reconocimiento de patrones, aprendizaje y muchas otras tareas importantes
de interés para la ingeniería. Por lo tanto, podemos aprender a construir nuevos sistemas tomando
prestadas ideas del cerebro. El cerebro también es un sistema evolucionado y desordenado en el que
ocurren muchas interacciones debido a las contingencias evolutivas. Por otro lado, también debe ser
robusto, ya que podemos sobrevivir con él, y ser capaz de soportar variaciones bastante importantes y
agresiones ambientales, por lo que la información verdaderamente valiosa del cerebro podría ser más
cómo crear sistemas complejos resistentes que autoorganizarse bien. Las interacciones dentro de una
neurona son complejas, pero en el siguiente nivel, las neuronas parecen ser objetos algo simples que se
pueden unir de manera flexible en redes. Las redes corticales son un verdadero galimatías a nivel
local, pero nuevamente en el siguiente nivel, la conectividad no es tan compleja. Es probable que la
evolución haya producido una serie de módulos o temas repetitivos que se están reutilizando, y
cuando los comprendamos, así como sus interacciones, podamos hacer algo similar.

La combinación de la inteligencia a nivel humano con la superioridad inherente de una computadora


en lo que respecta a velocidad, precisión y capacidad para compartir memoria será formidable. Sin
embargo, hasta la fecha, la mayor parte de la investigación y el desarrollo de la Inteligencia Artificial
(IA) ha utilizado métodos de ingeniería que no se basan necesariamente en cómo funciona el cerebro
humano, por la sencilla razón de que no hemos tenido las herramientas precisas necesarias para
desarrollar modelos detallados de la cognición humana. Pero nuestra capacidad para aplicar
ingeniería inversa al cerebro, para ver el interior, modelarlo y simular sus regiones, está creciendo
exponencialmente. En última instancia, comprenderemos los principios de funcionamiento que
subyacen en toda la gama de nuestro propio pensamiento, conocimiento que nos proporcionará
procedimientos poderosos para desarrollar el software de las máquinas inteligentes. Kurzweil nos dice
que modificaremos, refinaremos y extenderemos estas técnicas a medida que las apliquemos a
tecnologías computacionales que son mucho más poderosas que el procesamiento electroquímico que
tiene lugar en las neuronas biológicas. Un beneficio clave de este gran proyecto serán los
conocimientos precisos que ofrece sobre nosotros mismos. También obtendremos nuevas y poderosas
formas de tratar problemas neurológicos, como el Alzheimer, los accidentes cerebrovasculares, la
enfermedad de Parkinson y las discapacidades sensoriales y, en última instancia, podremos ampliar
enormemente nuestra inteligencia. El primer paso en la ingeniería inversa del cerebro es mirar dentro
del cerebro para determinar cómo funciona. Hasta ahora, nuestras herramientas para hacer esto han
sido toscas, pero eso ahora está cambiando, ya que un número significativo de nuevas tecnologías de
escaneo presentan una resolución espacial y temporal, precio-rendimiento y ancho de banda muy
mejorados. Al mismo tiempo, estamos acumulando rápidamente datos sobre las características y la
dinámica precisas de las partes y sistemas constituyentes del cerebro, que van desde las sinapsis
individuales hasta grandes regiones como el cerebelo, que comprende más de la mitad de las neuronas
del cerebro. Extensas bases de datos están catalogando metódicamente nuestro conocimiento del
cerebro, que crece exponencialmente. Los investigadores también han demostrado que pueden
comprender y aplicar rápidamente esta información mediante la construcción de modelos y
simulaciones de trabajo. Estas simulaciones de regiones cerebrales se basan en los principios
matemáticos de la teoría de la complejidad y la computación caótica, y ya están proporcionando
resultados que se asemejan mucho a los experimentos realizados en cerebros humanos y animales
reales.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 38/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

El poder de las herramientas computacionales y de escaneo necesarias para la tarea de ingeniería


inversa del cerebro se está acelerando, de manera similar a la aceleración en la tecnología que hizo
factible el proyecto del genoma. Cuando lleguemos a la era de los nanobots, o nanorobots, podremos
escanear desde el interior del cerebro con una resolución espacial y temporal muy alta. No existen
barreras inherentes para evitar que podamos aplicar ingeniería inversa a los principios operativos de
la inteligencia humana y replicar estas capacidades en los sustratos computacionales más potentes que
estarán disponibles en las próximas décadas. El cerebro humano es una jerarquía compleja de sistemas
complejos, pero no representa un nivel de complejidad más allá de lo que ya somos capaces de
manejar. La relación precio-rendimiento de la computación y la comunicación se duplica cada año.
Como vimos anteriormente, la capacidad computacional necesaria para emular la inteligencia humana
estará disponible en menos de una década. Una suposición principal que subyace a la expectativa de
la Singularidad es que los medios no biológicos podrán emular la riqueza, la sutileza y la profundidad
del pensamiento humano. Pero lograr la capacidad computacional de hardware de un solo cerebro
humano, o incluso de la inteligencia colectiva de pueblos y naciones, no producirá automáticamente
niveles humanos de capacidad, si por niveles humanos incluimos todas las formas diversas y sutiles
en que los humanos son inteligentes, incluida la aptitud musical y artística, la creatividad, el
movimiento físico a través del mundo y la comprensión y respuesta adecuada a las emociones. La
capacidad computacional del hardware es necesaria pero no suficiente. Comprender la organización y
el contenido de estos recursos, el software de inteligencia, es aún más crítico y es el objetivo de la
empresa de ingeniería inversa del cerebro.

Una vez que una computadora alcance un nivel humano de inteligencia, necesariamente lo superará.
Una ventaja clave de la inteligencia no biológica es que las máquinas pueden compartir fácilmente su
conocimiento. Los humanos todavía no podemos acceder o transmitir rápidamente nuestro
conocimiento, que está incrustado en un amplio patrón de concentraciones de neurotransmisores, con
niveles de sustancias químicas en las sinapsis que permiten que una neurona influya en otra, y
conexiones interneuronales, que son porciones de las neuronas llamadas axones y dendritas que
conectan las neuronas. Pero consideremos el caso de la inteligencia de una máquina. En una de las
empresas de Kurzweil, pasaron años enseñando a una computadora de investigación cómo reconocer
el habla humana continua utilizando un software de reconocimiento de patrones. Expusieron la
computadora y el software a miles de horas de voz grabada, se corrigieron sus errores y se mejoro
pacientemente su desempeño entrenando sus «caóticos» algoritmos de autoorganización, métodos que
modifican sus propias reglas, basados en procesos que usan información inicial semi-aleatoria, y con
resultados que no son totalmente predecibles. Finalmente, la computadora se volvió bastante experta
en reconocer el habla. Ahora simplemente se pueden descargar los patrones ya establecidos en
segundos. Un buen ejemplo de la divergencia entre la inteligencia humana y la Inteligencia Artificial
(IA) contemporánea es cómo cada uno emprende la solución de un problema de ajedrez. Los humanos
lo hacemos reconociendo patrones, mientras que las máquinas construyen enormes «árboles» lógicos
de posibles movimientos y contramovimientos. La mayor parte de la tecnología hasta la fecha ha
utilizado este último tipo de enfoque de ingeniería analítico «de arriba hacia abajo«. Pero a medida que
nuestras herramientas para la ingeniería inversa de las formas de la naturaleza están creciendo
rápidamente en sofisticación, la tecnología se está moviendo hacia la emulación de la naturaleza
mientras implementa estas técnicas en sustratos mucho más capaces. El escenario más convincente
para dominar el software de la inteligencia es aprovechar directamente el modelo del mejor ejemplo
que podemos conseguir de un proceso inteligente: el cerebro humano. Aunque su «diseñador» original,
suponiendo que fuese la evolución, tardó varios miles de millones de años en desarrollar el cerebro,
está fácilmente disponible para nosotros, protegido por un cráneo pero con las herramientas
adecuadas que no están ocultas a nuestra vista. Su contenido aún no tiene derechos de autor ni está
patentado, pero ya se han presentado solicitudes de patentes basadas en la ingeniería inversa del
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 39/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

cerebro. Se aplicarán los miles de billones de bytes de información derivados de los escáneres
cerebrales y los modelos neuronales en muchos niveles para diseñar algoritmos paralelos para
nuestras máquinas, particularmente aquellas basadas en paradigmas de auto-organización. Con este
enfoque de auto-organización, no tenemos que intentar replicar cada conexión neuronal. Hay una
gran cantidad de repeticiones y redundancias dentro de cualquier región particular del cerebro. Los
científicos están descubriendo que los modelos de alto nivel de las regiones del cerebro suelen ser más
simples que los modelos detallados de sus componentes neuronales.

La complejidad de nuestros cerebros aumenta considerablemente a medida que interactuamos con el


mundo, mediante el aprendizaje, por un factor de aproximadamente mil millones sobre lo que está
codificado en el genoma. Pero se encuentran patrones altamente repetitivos en cada región específica
del cerebro, por lo que no es necesario capturar cada detalle en particular para aplicar ingeniería
inversa con éxito a los algoritmos relevantes, que combinan métodos digitales y analógicos. Por
ejemplo, la activación de una neurona puede considerarse un evento digital, mientras que los niveles
de neurotransmisores en la sinapsis pueden considerarse valores analógicos. El patrón de cableado
básico del cerebelo, por ejemplo, se describe en el genoma solo una vez, pero se repite miles de
millones de veces. Con la información de los estudios de modelado y escaneo cerebral, podemos
diseñar un software equivalente simulado, es decir, algoritmos funcionalmente equivalentes al
rendimiento general de una región del cerebro. El ritmo de construcción de modelos y simulaciones de
trabajo está solo ligeramente por detrás de la disponibilidad de información de escaneo cerebral y
estructura neuronal. Hay más de cincuenta mil neurocientíficos en el mundo escribiendo artículos
para más de trescientas revistas. El campo es amplio y diverso, con científicos e ingenieros creando
nuevas tecnologías de escaneo y detección y desarrollando modelos y teorías en muchos niveles.
Entonces, incluso las personas que trabajan en este campo a menudo no son completamente
conscientes de las dimensiones completas de la investigación contemporánea. En la neurociencia
contemporánea, se están desarrollando modelos y simulaciones a partir de diversas fuentes, incluidos
escáneres cerebrales, modelos de conexión interneuronal, modelos neuronales y pruebas psicofísicas.
Como se mencionó anteriormente, el investigador del sistema auditivo Lloyd Watts ha desarrollado
un modelo integral de una parte significativa del sistema de procesamiento auditivo humano a partir
de estudios neurobiológicos de tipos de neuronas específicos e información de conexión interneuronal.
El modelo de Watts incluye cinco caminos paralelos y las representaciones reales de la información
auditiva en cada etapa del procesamiento neuronal. Watts ha implementado su modelo en una
computadora como software en tiempo real que puede localizar e identificar sonidos y funciones, de
forma similar a como funciona el oído humano. Aunque es un trabajo en progreso, el modelo ilustra la
viabilidad de convertir modelos neurobiológicos y datos de conexión cerebral en simulaciones de
trabajo.

Como han especulado Hans Moravec y otros, estas simulaciones funcionales eficientes requieren cerca
de mil veces menos computación de lo que sería necesario si simulamos las no linealidades en cada
dendrita, sinapsis y demás estructura subneural en la región que se simula. La relación de velocidad
real actual entre la electrónica contemporánea y la señalización electroquímica en las conexiones
interneuronales biológicas es de al menos un millón a uno. Encontramos esta misma ineficiencia en
todos los aspectos de nuestra biología, porque la evolución biológica construyó todos sus mecanismos
y sistemas con un conjunto de materiales severamente limitados, como las células, que a su vez están
hechas de un conjunto limitado de proteínas. Aunque las proteínas biológicas son tridimensionales,
están restringidas a moléculas complejas que pueden plegarse a partir de una secuencia lineal
(unidimensional) de aminoácidos. Pero el cerebro no es un único órgano de procesamiento de
información, sino una colección intrincada y entrelazada de cientos de regiones especializadas. El
proceso de «pelar la cebolla» para comprender las funciones de estas regiones intercaladas está en
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 40/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

marcha. A medida que estén disponibles las descripciones de las neuronas necesarias y los datos de
interconexión cerebral, se desarrollarán réplicas detalladas e implementables, como la simulación de
las regiones auditivas, para todas las regiones del cerebro. La mayoría de los algoritmos de modelado
cerebral no son los métodos secuenciales y lógicos que se usan comúnmente en la computación digital
actual. El cerebro biológico tiende a utilizar procesos holográficos, caóticos y de auto-organización, es
decir, información que no se encuentra en un lugar sino que se distribuye por toda una región.
También es masivamente paralelo y utiliza técnicas analógicas híbridas controladas digitalmente. Sin
embargo, una amplia gama de proyectos ha demostrado nuestra capacidad para comprender estas
técnicas y extraerlas de nuestro conocimiento cada vez mayor del cerebro y su organización. Una vez
que se comprenden los algoritmos de una región en particular, se pueden refinar y ampliar antes de
implementarlos en equivalentes neuronales sintéticos. Se pueden ejecutar en un sustrato
computacional que ya es mucho más rápido que los circuitos neuronales. Las computadoras actuales
realizan cálculos en mil millonésimas de segundo, en comparación con las milésimas de segundo para
las transacciones interneuronales. Y también podemos hacer uso de los métodos para construir
máquinas inteligentes que ya conocemos.

Pero, ¿es el cerebro humano diferente de una computadora? La respuesta a esta pregunta depende de
lo que entendamos por la palabra «computadora«. La mayoría de las computadoras de hoy en día son
todas digitales y realizan uno o quizás algunos cálculos a la vez a una velocidad extremadamente alta.
Por el contrario, el cerebro humano combina métodos digitales y analógicos, pero realiza la mayoría
de los cálculos en el dominio analógico (continuo), utilizando neurotransmisores y mecanismos
relacionados. Aunque estas neuronas ejecutan cálculos a velocidades extremadamente lentas,
típicamente doscientas transacciones por segundo, el cerebro en su conjunto es enormemente paralelo,
en que la mayoría de sus neuronas trabajan al mismo tiempo, lo que da como resultado que se lleven a
cabo hasta cien billones de cálculos simultáneamente. El paralelismo masivo del cerebro humano es la
clave de su capacidad de reconocimiento de patrones, que es uno de los pilares del pensamiento de
nuestra especie. Las neuronas de los mamíferos se involucran en una danza caótica, es decir, con
muchas interacciones aparentemente aleatorias, y si la red neuronal ha aprendido bien sus lecciones,
surgirá un patrón estable que reflejará la decisión de la red. Actualmente, los diseños paralelos para
computadoras son algo limitados. Pero no hay ninguna razón por la que recreaciones no biológicas
funcionalmente equivalentes de redes neuronales biológicas no puedan construirse utilizando estos
principios. De hecho, decenas de esfuerzos en todo el mundo ya han tenido éxito en hacerlo. El propio
Kurzweil nos dice que en el reconocimiento de patrones y en los proyectos en los que ha estado
involucrado durante más de cuarenta años utilizan esta forma de computación entrenable y no
determinista. Muchos de los métodos de organización característicos del cerebro también se pueden
simular de manera efectiva utilizando computación convencional de potencia suficiente. Duplicar los
paradigmas de diseño de la naturaleza será, según Kurzweil, una tendencia clave en la informática del
futuro. También debemos tener en cuenta que la computación digital puede ser funcionalmente
equivalente a la computación analógica, es decir, podemos realizar todas las funciones de una red
híbrida digital-analógica con una computadora totalmente digital. Lo contrario no es cierto: no
podemos simular todas las funciones de una computadora digital con una analógica. Sin embargo, la
computación analógica tiene una ventaja de ingeniería, ya que es potencialmente miles de veces más
eficiente. Un cálculo analógico puede ser realizado por unos pocos transistores o, en el caso de las
neuronas de los mamíferos, por procesos electroquímicos específicos. Una computación digital, por el
contrario, requiere miles o decenas de miles de transistores. Por otro lado, esta ventaja se puede
compensar con la facilidad de programar y modificar simulaciones digitales basadas en computadora.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 41/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Hay una serie de otras formas clave en las que el cerebro se diferencia de una computadora
convencional. Los circuitos del cerebro son muy lentos. Los tiempos de reinicio sináptico y
estabilización de neuronas, la cantidad de tiempo requerida para que una neurona y sus sinapsis se
reinicien después de que la neurona se active, son tan lentos que hay muy pocos ciclos de activación
de neuronas disponibles para tomar decisiones de reconocimiento de patrones. Las imágenes de
resonancia magnética funcional (fMRI) y las exploraciones de magnetoencefalografía (MEG) muestran que
los juicios que no requieren resolver ambigüedades parecen realizarse en un solo ciclo de activación de
neuronas en menos de veinte milisegundos, lo que implica esencialmente que no se efectúa ningún
proceso iterativo (repetido). El reconocimiento de objetos ocurre en alrededor de 150 milisegundos, de
modo que incluso si «pensamos algo«, el número de ciclos de operación se mide en cientos o miles como
máximo, no en miles de millones, como con una computadora típica. Pero por contra, el cerebro
biológico es masivamente paralelo. El cerebro tiene del orden de cien billones de conexiones
interneuronales, cada una de las cuales potencialmente procesa información simultáneamente. Estos
dos factores, tiempo de ciclo lento y paralelismo masivo, dan como resultado un cierto nivel de
capacidad computacional para el cerebro. Pero ya actualmente nuestras supercomputadoras más
grandes se acercan a este rango. Las supercomputadoras líderes alcanzan más de 1014 cps (cálculos
por segundo), lo que coincide con el rango inferior de las estimaciones para la simulación funcional.
Sin embargo, no es necesario utilizar la misma granularidad de procesamiento paralelo que el propio
cerebro, siempre que coincidamos con la velocidad computacional general y la capacidad de memoria
necesarias o, al contrario, simulemos la arquitectura paralela masiva del cerebro.

Asimismo, el cerebro biológico combina fenómenos analógicos y digitales. La topología de las


conexiones en el cerebro biológico es esencialmente digital, o sea existe una conexión o no. Aunque un
disparo de axón no es completamente digital, pero se aproxima mucho a un proceso digital. No
obstante, casi todas las funciones del cerebro son analógicas y están llenas de no linealidades, o sea
cambios repentinos en la salida, en lugar de niveles que cambian suavemente, que son
sustancialmente más complejas que el modelo clásico que se ha estado usando para las neuronas. Sin
embargo, la dinámica no lineal detallada de una neurona y todos sus componentes, como dendritas,
espinas, canales y axones, se puede modelar a través de las matemáticas de los sistemas no lineales.
Estos modelos matemáticos pueden luego simularse en una computadora digital con cualquier grado
de precisión deseado. Como mencionó Kurzweil, si simulamos las regiones neuronales utilizando
transistores en su modo analógico nativo en lugar de mediante computación digital, este enfoque
puede proporcionar una capacidad mejorada en tres o cuatro órdenes de magnitud. También tenemos
que el cerebro biológico se reconfigura a sí mismo. Las dendritas están continuamente explorando
nuevas espinas y sinapsis. La topología y la conductancia de las dendritas y las sinapsis también se
adaptan continuamente. El sistema nervioso se auto-organiza en todos los niveles de su organización.
Si bien las técnicas matemáticas utilizadas en los sistemas computarizados de reconocimiento de
patrones, como las redes neuronales y los modelos de Markov, son mucho más simples que las que se
utilizan en el cerebro, se tiene una experiencia sustancial en ingeniería con modelos de auto-
organización. Las computadoras contemporáneas no se reconectan literalmente, aunque los «sistemas
de autoreparación» emergentes están comenzando a hacer esto, pero podemos simular este proceso de
manera efectiva en el software. En el futuro, también se podrá implementar esto en el hardware,
aunque puede haber ventajas al implementar la mayor parte de la auto-organización en el software, lo
que brinda más flexibilidad a los programadores. La mayoría de los detalles en el cerebro son
aleatorios. Si bien hay una gran cantidad de procesos estocásticos, o aleatorios dentro de restricciones
cuidadosamente controladas en cada aspecto del cerebro, no es necesario modelar cada «hoyuelo» en la
superficie de cada dendrita, como tampoco es necesario modelar cada pequeño variación en la
superficie de cada transistor en la comprensión de los principios de funcionamiento de una

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 42/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

computadora. Pero ciertos detalles son críticos para descifrar los principios de funcionamiento del
cerebro, lo que nos obliga a distinguir entre ellos y los que comprenden el «ruido» estocástico o el caos.
Los aspectos caóticos (aleatorios e impredecibles) de la función neuronal se pueden modelar
utilizando las técnicas matemáticas de la teoría de la complejidad y la teoría del caos.

El cerebro biológico utiliza propiedades emergentes. El comportamiento inteligente es una propiedad


emergente de la actividad caótica y compleja del cerebro. Consideremos la analogía con el diseño
aparentemente inteligente de colonias de hormigas, con sus túneles interconectados y sistemas de
ventilación delicadamente construidos. A pesar de su diseño inteligente e intrincado, los montículos
de hormigas no tienen arquitectos maestros; la arquitectura surge de las interacciones impredecibles
de todos los miembros de la colonia, cada uno siguiendo reglas relativamente simples. El cerebro
biológico es imperfecto. Es la naturaleza de los sistemas adaptativos complejos el que la inteligencia
emergente de sus decisiones sea poco óptima. Es decir, refleja un nivel de inteligencia inferior al que
representaría una disposición óptima de sus elementos. Solo necesita ser lo suficientemente buena, lo
que en el caso de nuestra especie significaba un nivel de inteligencia suficiente para permitirnos burlar
los competidores en nuestro nicho ecológico, como, por ejemplo, los primates que también combinan
una función cognitiva con un apéndice oponible pero cuyo cerebro no está tan desarrollado como el de
los humanos y cuyas manos no funcionan tan bien. Nos contradecimos, por lo que una variedad de
ideas y enfoques, incluidos los conflictivos, conduce a resultados superiores. Nuestros cerebros son
muy capaces de sostener puntos de vista contradictorios. De hecho, prosperamos en esta diversidad
interna. Asimismo, el cerebro utiliza la evolución. El paradigma de aprendizaje básico utilizado por el
cerebro es evolutivo, en el que sobreviven los patrones de conexiones que son más exitosos para dar
sentido al mundo y contribuir a reconocimientos y decisiones. El cerebro de un recién nacido contiene
en su mayoría conexiones interneuronales vinculadas al azar, y solo una parte de ellas sobrevive en el
cerebro de dos años. Los patrones son importantes. Ciertos detalles de estos métodos caóticos de auto-
organización, expresados como restricciones del modelo, o reglas que definen las condiciones iniciales
y los medios para la auto-organización, son cruciales, mientras que muchos detalles dentro de las
restricciones se establecen inicialmente al azar. Luego, el sistema se auto-organiza y representa
gradualmente las características invariables de la información que se le ha presentado. La información
resultante no se encuentra en nodos o conexiones específicas, sino que es un patrón distribuido.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 43/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

El cerebro biológico es holográfico. Existe una analogía entre la información distribuida en un


holograma y el método de representación de información en redes cerebrales. Encontramos esto
también en los métodos de auto-organización utilizados en el reconocimiento de patrones
computarizados, como las redes neuronales, los modelos de Markov y los algoritmos genéticos.
Además, el cerebro biológico está profundamente conectado. El cerebro obtiene su resiliencia al ser
una red profundamente conectada en la que la información tiene muchas formas de navegar de un
punto a otro. Considere la analogía con Internet, que se ha vuelto cada vez más estable a medida que
aumenta el número de sus nodos constituyentes. Los nodos, incluso los centros completos de Internet,
pueden volverse inoperativos sin siquiera derribar toda la red. De manera similar, perdemos neuronas
continuamente sin afectar la integridad de todo el cerebro. El cerebro biológico sí tiene una
arquitectura de regiones. Aunque los detalles de las conexiones dentro de una región son inicialmente
aleatorios dentro de las limitaciones y auto-organizados, existe una arquitectura de varios cientos de
regiones que realizan funciones específicas, con patrones específicos de conexiones entre regiones. El
diseño de una región cerebral es más simple que el diseño de una neurona. Los modelos a menudo se
vuelven más simples en un nivel superior, no más complejos. Considere una analogía con una
computadora. Necesitamos comprender la física detallada de los semiconductores para modelar un
transistor, y las ecuaciones que subyacen a un solo transistor real son complejas. Sin embargo, un
circuito digital que multiplica dos números, aunque involucre cientos de transistores, se puede
modelar de manera mucho más simple, con solo unas pocas fórmulas. Se puede modelar una
computadora completa con miles de millones de transistores a través de su conjunto de instrucciones
y descripción de registro, que se puede describir en un puñado de páginas escritas de texto y
transformaciones matemáticas. Los programas de software para un sistema operativo, los
compiladores de lenguaje y los ensambladores son razonablemente complejos, pero el modelado de
un programa en particular, por ejemplo, un programa de reconocimiento de voz basado en el
modelado de Markov, puede describirse en solo unas pocas páginas de ecuaciones. En ninguna parte
de tal descripción se encontrarían los detalles de la física de los semiconductores. Una observación
similar también es válida para el cerebro. Se puede describir un arreglo neuronal particular que
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 44/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

detecta una característica visual invariable particular, como una cara, o que realiza una operación de
filtrado de paso de banda, restringiendo la entrada a un rango de frecuencia específico, en información
auditiva o que evalúa la proximidad temporal de dos eventos con mucha mayor simplicidad que las
relaciones físicas y químicas reales que controlan los neurotransmisores y otras variables sinápticas y
dendríticas involucradas en los procesos respectivos. Aunque toda esta complejidad neural tendrá que
ser cuidadosamente considerada antes de avanzar al siguiente nivel superior, como el modelado de un
cerebro artificial, gran parte de ella puede simplificarse una vez que se entiendan los principios
operativos del cerebro.

Ahora nos estamos acercando a un período de rápido crecimiento exponencial en el ritmo acelerado
de comprensión del cerebro humano, pero nuestros intentos en esta área tienen una larga historia.
Nuestra capacidad para reflexionar y construir modelos de nuestro pensamiento es un atributo único
de nuestra especie. Actualmente el enfoque más poderoso para capturar cada detalle neuronal
destacado será escanearlo desde adentro. Para la década actual de 2020, la tecnología de nanobots será
viable y el escaneo cerebral será una de sus aplicaciones destacadas. Como se describió anteriormente,
los nanobots son robots que tendrán el tamaño de las células sanguíneas humanas, de siete a ocho
micrones o incluso más pequeños. Miles de millones de ellos podrían viajar a través de cada capilar
cerebral, escaneando cada característica neuronal relevante de cerca. Usando comunicación
inalámbrica de alta velocidad, los nanobots se comunicarían entre sí y con las computadoras que
compilan la base de datos del escaneo cerebral. En otras palabras, los nanobots y las computadoras
estarán en una red de área local inalámbrica. Eso sí, asegurándonos de que no sea hackeable. A fines
del siglo XIX, los científicos descubrieron que cuando inyectaban un tinte azul en el torrente sanguíneo
de un animal, todos los órganos del animal se volvían azules a excepción de la médula espinal y el
cerebro. Formularon con precisión la hipótesis de una barrera que protege al cerebro de una amplia
gama de sustancias potencialmente dañinas en la sangre, incluidas bacterias, hormonas, sustancias
químicas que pueden actuar como neurotransmisores y otras toxinas. Solo el oxígeno, la glucosa y un
conjunto muy selecto de otras moléculas pequeñas pueden salir de los vasos sanguíneos y entrar al
cerebro. Las autopsias de principios del siglo XX revelaron que el revestimiento de los capilares en el
cerebro y otros tejidos del sistema nervioso está mucho más repleto de células endoteliales que los
vasos de tamaño comparable en otros órganos. Estudios más recientes han demostrado que hay un
sistema complejo que presenta puertas de enlace completas con claves y contraseñas que permiten la
entrada al cerebro. Por ejemplo, se han descubierto dos proteínas llamadas zonulina y zot que
reaccionan con receptores en el cerebro para abrir temporalmente la barrera hematoencefálica (BBB) en
sitios seleccionados. Estas dos proteínas juegan un papel similar en la apertura de receptores en el
intestino delgado para permitir la digestión de glucosa y otros nutrientes.

Esto quiere decir que cualquier diseño de nanobots para escanear o interactuar con el cerebro deberá
considerar varias estrategias que sean factibles, dadas las capacidades futuras. Una táctica obvia es
hacer que el nanobot sea lo suficientemente pequeño como para deslizarse a través de la barrera
hematoencefálica (BBB), pero este es el enfoque menos práctico, al menos con la nanotecnología tal
como la conocemos hoy. Para hacer esto, el nanobot tendría que tener un diámetro de veinte
nanómetros o menos, que es aproximadamente del tamaño de cien átomos de carbono. Limitar un
nanobot a estas dimensiones limitaría severamente su funcionalidad. Una estrategia intermedia sería
mantener el nanobot en el torrente sanguíneo pero hacer que proyecte un brazo robótico a través de la
barrera hematoencefálica (BBB) y hacia el líquido extracelular que recubre las células neurales. Esto
permitiría que el nanobot siga siendo lo suficientemente grande como para tener suficientes recursos
computacionales y de navegación. Dado que casi todas las neuronas se encuentran dentro de dos o
tres anchos de celda de un capilar, el brazo necesitaría alcanzar solo hasta unas cincuenta micras. Los
análisis realizados por el neurólogo Dr Robert Boland-Freitas y otros muestran que es bastante factible
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 45/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

restringir el ancho de un manipulador de este tipo a menos de veinte nanómetros. Otro enfoque es
mantener los nanobots en los capilares y usar un escaneo no invasivo. Otro tipo de escaneo no
invasivo involucraría un conjunto de nanobots que emiten señales enfocadas similares a las de un
escáner de dos fotones y otro conjunto de nanobots que reciben la transmisión. La topología del tejido
intermedio podría determinarse analizando el impacto en la señal recibida. Otro tipo de estrategia,
sugerida por el Dr Robert Boland-Freitas, sería que el nanobot literalmente se abriera paso a través de
la barrera hematoencefálica (BBB) abriendo un agujero en ella, saliendo del vaso sanguíneo y luego
reparando el daño. Dado que el nanobot se puede construir utilizando carbono en una configuración
diamantina, sería mucho más fuerte que los tejidos biológicos. Freitas escribe: «Para pasar entre las
células en un tejido rico en células, es necesario que un nanorobot avance interrumpa una cantidad mínima de
contactos adhesivos de célula a célula que se encuentran en su camino. Después de eso, y con el objetivo de
minimizar la biointrusión, el nanorobot debe volver a sellar esos contactos adhesivos a su paso, de manera
crudamente análoga a un topo excavador«.

Los estudios contemporáneos sobre el cáncer sugieren otro enfoque. Los investigadores del cáncer
están muy interesados en interrumpir selectivamente la barrera hematoencefálica (BBB) para
transportar sustancias que destruyan los tumores cancerígenos. Estudios recientes de la barrera
hematoencefálica (BBB) muestran que se abre en respuesta a una variedad de factores, que incluyen
ciertas proteínas, hipertensión localizada, altas concentraciones de ciertas sustancias, microondas y
otras formas de radiación, infección e inflamación. También hay procesos especializados que
transportan sustancias necesarias como la glucosa. También se ha descubierto que el manitol de azúcar
provoca una contracción temporal de las células endoteliales estrechamente empaquetadas para
proporcionar una ruptura temporal de la barrera hematoencefálica (BBB). Al explotar estos
mecanismos, varios grupos de investigación están desarrollando compuestos que abren la barrera
hematoencefálica (BBB). Aunque esta investigación tiene como objetivo las terapias contra el cáncer, se
pueden usar enfoques similares para abrir las puertas de entrada a los nanobots que escanearán el
cerebro y mejorarán nuestro funcionamiento mental. Podríamos pasar por alto el torrente sanguíneo y
la barrera hematoencefálica (BBB) por completo inyectando los nanobots en áreas del cerebro que
tienen acceso directo al tejido neural. Es remarcable saber que las nuevas neuronas migran desde los
ventrículos a otras partes del cerebro. Los nanobots podrían seguir el mismo camino de migración.
Robert Freitas ha descrito varias técnicas para que los nanobots controlen las señales sensoriales. Estos
serán importantes tanto para la ingeniería inversa de las entradas al cerebro, como para crear una
realidad virtual de inmersión total desde el interior del sistema nervioso. Para escanear y monitorear
las señales auditivas, Freitas propone «nanodispositivos móviles [que] nadan hacia la arteria espiral del oído
y descienden a través de sus bifurcaciones para llegar al canal coclear, luego se colocan como monitores neurales
en las proximidades del nervio espiral, fibras y los nervios que ingresan al epitelio del órgano de Corti [nervios
cocleares o auditivos] dentro del ganglio espiral. Estos monitores pueden detectar, registrar o retransmitir a otros
nanodispositivos en la red de comunicaciones todo el tráfico neural auditivo percibido por el oído humano«.

Para las «sensaciones de gravedad, rotación y aceleración» del cuerpo, Freitas prevé «nanomonitores
colocados en las terminaciones nerviosas aferentes que emanan de las células ciliadas ubicadas en los canales
semicirculares«. Para el «manejo sensorial cinestésico las neuronas motoras pueden monitorearse para realizar
un seguimiento de los movimientos y posiciones de las extremidades, o actividades musculares específicas, e
incluso para ejercer control«. «El tráfico neuronal sensorial olfativo y gustativo puede ser espiado por
instrumentos nanosensoriales«. «Las señales de dolor pueden registrarse o modificarse según sea necesario, al
igual que los impulsos nerviosos mecánicos y de temperatura de los receptores ubicados en la piel«. Freitas
señala que la retina es rica en pequeños vasos sanguíneos, «permitiendo el fácil acceso tanto a los
fotorreceptores (bastón, cono, bipolar y ganglio) como al integrador de. neuronas«. Las señales del nervio
óptico representan más de cien millones de niveles por segundo, pero este nivel de procesamiento de
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 46/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

señales ya es manejable artificialmente. Como han indicado Tomaso Poggio del MIT y otros, aún no
comprendemos la codificación de las señales del nervio óptico. Una vez que tengamos la capacidad de
monitorear las señales de cada fibra discreta en el nervio óptico, nuestra capacidad para interpretar
estas señales será mucho más fácil. Esta es actualmente un área de intensa investigación. Las señales
sin procesar del cuerpo pasan por múltiples niveles de procesamiento antes de agregarse en una
representación dinámica compacta en dos pequeños órganos llamados ínsula derecha e izquierda,
ubicados en lo profundo de la corteza cerebral. Para la realidad virtual de inmersión total, como se
pretende con el Metaverso, puede ser más efectivo aprovechar las señales ya interpretadas en la ínsula
en lugar de las señales no procesadas en todo el cuerpo. Escanear el cerebro con el propósito de aplicar
ingeniería inversa a sus principios de funcionamiento es una acción más fácil que escanearlo con el
propósito de «cargar» una personalidad en particular. Para aplicar ingeniería inversa al cerebro, solo
necesitamos escanear las conexiones en una región lo suficiente como para comprender su patrón
básico. No necesitamos capturar cada conexión. Una vez que comprendemos los patrones de cableado
neuronal dentro de una región, podemos combinar ese conocimiento con una comprensión detallada
de cómo funciona cada tipo de neurona en esa región. Aunque una región particular del cerebro puede
tener miles de millones de neuronas, contendrá solo un número limitado de tipos de neuronas. Ya se
ha hecho un progreso significativo en la derivación de los mecanismos subyacentes a variedades
específicas de neuronas y conexiones sinápticas al estudiar estas células in vitro, así como in vivo
utilizando métodos como el escaneo de dos fotones.

Ya tenemos tecnología capaz de producir escaneos de muy alta resolución para ver la forma precisa de
cada conexión en un área particular del cerebro, si el escáner está físicamente cerca de las
características neuronales. Con respecto a los nanobots, ya hay cuatro conferencias importantes
dedicadas al desarrollo de dispositivos del tamaño de células sanguíneas con fines diagnósticos y
terapéuticos. Podemos proyectar el costo exponencialmente decreciente de la computación y el
tamaño rápidamente decreciente, así como la efectividad creciente de las tecnologías electrónicas y
mecánicas. Con base en estas proyecciones, podemos anticipar de forma conservadora la tecnología
nanobot necesaria para implementar este tipo de escenarios durante la actual década de 2020. Una vez
que el escaneo basado en nanobots se haga realidad, finalmente estaremos en la misma posición en la
que se encuentran hoy los diseñadores de circuitos, ya que podremos colocar sensores altamente
sensibles y de muy alta resolución, en forma de nanobots, en millones o incluso miles de millones. de
ubicaciones en el cerebro y, por lo tanto, presenciar con asombroso detalle los cerebros vivos en acción.
No obstante, hay que considerar los niveles de modelado y comprensión en el cerebro, desde la física
de las reacciones sinápticas hasta las transformaciones de la información por parte de los grupos
neuronales. En aquellas regiones del cerebro para las que hemos logrado desarrollar modelos
detallados, encontramos un fenómeno similar al que involucra a las células pancreáticas. Los modelos
son complejos pero siguen siendo más simples que las descripciones matemáticas de una sola célula o
incluso una sola sinapsis. Como indicamos anteriormente, estos modelos específicos de la región
también requieren una computación significativamente menor de lo que implica teóricamente la
capacidad computacional de todas las sinapsis y células. El neurólogo Gilles Laurent del Instituto de
Tecnología de California observa: «En la mayoría de los casos, el comportamiento colectivo de un sistema es
muy difícil de deducir a partir del conocimiento de sus componentes. La neurociencia es una ciencia de los
sistemas en los que los sistemas de primer orden y locales son necesarios los esquemas explicativos pero no
suficientes«.

La ingeniería inversa del cerebro procederá mediante el refinamiento iterativo de modelos y


simulaciones de arriba a abajo y de abajo a arriba, a medida que refinamos cada nivel de descripción y
modelado. Hasta hace muy poco, la neurociencia se caracterizaba por modelos demasiado simplistas
limitados por la tosquedad de nuestras herramientas de detección y exploración. Esto llevó a muchos
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 47/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

observadores a dudar de que nuestros procesos de pensamiento fueran inherentemente capaces de


comprenderse a sí mismos. El psiquiatra estadounidense Peter D. Kramer escribe: «Si la mente fuera lo
suficientemente simple para que la entendiéramos, seríamos demasiado simples para entenderla«. El éxito
reciente en el desarrollo de modelos altamente detallados en varios niveles, desde componentes
neuronales como las sinapsis hasta grandes regiones neuronales como el cerebelo, demuestra que
construir modelos matemáticos precisos de nuestros cerebros y luego simular estos modelos con
computación es una tarea desafiante pero viable, una vez que las capacidades de datos estén
disponibles. Aunque los modelos tienen una larga historia en la neurociencia, solo recientemente se
han vuelto lo suficientemente completos y detallados como para permitir que las simulaciones
basadas en ellos funcionen como experimentos cerebrales reales. En un discurso ante la reunión anual
de la Asociación Estadounidense de Psicología en 2002, el psicólogo y neurocientífico Joseph LeDoux de la
Universidad de Nueva York dijo: «Si quienes somos está determinado por lo que recordamos, y si la memoria es
una función del cerebro, entonces las sinapsis, las interfaces a través de las cuales las neuronas se comunican
entre sí y las estructuras físicas en las que se codifican los recuerdos, son las unidades fundamentales del Yo. Las
sinapsis ocupan un lugar bastante bajo en el tótem de cómo se organiza el cerebro, pero creo que son bastante
importantes. El Yo es la suma de los subsistemas individuales del cerebro, cada uno con su propia forma de
‘memoria’, junto con las complejas interacciones entre los subsistemas. Sin plasticidad sináptica, la capacidad de
las sinapsis para alterar la facilidad con la que transmiten señales de una neurona a otra, los cambios en esos
sistemas que se requieren para el aprendizaje serían imposibles«.

Aunque los primeros modelos trataban a la neurona como la unidad principal de transformación de la
información, las investigaciones se han vuelto hacia el énfasis en sus componentes subcelulares. De
hecho, una sinapsis cerebral real es mucho más compleja de lo que se describe en el modelo clásico de
redes neuronales de McCulloch-Pitts, una unidad de cálculo que intenta modelar el comportamiento
de una neurona «natural«, similares a las que constituyen del cerebro humano. La respuesta sináptica
está influenciada por una variedad de factores, incluida la acción de múltiples canales controlados por
una variedad de potenciales iónicos (voltajes) y múltiples neurotransmisores y neuromoduladores. Sin
embargo, se han hecho progresos considerables en los últimos años en el desarrollo de fórmulas
matemáticas que subyacen al comportamiento de las neuronas, las dendritas, las sinapsis y la
representación de la información en los trenes de picos, o pulsos de neuronas que han sido activadas.
Existen modelos bien fundamentados para la biofísica de los cuerpos neuronales, las sinapsis y la
acción de las redes neuronales de retroalimentación, como las que se encuentran en la retina y los
nervios ópticos, y muchas otras clases de neuronas. La atención a cómo funciona la sinapsis tiene sus
raíces en el trabajo pionero de la biopsicología Donald Hebb, que abordó la pregunta: ¿Cómo funciona
la memoria a corto plazo? La región del cerebro asociada con la memoria a corto plazo es la corteza
prefrontal, aunque ahora nos damos cuenta de que se han identificado diferentes formas de retención
de información a corto plazo en la mayoría de los otros circuitos neuronales que se han estudiado de
cerca. La mayor parte del trabajo de Hebb se centró en los cambios en el estado de las sinapsis para
fortalecer o inhibir las señales recibidas y en el circuito de reverberación más controvertido en el que
las neuronas disparan en un bucle continuo. Otra teoría propuesta por Hebb es un cambio en el estado
de una neurona misma, es decir, una función de memoria en el soma celular (cuerpo). La evidencia
experimental apoya la posibilidad de todos estos modelos. La memoria sináptica hebbiana clásica y la
memoria reverberatoria requieren un retraso de tiempo antes de que se pueda utilizar la información
registrada. Los experimentos in vivo muestran que en al menos algunas regiones del cerebro hay una
respuesta neuronal que es demasiado rápida para ser explicada por tales modelos de aprendizaje
estándar y, por lo tanto, solo podría lograrse mediante cambios en el soma inducidos por el
aprendizaje. Otra posibilidad no anticipada directamente por Hebb son los cambios en tiempo real en
las propias conexiones neuronales. Los resultados de escaneos recientes muestran un rápido
crecimiento de los picos de dendritas y nuevas sinapsis, por lo que debe considerarse como un
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 48/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

mecanismo importante. Los experimentos también han demostrado una rica variedad de
comportamientos de aprendizaje a nivel sináptico que van más allá de los simples modelos hebbianos.
Las sinapsis pueden cambiar su estado rápidamente, pero luego comienzan a decaer lentamente con la
estimulación continua, o en algunos casos por falta de estimulación, o muchas otras variaciones.

Aunque los modelos contemporáneos son mucho más complejos que los modelos de sinapsis simples
ideados por Hebb, sus intuiciones han demostrado ser correctas en gran medida. Además de la
plasticidad sináptica hebbiana, los modelos actuales incluyen procesos globales que proporcionan una
función reguladora. Por ejemplo, la escala sináptica evita que los potenciales sinápticos se vuelvan
cero, y, por lo tanto, no se puedan aumentar a través de enfoques multiplicativos, o se vuelvan
excesivamente altos y, por lo tanto, dominen una red. Experimentos in vitro han encontrado
escalamiento sináptico en redes cultivadas de neuronas neocorticales, del hipocampo y de la médula
espinal. Otros mecanismos son sensibles a la sincronización general de picos y la distribución de
potencial a través de muchas sinapsis. Las simulaciones han demostrado la capacidad de estos
mecanismos descubiertos recientemente para mejorar el aprendizaje y la estabilidad de la red. El
nuevo desarrollo más emocionante en nuestra comprensión de la sinapsis es que la topología de las
sinapsis y las conexiones que forman cambian continuamente. Nuestro primer vistazo a los rápidos
cambios en las conexiones sinápticas fue revelado por un innovador sistema de escaneo que requiere
un animal genéticamente modificado cuyas neuronas han sido diseñadas para emitir una luz verde
fluorescente. El sistema puede obtener imágenes del tejido neuronal vivo y tiene una resolución
suficientemente alta para capturar no solo las dendritas (conexiones interneuronales) sino también las
espinas: pequeñas proyecciones que brotan de las dendritas e inician posibles sinapsis.

El neurobiólogo Karel Svoboda y sus colegas del Laboratorio Cold Spring Harbor en Long Island
utilizaron el sistema de escaneo en ratones para investigar las redes de neuronas que analizan la
información de los bigotes, un estudio que proporcionó una mirada fascinante al aprendizaje
neuronal. A las dendritas les crecían continuamente nuevas espinas. La mayoría de estos duraron solo
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 49/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

uno o dos días, pero en ocasiones una columna permaneció estable. «Creemos que la alta rotación que
vemos podría desempeñar un papel importante en la plasticidad neuronal, en el sentido de que las espinas que
brotan se extienden para sondear diferentes socios presinápticos en las neuronas vecinas«, dijo Svoboda. «Si
una conexión determinada es favorable, es decir, reflejando un tipo deseable de recableado cerebral, entonces estas
sinapsis se estabilizan y se vuelven más permanentes. Pero la mayoría de estas sinapsis no van en la dirección
correcta y están retraídas«. Otro fenómeno consistente que se ha observado es que las respuestas
neuronales disminuyen con el tiempo, si se repite un estímulo en particular. Esta adaptación da mayor
prioridad a los nuevos patrones de estímulo. Un trabajo similar realizado por el neurobiólogo Wen-
Biao Gan de la Facultad de Medicina de la Universidad de Nueva York sobre espinas neuronales en la
corteza visual de ratones adultos muestra que este mecanismo de la columna vertebral puede contener
recuerdos a largo plazo: «Digamos que un niño de 10 años usa 1000 conexiones para almacenar una pieza de
información. Cuando tenga 80 años, una cuarta parte de las conexiones seguirán allí, sin importar cómo cambien
las cosas. Es por eso que aún puedes recordar tus experiencias de la infancia«. Wen-Biao Gan también explica:
«Nuestra idea era que en realidad no necesitas hacer muchas sinapsis nuevas y deshacerte de las viejas cuando
aprendes y memorizas. Solo necesitas modificar la fuerza de las sinapsis preexistentes para el aprendizaje y la
memoria a corto plazo. Sin embargo, es probable que se hagan o eliminen algunas sinapsis para lograr la
memoria a largo plazo«.

La razón por la que los recuerdos pueden permanecer intactos incluso si han desaparecido las tres
cuartas partes de las conexiones es que el método de codificación utilizado parece tener propiedades
similares a las de un holograma. En un holograma, la información se almacena en un patrón difuso a
lo largo de una región extensa. Si destruyes las tres cuartas partes del holograma, toda la imagen
permanece intacta, aunque con solo una cuarta parte de la resolución. La investigación de Pentti
Kanerva, neurocientífica del Instituto de Neurociencia Redwood, respalda la idea de que los recuerdos se
distribuyen dinámicamente en una región de neuronas. Esto explica por qué los recuerdos más
antiguos persisten pero, sin embargo, parecen «desvanecerse«, porque su resolución ha disminuido. Los
investigadores también están descubriendo que neuronas específicas realizan tareas de reconocimiento
especiales. Un experimento con pollos identificó neuronas del tallo cerebral que detectan retrasos
particulares cuando los sonidos llegan a los dos oídos. Diferentes neuronas responden a diferentes
cantidades de retraso. Aunque hay muchas irregularidades complejas en el funcionamiento de estas
neuronas y las redes de las que dependen, lo que realmente están logrando es fácil de describir y sería
simple de replicar. Según el neurocientífico Scott Makeig de la Universidad de California en San Diego,
«los resultados neurobiológicos recientes sugieren un papel importante de las entradas neuronales sincronizadas
con precisión en el aprendizaje y la memoria«. Un experimento reciente en el Instituto de Ciencias No
Lineales de la Universidad de California en San Diego demuestra el potencial de las neuronas electrónicas
para emular con precisión las biológicas. Las neuronas (biológicas o de otro tipo) son un excelente
ejemplo de lo que a menudo se denomina computación caótica. Cada neurona actúa de una manera
esencialmente impredecible. Cuando toda una red de neuronas recibe información del mundo exterior
o de otras redes de neuronas, la señalización entre ellas parece al principio ser frenética y aleatoria.
Con el tiempo, típicamente una fracción de segundo más o menos, la interacción caótica de las
neuronas se apaga y surge un patrón estable de activación. Este patrón representa la «decisión» de la
red neuronal. Si la red neuronal está realizando una tarea de reconocimiento de patrones, y tales tareas
constituyen la mayor parte de la actividad en el cerebro humano, el patrón emergente representa el
reconocimiento apropiado. .

Entonces, la pregunta que abordaron los investigadores de San Diego fue: ¿podrían las neuronas
electrónicas participar en esta danza caótica junto con las biológicas? Conectaron neuronas artificiales
con neuronas reales de langostas espinosas en una sola red, y su red híbrida biológica-no biológica
funcionó de la misma manera, es decir, una interacción caótica seguida de un patrón emergente
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 50/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

estable, y con el mismo tipo de resultados que una red biológica de neuronas. Esencialmente, las
neuronas biológicas aceptaron a sus pares electrónicos. Esto indica que el modelo matemático caótico
de estas neuronas era razonablemente preciso. La disposición detallada de las conexiones y sinapsis en
una región determinada es un producto directo de la extensión del uso de esa región. Como el escaneo
cerebral ha alcanzado una resolución lo suficientemente alta como para detectar el crecimiento de la
columna dendrítica y la formación de nuevas sinapsis, podemos ver que nuestro cerebro crece y se
adapta para seguir literalmente nuestros pensamientos. Esto da nuevos matices de significado a la
máxima de Descartes «Pienso, luego existo«. En un experimento realizado por el neurocientífico
estadounidense Michael Merzenich y sus colegas en la Universidad de California en San Francisco, la
comida de los monos se colocó en tal posición que los animales tenían que manipular con destreza un
dedo para obtenerla. Los escáneres cerebrales antes y después revelaron un crecimiento dramático en
las conexiones interneuronales y sinapsis en la región del cerebro responsable de controlar ese dedo.
Edward Taub de la Universidad de Alabama estudió la región de la corteza responsable de evaluar la
información táctil de los dedos. Al comparar a los no músicos con los intérpretes experimentados de
instrumentos de cuerda, no encontró ninguna diferencia en las regiones del cerebro dedicadas a los
dedos de la mano derecha, pero sí una gran diferencia en los dedos de la mano izquierda. Si
hiciéramos un dibujo de las manos basándonos en la cantidad de tejido cerebral dedicado a analizar el
tacto, los dedos de la mano izquierda de los músicos, que en el caso de instrumentos de cuerdas
normalmente se utilizan para controlar las cuerdas, serían enormes. Aunque la diferencia fue mayor
para aquellos músicos que comenzaron su formación musical con un instrumento de cuerda cuando
eran niños, «incluso si empiezas a tocar el violín a los 40«, comentó Taub, «todavía tienes una reorganización
cerebral«. Un hallazgo similar proviene de una evaluación de un programa de software, desarrollado
por Paula Tallal y Steve Miller en la Universidad de Rutgers, llamado Fast ForWord, que ayuda a los
estudiantes disléxicos. El programa lee texto a los niños, ralentizando los fonemas entrecortados
basados en la observación de que muchos estudiantes disléxicos no pueden percibir estos sonidos
cuando se hablan rápidamente. Se ha demostrado que leer con esta forma modificada del habla ayuda
a estos niños a aprender a leer. Utilizando la resonancia magnética funcional, John Gabrieli, de la
Universidad de Stanford, descubrió que la región prefrontal izquierda del cerebro, un área asociada con
el procesamiento del lenguaje, había crecido y mostraba una mayor actividad en los estudiantes
disléxicos que usaban el programa. Paula Tallal dice: «Tu creas tu cerebro a partir de la información que
recibes».

El Dr. Álvaro Pascual-Leone de la Universidad de Harvard escaneó los cerebros de voluntarios antes y
después de que practicaran un ejercicio sencillo de piano. La corteza cerebral motora de los
voluntarios cambió como resultado directo de su práctica. Luego hizo que un segundo grupo solo
pensara en hacer el ejercicio del piano pero sin mover ningún músculo. Sorprendentemente, esto
produjo un cambio igualmente pronunciado en la red de la corteza motora. Estudios recientes de
resonancia magnética funcional (fMRI) sobre el aprendizaje de relaciones visoespaciales, la capacidad
para representar, analizar y manipular objetos mentalmente, encontraron que las conexiones
interneuronales pueden cambiar rápidamente durante el transcurso de una sola sesión de aprendizaje.
Los investigadores encontraron cambios en las conexiones entre las células de la corteza parietal
posterior en lo que se llama la vía «dorsal«, que contiene información sobre la ubicación y las
propiedades espaciales de los estímulos visuales, y las células de la corteza temporal inferior posterior
en la vía «ventral«, que contiene reconocidas características invariantes de diferentes niveles de
abstracción. Significativamente, esa tasa de cambio fue directamente proporcional a la tasa de
aprendizaje. Investigadores de la Universidad de California en San Diego informaron una idea clave
sobre la diferencia en la formación de recuerdos a corto y largo plazo. Usando un método de escaneo
de alta resolución, los científicos pudieron ver cambios químicos dentro de las sinapsis en el
hipocampo, la región del cerebro asociada con la formación de recuerdos a largo plazo. Descubrieron
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 51/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

que cuando una célula se estimulaba por primera vez, la actina, un neuroquímico, se movía hacia las
neuronas a las que estaba conectada la sinapsis. Esto también estimuló la actina en las células vecinas
para alejarse de la célula activada. Sin embargo, estos cambios duraron solo unos minutos. Si los
estímulos se repetían lo suficiente, entonces se producía un cambio más significativo y permanente.
«Los cambios a corto plazo son solo parte de la forma normal en que las células nerviosas se comunican entre sí«,
dijo el investigador principal, Michael A. Colicos. Los cambios a largo plazo en las neuronas ocurren
solo después de que las neuronas se estimulan cuatro veces en el transcurso de una hora. La sinapsis
en realidad se dividirá y se formarán nuevas sinapsis, produciendo un cambio permanente que
presumiblemente durará por el resto de su vida. La analogía con la memoria humana es que cuando
ves o escuchas algo una vez, puede quedarse en tu mente durante unos minutos. Si no es importante,
se desvanece y lo olvidas 10 minutos después. Pero si lo vemos o lo escuchamos nuevamente y esto
continúa sucediendo durante la próxima hora, lo recordaremos por mucho más tiempo. Y las cosas
que se repiten muchas veces se pueden recordar durante toda la vida. Una vez que un axón forma dos
nuevas conexiones, esas conexiones son muy estables y no hay razón para creer que desaparecerán.
Ese es el tipo de cambio que uno imaginaría que duraría toda la vida.

«Es como una lección de piano«, dice el investigador y profesor de biología Yukiko Goda. «Si tocas una
partitura musical una y otra vez, se graba en tu memoria«. De manera similar, en un artículo en Science, los
neurocientíficos S. Lowel y W. Singer informan haber encontrado evidencia de una formación
dinámica rápida de nuevas conexiones interneuronales en la corteza visual, que describieron con la
frase de Donald Hebb «Lo que se dispara junto se conecta«. «Durante un tiempo hemos sabido bastante sobre
cómo funciona la memoria, pero no teníamos un concepto claro de cuál es el dispositivo de almacenamiento
clave«, dijo la investigadora y directora del Instituto Whitehead para la Investigación Biomédica, Susan
Lindquist. «El estudio efectuado sugiere cuál podría ser el dispositivo de almacenamiento, pero es una
sugerencia tan sorprendente descubrir que puede estar involucrada una actividad similar a la de los priones. Ello
indica que los priones no son solo bichos raros de la naturaleza, sino que podrían participar en procesos
fundamentales«. Los ingenieros también están descubriendo que los priones, una proteína mal plegada
capaz de transmitir su forma mal plegada a otras variedades de la misma proteína, son un medio
poderoso para construir memorias electrónicas. Los estudios de escaneo cerebral también están
revelando mecanismos para inhibir recuerdos innecesarios e indeseables. Usando resonancia magnética
funcional (fMRI), científicos de la Universidad de Stanford pidieron a los sujetos del estudio que
intentaran olvidar la información que habían memorizado anteriormente. Durante esta actividad, las
regiones de la corteza frontal que se han asociado con la represión de la memoria mostraron un alto
nivel de actividad, mientras que el hipocampo, la región normalmente asociada con el recuerdo,
estaba relativamente inactiva. Estos hallazgos «confirman la existencia de un proceso de olvido activo y
establecen un modelo neurobiológico para orientar la investigación sobre el olvido motivado«, escribieron el
profesor de psicología de la Universidad de Stanford John Gabrieli y sus colegas. Gabrieli también
comentó: «La gran noticia es que hemos demostrado cómo el cerebro humano bloquea un recuerdo no deseado,
que existe tal mecanismo y tiene una base biológica. Te hace superar la posibilidad de que no haya nada en el
cerebro que suprimiría un recuerdo, que todo era una ficción mal entendida«. Además de generar nuevas
conexiones entre las neuronas, el cerebro también crea nuevas neuronas a partir de células madre
neurales, que se replican para mantener una reserva de sí mismas. En el curso de la reproducción,
algunas de las células madre neurales se convierten en células «precursoras neurales«, que a su vez
maduran en dos tipos de células de apoyo llamadas astrocitos y oligodendrocitos, así como en neuronas.
Las células evolucionan aún más en tipos específicos de neuronas. Sin embargo, esta diferenciación no
puede tener lugar a menos que las células madre neurales se alejen de su fuente original en los
ventrículos del cerebro. Solo alrededor de la mitad de las células neuronales realizan con éxito el viaje,
que es similar al proceso durante la gestación y la primera infancia en el que solo sobrevive una parte
de las neuronas en desarrollo del cerebro temprano. Los científicos esperan evitar este proceso de
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 52/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

migración neuronal mediante la inyección de células madre neuronales directamente en las regiones
objetivo, así como crear medicamentos que promuevan este proceso de neurogénesis, o creación de
nuevas neuronas, para reparar el daño cerebral causado por una lesión o enfermedad.

Un experimento realizado por los investigadores en genética Fred Gage, G. Kempermann y Henriette
van Praag en el Instituto Salk de Estudios Biológicos mostró que la neurogénesis en realidad es
estimulada por nuestra experiencia. Mover ratones de una jaula estéril y poco interesante a una que
fuese estimulante duplicó aproximadamente el número de células en división en las regiones del
hipocampo. Lo más probable es que el cerebro humano esté compuesto, en su mayor parte, por un
gran número de sistemas distribuidos relativamente pequeños, ordenados por la embriología en una
sociedad compleja que está controlada en parte por sistemas simbólicos seriales que se agregan más
tarde. Pero los sistemas subsimbólicos que hacen la mayor parte del trabajo desde abajo deben, por su
propio carácter, impedir que todas las demás partes del cerebro sepan mucho sobre cómo funcionan. Y
esto, en sí mismo, podría ayudar a explicar cómo las personas hacen tantas cosas y tienen ideas tan
incompletas sobre cómo se hacen realmente esas cosas. Además de nuevos conocimientos sobre la
plasticidad de la organización de cada región del cerebro, los investigadores están creando
rápidamente modelos detallados de regiones particulares del cerebro. Estos modelos y simulaciones
neuromórficas están ligeramente rezagados respecto de la disponibilidad de la información en la que
se basan. El rápido éxito de convertir los datos detallados de los estudios de las neuronas y los datos
de interconexión del escaneo neuronal en modelos efectivos y simulaciones de trabajo desmiente el
escepticismo que a menudo se manifiesta sobre nuestra capacidad inherente de comprender nuestros
propios cerebros. Por lo general, no es necesario modelar la funcionalidad del cerebro humano sobre
una base de no linealidad por no linealidad y sinapsis por sinapsis. Las simulaciones de regiones que
almacenan recuerdos y habilidades en neuronas y conexiones individuales, como el cerebelo, hacen
uso de modelos celulares detallados. Sin embargo, incluso para estas regiones, las simulaciones
requieren muchos menos cálculos de lo que implican todos los componentes neuronales. Esto es cierto
para la simulación del cerebelo. Aunque hay una gran cantidad de complejidad detallada y no
linealidad en las partes subneuronales de cada neurona, así como un patrón de cableado semialeatorio
y caótico que subyace a los trillones de conexiones en el cerebro, se ha logrado un progreso
significativo en los últimos veinte años en las matemáticas de modelar tales sistemas adaptativos no
lineales. Por lo general, no es necesario conservar la forma exacta de cada dendrita y el perfil preciso
de cada conexión interneuronal. Podemos comprender los principios de funcionamiento de extensas
regiones del cerebro examinando su dinámica en el nivel de análisis apropiado. Ya se ha tenido un
éxito significativo en la creación de modelos y simulaciones de extensas regiones cerebrales. La
aplicación de pruebas a estas simulaciones y la comparación de los datos con los obtenidos de
experimentos psicofísicos en cerebros humanos reales han producido resultados impresionantes. Dada
la relativa tosquedad de nuestras herramientas de escaneo y detección hasta la fecha, el éxito en el
modelado demuestra la capacidad de extraer los conocimientos correctos de la gran cantidad de datos
que se recopilan.

Una pregunta que Kurzweil se plantea en su libro La era de las máquinas espirituales es: ¿cómo se las
arregla un niño de diez años para atrapar una pelota que le han lanzado? Todo lo que un niño puede
ver es la trayectoria de la pelota desde su posición. Para inferir realmente la trayectoria de la pelota en
el espacio tridimensional, sería necesario resolver difíciles ecuaciones diferenciales simultáneas. Se
necesitarían resolver ecuaciones adicionales para predecir el curso futuro de la pelota, y más
ecuaciones para traducir estos resultados en lo que se requiere de los propios movimientos del
jugador. ¿Cómo logra un niño todo esto en unos pocos segundos sin computadora y sin entrenamiento
en ecuaciones diferenciales? Claramente, no está resolviendo ecuaciones conscientemente, pero ¿cómo
resuelve el problema su cerebro? La verdad es que hemos avanzado considerablemente en la
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 53/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

comprensión de este proceso básico de formación de habilidades. Como se había planteado en la


hipótesis, el problema no se resuelve construyendo un modelo mental de movimiento tridimensional.
Más bien, el problema se resuelve traduciendo directamente los movimientos observados de la pelota
en el movimiento apropiado del jugador y los cambios en la configuración de sus brazos y piernas.
Alexandre Pouget de la Universidad de Rochester y Lawrence H. Snyder de la Universidad de Washington
han descrito «funciones básicas» matemáticas que pueden representar esta transformación directa del
movimiento percibido en el campo visual en movimientos requeridos de los músculos. Además, el
análisis de modelos desarrollados recientemente del funcionamiento del cerebelo demuestra que
nuestros circuitos neuronales del cerebelo son realmente capaces de aprender y luego aplicar las
funciones básicas necesarias para implementar estas transformaciones sensoriales motoras. Cuando
nos involucramos en el proceso de prueba y error de aprender a realizar una tarea sensorial motora,
como atrapar una pelota voladora, estamos entrenando los potenciales sinápticos de las sinapsis del
cerebelo para aprender las funciones básicas apropiadas. El cerebelo realiza dos tipos de
transformaciones con estas funciones básicas. Se trata de pasar de un resultado deseado a una acción y
pasar de un posible conjunto de acciones a un resultado anticipado. Tomaso Poggio ha señalado que la
idea de funciones básicas puede describir procesos de aprendizaje en el cerebro que van más allá del
control motor. La región cerebral gris y blanca, del tamaño de una pelota de béisbol y con forma de
frijol, llamada cerebelo, se encuentra en el tronco encefálico y comprende más de la mitad de las
neuronas del cerebro. Proporciona una amplia gama de funciones críticas, incluida la coordinación
sensorial motora, el equilibrio, el control de tareas de movimiento y la capacidad de anticipar los
resultados de las acciones, tanto las propias como las de otros objetos y personas. A pesar de su
diversidad de funciones y tareas, su organización sináptica y celular es extremadamente consistente,
involucrando solo varios tipos de neuronas. Parece haber un tipo específico de cálculo que realiza.

A pesar de la uniformidad del procesamiento de información del cerebelo, la amplia gama de sus
funciones puede entenderse en términos de la variedad de entradas que recibe de la corteza cerebral a
través de los núcleos del tronco encefálico y luego a través de las células de fibra musgosa del
cerebelo, y de otros, particularmente la región de la «oliva inferior» del cerebro a través de las células de
fibra trepadora del cerebelo. El cerebelo es responsable de nuestra comprensión del momento y la
secuencia de las entradas sensoriales, así como de controlar nuestros movimientos físicos. El cerebelo
es también un ejemplo de cómo la considerable capacidad del cerebro supera con creces a la
información proporcionada por su compacto genoma. La mayor parte del genoma dedicado al cerebro
describe la estructura detallada de cada tipo de célula neural, incluidas sus dendritas, espinas y
sinapsis, y cómo estas estructuras responden a la estimulación y el cambio. Relativamente poco código
genómico es responsable del «cableado» real. En el cerebelo, el método de cableado básico se repite
miles de millones de veces. Está claro que el genoma no proporciona información específica sobre cada
repetición de esta estructura del cerebelo, sino que especifica ciertas restricciones sobre cómo se repite
esta estructura, al igual que el genoma no especifica la ubicación exacta de las células en otros órganos.
Algunas de las salidas del cerebelo van a unas doscientas mil neuronas motoras alfa, que determinan
las señales finales para los aproximadamente seiscientos músculos del cuerpo. Las entradas a las
neuronas motoras alfa no especifican directamente los movimientos de cada uno de estos músculos,
pero están codificadas de una manera más compacta, que aún no se comprende bien. Las señales
finales a los músculos se determinan en los niveles más bajos del sistema nervioso, específicamente en
el tronco encefálico y la médula espinal. Curiosamente, esta organización se lleva al extremo en el
pulpo, cuyo sistema nervioso central aparentemente envía comandos de muy alto nivel a cada uno de
sus brazos, tales como «agarre ese objeto y acérquelo«, dejándolo en manos de un sistema nervioso
periférico independiente en cada brazo para llevar a cabo la misión. Se ha aprendido mucho en los
últimos años sobre el papel de los tres principales tipos de nervios del cerebelo. Las neuronas llamadas
«fibras trepadoras» parecen proporcionar señales para entrenar el cerebelo. La mayor parte de la salida
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 54/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

del cerebelo proviene de las llamadas grandes células de Purkinje, cada una de las cuales recibe
alrededor de doscientas mil entradas (sinapsis), en comparación con el promedio de alrededor de mil
para un neurona típica. Las entradas provienen en gran parte de las células granulares, que son las
neuronas más pequeñas, empaquetadas alrededor de seis millones por milímetro cuadrado.

Los estudios sobre el papel del cerebelo durante el aprendizaje de los movimientos de escritura a
mano por parte de los niños muestran que las células de Purkinje en realidad toman muestras de la
secuencia de movimientos, cada una de las cuales es sensible a una muestra específica. Obviamente, el
cerebelo requiere una guía perceptual continua de la corteza visual. Los investigadores pudieron
vincular la estructura de las células del cerebelo con la observación de que existe una relación inversa
entre la curvatura y la velocidad al escribir a mano, es decir, se puede escribir más rápido dibujando
líneas rectas en lugar de curvas detalladas para cada letra. Estudios celulares detallados y estudios en
animales nos han proporcionado impresionantes descripciones matemáticas de la fisiología y
organización de las sinapsis del cerebelo, así como de la codificación de la información en sus entradas
y salidas, y de las transformaciones realizadas. Recopilando datos de múltiples estudios, Javier F.
Medina, Michael D. Mauk y sus colegas de la Facultad de Medicina de la Universidad de Texas idearon
una simulación detallada de abajo hacia arriba del cerebelo. Presenta más de diez mil neuronas
simuladas y trescientas mil sinapsis, e incluye todos los tipos principales de células del cerebelo. Las
conexiones de las células y las sinapsis están determinadas por una computadora, que «conecta» la
región simulada del cerebelo siguiendo restricciones y reglas, similares al método estocástico, aleatorio
dentro de restricciones, utilizado para conectar el cerebro humano real a partir de su código genético.
No sería difícil expandir la simulación del cerebelo de la Universidad de Texas a un mayor número de
sinapsis y células. Los investigadores de Texas aplicaron un experimento de aprendizaje clásico a su
simulación y compararon los resultados con muchos experimentos similares sobre el
condicionamiento humano real. En los estudios en humanos, la tarea implicó asociar un tono auditivo
con una bocanada de aire aplicada al párpado, lo que hace que el párpado se cierre. Si el soplo de aire
y el tono se presentan juntos durante cien a doscientos intentos, el sujeto aprenderá la asociación y
cerrará el ojo del sujeto simplemente al escuchar el tono. Si luego se presenta el tono muchas veces sin
el soplo de aire, el sujeto finalmente aprende a disociar los dos estímulos para «extinguir» la respuesta,
por lo que el aprendizaje es bidireccional. Después de ajustar una variedad de parámetros, la
simulación proporcionó una coincidencia razonable con los resultados experimentales sobre el
condicionamiento del cerebelo humano y animal. Curiosamente, los investigadores descubrieron que
si creaban lesiones simuladas del cerebelo, eliminando porciones de la red simulada del cerebelo,
obtenían resultados similares a los obtenidos en experimentos con conejos que habían recibido
lesiones del cerebelo reales.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 55/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Debido a la uniformidad de esta gran región del cerebro y la relativa simplicidad de su cableado
interneuronal, sus transformaciones de entrada-salida se comprenden relativamente bien, en
comparación con las de otras regiones del cerebro. Aunque las ecuaciones relevantes aún requieren
refinamiento, esta simulación de abajo hacia arriba ha demostrado ser bastante impresionante.
Kurzweil cree que la forma de crear una inteligencia similar a la del cerebro es construir un sistema de
modelo preciso de trabajo en tiempo real, con suficiente detalle para expresar la esencia de cada
cálculo que se está realizando, y verificar su correcto funcionamiento contra las mediciones del sistema
real. Un ejemplo importante de modelado neuromórfico de una región del cerebro es la réplica integral
de una parte significativa del sistema de procesamiento auditivo humano desarrollado por Lloyd
Watts y sus colegas. El software de Watts es capaz de igualar las complejidades que han sido reveladas
en sutiles experimentos sobre la audición humana y la discriminación auditiva. Watts ha utilizado su
modelo como un preprocesador (parte frontal) en los sistemas de reconocimiento de voz y ha
demostrado su capacidad para seleccionar un hablante de los sonidos de fondo. Esta es una hazaña
impresionante de la que los humanos son capaces, pero hasta ahora no había sido factible en los
sistemas automatizados de reconocimiento de voz. Al igual que la audición humana, el modelo de
cóclea de Watts está dotado de sensibilidad espectral, en que oímos mejor a ciertas frecuencias en
respuestas temporales en que somos sensibles a la sincronización de los sonidos, lo que crea la
sensación de su ubicación espacial, en enmascaramiento, amplitud no lineal dependiente de la
frecuencia que permite la capacidad de escuchar sonidos fuertes y bajos, en el control de ganancia
(amplificación) y otras características sutiles. Los resultados que obtiene son directamente
comprobables por datos biológicos y psicofísicos. También hemos avanzado tanto en la comprensión
de la codificación de la información visual que se han desarrollado implantes de retina experimentales
e instalado quirúrgicamente en pacientes. Sin embargo, debido a la relativa complejidad del sistema
visual, nuestra comprensión del procesamiento de la información visual va a la zaga de nuestro
conocimiento de las regiones auditivas. Un pionero en la comprensión del procesamiento visual es
Tomaso Poggio del MIT, quien ha distinguido sus dos tareas como identificación y categorización. Ya
se han diseñado sistemas experimentales y comerciales que tienen un éxito razonable en la
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 56/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

identificación de rostros. Se utilizan como parte de los sistemas de seguridad para controlar el ingreso
de personal en determinados edificios y en los cajeros automáticos. En la categorización, se plantea la
capacidad de diferenciar, por ejemplo, entre una persona y un automóvil o entre un perro y un gato.
Es un asunto más complejo, aunque recientemente se han logrado avances.

Una extensa literatura apoya el uso de la «hipótesis y prueba» en tareas más complejas de
reconocimiento de patrones. La corteza hace una conjetura sobre lo que está viendo y luego determina
si las características de lo que realmente está en el campo de visión coinciden con su hipótesis. A
menudo nos enfocamos más en la hipótesis que en la prueba real, lo que explica por qué las personas a
menudo ven y escuchan lo que esperan percibir en lugar de lo que realmente está allí. «Hipótesis y
prueba» también es una estrategia útil en nuestros sistemas de reconocimiento de patrones basados en
computadora. Aunque tenemos la ilusión de recibir imágenes de alta resolución de nuestros ojos, lo
que el nervio óptico en realidad envía al cerebro son solo contornos y pistas sobre puntos de interés en
nuestro campo visual. Entonces esencialmente alucinamos el mundo a partir de recuerdos corticales
que interpretan una serie de películas de resolución extremadamente baja que llegan en canales
paralelos. En un estudio de 2001 publicado en la revista Nature, Frank S. Werblin, profesor de biología
molecular y celular en la Universidad de California en Berkeley, y el estudiante de doctorado Boton
Roska, MD, demostraron que el nervio óptico transporta de diez a doce canales de salida, cada uno de
los cuales solo lleva información mínima sobre una escena dada. Un grupo de lo que se llama células
ganglionares envía información solo sobre los bordes, así como cambios en el contraste. Otro grupo
detecta solo grandes áreas de color uniforme, mientras que un tercer grupo es sensible solo a los
fondos detrás de las figuras de interés. «Aunque creemos que vemos el mundo de manera tan completa, lo
que recibimos son solo pistas, bordes en el espacio y el tiempo«, dice Werblin. «Estas 12 imágenes del mundo
constituyen toda la información que tendremos sobre lo que hay ahí fuera, y a partir de estas 12 imágenes, que
son tan escasas, reconstruimos la riqueza del mundo visual. Tengo curiosidad por cómo la naturaleza seleccionó
estas 12 simples películas y cómo puede ser que sean suficientes para proporcionarnos toda la información que
parece que necesitamos». Tales hallazgos prometen ser un gran avance en el desarrollo de un sistema
artificial que podría reemplazar el ojo, la retina y el procesamiento temprano del nervio óptico.

El pionero en robótica Hans Moravec ha realizado ingeniería inversa en el procesamiento de imágenes


realizado por la retina y las primeras regiones de procesamiento visual en el cerebro. Durante más de
treinta años, Moravec ha estado construyendo sistemas para emular la capacidad de nuestro sistema
visual para construir representaciones del mundo. Solo recientemente ha estado disponible suficiente
potencia de procesamiento en los microprocesadores para replicar esta detección de características a
nivel humano, y Moravec está aplicando sus simulaciones por computadora a una nueva generación
de robots que pueden navegar entornos complejos no planificados con visión a nivel humano. Un tipo
especial de reconocimiento visual es la detección de movimiento, una de las áreas de enfoque del
Instituto de Biología Max Planck en Tubingen, Alemania. El modelo básico de investigación es simple:
compara la señal en un receptor con una señal retardada en el receptor adyacente. Este modelo
funciona para ciertas velocidades pero conduce al sorprendente resultado de que por encima de cierta
velocidad, los aumentos en la velocidad de un objeto observado disminuirán la respuesta de este
detector de movimiento. Los resultados experimentales en animales, basados en el comportamiento y
análisis de salidas neuronales, y humanos, basados en percepciones informadas, han coincidido
estrechamente con el modelo. El hipocampo es vital para aprender nueva información y almacenar
recuerdos a largo plazo. Ted Berger y sus colegas de la Universidad del Sur de California mapearon los
patrones de señal de esta región estimulando cortes de hipocampo de rata con señales eléctricas
millones de veces para determinar qué entrada producía la salida correspondiente. Luego
desarrollaron un modelo matemático en tiempo real de las transformaciones realizadas por las capas
del hipocampo y programaron el modelo en un chip. Su plan es probar el chip en animales, primero
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 57/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

deshabilitando la región del hipocampo correspondiente, notando la falla de memoria resultante y


luego determinando si esa función mental puede restaurarse instalando su chip de hipocampo en
lugar de la región deshabilitada. En última instancia, este enfoque podría usarse para reemplazar el
hipocampo en pacientes afectados por accidentes cerebro-vasculares, epilepsia o enfermedad de
Alzheimer. El chip estaría ubicado en el cráneo de un paciente, en lugar de dentro del cerebro, y se
comunicaría con el cerebro a través de dos conjuntos de electrodos, colocados a cada lado de la sección
dañada del hipocampo. Uno registraría la actividad eléctrica proveniente del resto del cerebro,
mientras que el otro enviaría las instrucciones necesarias al cerebro. Otra región del cerebro que se está
modelando y simulando es la región olivo-cerebelosa, responsable del equilibrio y la coordinación del
movimiento de las extremidades. El objetivo del grupo de investigación internacional involucrado en
este esfuerzo es aplicar su circuito olivo-cerebeloso artificial a robots militares, así como a robots que
puedan ayudar a discapacitados. Una de las razones por las que seleccionaron esta región cerebral en
particular fue que «está presente en todos los vertebrados y es muy similar desde el cerebro más simple hasta el
más complejo«, explica Rodolfo Llinas, uno de los investigadores y neurocientíficos de la Facultad de
Medicina de la Universidad de Nueva York. Ferdinando Mussa-Ivaldi, neurocientífico de la Universidad
Northwestern, comentó sobre las aplicaciones de un circuito olivo-cerebeloso artificial para
discapacitados: «Piense en un paciente paralizado. Es posible imaginar que muchas tareas ordinarias, como
obtener un vaso de agua, vestirse, desvestirse, trasladarse a una silla de ruedas podría ser realizado por asistentes
robóticos, brindando así más independencia al paciente«.

Debido a que se encuentra en la parte superior de la jerarquía neuronal, la parte del cerebro menos
comprendida es la corteza cerebral (o neocórtex). Esta región, que consta de seis capas delgadas en las
áreas más externas de los hemisferios cerebrales, contiene miles de millones de neuronas. La corteza es
responsable de la percepción, la planificación, la toma de decisiones y la mayor parte de lo que
consideramos pensamiento consciente. Nuestra habilidad para usar el lenguaje, otro atributo único de
nuestra especie, parece ubicarse en esta región. Una pista intrigante sobre el origen del lenguaje y un
cambio evolutivo clave que permitió la formación de esta habilidad distintiva es la observación de que
solo unos pocos primates, incluidos los humanos y los monos, pueden usar un espejo para dominar
las habilidades. La realización de gestos manuales requiere la capacidad de correlacionar mentalmente
la ejecución y la observación de los movimientos de la propia mano. Un concepto estrechamente
relacionado es que la capacidad de imitar los movimientos o, en el caso de los bebés humanos los
sonidos vocales, de los demás es fundamental para el desarrollo del lenguaje. La imitación requiere la
capacidad de descomponer una presentación observada en partes, cada una de las cuales se puede
dominar mediante un refinamiento recursivo e iterativo. De esta manera, podemos construir
estructuras elaboradas de oraciones y párrafos a partir de un conjunto limitado de palabras. Otra
característica clave del cerebro humano es la capacidad de hacer predicciones, incluidas predicciones
sobre los resultados de sus propias decisiones y acciones. Algunos científicos creen que la predicción
es la función principal de la corteza cerebral, aunque el cerebelo también juega un papel importante en
la predicción del movimiento. Curiosamente, somos capaces de predecir o anticipar nuestras propias
decisiones. El trabajo del profesor de fisiología Benjamin Libet de la Universidad de California en Davis
muestra que la actividad neuronal para iniciar una acción en realidad ocurre alrededor de un tercio de
segundo antes de que el cerebro haya tomado la decisión de realizar la acción. La implicación, según
Libet, es que la decisión es realmente una ilusión, que «la conciencia está fuera del circuito». El científico
cognitivo y filósofo Daniel Dennett describe el fenómeno de la siguiente manera: «La acción se precipita
originalmente en alguna parte del cerebro, y las señales vuelan a los músculos, deteniéndose en el camino para
decirle a usted, el agente consciente, lo que está pasando, pero como todos los buenos funcionarios dejando que
usted, el presidente torpe, mantenga la ilusión de que usted lo comenzó todo«.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 58/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Recientemente se llevó a cabo un experimento relacionado en el que los neurofisiólogos estimularon


electrónicamente puntos en el cerebro para inducir sentimientos emocionales particulares. Los sujetos
propusieron de inmediato una justificación para experimentar esas emociones. Se sabe desde hace
muchos años que en pacientes cuyos cerebros izquierdo y derecho ya no están conectados, un lado del
cerebro, generalmente el lado izquierdo más verbal, creará explicaciones elaboradas («confabulaciones«)
para las acciones iniciadas por el otro lado, como si el lado izquierdo fuera el agente de relaciones
públicas del lado derecho. La capacidad más compleja del cerebro humano es nuestra inteligencia
emocional. Sentada incómodamente en la parte superior de la jerarquía compleja e interconectada de
nuestro cerebro se encuentra nuestra capacidad para percibir y responder adecuadamente a la
emoción, para interactuar en situaciones sociales, para tener un sentido moral, para entender el chiste
y para responder emocionalmente al arte y la música, como en el último concierto de Joan Manel
Serrat, entre otras funciones de alto nivel. Obviamente, las funciones de nivel inferior de percepción y
análisis alimentan el procesamiento emocional de nuestro cerebro, pero estamos comenzando a
comprender las regiones del cerebro e incluso a modelar los tipos específicos de neuronas que manejan
tales problemas. Estos conocimientos recientes han sido el resultado de los intentos de comprender
cómo los cerebros humanos difieren de los de otros mamíferos. La respuesta es que las diferencias son
leves pero críticas y nos ayudan a discernir cómo el cerebro procesa las emociones y los sentimientos
relacionados. Una diferencia es que los humanos tienen una corteza más grande, lo que refleja nuestra
mayor capacidad para planificar, tomar decisiones y otras formas de pensamiento analítico. Otra
característica distintiva clave es que las situaciones cargadas de emociones parecen ser manejadas por
células especiales llamadas células fusiformes, que se encuentran solo en humanos y algunos grandes
simios. Estas células neuronales son grandes, con largos filamentos neuronales llamados dendritas
apicales que conectan señales extensas de muchas otras regiones del cerebro. Este tipo de
interconexión «profunda«, en la que ciertas neuronas proporcionan conexiones a través de numerosas
regiones, es una característica que ocurre cada vez más a medida que ascendemos en la escala
evolutiva. No es sorprendente que las células fusiformes, involucradas como están en el manejo de la
emoción y el juicio moral, tengan esta forma de interconexión profunda, dada la complejidad de
nuestras reacciones emocionales.

Sin embargo, lo sorprendente es la cantidad de células fusiformes que hay en esta diminuta región. Tan
solo unas 80.000 en el cerebro humano, en que unas 45.000 están en el hemisferio derecho y 35.000 en
el hemisferio izquierdo. Esta disparidad parece explicar la percepción de que la inteligencia emocional
es competencia del cerebro derecho, aunque la desproporción es modesta. Los gorilas tienen unas
16.000 de estas células, los bonobos unas 2.100 y los chimpancés unas 1.800, mientras que otros
mamíferos carecen de ellos por completo, por lo que se supone carecen de inteligencia emocional. El
Dr. Arthur Craig del Instituto Neurológico Barrow en Phoenix ha proporcionado recientemente una
descripción de la arquitectura de las células fusiformes. Las entradas del cuerpo, estimadas en cientos de
megabits por segundo, incluidos los nervios de la piel, los músculos, los órganos y otras áreas, fluyen
hacia la parte superior de la médula espinal. Estos llevan mensajes sobre el tacto, la temperatura, los
niveles de ácido, como, por ejemplo, el ácido láctico en los músculos, el movimiento de los alimentos a
través del tracto gastrointestinal y muchos otros tipos de información. Estos datos se procesan a través
del tronco encefálico y el mesencéfalo. Las células clave crean un mapa del cuerpo que representa su
estado actual, similar a las pantallas utilizadas por los controladores de vuelo para rastrear aviones.
Luego, la información fluye a través de una región del tamaño de una nuez llamada núcleo
ventromedial posterior (VMpo), que aparentemente calcula reacciones complejas a estados corporales
como «esto sabe terrible«, «qué hedor» o «ese toque ligero es estimulante«. La información cada vez más
sofisticada termina en dos regiones de la corteza llamadas ínsula. Estas estructuras, del tamaño de
pequeños dedos, están ubicadas en los lados izquierdo y derecho de la corteza. Craig describe el
VMpo y las dos regiones de la ínsula como «un sistema que representa el yo material«. Aunque aún no se
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 59/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

comprenden los mecanismos, estas regiones son fundamentales para la autoconciencia y las
emociones complicadas. También son mucho más pequeños en otros animales. Por ejemplo, el VMpo
es del tamaño de un grano de arena en los monos macacos e incluso más pequeño en los animales de
nivel inferior. Estos hallazgos son consistentes con un creciente consenso de que nuestras emociones
están estrechamente vinculadas a áreas del cerebro que contienen mapas del cuerpo, una opinión
promovida por el Dr. Antonio Damasio de la Universidad de Iowa. También son consistentes con la
opinión de que gran parte de nuestro pensamiento se dirige hacia nuestros cuerpos para protegerlos y
mejorarlos, así como también atender sus innumerables necesidades y deseos.

Muy recientemente se ha descubierto otro nivel de procesamiento de lo que comenzó como


información sensorial del cuerpo. Los datos de las dos regiones de la ínsula pasan a un área diminuta
en la parte delantera de la ínsula derecha llamada corteza frontoinsular. Esta es la región que contiene
las células fusiformes antes mencionadas, y las exploraciones de resonancia magnética funcional (fMRI)
han revelado que es particularmente activa cuando una persona se enfrenta a emociones de alto nivel
como el amor, la ira, la tristeza y el deseo sexual. Las situaciones que activan fuertemente las células
fusiformes incluyen cuando un sujeto mira a su pareja romántica o escucha llorar a su hijo. Los
antropólogos creen que las células fusiformes hicieron su primera aparición hace diez o quince millones
de años en un posible ancestro común aún no descubierto de los simios y los primeros homínidos, y
aumentaron rápidamente en número hace unos cien mil años, cuando aparece el Homo Sapiens.
Curiosamente, las células fusiformes no existen en humanos recién nacidos, sino que comienzan a
aparecer alrededor de los cuatro meses de edad y aumentan significativamente entre las edades de
uno a tres años. La capacidad de los niños para lidiar con problemas morales y percibir emociones de
alto nivel como el amor se desarrolla durante este mismo período de tiempo. Las células fusiformes
obtienen su poder de la profunda interconexión de sus largas dendritas apicales con muchas otras
regiones del cerebro. Las emociones de alto nivel que procesan las células fusiformes se ven afectadas,
por lo tanto, por todas nuestras regiones perceptivas y cognitivas. Será difícil, por lo tanto, aplicar
ingeniería inversa a los métodos exactos de las células fusiformes hasta que tengamos mejores modelos
de las muchas otras regiones a las que se conectan. Sin embargo, es notable cómo pocas neuronas
parecen estar involucradas exclusivamente con estas emociones. Tenemos cincuenta mil millones de
neuronas en el cerebelo que se ocupan de la formación de habilidades, miles de millones en la corteza
que realizan las transformaciones para la percepción y la planificación racional, pero solo unas ochenta
mil células fusiformes que se ocupan de las emociones de alto nivel. Es importante señalar que las células
fusiformes no están resolviendo problemas racionalmente, razón por la cual no tenemos un control
racional sobre nuestras respuestas a la música o sobre el enamoramiento. Sin embargo, el resto del
cerebro está muy ocupado tratando de dar sentido a nuestras misteriosas emociones de alto nivel.

Comprender los métodos del cerebro humano ayudará a diseñar máquinas similares inspiradas en la
biología. Otra aplicación importante será conectar nuestros cerebros con las computadoras, que ya está
sucediendo, pero que Kurzweil cree que se convertirá en una fusión cada vez más íntima en las
próximas décadas. La Agencia de Proyectos de Investigación Avanzada de Defensa estadounidense
(DARPA) ya está gastando $ 24 millones por año en la investigación de interfaces directas entre el
cerebro y las computadoras. Tomaso Poggio y James DiCarlo en el MIT, junto con Christof Koch en el
Instituto de Tecnología de California (Caltech), están intentando desarrollar modelos de reconocimiento
visual de objetos y cómo se codifica esta información. Estos podrían eventualmente usarse para
transmitir imágenes directamente a nuestros cerebros. Miguel Nicolelis y sus colegas de la Universidad
de Duke implantaron sensores en los cerebros de los monos, lo que permitió a los animales controlar un
robot solo con el pensamiento. El primer paso del experimento consistió en enseñar a los monos a
controlar un cursor en una pantalla con un joystick. Los científicos recopilaron un patrón de señales de
EEG (sensores cerebrales) y posteriormente hicieron que el cursor respondiera a los patrones
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 60/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

apropiados en lugar de a los movimientos físicos del joystick. Los monos aprendieron rápidamente
que el joystick ya no funcionaba y que podían controlar el cursor con solo pensar. Este sistema de
«detección de pensamientos» se conectó luego a un robot, y los monos pudieron aprender a controlar los
movimientos del robot solo con sus pensamientos. Al obtener retroalimentación visual sobre el
desempeño del robot, los monos pudieron perfeccionar su control mental sobre el robot. El objetivo de
esta investigación es proporcionar un sistema similar para humanos paralizados que les permita
controlar sus extremidades y su entorno. Un desafío clave en la conexión de implantes neurales a
neuronas biológicas es que las neuronas generan células gliales, que rodean un objeto «extraño» en un
intento de proteger el cerebro. Ted Berger y sus colegas están desarrollando recubrimientos especiales
que parecerán biológicos y, por lo tanto, atraerán en lugar de repeler a las neuronas cercanas. Otro
enfoque que persigue el Instituto Max Planck de Ciencias Cognitivas y Cerebrales Humanas en Munich es
la interfaz directa de nervios y dispositivos electrónicos. Un chip permite que las neuronas crezcan en
un sustrato especial que proporciona contacto directo entre los nervios y los sensores y estimuladores
electrónicos. Un trabajo similar en un «neurochip» en Caltech ha demostrado una comunicación
bidireccional no invasiva entre las neuronas y la electrónica.

Ya hemos aprendido cómo interconectar implantes neurales instalados quirúrgicamente. En los


implantes cocleares (del oído interno) se ha descubierto que el nervio auditivo se reorganiza para
interpretar correctamente la señal multicanal del implante. Un proceso similar parece tener lugar con
el implante de estimulación cerebral profunda que se utiliza para los pacientes de Parkinson. Las
neuronas biológicas cercanas a este implante cerebral aprobado por la Administración de Alimentos y
Medicamentos (FDA) estadounidense reciben señales del dispositivo electrónico y responden como si
hubieran recibido señales de las neuronas biológicas que alguna vez fueron funcionales. Las versiones
recientes del implante para la enfermedad de Parkinson ofrecen la posibilidad de descargar software
actualizado directamente al implante desde fuera del paciente. Algunos observadores han expresado
su preocupación de que, a medida que desarrollamos modelos, simulaciones y extensiones del cerebro
humano, corremos el riesgo de no comprender realmente con qué estamos jugando y los delicados
equilibrios involucrados. A medida que se acerca el poder computacional para emular el cerebro
humano, al que ya casi llegamos con las supercomputadoras, los esfuerzos para escanear y sentir el
cerebro humano y construir modelos de trabajo y simulaciones del mismo se están acelerando. Como
con cualquier otra proyección es fundamental comprender la naturaleza exponencial del progreso en
este campo. Las herramientas de escaneo y detección están duplicando su resolución espacial y
temporal general cada año. Los tiempos de ancho de banda de escaneo, precio-rendimiento y
reconstrucción de imágenes también están experimentando un crecimiento exponencial comparable.
Estas tendencias son válidas para todas las formas de escaneo completamente no invasivo, escaneo in
vivo con un cráneo expuesto y escaneo destructivo. Las bases de datos de información de escaneo
cerebral y construcción de modelos también se están duplicando en tamaño aproximadamente una
vez al año. Disponemos de herramientas matemáticas cada vez más potentes, implementadas en
programas informáticos eficaces, que son capaces de modelar con precisión este tipo de sistemas
complejos jerárquicos, adaptativos, semialeatorios, auto-organizados y altamente no lineales. Nuestro
éxito hasta la fecha en el modelado eficaz de varias regiones importantes del cerebro demuestra la
eficacia de este enfoque. Pero, ¿dónde está el límite?

Descargar artículo en PDF: De la ingeniería inversa del cerebro biológico al cerebro


(https://oldcivilizations.files.wordpress.com/2022/12/de-la-ingenieria-inversa-del-cerebro-biologico-
al-cerebro.pdf)

Fuentes

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 61/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

Ray Kurzweil – The Singularity Is Near – When Humans Transcend Biology


Ray Kurzweil – How to Create a Mind – The Secret of Human Thought Revealed
Michio Kaku – The Future of the Mind
Marvin Minsky – The Society of Mind
Hans Moravec – Aprendizaje Invisible
Hans Moravec – El hombre mecánico
John von Neumann, Ray Kurzweil – The Computer and the Brain
Mark F. Bear – Neurociencia – La Exploración del Cerebro
Roger Bartra – Antropología del Cerebro
Alexander Luria – El Cerebro en Acción
Stanislas Dehaene – La Conciencia en el Cerebro
Grazyna Gosar y Franz Bludorf – Inteligencia de red de computadoras
Juan A. Simon – El cuidado de su Cerebro
Paul MacLean – El Cerebro Triuno
Joseph LeDoux – El cerebro emocional
Dennis Rains – Principios de Neuropsicología Humana
Chopra Deepak y Tanzi Rudolph E – Super Cerebro
Andy Clark – Estar Ahí – Cerebro, Cuerpo y Mundo en la nueva Ciencia Cognitiva
Elcarte N. Maya y Rodrigo S. Rivero – Conocer el Cerebro
Simon Foster – El Poder de tu Cerebro
Mario Bunge – El Problema Mente – Cerebro
Sandra Aamodt y Sam Wang – Entra en tu Cerebro
Francisco J. Rubia – El Cerebro – avances recientes en Neurociencia
Javier Tirapu – Para qué sirve el Cerebro
Marta Eugenia Rodríguez – Todo sobre el Cerebro y la Mente
Jean Didier Vincent – Viaje extraordinario al centro del Cerebro
H. Pribram y J. M. Ramirez – Cerebro y Conciencia
Rodolfo Llinas – El Cerebro y el mito del Yo
Luis Álvarez Valcarcel – Cerebro, Mente y Conciencia
Maria Elena Torres – El Cerebro es holográfico y la realidad inexistente

diciembre 26, 2022 - Posted by oldcivilizations | Temas Generales

4 comentarios »

1. ¿Realmente crees todas las patrañas que proclaman estos «iluminados» que con la «robotizacion»
humana todas las dolencias de la humanidad se resolverían, no mas hambre ni enfermedades? no
es mas que discurso político barato y vulgar, te pongo un ejemplo: «el hambre en el mundo»
¿realmente piensas que eso no podrían resolverlo ya mismo si quisieran?
Si te están mintiendo en algo tan obvio como esto automáticamente emerge la pregunta ¿realmente
buscan el bienestar de la humanidad? la respuesta es un rotundo NO.

Comentarios por Moises Vidas | diciembre 31, 2022 | Responder

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 62/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog

El tema no es si lo creemos o no, sino tener en cuenta todas las investigaciones que están yendo
en esta dirección. Yo no creo que lo que busquen sea el bienestar de la humanidad, tal como
pregonan, sino un mayor control sobre todos nosotros y llevarnos hacia lo que llaman
transhumanismo. Pero lo que es un hecho es que se estan produciendo estos avances
tecnológicos a una velocidad cada vez mayor.

Comentarios por oldcivilizations | enero 1, 2023 | Responder


2. Hola, me gustaría mucho saber quién era Lucifer, ¿contra quién se rebeló? Por favor, ¿alguien me
podría informar? Muchas gracias. Un saludo

Comentarios por Esther | marzo 13, 2023 | Responder

3. Hola, me gustaría saber quiér era Lucifer y contra quién se rebeló. Y quién era el Arcángel San
Miguel. Gracias. Un saludo.

Comentarios por Esther | marzo 13, 2023 | Responder

Bienvenido a este blog

«Lo que sabemos es una gota de agua; lo que ignoramos es el océano» (Isaac Newton). La idea es ir
introduciendo temas que representan un enigma todavía no desentrañado. Con tu ayuda esperamos
irlo mejorando. Y en este blog tenemos pensado abarcar temas relacionados con antiguas
civilizaciones, enigmas de la prehistoria, temas de interés, etc… Leer más

En Twitter puedes encontrarme por #Oldcivilizations

Índice de artículos: Artículos en este blog

Haz un clic en alguna de estas imágenes para acceder a alguna de mis novelas (en Amazon – Kindle
books) o a mis otros blogs.

Site info

Oldcivilizations's Blog
Crea un blog o un sitio web gratuitos con WordPress.com.

https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 63/63

También podría gustarte