Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Oldcivilizations's Blog
i
2 Votes
Al comienzo del siglo XXI, la humanidad se encuentra al borde del período más transformador y
emocionante de su historia, por si no fueran suficientes los cambios habidos en las últimas décadas.
Será una era en la que la naturaleza misma de lo que significa ser humano se verá tanto enriquecida
como desafiada, a medida que nuestra especie rompa las cadenas de
su legado genético y alcance alturas inconcebibles de inteligencia,
progreso material y longevidad. Esto puede ser positivo en distintos
ámbitos, pero también presenta grandes peligros y riesgos. De todos
modos en este artículo me centraré en los aspectos supuestamente
positivos. Durante más de tres décadas, el inventor estadounidense,
además de músico, empresario, escritor y científico especializado en
Ciencias de la Computación e Inteligencia Artificial, siendo además,
desde 2012, director de Ingeniería en Google, Ray Kurzweil, ha sido uno de los defensores más
respetados y provocadores del papel de la tecnología en nuestro futuro y, por lo tanto, en el
transhumanismo, del que ya he hablado en los últimos tres artículos titulados «Las extrañas vinculaciones
del esoterismo con nuestro devenir histórico (https://oldcivilizations.wordpress.com/2022/12/06/las-extranas-
vinculaciones-del-esoterismo-con-nuestro-devenir-historico-3-3/#more-12762)«. En su libro La era de la
máquina espiritual, Kurzweil presentó el audaz argumento de que con el ritmo cada vez más acelerado
del cambio tecnológico, las computadoras rivalizarían con la inteligencia humana. Posteriormente, en
su libro La singularidad está cerca examina el próximo paso en este inexorable proceso evolutivo. Se
trata de la unión de humanos y máquinas, en la que el conocimiento y las habilidades integrados en
nuestros cerebros se combinarán con la capacidad, la velocidad y el conocimiento mucho mayores de
las computadoras, compartiendo la capacidad de nuestras propias creaciones. Según Kurzweil, la
fusión es la esencia de lo que él llama Singularidad, una era en la que nuestra inteligencia se volverá
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 1/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
cada vez más no biológica y billones de veces más poderosa de lo que es hoy. Para ello es fundamental
el conocimiento del cerebro humano mediante la ingeniería inversa. Ello, según los transhumanistas,
significaré el amanecer de una nueva civilización que nos permitirá trascender las limitaciones
biológicas y amplificar nuestra creatividad. En este nuevo mundo, no habrá una distinción clara entre
humanos y máquinas, realidad física y realidad virtual. Podremos asumir diferentes cuerpos y asumir
una variedad de personajes a voluntad. En términos prácticos, el envejecimiento humano y la
enfermedad se revertirán; se detendrá la contaminación; se resolverá el hambre y la pobreza en el
mundo. La nanotecnología hará posible crear prácticamente cualquier producto físico utilizando
procesos de información económicos y, en última instancia, convertirá incluso la muerte en un
problema soluble.
Si bien las ramificaciones sociales y filosóficas de estos cambios serán profundas y las amenazas que
plantean serán considerables, Kurzweil mantiene una visión radicalmente optimista del curso futuro
del desarrollo humano. Como tal, ofrece una visión de la era venidera que es, a la vez, una
culminación de los siglos de ingenio tecnológico y una visión genuinamente inspiradora de nuestro
destino final. ¿Qué se considera, entonces, la Singularidad? Según Kurzweil es un período futuro
durante el cual el ritmo del cambio tecnológico será tan rápido, su impacto tan profundo, que la vida
humana se transformará irreversiblemente. Esta época transformará los conceptos en los que nos
basamos para dar sentido a nuestras vidas, desde nuestros modelos de negocio hasta el ciclo de la vida
humana, pasando por la muerte misma. Comprender la Singularidad alterará nuestra perspectiva sobre
el significado de nuestro pasado y las ramificaciones para nuestro futuro. Comprenderlo
verdaderamente cambia inherentemente la visión de la vida en general y la propia vida en particular.
Kurzweil ve implicaciones obvias en lo que ha llamado la ley de los rendimientos acelerados, que
significa la aceleración inherente de la tasa de evolución, con la evolución tecnológica como
continuación de la evolución biológica. La idea clave que subyace en la Singularidad inminente es que
el ritmo de cambio de nuestra tecnología creada por los propios seres humanos se está acelerando y
sus poderes se están expandiendo a un ritmo exponencial. El crecimiento exponencial es engañoso, ya
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 2/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
que comienza casi imperceptiblemente y luego estalla con una furia inesperada si uno no tiene
cuidado de seguir su trayectoria. Consideremos al campeón mundial de ajedrez, Gary Kasparov, quien
despreció el patético estado del ajedrez computarizado en 1992. Sin embargo, la implacable
duplicación del poder de la computadora cada año permitió que una computadora lo derrotara solo
cinco años después. La lista de formas en que las computadoras ahora pueden superar las capacidades
humanas está creciendo rápidamente. Además, las aplicaciones de la inteligencia artificial informática,
que alguna vez fueron restringidas, se están ampliando gradualmente en un tipo de actividad tras
otra. Por ejemplo, las computadoras están diagnosticando electrocardiogramas e imágenes médicas,
volando y aterrizando aviones, controlando las decisiones tácticas de las armas automatizadas,
tomando decisiones crediticias y financieras, y asumiendo la responsabilidad de muchas otras tareas
que solían requerir inteligencia humana. El rendimiento de estos sistemas se basa cada vez más en la
integración de múltiples tipos de inteligencia artificial (IA). Pero mientras exista una deficiencia de la
IA en cualquier área, los escépticos señalarán esa área como un bastión inherente de la superioridad
humana permanente sobre las capacidades de nuestras propias creaciones.
Sin embargo, Kurzweil cree que, dentro de pocas décadas, las tecnologías basadas en la información
abarcarán todo el conocimiento y la competencia humanos, y en última instancia incluirán los poderes
de reconocimiento de patrones, propios del funcionamiento del cerebros, así como las habilidades para
resolver problemas y la inteligencia emocional y moral del propio cerebro humano. Aunque
impresionante en muchos aspectos, el cerebro humano sufre de severas limitaciones. Usamos su
paralelismo masivo, que implica unos cien billones de conexiones interneuronales operando
simultáneamente, para reconocer rápidamente patrones sutiles. Pero nuestro pensamiento es
extremadamente lento, ya que las transacciones neuronales básicas son varios millones de veces más
lentas que los circuitos electrónicos contemporáneos. Eso hace que nuestro ancho de banda fisiológico
para procesar nueva información sea extremadamente limitado en comparación con el crecimiento
exponencial de la base de conocimiento humano en general. Nuestros cuerpos biológicos actuales
también son frágiles y están sujetos a una miríada de modos de falla, sin mencionar los engorrosos
procesos de mantenimiento que requieren. Si bien la inteligencia humana a veces es capaz de elevarse
en su creatividad y expresividad, gran parte del pensamiento humano es derivado del de otros. Según
Kurzweil y otros científicos la Singularidad nos permitirá trascender estas limitaciones de nuestros
cuerpos y cerebros biológicos, con lo que. ganaremos poder sobre nuestros destinos. Nuestra
mortalidad estará en nuestras propias manos. Podremos vivir todo el tiempo que queramos, que es
una declaración sutilmente diferente de decir que viviremos para siempre. Comprenderemos
completamente el pensamiento humano y extenderemos y expandiremos enormemente su alcance. A
finales del siglo XXI, la parte no biológica de nuestra inteligencia será billones de billones de veces
más poderosa que la inteligencia humana sin ayuda. Ahora estamos en las primeras etapas de esta
transición. La aceleración del cambio de paradigma, o la velocidad a la que cambiamos los enfoques
técnicos fundamentales, así como el crecimiento exponencial de la capacidad de la tecnología de la
información, hace perceptible que se esté comenzando a alcanzar la etapa en la que se produce una
tendencia exponencial. Poco después de esta etapa, la tendencia se volverá rápidamente explosiva.
Antes de mediados de este siglo XXI, las tasas de crecimiento de nuestra tecnología serán tan
pronunciadas que parecerán esencialmente verticales. Desde una perspectiva estrictamente
matemática, las tasas de crecimiento seguirán siendo finitas pero tan extremas que los cambios que
produzcan parecerán romper el tejido de la historia humana. Esa, al menos, será la perspectiva de la
humanidad biológica que no sea mejorada.
máquina o entre realidad física y virtual. Si nos preguntamos qué permanecerá inequívocamente
humano en un mundo así, es simplemente que nuestra especie buscará extender su alcance físico y
mental más allá de las limitaciones actuales. Muchos opinan que estos cambios se centran en lo que
perciben como una pérdida de algún aspecto vital de nuestra humanidad que resultará de esta
transición. Todas las máquinas que hemos conocido hasta la fecha carecen de la sutileza esencial de las
cualidades biológicas humanas. Aunque la Singularidad tiene muchas caras, su implicación más
importante es que nuestra tecnología igualará y luego superará ampliamente el refinamiento y la
flexibilidad de lo que consideramos como el mejor de los rasgos humanos, en lo que sería la cumbre
del transhumanismo. En la década de 1950, el matemático húngaro-estadounidense que realizó
contribuciones fundamentales en física cuántica, análisis funcional, teoría de conjuntos, teoría de
juegos, ciencias de la computación, economía, análisis numérico, cibernética, hidrodinámica,
estadística y muchos otros campos, John von Neumann, fue citado diciendo que «el progreso cada vez
más acelerado de la tecnología da la apariencia de acercarse a una singularidad esencial en la historia de la raza
más allá de la cual los asuntos humanos, como sabemos, no podrían continuar«. Von Neumann hace dos
observaciones importantes aquí: aceleración y singularidad. La primera idea es que el progreso
humano es exponencial, es decir, se expande al multiplicar repetidamente por una constante, en lugar
de lineal, en quje se expande al sumar repetidamente una constante. La segunda es que el crecimiento
exponencial comienza lentamente y casi imperceptiblemente, pero pronto se vuelve explosivo y
profundamente transformador. El futuro es ampliamente malinterpretado, ya que nuestros
antepasados esperaban que fuera más o menos como su presente, que había sido más o menos como
su pasado. Las tendencias exponenciales ya existían hace mil años, pero se encontraban en una etapa
muy temprana en la que eran tan planas y lentas que parecían no tener ninguna tendencia. Como
resultado, se cumplió la expectativa de los observadores de un futuro sin cambios. Hoy, anticipamos el
progreso tecnológico continuo y las repercusiones sociales que le siguen. Pero el futuro será mucho
más sorprendente de lo que la mayoría de la gente cree, porque pocos observadores han internalizado
realmente las implicaciones del hecho de que la tasa de cambio en sí se está acelerando.
La mayoría de los pronósticos a largo plazo de lo que es técnicamente factible en períodos de tiempo
futuros subestiman dramáticamente el poder de los desarrollos futuros porque se basan en una visión
«lineal intuitiva» de la historia en lugar de la visión «exponencial histórica«. Los modelos que maneja Ray
Kurzweil muestran que estamos duplicando la tasa de cambio de paradigma cada década. Así, el siglo
XX fue acelerando gradualmente hasta alcanzar el ritmo de progreso actual. Para expresarlo de otra
manera, no viviremos cien años de avance tecnológico en el siglo XXI, sino que seremos testigos del
orden equivalente a veinte mil años de progreso o aproximadamente unas mil veces mayor que lo que
se logró en el siglo XX. Las percepciones erróneas sobre la forma del futuro surgen con frecuencia y en
una variedad de contextos. Como un ejemplo de muchos, Kurzweil nos explica que en un debate
reciente en el que participó sobre la viabilidad de la fabricación molecular, un ganador del Premio
Nobel descartó las preocupaciones de seguridad con respecto a la nanotecnología y proclamó que «no
vamos a ver entidades de nanoingeniería autorreplicantes [dispositivos construidos fragmento molecular por
fragmento] durante cien años«. Kurzweil señaló que cien años era una estimación razonable y en
realidad coincidía con su propia evaluación de la cantidad de progreso técnico requerido para lograr
este hito en particular cuando se mide a la tasa de progreso actual, que es cinco veces la tasa de cambio
promedio que vimos en el siglo XX. Pero debido a que estamos duplicando la tasa de progreso cada
década, veremos el equivalente a un siglo de progreso, al ritmo actual, en solo veinticinco años. De
manera similar, en la conferencia Future of Life de la revista Time, celebrada en 2003 para conmemorar
el quincuagésimo aniversario del descubrimiento de la estructura del ADN, se preguntó a todos los
oradores invitados cómo pensaban que serían los próximos cincuenta años. Prácticamente todos los
presentadores observaron el progreso de los últimos cincuenta años y lo usaron como modelo para los
próximos cincuenta años. Por ejemplo, James Watson, el codescubridor del ADN, dijo que en
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 4/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
cincuenta años tendremos medicamentos que nos permitirán comer todo lo que queramos sin
engordar. Kurzweil le respondió: «¿Cincuenta años?» Ya hemos logrado esto en ratones al bloquear el gen del
receptor de insulina grasa que controla el almacenamiento de grasa en las células grasas. Los medicamentos para
uso humano (usando ARN de interferencia y otras técnicas) están en desarrollo ahora y estarán en las pruebas de
la FDA en varios años. Estos estarán disponibles en cinco a diez años, no cincuenta«. Otras proyecciones
fueron igualmente miopes, reflejando las prioridades de la investigación contemporáneas en lugar de
los profundos cambios que traerá el próximo medio siglo. De todos los pensadores en esta conferencia,
fueron principalmente el pionero del desarrollo de software estadounidense, que en 1982 cofundó Sun
Microsystems, Bill Joy, y Ray Kurzweil quienes tomaron en cuenta la naturaleza exponencial del futuro.
Pensemos en los bioquímicos que, en 1990, se mostraron escépticos ante el objetivo de transcribir el
genoma humano completo en apenas quince años. Estos científicos acababan de pasar un año entero
transcribiendo apenas una diezmilésima parte del genoma. Entonces, incluso con avances anticipados
razonables, les parecía natural que tomaría un siglo, si no más, antes de que se pudiera secuenciar el
genoma completo. O consideremos el escepticismo expresado a mediados de la década de 1980 de que
Internet alguna vez sería un fenómeno significativo, dado que entonces incluía solo decenas de miles
de nodos, también conocidos como servidores. De hecho, el número de nodos se duplicaba cada año,
por lo que probablemente habría decenas de millones de nodos diez años después. Pero esta tendencia
no fue apreciada por quienes lucharon con la tecnología de punta en 1985, lo que permitió agregar solo
unos pocos miles de nodos en todo el mundo en un solo año. El error conceptual inverso ocurre
cuando ciertos fenómenos exponenciales se reconocen por primera vez y se aplican de manera
demasiado agresiva sin modelar el ritmo de crecimiento adecuado. Si bien el crecimiento exponencial
gana velocidad con el tiempo, no es instantáneo. La adopción real de Internet y el comercio electrónico
mostró un crecimiento exponencial suave durante su auge y su caída temporal, pero la expectativa
demasiado entusiasta de crecimiento afectó solo las valoraciones de capital (acciones). Hemos visto
errores comparables durante cambios de paradigma anteriores, por ejemplo, durante la era ferroviaria
temprana, en la década de 1830, cuando se produjo un frenesí de expansión ferroviaria. Otro error que
cometen los pronosticadores es considerar las transformaciones que resultarán de una sola tendencia
en el mundo de hoy como si nada más fuera a cambiar. Un buen ejemplo es la preocupación de que la
extensión radical de la vida resulte en superpoblación y el agotamiento de los recursos materiales
limitados para sostener la vida humana, lo que ignora la creación de riqueza comparablemente radical
a partir de la nanotecnología y la IA fuerte. Por ejemplo, los dispositivos de fabricación basados en
nanotecnología serán capaces antes de final de la década actual (de 2020) de crear casi cualquier
producto físico, incluyendo alimentos, a partir de información y materias primas económicas.
Kurzweil hace hincapié en la perspectiva exponencial versus lineal porque es el fracaso más
importante que cometen los pronosticadores al considerar las tendencias futuras. La mayoría de los
pronósticos y pronosticadores tecnológicos ignoran por completo esta visión histórica exponencial del
progreso tecnológico. De hecho, casi todas las personas con las que Kurzweil se ha encontrado tienen
una visión lineal del futuro. Es por eso que la gente tiende a sobrestimar lo que se puede lograr a corto
plazo, porque tendemos a dejar de lado los detalles necesarios, pero subestima lo que se puede lograr
a medio y largo plazo, porque se ignora el crecimiento exponencial. La evolución es un proceso de
creación de patrones de orden creciente. Kurzweil considera que es la evolución de los patrones lo que
constituye la última historia de nuestro mundo. La evolución funciona indirectamente, en que cada
etapa o época utiliza los métodos de procesamiento de información de la época anterior para crear la
siguiente. Kurzweil conceptualiza la historia de la evolución, tanto biológica como tecnológica, como
si ocurriera en seis épocas. Kurzweil cree que la Singularidad comenzará en la Quinta Época y se
extenderá desde la Tierra al resto del universo en la Sexta Época. La Primera Época: se basa en la Física
y la Química. Podemos rastrear nuestros orígenes hasta un estado que representa la información en
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 5/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
sus estructuras básicas: patrones de materia y energía. Las teorías recientes de la gravedad cuántica
sostienen que el tiempo y el espacio se dividen en cuantos discretos, esencialmente fragmentos de
información. Existe controversia sobre si la materia y la energía son, en última instancia, de naturaleza
digital o analógica, pero independientemente de la resolución de este problema, sabemos que las
estructuras atómicas almacenan y representan información discreta. Unos cientos de miles de años
después del Big Bang, se considera que los átomos comenzaron a formarse, ya que los electrones
quedaron atrapados en órbitas alrededor de núcleos formados por protones y neutrones. La estructura
eléctrica de los átomos los hizo «pegajosos«. La Química nació unos millones de años después cuando
los átomos se unieron para crear estructuras relativamente estables llamadas moléculas. De todos los
elementos, el carbono demostró ser el más versátil, ya que es capaz de formar enlaces en cuatro
direcciones, en lugar de una a tres para la mayoría de los otros elementos, lo que da lugar a estructuras
tridimensionales complicadas y ricas en información.
Las reglas de nuestro universo y el equilibrio de las constantes físicas que gobiernan la interacción de
las fuerzas básicas son tan exquisita, delicada y exactamente apropiadas para la codificación y
evolución de la información, lo que resulta en una complejidad creciente, que uno se pregunta cómo
una situación tan extraordinariamente improbable pudo producirse. Donde algunos ven una mano
divina, otros ven nuestras propias manos, a saber, el principio antrópico, que sostiene que solo en un
universo que permitiera nuestra propia evolución estaríamos aquí para hacer tales preguntas. Teorías
recientes de la física sobre múltiples universos especulan que nuevos universos se crean regularmente,
cada uno con sus propias reglas únicas, pero que la mayoría de estos se extinguen rápidamente o
continúan sin la evolución de ningún patrón interesante, como la Tierra, en que se ha creado una
determinada biología, porque sus reglas no soportan la evolución de formas cada vez más complejas.
Es difícil imaginar cómo podríamos probar estas teorías de la evolución aplicadas a la cosmología
primitiva, pero está claro que las leyes físicas de nuestro universo son precisamente lo que deben ser
para permitir la evolución de niveles crecientes de orden y complejidad. La Segunda Época se
distingue por la Biología y el ADN. En la segunda época, que comenzó hace varios miles de millones
de años, los compuestos a base de carbono se volvieron cada vez más complejos hasta que agregados
complejos de moléculas formaron mecanismos autorreplicantes y se originó la vida. En última
instancia, los sistemas biológicos desarrollaron un mecanismo digital preciso (ADN) para almacenar
información que describe una sociedad más grande de moléculas. Aunque en mi opinión, que coincide
con la de bastantes científicos, el código ADN es demasiado complejo como para haberse generado al
azar (ver mi artículo Evolucionismo o Creacionismo, ¿dónde está la verdad?
(https://oldcivilizations.wordpress.com/2010/11/13/creacionismo-o-evolucionismo/#more-85)) Esta
molécula y su maquinaria de apoyo de codones y ribosomas permitieron llevar un registro de los
experimentos evolutivos de esta segunda época. La Tercera Época se centra en los Cerebros. Cada
época continúa la evolución de la información a través de un cambio de paradigma a un nivel más
alto, es decir, la evolución usa los resultados de una época para crear la siguiente. Por ejemplo, en la
tercera época, la evolución guiada por el ADN produjo organismos que podían detectar información
con sus propios órganos sensoriales y procesar y almacenar esa información en sus propios cerebros. y
sistemas nerviosos. Estos fueron posibles gracias a mecanismos de la segunda época, como el ADN e
información epigenética de proteínas y fragmentos de ARN que controlan la expresión génica, que
indirectamente habilitaron y definieron mecanismos de procesamiento de información de la tercera
época, tales como el cerebro y el sistema nervioso de los organismos. La tercera época comenzó con la
capacidad de los primeros animales para reconocer patrones, lo que aún representa la gran mayoría de
la actividad de nuestro cerebro. En última instancia, nuestra propia especie desarrolló la capacidad de
crear modelos mentales abstractos del mundo que experimentamos y contemplar las implicaciones
racionales de estos modelos. Tenemos la capacidad de rediseñar el mundo en nuestras propias mentes
y poner estas ideas en acción.
É
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 6/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
La Quinta Época se centra en la fusión de la tecnología humana con la inteligencia humana. En unas
cuantas décadas la Singularidad comenzará con la quinta época. Será el resultado de la fusión del vasto
conocimiento incrustado en nuestros propios cerebros con la capacidad, la velocidad y la capacidad de
compartir conocimientos mucho mayores de nuestra tecnología. La quinta época permitirá que
nuestra civilización humano-máquina trascienda las limitaciones del cerebro humano de apenas cien
billones de conexiones extremadamente lentas. La Singularidad nos permitirá superar antiguos
problemas humanos y amplificar enormemente la creatividad humana. Conservaremos y mejoraremos
la inteligencia que la evolución nos ha otorgado, mientras superamos las profundas limitaciones de la
evolución biológica. Pero la Singularidad también amplificará la capacidad de actuar sobre nuestras
inclinaciones destructivas, por lo que aún no se ha escrito su historia completa. La Sexta Época es
descrita por Kurzweil como el Universo Despierta. Como consecuencia de la Singularidad, la
inteligencia, derivada de sus orígenes biológicos en el cerebro humano y sus orígenes tecnológicos en
el ingenio humano, comenzará a saturar la materia y la energía en su seno. Lo logrará reorganizando
la materia y la energía para proporcionar un nivel óptimo de computación, para extenderse desde su
origen en la Tierra. Actualmente entendemos la velocidad de la luz como un factor limitante en la
transferencia de información. Eludir este límite debe considerarse altamente especulativo, pero hay
indicios de que esta restricción puede ser superada. Si hay incluso desviaciones sutiles, finalmente
aprovecharemos esta habilidad superlumínica. Si nuestra civilización infunde al resto del universo su
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 7/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Para poner el concepto de Singularidad en una perspectiva más amplia, exploremos la historia de la
palabra misma. «Singularidad» es una palabra que significa un evento único con implicaciones
singulares. La palabra fue adoptada por los matemáticos para denotar un valor que trasciende
cualquier limitación finita, como la explosión de magnitud que resulta al dividir una constante por un
número que se acerca cada vez más a cero. El siguiente campo en adoptar la palabra fue la astrofísica.
Si una estrella masiva experimenta una explosión de supernova, su remanente finalmente colapsa
hasta el punto de un volumen aparentemente cero y una densidad infinita, y se crea una «singularidad»
en su centro. Debido a que se pensaba que la luz no podía escapar de la estrella después de que
alcanzaba esta densidad infinita, se le llamó agujero negro, que constituye una ruptura en el tejido del
espacio-tiempo. Una teoría especula que el universo mismo comenzó con tal Singularidad.
Curiosamente, sin embargo, el horizonte de sucesos (superficie) de un agujero negro tiene un tamaño
finito, y la fuerza gravitatoria solo es teóricamente infinita en el centro del agujero negro que es de
tamaño cero. En cualquier lugar que pueda medirse, las fuerzas son finitas, aunque extremadamente
grandes. La primera referencia a la Singularidad como un evento capaz de romper el tejido de la
historia humana es la declaración de John von Neumann citada anteriormente. En la década de 1960,
el matemático británico Irving John Good escribió sobre una «explosión de inteligencia» resultante de las
máquinas inteligentes que diseñan su próxima generación sin intervención humana. Vernor Vinge,
matemático e informático de la Universidad Estatal de San Diego, escribió sobre una «singularidad
tecnológica» que se acercaba rápidamente en un artículo para la revista Omni en 1983 y en una novela
de ciencia ficción, Marooned in Realtime (Abandonado en tiempo real), en 1986. En su libro de 1989, La era
de las máquinas inteligentes, Kurzweil ya presentaba un futuro que se dirigía inevitablemente hacia
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 8/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
máquinas que superaban con creces la inteligencia humana en la primera mitad del siglo XXI. El libro
Mind Children: The Future of Robot and Human Intelligence del investigador en robótica en la Carnegie
Mellon University, Hans Moravec, publicada en 1988, llega a una conclusión similar al analizar la
progresión de la robótica.
En 1993 Vernor Vinge presentó un artículo en un simposio organizado por la NASA que describía la
Singularidad como un evento inminente que resultaba principalmente del advenimiento de «entidades
con una inteligencia superior a la humana«, que Vinge vio como el presagio de un fenómeno fuera de
control. En su libro de 1999, La era de las máquinas espirituales: cuando las computadoras superan la
inteligencia humana, Kurzweil describía la conexión cada vez más íntima entre nuestra inteligencia
biológica y la inteligencia artificial que estamos creando. El libro de Hans Moravec, Robot: Mere
Machine to Transcendent Mind (Robot: mera máquina para la mente trascendente), también publicado en
1999, describió a los robots de la década de 2040 como nuestros «herederos evolutivos«, máquinas que
«crecerán a partir de nosotros, aprenderán nuestras habilidades y compartirán nuestros objetivos y valores,
siendo hijos de nuestras mentes». Los libros del escritor australiano de ciencia ficción y divulgación
científica Damien Broderick, publicados en 1997 y 2001, ambos titulados The Spike (El Pico), analizaron
el impacto generalizado de la fase extrema de aceleración tecnológica anticipada dentro de varias
décadas. En una extensa serie de escritos, el filósofo australiano y académico John Jamieson Carswell
«Jack» Smart ha descrito la Singularidad como el resultado inevitable de lo que él llama compresión
«MEST» (materia, energía, espacio y tiempo). Kurzweil opina que la Singularidad tiene muchas caras.
Representa la fase casi vertical de crecimiento exponencial que ocurre cuando la tasa es tan extrema
que la tecnología parece expandirse a una velocidad infinita. Por supuesto, desde una perspectiva
matemática, no hay discontinuidad, ni ruptura, y las tasas de crecimiento siguen siendo finitas,
aunque extraordinariamente grandes. Pero desde un marco actual limitado, este evento inminente
parece ser una ruptura aguda y abrupta en la continuidad del progreso. Una de las implicaciones más
destacadas de la Singularidad será un cambio en la naturaleza de nuestra capacidad de comprensión,
ya que seremos mucho más inteligentes a medida que nos fusionemos con nuestra tecnología. Pero
aquí podemos preguntarnos, ¿puede el ritmo del progreso tecnológico seguir acelerándose
indefinidamente? ¿No hay un punto en el que los humanos sean incapaces de pensar lo
suficientemente rápido para mantenerse al día? Para humanos no mejorados con la tecnología, ello
sería evidente. Y Kurzweil se hace esta sorprendente y preocupante pregunta: ¿Qué lograrían 1.000
científicos, cada uno de ellos 1.000 veces más inteligente que los científicos humanos actuales, y cada
uno operando 1.000 veces más rápido que los humanos contemporáneos, debido a que el
procesamiento de información en sus cerebros principalmente no biológicos fuese más rápido? Un año
cronológico nuestro sería como un milenio para ellos. Entonces, ¿qué se les ocurriría? ¿Sobrarían los
humanos que no estuviesen a su nivel?
Probablemente inventarían nueva tecnología para volverse aún más inteligentes, porque su
inteligencia ya no tendría una capacidad limitada. Cambiarían sus propios procesos de pensamiento
para permitirles pensar aún más rápido. Cuando los científicos se vuelvan un millón de veces más
inteligentes y operen un millón de veces más rápido, una hora resultaría en un siglo de progreso en
términos actuales. La Singularidad implica una serie de principios, en línea con las ideas del
transhumanismo, como la de que la tasa de cambio de paradigma (innovación técnica) se está
acelerando, ahora mismo duplicándose cada década. Por otro lado, el poder (precio-rendimiento,
velocidad, capacidad y ancho de banda) de las tecnologías de la información está creciendo
exponencialmente a un ritmo aún más rápido, y ahora se duplica cada año. Este principio se aplica a
una amplia gama de medidas, incluida la cantidad de conocimiento humano. También tenemos que
para las tecnologías de la información, existe un segundo nivel de crecimiento exponencial: es decir,
crecimiento exponencial en la tasa de crecimiento exponencial. La razón es que a medida que una
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 9/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
tecnología se vuelve más rentable, se despliegan más recursos para su avance, por lo que la tasa de
crecimiento exponencial aumenta con el tiempo. Por ejemplo, la industria informática en la década de
1940 consistía en un puñado de proyectos que ahora son históricamente importantes. En la actualidad,
los ingresos totales de la industria informática superan el billón de dólares, por lo que los
presupuestos de investigación y desarrollo son comparativamente más altos. Actualmente el escaneo
del cerebro humano es una de estas tecnologías que mejoran exponencialmente. La resolución
temporal y espacial, así como el ancho de banda del escaneo cerebral se duplican cada año. Recién
ahora estamos obteniendo las herramientas suficientes para comenzar una ingeniería inversa seria
(descodificación) de los principios de funcionamiento del cerebro humano. Ya tenemos impresionantes
modelos y simulaciones de un par de docenas de varios cientos de regiones del cerebro. Dentro de, tal
vez, una década, tendremos una comprensión detallada de cómo funcionan todas las regiones del
cerebro humano. Asimismo tendremos el hardware necesario para emular la inteligencia humana con
supercomputadoras para fines de esta década de 2020 y con dispositivos del tamaño de una
computadora personal para fines de la década siguiente. Tendremos modelos de software efectivos de
inteligencia humana para mediados de la década de 2020. Con el hardware y el software necesarios
para emular completamente la inteligencia humana, podemos esperar que las computadoras pasen la
prueba de Turing, lo que indicará una inteligencia indistinguible de la de los humanos biológicos, para
fines de la década de 2020. Cuando alcancen este nivel de desarrollo, las computadoras podrán
combinar las fortalezas tradicionales de la inteligencia humana con las fortalezas de la inteligencia
artificial.
Las fortalezas tradicionales de la inteligencia humana incluyen una capacidad formidable para
reconocer patrones, estructuras que le facilitan a nuestro cerebro el poner en práctica ciertas tareas
diarias, con el fin de ahorrarse el trabajo de procesar tareas repetitivas una y otra vez. La naturaleza
masivamente paralela y autoorganizada del cerebro humano es una arquitectura ideal para reconocer
patrones que se basan en propiedades sutiles e invariantes. Los seres humanos también somos capaces
de aprender nuevos conocimientos aplicando conocimientos e infiriendo principios a partir de la
experiencia, incluida la información recopilada a través del lenguaje. Una capacidad clave de la
inteligencia humana es la capacidad de crear modelos mentales de la realidad y realizar experimentos
mentales de «qué pasaría si» variando los aspectos de estos modelos. Por otro lado, los puntos fuertes
tradicionales de la inteligencia artificial incluyen la capacidad de recordar miles de millones de hechos
con precisión y recuperarlos al instante. Otra ventaja de la inteligencia no biológica es que una vez que
una máquina domina una habilidad, se puede realizar repetidamente a alta velocidad, con una
precisión óptima y sin cansarse. Quizás lo más importante es que las máquinas pueden compartir su
conocimiento a una velocidad extremadamente alta, en comparación con la velocidad muy lenta del
intercambio de conocimiento humano a través del lenguaje. La inteligencia no biológica podrá
descargar habilidades y conocimientos de otras máquinas, eventualmente también de seres humanos.
Las máquinas procesarán y cambiarán las señales a una velocidad cercana a la de la luz, de alrededor
de trescientos millones de metros por segundo, en comparación con los cien metros por segundo de
las señales electroquímicas utilizadas en los cerebros biológicos de los mamíferos. Esta relación de
velocidad es de al menos tres millones a uno. Asimismo las máquinas tendrán acceso a través de
Internet a todo el conocimiento de nuestra civilización humano-máquina y podrán dominar todo este
conocimiento. Por otro lado, las máquinas pueden poner en común sus recursos, inteligencia y
memorias. Dos máquinas, o un millón de máquinas, pueden unirse para convertirse en una y luego
volver a separarse. Múltiples máquinas pueden hacer ambas cosas al mismo tiempo: convertirse en
una y separarse simultáneamente. Los humanos llaman a esto enamorarse, pero nuestra capacidad
biológica para hacerlo es fugaz y poco confiable. La combinación de estas fortalezas tradicionales, la
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 10/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
La inteligencia artificial tendrá total libertad de diseño y arquitectura, es decir, no estará restringida
por limitaciones biológicas, como la velocidad de conmutación lenta de nuestras conexiones
interneuronales o un tamaño de cráneo fijo, así como un rendimiento constante en todo momento. Una
vez que la inteligencia no biológica combine las fortalezas tradicionales de humanos y máquinas, la
porción no biológica de la inteligencia de nuestra civilización continuará beneficiándose del doble
crecimiento exponencial de la relación precio-rendimiento, velocidad y capacidad de las máquinas.
Una vez que las máquinas alcancen la capacidad de diseñar y crear tecnología como lo hacen los
humanos, solo que a velocidades y capacidades mucho más altas, tendrán acceso a sus propios
diseños (código fuente) y la capacidad de manipularlos. Los humanos ahora estamos logrando algo
similar a través de la biotecnología, cambiando la genética y otros procesos de información
subyacentes a nuestra biología, pero de una manera mucho más lenta y mucho más limitada de lo que
las máquinas podrán lograr modificando sus propios programas. La biología tiene limitaciones
inherentes. Por ejemplo, todo organismo vivo debe construirse a partir de proteínas que se pliegan a
partir de cadenas unidimensionales de aminoácidos. Los mecanismos basados en proteínas carecen de
fuerza y velocidad. Seremos capaces de rediseñar todos los órganos y sistemas en nuestros cuerpos y
cerebros biológicos para que sean mucho más capaces. Asimismo, la inteligencia humana tiene una
cierta cantidad de plasticidad o capacidad para cambiar su estructura, más de lo que se había
entendido previamente. Pero la arquitectura del cerebro humano es, no obstante, profundamente
limitada. Por ejemplo, solo hay espacio para unos cien billones de conexiones interneuronales en cada
uno de nuestros cráneos. Un cambio genético clave que permitió una mayor capacidad cognitiva de
los humanos en comparación con la de nuestros ancestros primates fue el desarrollo de una corteza
cerebral más grande, así como el desarrollo de un mayor volumen de tejido de materia gris en ciertas
regiones del cerebro. Este cambio ocurrió, sin embargo, en la escala de tiempo muy lenta de la
evolución biológica y todavía implica un límite inherente a la capacidad del cerebro. Las máquinas
podrán reformular sus propios diseños y aumentar sus propias capacidades sin límite. Mediante el
uso de diseños basados en nanotecnología, sus capacidades serán mucho mayores que las de los
cerebros biológicos sin aumentar el tamaño o el consumo de energía.
Las máquinas también se beneficiarán del uso de circuitos moleculares tridimensionales muy rápidos.
Los circuitos electrónicos actuales son más de un millón de veces más rápidos que la conmutación
electroquímica utilizada en los cerebros de los mamíferos. Los circuitos moleculares del mañana se
basarán en dispositivos como los nanotubos, que son diminutos cilindros de átomos de carbono que
miden unos diez átomos de ancho y son quinientas veces más pequeños que los transistores de silicio
actuales. Dado que las señales tienen menos distancia para viajar, también podrán operar a
velocidades de terahercios (billones de operaciones por segundo) en comparación con las velocidades
de unos pocos gigahercios (miles de millones de operaciones por segundo) de los chips actuales. La
tasa de cambio tecnológico no se limitará a las velocidades mentales humanas. La inteligencia artificial
mejorará sus propias capacidades en un ciclo de retroalimentación que la inteligencia humana sin
ayuda no podrá seguir. Este ciclo de inteligencia artificial que mejora iterativamente su propio diseño
será cada vez más rápido. De hecho, esto es exactamente lo que predice la fórmula para la aceleración
continua de la tasa de cambio de paradigma. Una de las objeciones que se han planteado a la
continuación de la aceleración del cambio de paradigma es que, en última instancia, se vuelve
demasiado rápido para que los humanos lo sigan y, por lo tanto, se argumenta, no puede suceder. Sin
embargo, el cambio de la inteligencia biológica a la no biológica permitirá que la tendencia continúe.
Junto con el acelerado ciclo de mejora de la inteligencia no biológica, la nanotecnología permitirá la
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 11/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
En última instancia, todo el universo se saturará con nuestra inteligencia, lo que tal vez ya ha sucedido
con otras civilizaciones. Este es el destino del universo que prevén los transhumanistas.
Determinaremos nuestro propio destino en lugar de dejar que lo determinen las actuales fuerzas
simples y mecánicas que gobiernan la mecánica celestial. El tiempo que tardará el universo en
volverse inteligente hasta este punto depende de si la velocidad de la luz es o no un límite inmutable.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 12/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Hay indicios de posibles sutiles excepciones a este límite, que, si existen, la vasta inteligencia de
nuestra civilización en este tiempo futuro podrá explotar. Todo esto es la Singularidad. Algunos dirían
que no podemos comprenderlo, al menos con nuestro nivel actual de comprensión. Por esa razón, no
podemos mirar más allá de su horizonte de eventos y dar un sentido completo a lo que hay más allá.
Esta es una de las razones por las que Kurzweil y otros científicos, especialmente los transhumanistas,
llaman a esta transformación la Singularidad. A pesar de nuestras profundas limitaciones de
pensamiento, tenemos suficientes poderes de abstracción para hacer declaraciones significativas sobre
la naturaleza de la vida después de la Singularidad. Lo que es más importante, la inteligencia que
surgirá supuestamente seguirá representando a la civilización humana, que ya será una civilización
humano-máquina. En otras palabras, las futuras máquinas podrán ser consideradas «humanas«,
aunque no sean biológicas. Este será el próximo paso en la evolución, el próximo cambio de
paradigma de alto nivel. La mayor parte de la inteligencia de nuestra civilización será, en última
instancia, no biológica. A finales de este siglo XXI, será billones de billones de veces más poderosa que
la inteligencia humana. Sin embargo, para abordar las preocupaciones expresadas con frecuencia, esto
no implica el fin de la inteligencia biológica, incluso si se la arroja de su posición de superioridad
evolutiva. Incluso las formas no biológicas se derivarán del diseño biológico, por lo que podemos
considerar que nuestra civilización seguirá siendo humana. De hecho los transhumanistas creen que, en
muchos sentidos será más ejemplar en lo que consideramos humano de lo que es hoy, aunque nuestra
comprensión del término irá más allá de sus orígenes biológicos. No obstante, muchos observadores
han expresado su alarma por el surgimiento de formas de inteligencia no biológica superiores a la
inteligencia humana, ya que pueden considerar que somos prescindibles.
El potencial para aumentar nuestra propia inteligencia a través de una conexión íntima con otros
sustratos de pensamiento no necesariamente alivia la preocupación, ya que algunas personas han
expresado el deseo de permanecer «sin mejorar» y al mismo tiempo mantener su lugar en la parte
superior de la cadena intelectual. Desde la perspectiva de la humanidad biológica, estas inteligencias
sobrehumanas parecerán ser nuestros servidores devotos, satisfaciendo nuestras necesidades y deseos.
Pero tal vez suceda al revés. Pero cumplir los deseos de un legado biológico reverenciado ocupará solo
una porción trivial del poder intelectual que traerá la Singularidad. La aceleración en curso de la
tecnología es la implicación y el resultado inevitable de lo que Kurzweil llama la ley de rendimientos
acelerados, que describe la aceleración del ritmo y el crecimiento exponencial de los productos de un
proceso evolutivo. Hay muchos ejemplos del crecimiento exponencial que implica la ley de
rendimientos acelerados, en áreas tan variadas como la electrónica de todo tipo, la secuenciación del
ADN, las comunicaciones, el escaneo cerebral, la ingeniería inversa del cerebro, el tamaño y el alcance
del conocimiento humano y la rápida reducción del tamaño de la tecnología. Esta última tendencia
está directamente relacionada con la aparición de la nanotecnología. La futura era GNR (genética,
nanotecnología, robótica) surgirá no solo de la explosión exponencial de la computación, sino más
bien de la interacción y la miríada de sinergias que resultarán de múltiples avances tecnológicos
entrelazados. Cuando se puso en marcha el escaneo del genoma humano en 1990, los críticos
señalaron que, dada la velocidad con la que se podría escanear el genoma, llevaría miles de años
terminar el proyecto. Sin embargo, el proyecto se completó en primera instancia en 2003. El costo de la
secuenciación del ADN se redujo de unos diez dólares por par de bases en 1990 a un par de centavos
en 2004 y sigue cayendo rápidamente. Ha habido un crecimiento exponencial suave en la cantidad de
datos de secuencias de ADN que se han recopilado. Un ejemplo reciente de esta capacidad mejorada
fue la secuenciación del virus del SARS, que tardó solo treinta y un días desde la identificación del
virus, en comparación con los más de quince años para el virus del VIH.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 13/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
El físico y matemático Stephen Wolfram proporciona amplia evidencia para mostrar cómo la
complejidad creciente puede originarse en un universo que es, en esencia, un sistema algorítmico
determinista, o sea, un sistema basado en reglas fijas con resultados predeterminados. En su libro A
New Kind of Science, Wolfram ofrece un análisis completo de cómo los procesos subyacentes a una
construcción matemática llamada «un autómata celular» tienen el potencial para describir todos los
niveles de nuestro mundo natural. Un autómata celular es un mecanismo computacional simple que,
por ejemplo, cambia el color de cada celda en una cuadrícula según el color de las celdas cercanas
adyacentes de acuerdo con una regla de transformación. En su opinión, es factible expresar todos los
procesos de información en términos de operaciones en autómatas celulares, por lo que las ideas de
Wolfram se relacionan con varios temas clave relacionados con la información y su omnipresencia.
Wolfram postula que el universo mismo es una computadora celular autómata gigante. En su
hipótesis hay un básico digital para los fenómenos aparentemente analógicos, como el movimiento y
el tiempo, y para las fórmulas de la física, y podemos modelar nuestra comprensión de la física como
la simple transformación de un autómata celular. Otros científicos han propuesto esta posibilidad. El
físico Richard Feynman se preguntó al respecto al considerar la relación de la información con la
materia y la energía. El matemático y filósofo estadounidense, conocido como el fundador de la
cibernética, Norbert Wiener, anunció un cambio fundamental en el enfoque de la energía a la
información en su libro Cybernetic de 1948 y sugirió que la transformación de la información, no la
energía, era el componente fundamental del universo. Quizás el primero en postular que el universo
está siendo computado en una computadora digital fue Konrad Zuse en 1967. Zuse es mejor conocido
como el inventor de la primera computadora programable en funcionamiento, que desarrolló entre
1935 y 1941. Un defensor entusiasta de una teoría de la física basada en la información fue Edward
Fredkin, quien a principios de la década de 1980 propuso una «nueva teoría de la física» basada en la
idea de que el universo está compuesto en última instancia por software. No deberíamos pensar en la
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 15/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
realidad como compuesta de partículas y fuerzas, según Fredkin, sino como bits de datos modificados
de acuerdo con las reglas de cálculo. Fredkin fue citado por el periodista y académico estadounidense,
además de un galardonado autor sobre ciencia, psicología evolucionista, historia, religión y teoría de
juegos, Robert Wright, en la década de 1980 diciendo: «Hay tres grandes cuestiones filosóficas. ¿Qué es la
vida? ¿Qué es la conciencia y el pensamiento y la memoria y todo eso? ¿Y cómo funciona el universo? El punto
de vista de la información abarca los tres. Lo que digo es que en el nivel más básico de complejidad, un proceso de
información ejecuta lo que consideramos física. En un nivel mucho más alto de complejidad, la vida, el ADN, ya
sabes, la función bioquímica, están controlados por un proceso de información digital. Luego, en otro nivel,
nuestros procesos de pensamiento son básicamente procesamiento de información… Encuentro la evidencia que
respalda mis creencias en diez mil lugares diferentes. Y para mí es totalmente abrumador. Es como si hubiera un
animal que quiero encontrar. He encontrado sus huellas. He encontrado sus excrementos. He encontrado la
comida a medio masticar. Encuentro pedazos de su piel, y así sucesivamente. En todos los casos se ajusta a un
tipo de animal, y no se parece a ningún animal que nadie haya visto jamás. La gente dice, ¿Dónde está este
animal? Digo, bueno, estuvo aquí, es así de grande, esto aquello y lo otro. Y sé mil cosas sobre él. No lo tengo en
la mano, pero sé que está ahí. Lo que veo es tan convincente que no puede ser una criatura de mi imaginación«.
Asimismo, al comentar sobre la teoría de la física digital de Fredkin, Wright escribe: «Fredkin está
hablando de una característica interesante de algunos programas de computadora, incluidos muchos autómatas
celulares: no hay atajos para descubrir a dónde conducirán. Esta, de hecho, es una diferencia básica entre el
enfoque ‘analítico’ asociado con las matemáticas tradicionales, incluidas las ecuaciones diferenciales, y el enfoque
‘computacional’ asociado con los algoritmos. Puede predecir un estado futuro de un sistema susceptible al
enfoque analítico sin averiguar qué estados ocupará entre ahora y entonces, pero en el caso de muchos autómatas
celulares, debe pasar por todos los estados intermedios para descubrir cuál es el final. será como decir: no hay
forma de conocer el futuro excepto verlo desarrollarse. Fredkin explica: ‘No hay forma de saber la respuesta a
alguna pregunta más rápido que lo que está pasando’. Fredkin cree que el universo es muy literalmente una
computadora y está siendo utilizada por alguien, o algo, para resolver un problema. Suena como una broma de
buenas y malas noticias: la buena noticia es que nuestras vidas tienen un propósito; la noticia básica es que su
propósito es ayudar a algún hacker remoto a estimar pi en nueve billones de decimales«. Fredkin continuó
demostrando que aunque se necesita energía para almacenar y recuperar información, podemos
reducir arbitrariamente la energía requerida para realizar cualquier ejemplo particular de
procesamiento de información. y que esta operación no tiene límite inferior. Eso implica que la
información, en lugar de la materia y la energía, puede considerarse como la realidad más
fundamental. La idea de que un proceso completamente determinista puede producir resultados que
son completamente impredecibles es de gran importancia, ya que proporciona una explicación de
cómo el mundo puede ser inherentemente impredecible mientras aún se basa en reglas
completamente deterministas. En un nivel diferente, lo vemos en el propio cerebro humano, que
comienza con solo alrededor de treinta a cien millones de bytes de especificación en el genoma
comprimido pero termina, en base al aprendizaje, con una complejidad que es aproximadamente mil
millones de veces mayor.
El ser humano cumple un propósito altamente exigente: sobrevivir en un nicho ecológico desafiante.
Los seres humanos representan una jerarquía extremadamente intrincada y elaborada de otros
patrones. El físico y matemático Stephen Wolfram considera que cualquier patrón que combine
algunas características reconocibles y elementos impredecibles es efectivamente equivalente a otro.
Pero no muestra cómo un autómata celular puede aumentar su complejidad, y mucho menos
convertirse en un patrón tan complejo como un ser humano. Aquí hay un eslabón perdido, uno que
explicaría cómo uno pasa de los patrones interesantes pero en última instancia rutinarios de un
autómata celular a la complejidad de las estructuras persistentes que demuestran niveles más altos de
inteligencia. Entonces, los autómatas celulares solo nos llevan hasta cierto punto. Entonces, ¿cómo
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 16/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
pasamos de estos patrones interesantes pero limitados a las más importantes obras artísticas? Un
concepto que debemos tener en cuenta es la evolución. Si agregamos otro concepto simple, un
algoritmo evolutivo, al de los autómatas celulares simples de Wolfram, comenzamos a obtener
resultados mucho más emocionantes e inteligentes. Un algoritmo evolutivo puede comenzar con
soluciones potenciales generadas aleatoriamente para un problema, que se codifican en un código
genético digital. Luego se provoca que las soluciones compitan entre sí en una batalla evolutiva
simulada. Las mejores soluciones sobreviven y procrean en una reproducción sexual simulada en la
que se crean soluciones descendientes, extrayendo su código genético de dos «padres«. También
podemos introducir una tasa de mutación genética. Varios parámetros de alto nivel de este proceso,
como la tasa de mutación, la tasa de descendencia, etc., se denominan apropiadamente «parámetros de
Dios«, y es el trabajo del ingeniero que diseña el algoritmo evolutivo establecer razonablemente los
valores óptimos. El proceso se ejecuta durante muchos miles de generaciones de evolución simulada y
al final del proceso es probable que se encuentren soluciones de un orden claramente superior a las
iniciales. Los resultados de estos algoritmos evolutivos, a veces llamados genéticos, pueden ser
soluciones elegantes e inteligentes para problemas complejos. Se han utilizado, por ejemplo, para crear
diseños artísticos y diseños para formas de vida artificiales, así como para ejecutar una amplia gama
de tareas prácticas, como el diseño de motores a reacción. Los algoritmos genéticos son un enfoque de
la inteligencia artificial «debil«, es decir, la creación de sistemas que pueden realizar funciones
particulares que solían requerir la aplicación de la inteligencia humana.
Pero todavía falta algo. Aunque los algoritmos genéticos son una herramienta útil para resolver
problemas específicos, nunca han logrado nada parecido a una IA «fuerte«, es decir, una aptitud que se
asemeje a las características amplias, profundas y sutiles de la inteligencia humana, en particular su
poder de reconocimiento de patrones y su lenguaje de comandos. ¿El problema es que no ejecutamos
los algoritmos evolutivos durante el tiempo suficiente? Después de todo, los humanos evolucionaron a
través de un proceso evolutivo que se supone tomó miles de millones de años. Quizás no podamos
recrear ese proceso con solo unos días o semanas de simulación por computadora. Sin embargo, esto
no funcionará porque los algoritmos genéticos convencionales alcanzan una asíntota, concepto que se
utiliza en el ámbito de la geometría para nombrar a una recta que, a medida que se prolonga de
manera indefinida, tiende a acercarse a una cierta curva o función, aunque sin alcanzar a hallarla, en
su nivel de rendimiento, por lo que ejecutarlos durante un período de tiempo más largo no ayudaría.
Un tercer nivel, más allá de la capacidad de los procesos celulares para producir aparente aleatoriedad
y algoritmos genéticos para producir soluciones inteligentes enfocadas, es realizar la evolución en
múltiples niveles. Los algoritmos genéticos convencionales permiten la evolución solo dentro de los
límites de un problema limitado y un único medio de evolución. El código genético mismo necesita
evolucionar, ya que las reglas de la evolución necesitan evolucionar. La naturaleza no se quedó con un
solo cromosoma, por ejemplo. Ha habido muchos niveles incorporados en el proceso evolutivo
natural. Y requerimos un entorno complejo en el que tenga lugar la evolución. Sin embargo, para
construir una IA fuerte, se tendrá la oportunidad de acortar este proceso mediante la ingeniería
inversa del cerebro humano, un proyecto que ya está en marcha, beneficiándose así del proceso
evolutivo que ya ha tenido lugar. Se aplicaran algoritmos evolutivos dentro de estas soluciones tal
como lo hace el cerebro humano. Por ejemplo, el cableado en un feto es inicialmente aleatorio dentro
de las limitaciones especificadas en el genoma en al menos algunas regiones. Investigaciones recientes
muestran que las áreas que tienen que ver con el aprendizaje experimentan más cambios, mientras que
las estructuras que tienen que ver con el procesamiento sensorial experimentan menos cambios
después del nacimiento.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 17/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Dado que el universo corre a la velocidad más rápida que puede correr, por lo general no hay forma
de cortocircuitar el proceso. Sin embargo, tenemos los beneficios de los miles de millones de años de
evolución que ya han tenido lugar, los cuales son responsables del gran aumento del orden de
complejidad en el mundo natural. Ahora podemos beneficiarnos de ello mediante el uso de
herramientas evolucionadas para aplicar ingeniería inversa a los productos de la evolución biológica,
de los que el más importante es cerebro humano. Sí, es cierto que algunos fenómenos de la naturaleza
que pueden parecer complejos en algún nivel son simplemente el resultado de simples mecanismos
computacionales subyacentes que son esencialmente autómatas celulares en funcionamiento. Wolfram
nos brinda una base teórica convincente para expresar estos procesos y sus patrones resultantes. Otra
importante propuesta de Wolfram radica en su tratamiento completo de la computación como un
fenómeno simple y ubicuo. Por supuesto, sabemos desde hace más de un siglo que la computación es
intrínsecamente simple, aunque podemos construir cualquier nivel posible de complejidad a partir de
la manipulación de información más simple posible. Aunque necesitamos conceptos adicionales para
describir un proceso evolutivo que crea soluciones inteligentes a los problemas, la demostración de
Wolfram de la simplicidad y ubicuidad de la computación es una contribución importante en nuestra
comprensión del significado fundamental de la información en el mundo. La ley de rendimientos
acelerados es fundamentalmente una teoría económica. La teoría y las políticas económicas
contemporáneas se basan en modelos obsoletos que enfatizan los costos de la energía, los precios de
las materias primas y la inversión de capital en plantas y equipos como factores impulsores clave,
mientras que en gran medida pasan por alto la capacidad computacional, la memoria, el ancho de
banda, el tamaño de la tecnología, la propiedad intelectual, el conocimiento, y otros componentes cada
vez más vitales y cada vez más crecientes, que están impulsando la economía. Es el imperativo
económico de un mercado competitivo la fuerza principal que impulsa la tecnología y alimenta la ley
de rendimientos acelerados. A su vez, la ley de rendimientos acelerados está transformando las
relaciones económicas. El imperativo económico es el equivalente a la supervivencia en la evolución
biológica. Nos estamos moviendo hacia máquinas más inteligentes y más pequeñas como resultado de
una miríada de pequeños avances, cada uno con su propia justificación económica particular. Las
máquinas que pueden llevar a cabo sus misiones con mayor precisión tienen un mayor valor, lo que
explica por qué se están construyendo. Hay decenas de miles de proyectos que están avanzando en los
diversos aspectos de la ley de rendimientos acelerados en diversas formas incrementales.
continuará al ritmo actual, en lugar de la visión exponencial. La razón por la que estos modelos
lineales parecen funcionar por un tiempo es la misma razón por la que la mayoría de las personas
adoptan la vista lineal intuitiva en primer lugar, ya que las tendencias exponenciales parecen ser
lineales cuando se ven y experimentan durante un breve período de tiempo, particularmente en las
primeras etapas de una tendencia exponencial. Pero una vez que se alcanza la punto adecuado en la
curva, el crecimiento exponencial estalla y los modelos lineales se derrumban.
Tengamos en cuenta que el crecimiento exponencial subyacente en la economía es una fuerza mucho
más poderosa que las recesiones periódicas. Lo que es más importante, las recesiones, incluidas las
depresiones, representan solo desviaciones temporales de la curva subyacente. Incluso la Gran
Depresión de 1929 representa solo un pequeño bache en el contexto del patrón subyacente de
crecimiento. En cada caso, la economía termina exactamente donde habría estado si la
recesión/depresión nunca hubiera ocurrido. La economía mundial continúa acelerándose. La
productividad (producción económica por trabajador) también ha estado creciendo exponencialmente.
De hecho, estas estadísticas están muy subestimadas porque no reflejan completamente las mejoras
significativas en la calidad y las características de los productos y servicios. Los medicamentos
farmacéuticos son cada vez más efectivos porque ahora están siendo diseñados para llevar a cabo
modificaciones precisas en las rutas metabólicas exactas que subyacen a la enfermedad y los procesos
de envejecimiento, con efectos secundarios mínimos. Los productos pedidos en cinco minutos en la
Web y entregados en su puerta valen más que los productos que tiene que ir a buscar uno mismo. La
ropa hecha a medida para tu cuerpo único vale más que la ropa que encuentras en el estante de una
tienda. Este tipo de mejoras se están produciendo en la mayoría de las categorías de productos y
ninguna de ellas se refleja en las estadísticas de productividad. Los métodos estadísticos que subyacen
a las mediciones de la productividad tienden a descartar las ganancias al concluir esencialmente que
todavía obtenemos solo un dólar de productos y servicios por un dólar, a pesar de que obtenemos
mucho más por ese dólar. Las computadoras son un ejemplo extremo de este fenómeno, pero está
generalizado. El profesor de la Universidad de Chicago, Pete Klenow, y el profesor de la Universidad de
Rochester, Mark Bils, estiman que el valor en dólares constantes de los bienes existentes ha aumentado
un 1,5% anual durante los últimos veinte años debido a las mejoras cualitativas. Esto todavía no tiene
en cuenta la introducción de productos y categorías de productos completamente nuevos, como los
teléfonos celulares, los buscapersonas, las computadoras de bolsillo, las canciones descargadas y los
programas de software. No considera el floreciente valor de la propia Web. ¿Cómo valoramos la
disponibilidad de recursos gratuitos como las enciclopedias en línea y los motores de búsqueda que
brindan cada vez más puertas de entrada efectivas al conocimiento humano?
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 19/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Una preocupación de los economistas es que si los consumidores pueden comprar lo que necesitan y
quieren con menos dólares, la economía se contraerá. Esto ignora, sin embargo, las necesidades y los
deseos intrínsecamente insaciables de los consumidores humanos. Sí, es cierto que el crecimiento
económico y otros factores similares son inflacionarios, estos factores se ven compensados por las
tendencias exponenciales en la relación precio-rendimiento de todas las tecnologías basadas en la
información: computación, memoria, comunicaciones, biotecnología, miniaturización e incluso la tasa
general de progreso técnico. Estas tecnologías afectan profundamente a todas las industrias. También
estamos experimentando una desintermediación masiva en los canales de distribución a través de la
Web y otras nuevas tecnologías de comunicación, así como una mayor eficiencia en las operaciones y
la administración. Es importante señalar que una implicación clave de la nanotecnología es que llevará
la economía del software al hardware, es decir, a los productos físicos. Los precios del software se
están desinflando aún más rápidamente que los del hardware. El impacto de las comunicaciones
distribuidas e inteligentes se ha sentido quizás con mayor intensidad en el mundo de los negocios. Los
nuevos modelos basados en la comunicación directa y personalizada con el cliente transformarán
todas las industrias, lo que dará como resultado una desintermediación masiva de las capas
intermedias que tradicionalmente han separado al cliente de la fuente última de productos y servicios.
Ampliar el acceso al conocimiento también está cambiando las relaciones de poder. Los consumidores
de prácticamente todo, desde lavadoras, automóviles y viviendas hasta banca y seguros, ahora
utilizan agentes de software automatizados para identificar rápidamente las opciones correctas con las
características y los precios óptimos. Los servicios web como eBay están conectando rápidamente a
compradores y vendedores de formas sin precedentes. Los deseos y anhelos de los clientes, a menudo
desconocidos incluso para ellos mismos, se están convirtiendo rápidamente en la fuerza motriz de las
relaciones comerciales. Los compradores de ropa bien conectados, por ejemplo, seleccionarán los
materiales y estilos correctos al ver cuántas combinaciones posibles se ven en una imagen
tridimensional de su propio cuerpo, basado en un escaneo corporal detallado, y luego tendrán las
opciones fabricadas a medida.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 20/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Las desventajas actuales del comercio basado en la Web, como, por ejemplo, las limitaciones en la
capacidad de interactuar directamente con los productos y las frecuentes frustraciones de interactuar
con menús y formularios inflexibles en lugar de personal humano, se disolverán gradualmente a
medida que las tendencias se muevan con fuerza a favor de la electrónica. Para fines de esta década,
las computadoras desaparecerán como objetos físicos distintos, con pantallas integradas en nuestros
anteojos y dispositivos electrónicos entretejidos en nuestra ropa, proporcionando una realidad virtual
visual de inmersión total. Así, «ir a un sitio Web» supondrá entrar en un entorno de realidad virtual, al
menos para los sentidos visual y auditivo, donde podremos interactuar directamente con productos y
personas, tanto reales como simuladas. Aunque las personas simuladas todavía no estarán a la altura
de los estándares humanos, serán bastante satisfactorias como agentes de ventas, encargados de
reservas y asistentes de investigación. Las interfaces hápticas (táctiles) nos permitirán tocar productos
y personas. Es difícil identificar alguna ventaja duradera del viejo mundo de las tiendas físicas que no
será finalmente superada por las ricas interfaces interactivas que pronto llegarán. Estos desarrollos
tendrán implicaciones significativas para la industria de bienes raíces. La necesidad de congregar a los
trabajadores en las oficinas disminuirá gradualmente. Actualmente ya somos capaces de organizar de
manera efectiva equipos geográficamente dispares, algo que era mucho más difícil hace una década.
Los entornos de realidad virtual visual-auditiva de inmersión total, como el Metaverso, que serán
omnipresentes durante la década de 2020, acelerarán la tendencia a que las personas vivan y trabajen
donde quieran. Una vez que tengamos entornos de realidad virtual de inmersión total que incorporen
todos los sentidos, lo que será factible probablemente a fines de la década de 2020, no habrá razón
para utilizar oficinas reales. Asimismo, gran parte de los bienes raíces se volverán virtuales.
Además, la innovación y el ritmo de cambio de paradigma no se ven notablemente afectados por las
pequeñas desviaciones provocadas por los ciclos económicos. Todas las tecnologías que exhiben un
crecimiento exponencial continúan sin perder el ritmo debido a las desaceleraciones económicas. El
crecimiento general de la economía refleja formas y capas completamente nuevas de riqueza y valor
que no existían anteriormente, o al menos que no constituían previamente una parte significativa de la
economía, como nuevas formas de materiales basados en nanopartículas, información genética,
propiedad intelectual, portales de comunicación, sitios web, ancho de banda, software, bases de datos
y muchas otras categorías nuevas basadas en tecnología. El sector de la tecnología de la información
en general está aumentando rápidamente su participación en la economía y tiene una influencia cada
vez mayor en todos los demás sectores. Si podemos construir una IA genuina, hay razones para creer
que podemos construir cosas como neuronas que sean un millón de veces más rápidas. Eso lleva a la
conclusión de que se pueden hacer sistemas que piensen un millón de veces más rápido que una
persona. Con Inteligencia Artificial (IA), estos sistemas podrían incluso hacer diseños de ingeniería.
Combinando esto con la capacidad de un sistema para construir algo mejor que él mismo, tenemos la
posibilidad de una transición muy abrupta. Esta situación puede ser más difícil de manejar incluso
que la nanotecnología, pero es mucho más difícil pensar en ella de manera constructiva en este
momento. En la edición del 19 de abril de 1965 de la revista Electronics, el doctorado en química y
física en el Instituto de Tecnología de California, además de ser cofundador de Intel y autor de la famosa
Ley de Moore, Gordon Moore, escribió: «El futuro de la electrónica integrada es el futuro de la electrónica
misma. Las ventajas de la integración provocarán una proliferación de la electrónica, impulsando esta ciencia
hacia muchas áreas nuevas«. Con esas palabras, Moore marcó el comienzo de una revolución que aún
está ganando impulso. El artículo de Moore describía la duplicación anual repetida del número de
transistores que podrían instalarse en un circuito integrado. Su predicción de la «Ley de Moore» de 1965
fue criticada en ese momento porque su gráfico logarítmico de la cantidad de componentes en un chip
tenía solo cinco puntos de referencia, por lo que proyectar esta tendencia naciente hasta 1975 se
consideró como prematuro. La estimación inicial de Moore era incorrecta y la revisó a la baja una
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 21/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
potencial de almacenar cien gigabits (1011 bits) por pulgada cuadrada. El potencial sería aún mayor si
se organizara en tres dimensiones. El autoensamblaje de circuitos a nanoescala es otra técnica
habilitadora clave para una nanoelectrónica eficaz. El autoensamblaje permite que los componentes
formados incorrectamente se desechen automáticamente y hace posible que los billones de
componentes del circuito se organicen por sí mismos, en lugar de ensamblarse minuciosamente en un
proceso de arriba hacia abajo. Permitiría que se crearan circuitos a gran escala en tubos de ensayo en
lugar de en fábricas multimillonarias, usando química en lugar de litografía, según científicos de la
Universidad de California, Los Ángeles (UCLA). Investigadores de la Universidad de Purdue ya han
demostrado estructuras de nanotubos autoorganizados, utilizando el mismo principio que hace que
las hebras de ADN se unan en estructuras estables. Los científicos de la Universidad de Harvard dieron
un paso clave en junio de 2004 cuando demostraron otro método de autoorganización que se puede
utilizar a gran escala. La técnica comienza con la fotolitografía para crear una matriz grabada de
interconexiones, o conexiones entre elementos computacionales. Luego, se deposita en la matriz una
gran cantidad de transistores de efecto de campo de nanocables e interconexiones a nanoescala. Estos
luego se conectan en el patrón correcto. En 2004, investigadores de la Universidad del Sur de California y
el Centro de Investigación Ames de la NASA demostraron un método que autoorganiza circuitos
extremadamente densos en una solución química. La técnica crea nanocables espontáneamente y
luego hace que las células de memoria a nanoescala, cada una capaz de contener tres bits de datos, se
autoensamblen en los cables. La tecnología tiene una capacidad de almacenamiento de 258 gigabits de
datos por pulgada cuadrada que, según los investigadores, podría multiplicarse por diez, en
comparación con los 6,5 gigabits de una tarjeta de memoria flash. También en 2003, IBM demostró un
dispositivo de memoria de trabajo que utiliza polímeros que se autoensamblan en estructuras
hexagonales de veinte nanómetros de ancho. También es importante que los nanocircuitos se
autoconfiguren. La gran cantidad de componentes del circuito y su fragilidad inherente, debido a su
pequeño tamaño, hacen que sea inevitable que algunas partes de un circuito no funcionen
correctamente. No sería económicamente factible descartar un circuito completo simplemente porque
una pequeña cantidad de transistores de un billón no funcionen. Para abordar esta preocupación, los
circuitos futuros monitorearán continuamente su propio desempeño y enrutarán la información
alrededor de las secciones que no son confiables, de la misma manera que la información en Internet
se enruta alrededor de los nodos que no funcionan. IBM ha sido particularmente activa en esta área de
investigación y ya ha desarrollado diseños de microprocesadores que automáticamente diagnostican
problemas y reconfiguran los recursos del chip en consecuencia.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 23/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
proteína a la celda de cada nanogrid, que podría usarse para realizar operaciones informáticas.
También demostraron un proceso químico que recubría las nanocintas de ADN con plata para crear
nanocables. Comentando el artículo del número del 26 de septiembre de 2003 de la revista Science, el
investigador principal, Hao Yan, dijo: «Durante años se ha buscado usar el autoensamblaje del ADN para
moldear moléculas de proteínas u otras moléculas, y esta es la primera vez que ha sido demostrado tan
claramente«. El ADN es la propia computadora de nanoingeniería de la naturaleza, y su capacidad para
almacenar información y realizar manipulaciones lógicas a nivel molecular ya ha sido explotada en
«computadoras de ADN» especializadas. Una computadora de ADN es esencialmente un tubo de
ensayo lleno de agua que contiene billones de moléculas de ADN, y cada molécula actúa como una
computadora.
El objetivo del cálculo es resolver un problema, con la solución expresada como una secuencia de
símbolos. Por ejemplo, la secuencia de símbolos podría representar una prueba matemática o
simplemente los dígitos de un número. Así es como funciona una computadora de ADN. Se crea una
pequeña hebra de ADN utilizando un código único para cada símbolo. Cada cadena de este tipo se
replica billones de veces mediante un proceso llamado «reacción en cadena de la polimerasa» (PCR). Estos
conjuntos de ADN se colocan luego en un tubo de ensayo. Debido a que el ADN tiene afinidad para
unir cadenas, se forman cadenas largas automáticamente, con secuencias de cadenas que representan
los diferentes símbolos, cada uno de ellos una posible solución al problema. Dado que habrá muchos
trillones de hilos de este tipo, hay varios hilos para cada respuesta posible, es decir, cada secuencia
posible de símbolos. El siguiente paso del proceso es probar todos los hilos simultáneamente. Esto se
hace mediante el uso de enzimas especialmente diseñadas que destruyen las hebras que no cumplen
con ciertos criterios. Las enzimas se aplican al tubo de ensayo secuencialmente y, al diseñar una serie
precisa de enzimas, el procedimiento eliminará finalmente todas las hebras incorrectas, dejando solo
las que tengan la respuesta correcta. La clave del poder de la computación de ADN es que permite
probar cada uno de los billones de hilos simultáneamente. En 2003, científicos israelíes dirigidos por
Ehud Shapiro en el Instituto de Ciencias Weizmann combinaron ADN con trifosfato de adenosina (ATP),
el combustible natural para sistemas biológicos como el cuerpo humano. Con este método, cada una
de las moléculas de ADN pudo realizar cálculos y proporcionar su propia energía. Los científicos del
Instituto de Ciencias Weizmann demostraron una configuración que constaba de dos cucharadas de este
sistema de supercomputación líquida, que contenía treinta billones de billones de computadoras
moleculares y realizaba un total de 660 billones de cálculos por segundo. El consumo de energía de
estas computadoras es extremadamente bajo, solo cincuenta millonésimas de vatio para los treinta
billones de computadoras. Sin embargo, existe una limitación para la computación de ADN, ya que
cada uno de los muchos billones de computadoras tiene que realizar la misma operación al mismo
tiempo, aunque con diferentes datos, de modo que el dispositivo es una arquitectura de «datos
múltiples de instrucción única» (SIMD). Si bien hay clases importantes de problemas que pueden
resolverse en un sistema SIMD, como, por ejemplo, procesar cada píxel de una imagen para mejorar o
comprimir la imagen y resolver problemas de lógica combinatoria, no es posible programarlos para
algoritmos de propósito general, en el que cada ordenador es capaz de ejecutar cualquier operación
necesaria para su misión particular.
Además de su carga eléctrica negativa, los electrones tienen otra propiedad que puede aprovecharse
para la memoria y la computación: el espín. Según la mecánica cuántica, los electrones giran sobre un
eje, de forma similar a como la Tierra gira sobre su eje. Este concepto es teórico, porque se considera
que un electrón ocupa un punto en el espacio, por lo que es difícil imaginar un punto sin tamaño que,
sin embargo, gire. No obstante, cuando una carga eléctrica se mueve, provoca un campo magnético
que es real y medible. Un electrón puede girar en una de dos direcciones, descritas como «arriba» y
«abajo«, por lo que esta propiedad puede explotarse para el cambio lógico o para codificar un poco de
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 24/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
MRAM almacena información en aleaciones metálicas ferromagnéticas, que son adecuadas para el
almacenamiento de datos pero no para las operaciones lógicas de un microprocesador. El santo grial
de la espintrónica sería lograr efectos prácticos de la espintrónica en un semiconductor, lo que nos
permitiría utilizar la tecnología tanto para la memoria como para la lógica. La fabricación de chips
actual se basa en silicio, que no tiene las propiedades magnéticas requeridas. En marzo de 2004, un
grupo internacional de científicos informó que al dopar una mezcla de silicio y hierro con cobalto, el
nuevo material podía mostrar las propiedades magnéticas necesarias para la espintrónica mientras
mantenía la estructura cristalina que requiere el silicio como semiconductor. Parece claro un papel
importante para la espintrónica en el futuro de la memoria de las computadoras, y es probable que
también contribuya a los sistemas lógicos. El espín de un electrón es una propiedad cuántica. sujeta a
las leyes de la mecánica cuántica, por lo que quizás la aplicación más importante de la espintrónica sea
en los sistemas de computación cuántica, utilizando el espín de los electrones entrelazados
cuánticamente para representar qubits. El espín también se ha utilizado para almacenar información en
el núcleo de los átomos, utilizando la compleja interacción de los momentos magnéticos de sus
protones. Los científicos de la Universidad de Oklahoma también demostraron una técnica de «fotografía
molecular» para almacenar 1.024 bits de información en una sola molécula de cristal líquido que
comprende diecinueve átomos de hidrógeno. Otro enfoque de la computación Single Instruction,
Multiple Data (SIMD), «una instrucción, múltiples datos» es una técnica empleada para conseguir
paralelismo a nivel de datos. SIMD consiste en utilizar múltiples haces de luz láser en los que la
información se codifica en cada flujo de fotones. Entonces, los componentes ópticos pueden usarse
para realizar funciones lógicas y aritméticas en los flujos de información codificada. Por ejemplo, un
sistema desarrollado por Lenslet, una pequeña empresa israelí, utiliza 256 láseres y puede realizar ocho
billones de cálculos por segundo, realizando el mismo cálculo en cada uno de los 256 flujos de datos.
El sistema se puede utilizar para aplicaciones tales como realizar la compresión de datos en 256
canales de video.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 25/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Las tecnologías SIMD, como las computadoras de ADN y las computadoras ópticas, desempeñarán
funciones especializadas importantes en el futuro de la computación. La replicación de ciertos
aspectos de la funcionalidad del cerebro humano, como el procesamiento de datos sensoriales, puede
utilizar arquitecturas SIMD. Para otras regiones del cerebro, como las que se ocupan del aprendizaje y
el razonamiento, se requerirá computación de propósito general con sus arquitecturas de «múltiples
instrucciones, múltiples datos» (MIMD). Para la computación MIMD de alto rendimiento, necesitaremos
aplicar los paradigmas de computación molecular tridimensional descritos anteriormente. La
computación cuántica es una forma aún más radical de procesamiento paralelo SIMD, pero se
encuentra en una etapa de desarrollo mucho más temprana en comparación con las otras nuevas
tecnologías que hemos discutido. Una computadora cuántica contiene una serie de qubits, que
esencialmente son cero y uno al mismo tiempo. El qubit se basa en la ambigüedad fundamental
inherente a la mecánica cuántica. En una computadora cuántica, los qubits están representados por una
propiedad cuántica de las partículas, por ejemplo, el estado de espín de los electrones individuales.
Cuando los qubits están en un estado de «superposición cuántica«, cada uno está simultáneamente en
ambos estados. En un proceso llamado «decoherencia cuántica«, se resuelve la ambigüedad de cada
qubit, dejando una secuencia inequívoca de unos y ceros. Si la computadora cuántica está configurada
de la manera correcta, esa secuencia decoherente representará la solución a un problema.
Esencialmente, solo la secuencia correcta sobrevive al proceso de decoherencia. Al igual que con la
computadora de ADN descrita anteriormente, una clave para la computación cuántica exitosa es una
declaración cuidadosa del problema, incluida una forma precisa de probar las posibles respuestas. La
computadora cuántica prueba efectivamente todas las combinaciones posibles de valores para los
qubits. Entonces, una computadora cuántica con mil qubits probaría 21000 de soluciones potenciales
simultáneamente. Una computadora cuántica de mil qubits superaría con creces a cualquier
computadora de ADN concebible o, en realidad, a cualquier computadora no cuántica concebible. Sin
embargo, existen dos limitaciones en el proceso. La primera es que, como el ADN y las computadoras
ópticas discutidas anteriormente, solo un conjunto especial de problemas es susceptible de ser
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 26/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
presentado a una computadora cuántica. En esencia, necesitamos poder probar cada respuesta posible
de una manera simple. Las clases interesantes de problemas que se pueden resolver con la
computación cuántica incluyen descifrar códigos de encriptación. El otro problema es que la potencia
computacional de una computadora cuántica depende de la cantidad de qubits entrelazados. En efecto,
todos los qubits tienen que estar entrelazados cuánticamente, y eso ha demostrado ser un desafío.
Una pregunta clave es: ¿qué tan difícil es agregar cada qubit adicional? El poder computacional de una
computadora cuántica crece exponencialmente con cada qubit agregado, pero si resulta que agregar
cada qubit adicional hace que la tarea de ingeniería sea exponencialmente más difícil, no estaremos
ganando ningún apalancamiento. Es decir, el poder computacional de una computadora cuántica será
solo linealmente proporcional a la dificultad de ingeniería. En general, los métodos propuestos para
agregar qubits hacen que los sistemas resultantes sean significativamente más delicados y susceptibles
a una decoherencia prematura. Hay propuestas para aumentar significativamente el número de qubits.
Por ejemplo, Stephan Gulde y sus colegas de la Universidad de Innsbruck han construido una
computadora cuántica usando un solo átomo de calcio que tiene el potencial de codificar
simultáneamente docenas de qubits, posiblemente hasta cien, usando diferentes propiedades cuánticas
dentro del átomo. Pero incluso si una computadora cuántica con cientos de qubits entrelazados resulta
factible, seguirá siendo un dispositivo de propósito especial, aunque con capacidades notables que no
se pueden emular de ninguna otra manera. Cuando Kurzweil sugirió en su libro La era de las máquinas
espirituales que la computación molecular sería el sexto paradigma informático principal, la idea
seguía siendo controvertida. Ha habido tanto progreso en los últimos años que ha habido un cambio
radical en la actitud de los expertos, y esta es ahora una opinión generalizada. Ya tenemos pruebas de
concepto para todos los requisitos principales de la computación molecular tridimensional, tales como
transistores de una sola molécula, celdas de memoria basadas en átomos, nanocables y métodos para
autoensamblar y autodiagnosticar los potenciales billones de billones de componentes. La electrónica
contemporánea procede desde los diseños detallados de chips hasta la fotolitografía y la fabricación de
chips en grandes fábricas centralizadas. Es más probable que se creen nanocircuitos en pequeños
frascos de sustancias químicas, un desarrollo que será otro paso importante en la descentralización de
nuestra infraestructura industrial y mantendrá la ley de rendimientos acelerados a lo largo de este
siglo XXI y más allá.
Otra estimación proviene del trabajo del neurocientífico Lloyd Watts y sus colegas sobre la creación de
simulaciones funcionales de regiones del sistema auditivo humano. Una de las funciones del software
desarrollado por Watts es una tarea llamada «separación de flujo«, que se utiliza en teleconferencias y
otras aplicaciones para lograr la telepresencia, como la localización de cada participante en una
teleconferencia de audio remota. Para lograr esto, explica Watts, significa «medir con precisión el tiempo
de retraso entre los sensores de sonido que están separados en el que ambos reciben el sonido«. El proceso
implica el análisis de tono, la posición espacial y las señales del habla, incluidas las señales específicas
del idioma. «Una de las señales importantes que utilizan los humanos para localizar la posición de una fuente
de sonido es la diferencia de tiempo interaural (ITD), es decir, la diferencia en el tiempo de llegada de los sonidos
a los dos oídos«. El propio grupo de Watts ha creado recreaciones funcionalmente equivalentes de estas
regiones del cerebro derivadas de la ingeniería inversa. Estima que se requieren 1011 cps (ciclos por
segundo) para lograr la localización de sonidos a nivel humano. Las regiones de la corteza auditiva
responsables de este procesamiento comprenden al menos el 0,1 por ciento de las neuronas del
cerebro. Así que nuevamente llegamos a una estimación aproximada de alrededor de 1014 cps. Otra
estimación proviene de una simulación en la Universidad de Texas que representa la funcionalidad de
una región del cerebelo que contiene 104 neuronas; esto requirió alrededor de 108 cps, o alrededor de
104 cps por neurona. Extrapolando esto sobre un estimado de 1011 neuronas da como resultado una
cifra estimada de alrededor de 1015 cps para todo el cerebro. Parece claro que podemos emular la
funcionalidad de las regiones del cerebro con menos computación de la que se requeriría para simular
la operación no lineal precisa de cada neurona y todos los componentes neuronales, es decir, todas las
interacciones complejas que tienen lugar dentro de cada neurona. Se llega a la misma conclusión
cuando intentamos simular la funcionalidad de los órganos del cuerpo. Por ejemplo, se están
probando dispositivos implantables que simulan la funcionalidad del páncreas humano para regular
los niveles de insulina. Estos dispositivos funcionan midiendo los niveles de glucosa en la sangre y
liberando insulina de manera controlada para mantener los niveles en un rango adecuado. Si bien
siguen un método similar al de un páncreas biológico, no intentan, sin embargo, simular cada célula
de los islotes pancreáticos, y no habría ninguna razón para hacerlo.
La simulación funcional del cerebro es suficiente para recrear los poderes humanos de reconocimiento
de patrones, intelecto e inteligencia emocional. Por otro lado, si queremos «cargar» la personalidad de
una persona en particular, es decir, capturar todos sus conocimientos, habilidades y personalidad,
entonces es posible que necesitemos simular procesos neuronales a nivel de neuronas individuales y
porciones de neuronas, como el soma (cuerpo celular), el axón (conexión de salida), las dendritas
(árboles de conexiones entrantes) y las sinapsis (regiones que conectan axones y dendritas) . Para esto,
necesitamos mirar modelos detallados de neuronas individuales. El número de conexiones
interneuronales por neurona se estima en 103. Con una estimación de 1011 neuronas, eso representa
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 28/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
alrededor de 1014 conexiones. Con un tiempo de reinicio de cinco milisegundos, eso equivale a unas
1016 transacciones sinápticas por segundo. Las simulaciones del modelo de neuronas indican la
necesidad de alrededor de 103 cálculos por transacción sináptica para capturar las interacciones
complejas en las dendritas y otras regiones neuronales, lo que da como resultado una nueva
estimación general de alrededor de 1019 cps para simular el cerebro humano a este nivel. Por lo tanto,
podemos considerar esto como un límite superior para lograr la equivalencia funcional de todas las
regiones del cerebro. La supercomputadora Blue Gene/L de IBM, ya proporciona 360 billones de
cálculos por segundo (3,6×1014 cps). Esta cifra ya es mayor que las estimaciones más bajas descritas
anteriormente. Blue Gene/L también tiene alrededor de cien terabytes (alrededor de 1015 bits) de
almacenamiento principal, más que nuestra estimación de memoria para la emulación funcional del
cerebro humano. De acuerdo con las predicciones anteriores, las supercomputadoras alcanzarán
durante esta década de 2020 unos 1016 cps para la emulación del cerebro humano funcional. Las
computadoras personales actuales ya proporcionan más de 109 cps y se prevé que alcanzaran los 1016
antes de finales de la década de 2020. Sin embargo, hay varias formas en que se puede acelerar esta
línea de tiempo. En lugar de utilizar procesadores de uso general, se pueden utilizar circuitos
integrados específicos de la aplicación (ASIC) para proporcionar una mejor relación precio-
rendimiento para cálculos muy repetitivos. Dichos circuitos ya proporcionan un rendimiento
computacional extremadamente alto para los cálculos repetitivos que se utilizan para generar
imágenes en movimiento en los videojuegos. Los ASIC pueden multiplicar por mil la relación precio-
rendimiento, reduciendo el tiempo para lograrlo. Los variados programas que comprenderá una
simulación del cerebro humano también incluirán una gran cantidad de repeticiones y, por lo tanto,
serán susceptibles de implementación de ASIC. El cerebelo, por ejemplo, repite un patrón de cableado
básico miles de millones de veces.
generalmente prefieren el rápido cambio de las simulaciones de software. Pero, ¿cómo se compara la
capacidad computacional con la capacidad de la memoria humana? Resulta que llegamos a
estimaciones de marco de tiempo similares si observamos los requisitos de memoria humana. El
número de «fragmentos» de conocimiento dominados por un experto en un dominio es de
aproximadamente 105 para una variedad de dominios. Estos fragmentos representan patrones, como
las caras de personas, así como conocimientos específicos. Por ejemplo, se estima que un maestro de
ajedrez de clase mundial ha dominado unas 100.000 posiciones en el tablero. Shakespeare usó 29,000
palabras pero cerca de 100,000 significados de esas palabras. El desarrollo de sistemas expertos en
medicina indica que los humanos pueden dominar unos 100.000 conceptos en un dominio. Si
estimamos que este conocimiento «profesional» representa tan solo el 1% del patrón general y el
almacenamiento de conocimiento de un ser humano, llegamos a una estimación de 107 fragmentos.
La mayor parte de la complejidad de una neurona humana se dedica a mantener sus funciones de
soporte vital, no a sus capacidades de procesamiento de información. En última instancia, seremos
capaces de trasladar nuestros procesos mentales a un sustrato computacional más adecuado. Entonces
nuestras mentes no tendrán que permanecer tan pequeñas. Ya hemos tenido cinco paradigmas:
calculadoras electromecánicas, computación basada en relés, tubos de vacío, transistores discretos y
circuitos integrados, que han proporcionado un crecimiento exponencial a la relación precio-
rendimiento y las capacidades de computación. Cada vez que un paradigma llegaba a sus límites, otro
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 30/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
paradigma tomaba su lugar. Ya podemos ver los contornos del sexto paradigma, que llevará la
computación a la tercera dimensión molecular. Debido a que la computación subyace en los cimientos
de todo lo que nos importa, desde la economía hasta el intelecto humano y la creatividad, bien
podríamos preguntarnos: ¿existen límites definitivos para la capacidad de la materia y la energía para
realizar la computación? Si es así, ¿cuáles son estos límites y cuánto tiempo llevará alcanzarlos?
Nuestra inteligencia humana se basa en procesos computacionales que estamos aprendiendo a
comprender. En última instancia, multiplicaremos nuestros poderes intelectuales aplicando y
ampliando los métodos de la inteligencia humana utilizando la capacidad mucho mayor de la
computación no biológica. Entonces, considerar los límites últimos de la computación es realmente
preguntar: ¿cuál es el destino de nuestra civilización? Un desafío común a estas ideas es que estas
tendencias exponenciales deben alcanzar un límite, como lo hacen comúnmente las tendencias
exponenciales. Cuando una especie se encuentra con un nuevo hábitat, como en el famoso ejemplo de
los conejos en Australia, su número crece exponencialmente por un tiempo. Pero finalmente alcanza
los límites de la capacidad de ese entorno para soportarlo. Seguramente el procesamiento de la
información debe tener limitaciones similares. Resulta que, sí, existen límites para el cálculo basado en
las leyes de la física. Pero estos aún permiten una continuación del crecimiento exponencial hasta que
la inteligencia no biológica sea billones de billones de veces más poderosa que toda la civilización
humana actual, incluidas las computadoras contemporáneas. Un factor importante al considerar los
límites computacionales es el requerimiento de energía. No obstante, la energía requerida por los
MIPS necesarios para los dispositivos informáticos ha ido cayendo también exponencialmente.
Sin embargo, también sabemos que la cantidad de MIPS en los dispositivos informáticos ha ido
creciendo exponencialmente. La medida en que las mejoras en el uso de energía han seguido el ritmo
de la velocidad del procesador depende de la medida en que usamos el procesamiento paralelo. Una
mayor cantidad de computadoras menos poderosas pueden funcionar inherentemente más frías
porque el cálculo se extiende sobre un área más grande. La velocidad del procesador está relacionada
con el voltaje y la potencia requerida es proporcional al cuadrado del voltaje. Por lo tanto, ejecutar un
procesador a una velocidad más lenta reduce significativamente el consumo de energía. Si invertimos
en más procesamiento paralelo en lugar de procesadores individuales más rápidos, es factible que el
consumo de energía y la disipación de calor se mantengan al ritmo del crecimiento de MIPS por dólar.
Esta es esencialmente la misma solución que la evolución biológica desarrolló en el diseño de cerebros
de animales. Los cerebros humanos usan alrededor de cien billones de computadoras, como son las
conexiones interneuronales, donde tiene lugar la mayor parte del procesamiento. Pero estos
procesadores tienen muy poca potencia computacional y, por lo tanto, funcionan relativamente bien.
Hasta hace poco, la empresa Intel enfatizó el desarrollo de procesadores de un solo chip cada vez más
rápidos, que han estado funcionando a temperaturas cada vez más altas. Pero Intel está cambiando
gradualmente su estrategia hacia la paralelización al colocar múltiples procesadores en un solo chip.
Veremos que la tecnología de chips avanza en esta dirección como una forma de mantener bajo control
los requisitos de energía y la disipación de calor. En última instancia, organizar la computación con
procesamiento paralelo masivo, como se hace en el cerebro humano, no será suficiente por sí solo para
mantener los niveles de energía y la disipación térmica resultante a niveles razonables. El paradigma
informático actual se basa en lo que se conoce como computación irreversible, lo que significa que, en
principio, no podemos ejecutar programas de software hacia atrás. En cada paso de la progresión de
un programa, los datos de entrada se descartan (borran) y los resultados del cálculo pasan al siguiente
paso. Los programas generalmente no retienen todos los resultados intermedios, ya que eso
consumiría grandes cantidades de memoria innecesariamente. Este borrado selectivo de la
información de entrada es particularmente cierto para los sistemas de reconocimiento de patrones.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 31/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Los sistemas de visión, por ejemplo, ya sean humanos o artificiales, reciben tasas de entrada muy altas
de los ojos o sensores visuales, pero producen salidas relativamente compactas, como la identificación
de patrones reconocidos. El acto de borrar datos genera calor y por lo tanto requiere energía. Cuando
se borra un poco de información, esa información tiene que ir a alguna parte. De acuerdo con las leyes
de la termodinámica, el bit borrado se libera esencialmente en el entorno circundante, lo que aumenta
su entropía, que puede verse como una medida de información, incluida la información
aparentemente desordenada, en un entorno. Esto da como resultado una temperatura más alta para el
medio ambiente, porque la temperatura es una medida de entropía, que implica cualquier
degradación que exista en la materia o en la energía, llevándola a un estado inerte. En términos de
informática podemos entender la entropía como la medida de la incertidumbre generada ante una
cantidad de mensajes cuando solo se espera recibir uno. Si, por otro lado, no borramos cada bit de
información contenido en la entrada de cada paso de un algoritmo, sino que simplemente lo movemos
a otra ubicación, ese bit permanece en la computadora y no se libera al medio ambiente. Por lo tanto,
no genera calor y no requiere energía del exterior de la computadora. El concepto fundamental en la
computación reversible es que si se mantienen todos los resultados intermedios y luego se ejecuta el
algoritmo hacia atrás cuando haya terminado su cálculo, terminará donde comenzó, sin usar energía
ni generar calor. En el camino, sin embargo, ha calculado el resultado del algoritmo. Ya hemos visto
que los átomos pueden almacenar información a una densidad superior a un bit por átomo, como en
los sistemas informáticos construidos a partir de dispositivos de resonancia magnética nuclear.
Investigadores de la Universidad de Oklahoma almacenaron 1.024 bits en las interacciones magnéticas de
los protones de una sola molécula que contiene diecinueve átomos de hidrógeno. Si, por otro lado,
organizamos las partículas de una simple roca de una manera útil, podríamos tener una computadora
genial, sin consumo de energía, con una memoria de alrededor de mil billones de billones de bits y
una capacidad de procesamiento de 1042 operaciones por segundo. que es aproximadamente diez
billones de veces más poderoso que todos los cerebros humanos en la Tierra, incluso si usamos la
estimación más conservadora.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 32/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Una observación clave con respecto a la Singularidad es que los procesos de información (computación)
finalmente impulsarán todo lo que es importante. Esta base primaria para la tecnología futura parece
no requerir energía. Pero la realidad práctica es un poco más complicada. Si realmente queremos
averiguar los resultados de un cálculo, es decir, recibir la salida de una computadora, el proceso de
copiar la respuesta y transmitirla fuera de la computadora es un proceso irreversible, que genera calor
por cada bit transmitido. Sin embargo, para la mayoría de las aplicaciones de interés, la cantidad de
cómputo que se requiere para ejecutar un algoritmo supera ampliamente el cómputo requerido para
comunicar las respuestas finales, por lo que este último no cambia apreciablemente la ecuación de
energía. Sin embargo, debido a los efectos térmicos y cuánticos esencialmente aleatorios, las
operaciones lógicas tienen una tasa de error inherente. Podemos superar los errores usando códigos de
detección y corrección de errores, pero cada vez que corregimos un poco, la operación no es reversible,
lo que significa que requiere energía y genera calor. En general, las tasas de error son bajas. Pero
incluso si los errores ocurren a razón de, digamos, uno por cada 1010 operaciones, solo hemos logrado
reducir los requisitos de energía por un factor de 1010, no eliminando la disipación de energía por
completo. A medida que consideramos los límites de la computación, el problema de la tasa de error
se convierte en un problema de diseño importante. Ciertos métodos para aumentar la tasa
computacional, como aumentar la frecuencia de la oscilación de las partículas, también aumentan las
tasas de error, por lo que esto pone límites naturales a la capacidad de realizar cálculos utilizando
materia y energía. Otra tendencia importante con relevancia aquí será el alejamiento de las baterías
convencionales hacia celdas de combustible diminutas, que son dispositivos que almacenan energía en
productos químicos, como formas de hidrógeno, que se combinan con el oxígeno disponible. Las
celdas de combustible ya se están construyendo utilizando la tecnología MEMS (sistemas mecánicos
microelectrónicos). A medida que avanzamos hacia la computación molecular tridimensional con
características a nanoescala, los recursos energéticos en forma de celdas de nanocombustible se
distribuirán ampliamente en todo el medio informático entre los procesadores paralelos masivos.
Incluso con las restricciones que hemos relatado, los límites finales de las computadoras son
enormemente altos. La cantidad potencial de computación aumenta con la energía disponible. La
energía en una cantidad de materia es la energía asociada con cada átomo (y partícula subatómica).
Así que cuantos más átomos, más energía. Como se discutió anteriormente, cada átomo puede usarse
potencialmente para el cálculo. Entonces, cuantos más átomos, más computación. La energía de cada
átomo o partícula crece con la frecuencia de su movimiento: cuanto más movimiento, más energía. La
misma relación existe para el cálculo potencial: cuanto mayor sea la frecuencia de movimiento, más
cálculo puede realizar cada componente, que puede ser un átomo. Vemos esto en los chips
contemporáneos: cuanto mayor sea la frecuencia del chip, mayor será su velocidad computacional.
Entonces, existe una relación proporcional directa entre la energía de un objeto y su potencial para
realizar cálculos. Si usamos la cifra de 1016 cps, una computadora portátil podría realizar el
equivalente de todo el pensamiento humano durante los últimos diez mil años en una diezmilésima
de nanosegundo. Al analizar la entropía máxima, o los grados de libertad representados por el estado
de todas las partículas, en dicho dispositivo, Lloyd muestra que tal computadora tendría una
capacidad de memoria teórica de 1031 bits. Es difícil imaginar tecnologías que lleguen hasta el final
para alcanzar estos límites. Pero podemos imaginar fácilmente tecnologías que se acerquen
razonablemente a hacerlo. Como muestra el proyecto de la Universidad de Oklahoma, ya se ha
demostrado la capacidad de almacenar al menos cincuenta bits de información por átomo. Almacenar
1027 bits de memoria en los 1025 átomos en un kilogramo de materia, por lo tanto, debería ser
eventualmente alcanzable. Pero debido a que muchas propiedades de cada átomo podrían explotarse
para almacenar información, como la posición precisa, el espín y el estado cuántico de todas sus
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 33/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
partículas, probablemente podrían ampliarse los 1027 bits. El neurocientífico Anders Sandberg estima
la capacidad potencial de almacenamiento de un átomo de hidrógeno en unos cuatro millones de bits.
Sin embargo, estas densidades aún no se han demostrado, por lo que es mejor utilizar una estimación
más conservadora. Como se indicó anteriormente, se podrían lograr 1042 cálculos por segundo sin
producir calor significativo. Al implementar completamente técnicas de computación reversibles, usar
diseños que generan bajos niveles de errores y permitir cantidades razonables de disipación de
energía, deberíamos terminar entre 1042 y 1050 cps (cálculos por segundo). No obstante, el terreno de
diseño entre estos dos límites es complejo. Entonces, una vez que lleguemos a una civilización con
1042 cps por cada kilo, los científicos e ingenieros de ese día usarán su inteligencia no biológica para
averiguar cómo obtener más cps y así sucesivamente. Kurzweil cree que nos acercaremos mucho a los
límites finales.
Pero incluso si tiene la misma capacidad que nuestro propio cerebro, esta parte no biológica de nuestra
inteligencia será más poderosa porque combinará los poderes de reconocimiento de patrones de la
inteligencia humana con la capacidad de compartir memoria y las habilidades y la precisión de la
memoria de las máquinas. La parte no biológica siempre operará al máximo de su capacidad, lo que
está lejos de ser el caso de la humanidad biológica actual. Sin embargo, este estado de computación a
principios de la década de 2030 no representará la Singularidad, porque todavía no corresponde a una
profunda expansión de nuestra inteligencia. Sin embargo, a mediados de la década de 2040, ese valor
de cómputo de mil dólares probablemente equivaldrá a 1026 cps, por lo que la inteligencia creada por
año será aproximadamente mil millones de veces más poderosa que todas las inteligencias humanas
hoy. De hecho, eso representará un cambio profundo. y es por esa razón que Kurzweil fija la fecha
para la Singularidad, que representa una transformación profunda y disruptiva en la capacidad
humana, para el 2045. A pesar del claro predominio de la inteligencia no biológica a mediados de la
década de 2040, la nuestra seguirá siendo una civilización humana. Trascenderemos la biología, pero
no nuestra humanidad. Volviendo a los límites de la computación según la física, las estimaciones
anteriores se expresaron en términos de computadoras portátiles porque ese es un factor de forma
familiar en la actualidad. Sin embargo, para la segunda década de este siglo, la mayor parte de la
computación no estará organizada en dispositivos de este tipo, sino que estará muy distribuida por
todo el entorno. La informática estará en todas partes: en las paredes, en nuestros muebles, en
nuestros electrodomésticos, en nuestra ropa y en nuestros cuerpos y cerebros. Y, por supuesto, la
civilización humana no se limitará a computar con unos cuantos kilos de materia, sino que debemos
plantear el potencial computacional no solo a nivel de un planeta del tamaño de la Tierra, sino en
computadoras a la escala de los sistemas solares, de las galaxias y de todo el universo conocido. Como
veremos, la cantidad de tiempo requerida para que nuestra civilización humana alcance escalas de
cómputo e inteligencia que van más allá de nuestro planeta y hacia el universo puede ser mucho más
corta de lo que hubiésemos podido pensar. Tal como hemos dicho, Kurzweil prevé la fecha de la
Singularidad, que representa una transformación profunda y disruptiva en la capacidad humana, en el
año 2045, para el que solo faltan 23 años. La inteligencia no biológica en ese año será mil millones de
veces más poderosa que toda la inteligencia humana actual.
Es sorprendente hasta qué punto la evolución biológica ha sido capaz de pasar de sistemas
esencialmente sin inteligencia, como podría ser una roca ordinaria, que no realiza ningún cálculo útil,
a la capacidad última de la materia para realizar cálculos con un determinado propósito. La evolución
biológica nos llevó a una parte del camino, y la evolución tecnológica, que según los transhumanistas
como Kurzweil representa una continuación de la evolución biológica, nos llevará muy cerca de esos
límites. Tenemos que tener en cuenta que una roca de 1 kg. tiene del orden de 1027 bits de información
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 34/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
codificada en el estado de sus átomos y alrededor de 1042 cps representados por la actividad de sus
partículas. Podemos usar una piedra para hacer cálculos. Por ejemplo, al dejar caer la piedra desde
una altura particular, podemos calcular la cantidad de tiempo que se tarda en dejar caer un objeto
desde esa altura. Por supuesto, esto representa muy poco cómputo: quizás 1 cps, lo que significa que
su eficiencia computacional es aún muy baja. En comparación, ¿qué podemos decir sobre la eficiencia
del cerebro humano? Ya hemos visto antes cómo cada una de las aproximadamente 1014 conexiones
interneuronales puede almacenar aproximadamente 104 bits en las concentraciones de
neurotransmisores de la conexión y las no linealidades sinápticas y dendríticas para un total de 1018
bits. El cerebro humano pesa poco más que la piedra antes mencionada. Sin embargo, a pesar de que
la tecnología avanza exponencialmente, nuestras experiencias están en un mundo lineal, y en una
escala lineal, el cerebro humano está mucho más cerca de la piedra que de la última computadora.
Entonces, ¿cuál es la eficiencia computacional del cerebro? Nuevamente, necesitamos considerar el
principio de equivalencia y usar la estimación de 1016 cps requerida para emular la funcionalidad del
cerebro. Con la capacidad teórica de los átomos del cerebro estimada en 1042 cps, esto nos da una
eficiencia computacional tan baja como de 10–26 . Nuevamente, eso está más cerca de una roca que de
la computadora portátil, incluso en una escala logarítmica.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 35/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Por supuesto, incluso si los mecanismos básicos de la materia en estos rangos proporcionan en teoría
computación universal, todavía tendríamos que idear la ingeniería necesaria para crear cantidades
masivas de elementos informáticos y aprender a controlarlos adecuadamente. Estos son similares a los
desafíos en los que ahora estamos progresando rápidamente en el campo de la nanotecnología. En este
momento, tenemos que considerar la viabilidad de la picocomputación y la femtocomputación como
simplemente especulativa. Pero la nanocomputación proporcionará niveles masivos de inteligencia,
por lo que sí es posible hacerlo, es probable que nuestra inteligencia futura descubra los procesos
necesarios para entrar en la picocomputación y la femtocomputación. El experimento mental que
deberíamos hacer no es si los humanos, tal como los conocemos hoy, serán capaces de diseñar
tecnologías de picocomputación y femtocomputación, sino si la vasta inteligencia de la futura
inteligencia basada en nanotecnología, que será billones de billones de veces más capaz que la
inteligencia humana biológica contemporánea, será capaz de representar estos diseños tecnológicos.
Aunque Kurzweil cree que es probable que nuestra futura inteligencia basada en nanotecnología sea
capaz de diseñar computación a escalas más finas que las actuales, las proyecciones actuales sobre la
Singularidad no se basan en esta especulación. Además de hacer que los soportes informáticos sean
más pequeños, podemos hacerlos más grandes, es decir, podemos replicar estos dispositivos muy
pequeños a gran escala. Con la nanotecnología a gran escala, los recursos informáticos pueden
autorreplicarse y, por lo tanto, pueden convertir rápidamente la masa y la energía en una forma
inteligente. Sin embargo, nos encontramos con la limitación de la velocidad de la luz, porque la
materia del universo se extiende a lo largo de grandes distancias. Pero hay ciertas sugerencias de que
la velocidad de la luz puede no ser inmutable. Los físicos Steve Lamoreaux y Justin Torgerson del
Laboratorio Nacional de Los Álamos analizaron datos de un antiguo reactor nuclear supuestamente
natural que hace dos mil millones de años produjo una reacción de fisión que duró varios cientos de
miles de años en lo que ahora es África occidental. Al examinar los isótopos radiactivos que quedaron
del reactor y compararlos con los isótopos de reacciones nucleares similares actuales, determinaron
que la constante física alfa, o constante de estructura fina, que determina la intensidad de la fuerza
electromagnética, aparentemente ha cambiado en los dos mil millones de años. Esto es de gran
importancia para el mundo de la física, porque la velocidad de la luz es inversamente proporcional a
alfa, y ambas han sido consideradas constantes inmutables. Alfa parece haber disminuido. De
confirmarse, esto implicaría que la velocidad de la luz ha aumentado.
Pero estos resultados exploratorios deberán verificarse cuidadosamente. Si es cierto, pueden tener una
gran importancia para el futuro de nuestra civilización. Si la velocidad de la luz ha aumentado,
presumiblemente no lo ha hecho sólo como resultado del paso del tiempo, sino porque ciertas
condiciones han cambiado. Si la velocidad de la luz ha cambiado debido a circunstancias cambiantes,
eso abre la puerta lo suficiente como para que los vastos poderes de nuestra futura inteligencia y
tecnología abran la puerta de par en par. Este es el tipo de conocimiento científico que los tecnólogos
pueden explotar. La ingeniería humana a menudo toma un efecto natural, frecuentemente sutil, y lo
controla con miras a aprovecharlo y magnificarlo en gran medida. Incluso si nos resultase difícil
aumentar significativamente la velocidad de la luz en las largas distancias del espacio, hacerlo dentro
de los pequeños límites de un dispositivo informático también tendría consecuencias importantes para
ampliar el potencial de la computación. La velocidad de la luz es uno de los límites que restringen los
dispositivos informáticos incluso hoy en día, por lo que la capacidad de aumentarla extendería aún
más los límites de la computación. Exploraremos varios otros enfoques intrigantes para posiblemente
aumentar o eludir la velocidad de la luz. Expandir la velocidad de la luz es, por supuesto,
especulativo hoy en día, y ninguno de los análisis que subyacen a la expectativa de la Singularidad se
basan en esta posibilidad. Otra posibilidad intrigante y altamente especulativa es enviar un proceso
computacional atrás en el tiempo a través de un «agujero de gusano» en el espacio-tiempo. El físico
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 36/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
teórico Todd Brun del Instituto de Estudios Avanzados de Princeton ha analizado la posibilidad de
computar usando lo que él llama una «curva temporal cerrada» (CTC). Según Brun, los CTC podrían
«enviar información (como el resultado de los cálculos) a sus propios conos de luz anteriores«.
Todd Brun no proporciona un diseño para tal dispositivo, pero establece que tal sistema es consistente
con las leyes de la física. Su computadora que viaja en el tiempo tampoco crea la «paradoja del abuelo«,
citada a menudo en discusiones sobre viajes en el tiempo. Esta conocida paradoja señala que si una
persona retrocede en el tiempo, podría matar a su abuelo, lo que provocaría que esta persona no
existiera, lo que daría como resultado que su abuelo no fuera asesinado por él, por lo que esta persona
existiría y, por lo tanto, podría regresar y matar a su abuelo, y así hasta el infinito. El proceso
computacional de extensión del tiempo de Brun no parece presentar este problema porque no afecta el
pasado. Produce una respuesta determinada e inequívoca en el presente a una pregunta planteada. La
pregunta debe tener una respuesta clara, y la respuesta no se presenta hasta después de formular la
pregunta, aunque el proceso para determinar la respuesta puede tener lugar antes de que se formule
la pregunta utilizando una «curva temporal cerrada» (CTC). Por el contrario, el proceso podría tener
lugar después de hacer la pregunta y luego usar un CTC para devolver la respuesta al presente, pero
no antes de que se hiciera la pregunta, porque eso introduciría la paradoja del abuelo. Es muy posible
que existan barreras (o limitaciones) fundamentales para dicho proceso que aún no comprendemos,
pero esas barreras aún no se han identificado. Si es factible, ampliaría enormemente el potencial de la
computación local. Una vez más, todas las estimaciones de las capacidades computacionales y de las
capacidades de la Singularidad no se basan en la conjetura tentativa de Brun.
Según el neurocientífico Lloyd Watts hay buenas razones para creer que estamos en un punto de
inflexión y que será posible en esta década de 2020 formular una comprensión significativa de la
función cerebral. Esta visión optimista se basa en varias tendencias medibles y en una simple
observación que se ha probado repetidamente en la historia de la ciencia: los avances científicos son
posibles gracias a un avance tecnológico que nos permite ver lo que no habíamos podido ver antes.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 37/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Aproximadamente a principios del siglo XXI, pasamos por un punto de inflexión detectable tanto en el
conocimiento de la neurociencia como en el poder de la computación. Por primera vez en la historia,
colectivamente sabemos lo suficiente sobre nuestros propios cerebros y hemos desarrollado una
tecnología informática tan avanzada que ahora podemos emprender seriamente la construcción de un
modelo verificable, en tiempo real y de alta resolución de partes significativas de nuestra inteligencia.
El cerebro es una prueba de que cierta disposición de la materia puede producir mente, realizar un
razonamiento inteligente, reconocimiento de patrones, aprendizaje y muchas otras tareas importantes
de interés para la ingeniería. Por lo tanto, podemos aprender a construir nuevos sistemas tomando
prestadas ideas del cerebro. El cerebro también es un sistema evolucionado y desordenado en el que
ocurren muchas interacciones debido a las contingencias evolutivas. Por otro lado, también debe ser
robusto, ya que podemos sobrevivir con él, y ser capaz de soportar variaciones bastante importantes y
agresiones ambientales, por lo que la información verdaderamente valiosa del cerebro podría ser más
cómo crear sistemas complejos resistentes que autoorganizarse bien. Las interacciones dentro de una
neurona son complejas, pero en el siguiente nivel, las neuronas parecen ser objetos algo simples que se
pueden unir de manera flexible en redes. Las redes corticales son un verdadero galimatías a nivel
local, pero nuevamente en el siguiente nivel, la conectividad no es tan compleja. Es probable que la
evolución haya producido una serie de módulos o temas repetitivos que se están reutilizando, y
cuando los comprendamos, así como sus interacciones, podamos hacer algo similar.
Una vez que una computadora alcance un nivel humano de inteligencia, necesariamente lo superará.
Una ventaja clave de la inteligencia no biológica es que las máquinas pueden compartir fácilmente su
conocimiento. Los humanos todavía no podemos acceder o transmitir rápidamente nuestro
conocimiento, que está incrustado en un amplio patrón de concentraciones de neurotransmisores, con
niveles de sustancias químicas en las sinapsis que permiten que una neurona influya en otra, y
conexiones interneuronales, que son porciones de las neuronas llamadas axones y dendritas que
conectan las neuronas. Pero consideremos el caso de la inteligencia de una máquina. En una de las
empresas de Kurzweil, pasaron años enseñando a una computadora de investigación cómo reconocer
el habla humana continua utilizando un software de reconocimiento de patrones. Expusieron la
computadora y el software a miles de horas de voz grabada, se corrigieron sus errores y se mejoro
pacientemente su desempeño entrenando sus «caóticos» algoritmos de autoorganización, métodos que
modifican sus propias reglas, basados en procesos que usan información inicial semi-aleatoria, y con
resultados que no son totalmente predecibles. Finalmente, la computadora se volvió bastante experta
en reconocer el habla. Ahora simplemente se pueden descargar los patrones ya establecidos en
segundos. Un buen ejemplo de la divergencia entre la inteligencia humana y la Inteligencia Artificial
(IA) contemporánea es cómo cada uno emprende la solución de un problema de ajedrez. Los humanos
lo hacemos reconociendo patrones, mientras que las máquinas construyen enormes «árboles» lógicos
de posibles movimientos y contramovimientos. La mayor parte de la tecnología hasta la fecha ha
utilizado este último tipo de enfoque de ingeniería analítico «de arriba hacia abajo«. Pero a medida que
nuestras herramientas para la ingeniería inversa de las formas de la naturaleza están creciendo
rápidamente en sofisticación, la tecnología se está moviendo hacia la emulación de la naturaleza
mientras implementa estas técnicas en sustratos mucho más capaces. El escenario más convincente
para dominar el software de la inteligencia es aprovechar directamente el modelo del mejor ejemplo
que podemos conseguir de un proceso inteligente: el cerebro humano. Aunque su «diseñador» original,
suponiendo que fuese la evolución, tardó varios miles de millones de años en desarrollar el cerebro,
está fácilmente disponible para nosotros, protegido por un cráneo pero con las herramientas
adecuadas que no están ocultas a nuestra vista. Su contenido aún no tiene derechos de autor ni está
patentado, pero ya se han presentado solicitudes de patentes basadas en la ingeniería inversa del
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 39/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
cerebro. Se aplicarán los miles de billones de bytes de información derivados de los escáneres
cerebrales y los modelos neuronales en muchos niveles para diseñar algoritmos paralelos para
nuestras máquinas, particularmente aquellas basadas en paradigmas de auto-organización. Con este
enfoque de auto-organización, no tenemos que intentar replicar cada conexión neuronal. Hay una
gran cantidad de repeticiones y redundancias dentro de cualquier región particular del cerebro. Los
científicos están descubriendo que los modelos de alto nivel de las regiones del cerebro suelen ser más
simples que los modelos detallados de sus componentes neuronales.
Como han especulado Hans Moravec y otros, estas simulaciones funcionales eficientes requieren cerca
de mil veces menos computación de lo que sería necesario si simulamos las no linealidades en cada
dendrita, sinapsis y demás estructura subneural en la región que se simula. La relación de velocidad
real actual entre la electrónica contemporánea y la señalización electroquímica en las conexiones
interneuronales biológicas es de al menos un millón a uno. Encontramos esta misma ineficiencia en
todos los aspectos de nuestra biología, porque la evolución biológica construyó todos sus mecanismos
y sistemas con un conjunto de materiales severamente limitados, como las células, que a su vez están
hechas de un conjunto limitado de proteínas. Aunque las proteínas biológicas son tridimensionales,
están restringidas a moléculas complejas que pueden plegarse a partir de una secuencia lineal
(unidimensional) de aminoácidos. Pero el cerebro no es un único órgano de procesamiento de
información, sino una colección intrincada y entrelazada de cientos de regiones especializadas. El
proceso de «pelar la cebolla» para comprender las funciones de estas regiones intercaladas está en
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 40/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
marcha. A medida que estén disponibles las descripciones de las neuronas necesarias y los datos de
interconexión cerebral, se desarrollarán réplicas detalladas e implementables, como la simulación de
las regiones auditivas, para todas las regiones del cerebro. La mayoría de los algoritmos de modelado
cerebral no son los métodos secuenciales y lógicos que se usan comúnmente en la computación digital
actual. El cerebro biológico tiende a utilizar procesos holográficos, caóticos y de auto-organización, es
decir, información que no se encuentra en un lugar sino que se distribuye por toda una región.
También es masivamente paralelo y utiliza técnicas analógicas híbridas controladas digitalmente. Sin
embargo, una amplia gama de proyectos ha demostrado nuestra capacidad para comprender estas
técnicas y extraerlas de nuestro conocimiento cada vez mayor del cerebro y su organización. Una vez
que se comprenden los algoritmos de una región en particular, se pueden refinar y ampliar antes de
implementarlos en equivalentes neuronales sintéticos. Se pueden ejecutar en un sustrato
computacional que ya es mucho más rápido que los circuitos neuronales. Las computadoras actuales
realizan cálculos en mil millonésimas de segundo, en comparación con las milésimas de segundo para
las transacciones interneuronales. Y también podemos hacer uso de los métodos para construir
máquinas inteligentes que ya conocemos.
Pero, ¿es el cerebro humano diferente de una computadora? La respuesta a esta pregunta depende de
lo que entendamos por la palabra «computadora«. La mayoría de las computadoras de hoy en día son
todas digitales y realizan uno o quizás algunos cálculos a la vez a una velocidad extremadamente alta.
Por el contrario, el cerebro humano combina métodos digitales y analógicos, pero realiza la mayoría
de los cálculos en el dominio analógico (continuo), utilizando neurotransmisores y mecanismos
relacionados. Aunque estas neuronas ejecutan cálculos a velocidades extremadamente lentas,
típicamente doscientas transacciones por segundo, el cerebro en su conjunto es enormemente paralelo,
en que la mayoría de sus neuronas trabajan al mismo tiempo, lo que da como resultado que se lleven a
cabo hasta cien billones de cálculos simultáneamente. El paralelismo masivo del cerebro humano es la
clave de su capacidad de reconocimiento de patrones, que es uno de los pilares del pensamiento de
nuestra especie. Las neuronas de los mamíferos se involucran en una danza caótica, es decir, con
muchas interacciones aparentemente aleatorias, y si la red neuronal ha aprendido bien sus lecciones,
surgirá un patrón estable que reflejará la decisión de la red. Actualmente, los diseños paralelos para
computadoras son algo limitados. Pero no hay ninguna razón por la que recreaciones no biológicas
funcionalmente equivalentes de redes neuronales biológicas no puedan construirse utilizando estos
principios. De hecho, decenas de esfuerzos en todo el mundo ya han tenido éxito en hacerlo. El propio
Kurzweil nos dice que en el reconocimiento de patrones y en los proyectos en los que ha estado
involucrado durante más de cuarenta años utilizan esta forma de computación entrenable y no
determinista. Muchos de los métodos de organización característicos del cerebro también se pueden
simular de manera efectiva utilizando computación convencional de potencia suficiente. Duplicar los
paradigmas de diseño de la naturaleza será, según Kurzweil, una tendencia clave en la informática del
futuro. También debemos tener en cuenta que la computación digital puede ser funcionalmente
equivalente a la computación analógica, es decir, podemos realizar todas las funciones de una red
híbrida digital-analógica con una computadora totalmente digital. Lo contrario no es cierto: no
podemos simular todas las funciones de una computadora digital con una analógica. Sin embargo, la
computación analógica tiene una ventaja de ingeniería, ya que es potencialmente miles de veces más
eficiente. Un cálculo analógico puede ser realizado por unos pocos transistores o, en el caso de las
neuronas de los mamíferos, por procesos electroquímicos específicos. Una computación digital, por el
contrario, requiere miles o decenas de miles de transistores. Por otro lado, esta ventaja se puede
compensar con la facilidad de programar y modificar simulaciones digitales basadas en computadora.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 41/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Hay una serie de otras formas clave en las que el cerebro se diferencia de una computadora
convencional. Los circuitos del cerebro son muy lentos. Los tiempos de reinicio sináptico y
estabilización de neuronas, la cantidad de tiempo requerida para que una neurona y sus sinapsis se
reinicien después de que la neurona se active, son tan lentos que hay muy pocos ciclos de activación
de neuronas disponibles para tomar decisiones de reconocimiento de patrones. Las imágenes de
resonancia magnética funcional (fMRI) y las exploraciones de magnetoencefalografía (MEG) muestran que
los juicios que no requieren resolver ambigüedades parecen realizarse en un solo ciclo de activación de
neuronas en menos de veinte milisegundos, lo que implica esencialmente que no se efectúa ningún
proceso iterativo (repetido). El reconocimiento de objetos ocurre en alrededor de 150 milisegundos, de
modo que incluso si «pensamos algo«, el número de ciclos de operación se mide en cientos o miles como
máximo, no en miles de millones, como con una computadora típica. Pero por contra, el cerebro
biológico es masivamente paralelo. El cerebro tiene del orden de cien billones de conexiones
interneuronales, cada una de las cuales potencialmente procesa información simultáneamente. Estos
dos factores, tiempo de ciclo lento y paralelismo masivo, dan como resultado un cierto nivel de
capacidad computacional para el cerebro. Pero ya actualmente nuestras supercomputadoras más
grandes se acercan a este rango. Las supercomputadoras líderes alcanzan más de 1014 cps (cálculos
por segundo), lo que coincide con el rango inferior de las estimaciones para la simulación funcional.
Sin embargo, no es necesario utilizar la misma granularidad de procesamiento paralelo que el propio
cerebro, siempre que coincidamos con la velocidad computacional general y la capacidad de memoria
necesarias o, al contrario, simulemos la arquitectura paralela masiva del cerebro.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 42/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
computadora. Pero ciertos detalles son críticos para descifrar los principios de funcionamiento del
cerebro, lo que nos obliga a distinguir entre ellos y los que comprenden el «ruido» estocástico o el caos.
Los aspectos caóticos (aleatorios e impredecibles) de la función neuronal se pueden modelar
utilizando las técnicas matemáticas de la teoría de la complejidad y la teoría del caos.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 43/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
detecta una característica visual invariable particular, como una cara, o que realiza una operación de
filtrado de paso de banda, restringiendo la entrada a un rango de frecuencia específico, en información
auditiva o que evalúa la proximidad temporal de dos eventos con mucha mayor simplicidad que las
relaciones físicas y químicas reales que controlan los neurotransmisores y otras variables sinápticas y
dendríticas involucradas en los procesos respectivos. Aunque toda esta complejidad neural tendrá que
ser cuidadosamente considerada antes de avanzar al siguiente nivel superior, como el modelado de un
cerebro artificial, gran parte de ella puede simplificarse una vez que se entiendan los principios
operativos del cerebro.
Ahora nos estamos acercando a un período de rápido crecimiento exponencial en el ritmo acelerado
de comprensión del cerebro humano, pero nuestros intentos en esta área tienen una larga historia.
Nuestra capacidad para reflexionar y construir modelos de nuestro pensamiento es un atributo único
de nuestra especie. Actualmente el enfoque más poderoso para capturar cada detalle neuronal
destacado será escanearlo desde adentro. Para la década actual de 2020, la tecnología de nanobots será
viable y el escaneo cerebral será una de sus aplicaciones destacadas. Como se describió anteriormente,
los nanobots son robots que tendrán el tamaño de las células sanguíneas humanas, de siete a ocho
micrones o incluso más pequeños. Miles de millones de ellos podrían viajar a través de cada capilar
cerebral, escaneando cada característica neuronal relevante de cerca. Usando comunicación
inalámbrica de alta velocidad, los nanobots se comunicarían entre sí y con las computadoras que
compilan la base de datos del escaneo cerebral. En otras palabras, los nanobots y las computadoras
estarán en una red de área local inalámbrica. Eso sí, asegurándonos de que no sea hackeable. A fines
del siglo XIX, los científicos descubrieron que cuando inyectaban un tinte azul en el torrente sanguíneo
de un animal, todos los órganos del animal se volvían azules a excepción de la médula espinal y el
cerebro. Formularon con precisión la hipótesis de una barrera que protege al cerebro de una amplia
gama de sustancias potencialmente dañinas en la sangre, incluidas bacterias, hormonas, sustancias
químicas que pueden actuar como neurotransmisores y otras toxinas. Solo el oxígeno, la glucosa y un
conjunto muy selecto de otras moléculas pequeñas pueden salir de los vasos sanguíneos y entrar al
cerebro. Las autopsias de principios del siglo XX revelaron que el revestimiento de los capilares en el
cerebro y otros tejidos del sistema nervioso está mucho más repleto de células endoteliales que los
vasos de tamaño comparable en otros órganos. Estudios más recientes han demostrado que hay un
sistema complejo que presenta puertas de enlace completas con claves y contraseñas que permiten la
entrada al cerebro. Por ejemplo, se han descubierto dos proteínas llamadas zonulina y zot que
reaccionan con receptores en el cerebro para abrir temporalmente la barrera hematoencefálica (BBB) en
sitios seleccionados. Estas dos proteínas juegan un papel similar en la apertura de receptores en el
intestino delgado para permitir la digestión de glucosa y otros nutrientes.
Esto quiere decir que cualquier diseño de nanobots para escanear o interactuar con el cerebro deberá
considerar varias estrategias que sean factibles, dadas las capacidades futuras. Una táctica obvia es
hacer que el nanobot sea lo suficientemente pequeño como para deslizarse a través de la barrera
hematoencefálica (BBB), pero este es el enfoque menos práctico, al menos con la nanotecnología tal
como la conocemos hoy. Para hacer esto, el nanobot tendría que tener un diámetro de veinte
nanómetros o menos, que es aproximadamente del tamaño de cien átomos de carbono. Limitar un
nanobot a estas dimensiones limitaría severamente su funcionalidad. Una estrategia intermedia sería
mantener el nanobot en el torrente sanguíneo pero hacer que proyecte un brazo robótico a través de la
barrera hematoencefálica (BBB) y hacia el líquido extracelular que recubre las células neurales. Esto
permitiría que el nanobot siga siendo lo suficientemente grande como para tener suficientes recursos
computacionales y de navegación. Dado que casi todas las neuronas se encuentran dentro de dos o
tres anchos de celda de un capilar, el brazo necesitaría alcanzar solo hasta unas cincuenta micras. Los
análisis realizados por el neurólogo Dr Robert Boland-Freitas y otros muestran que es bastante factible
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 45/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
restringir el ancho de un manipulador de este tipo a menos de veinte nanómetros. Otro enfoque es
mantener los nanobots en los capilares y usar un escaneo no invasivo. Otro tipo de escaneo no
invasivo involucraría un conjunto de nanobots que emiten señales enfocadas similares a las de un
escáner de dos fotones y otro conjunto de nanobots que reciben la transmisión. La topología del tejido
intermedio podría determinarse analizando el impacto en la señal recibida. Otro tipo de estrategia,
sugerida por el Dr Robert Boland-Freitas, sería que el nanobot literalmente se abriera paso a través de
la barrera hematoencefálica (BBB) abriendo un agujero en ella, saliendo del vaso sanguíneo y luego
reparando el daño. Dado que el nanobot se puede construir utilizando carbono en una configuración
diamantina, sería mucho más fuerte que los tejidos biológicos. Freitas escribe: «Para pasar entre las
células en un tejido rico en células, es necesario que un nanorobot avance interrumpa una cantidad mínima de
contactos adhesivos de célula a célula que se encuentran en su camino. Después de eso, y con el objetivo de
minimizar la biointrusión, el nanorobot debe volver a sellar esos contactos adhesivos a su paso, de manera
crudamente análoga a un topo excavador«.
Los estudios contemporáneos sobre el cáncer sugieren otro enfoque. Los investigadores del cáncer
están muy interesados en interrumpir selectivamente la barrera hematoencefálica (BBB) para
transportar sustancias que destruyan los tumores cancerígenos. Estudios recientes de la barrera
hematoencefálica (BBB) muestran que se abre en respuesta a una variedad de factores, que incluyen
ciertas proteínas, hipertensión localizada, altas concentraciones de ciertas sustancias, microondas y
otras formas de radiación, infección e inflamación. También hay procesos especializados que
transportan sustancias necesarias como la glucosa. También se ha descubierto que el manitol de azúcar
provoca una contracción temporal de las células endoteliales estrechamente empaquetadas para
proporcionar una ruptura temporal de la barrera hematoencefálica (BBB). Al explotar estos
mecanismos, varios grupos de investigación están desarrollando compuestos que abren la barrera
hematoencefálica (BBB). Aunque esta investigación tiene como objetivo las terapias contra el cáncer, se
pueden usar enfoques similares para abrir las puertas de entrada a los nanobots que escanearán el
cerebro y mejorarán nuestro funcionamiento mental. Podríamos pasar por alto el torrente sanguíneo y
la barrera hematoencefálica (BBB) por completo inyectando los nanobots en áreas del cerebro que
tienen acceso directo al tejido neural. Es remarcable saber que las nuevas neuronas migran desde los
ventrículos a otras partes del cerebro. Los nanobots podrían seguir el mismo camino de migración.
Robert Freitas ha descrito varias técnicas para que los nanobots controlen las señales sensoriales. Estos
serán importantes tanto para la ingeniería inversa de las entradas al cerebro, como para crear una
realidad virtual de inmersión total desde el interior del sistema nervioso. Para escanear y monitorear
las señales auditivas, Freitas propone «nanodispositivos móviles [que] nadan hacia la arteria espiral del oído
y descienden a través de sus bifurcaciones para llegar al canal coclear, luego se colocan como monitores neurales
en las proximidades del nervio espiral, fibras y los nervios que ingresan al epitelio del órgano de Corti [nervios
cocleares o auditivos] dentro del ganglio espiral. Estos monitores pueden detectar, registrar o retransmitir a otros
nanodispositivos en la red de comunicaciones todo el tráfico neural auditivo percibido por el oído humano«.
Para las «sensaciones de gravedad, rotación y aceleración» del cuerpo, Freitas prevé «nanomonitores
colocados en las terminaciones nerviosas aferentes que emanan de las células ciliadas ubicadas en los canales
semicirculares«. Para el «manejo sensorial cinestésico las neuronas motoras pueden monitorearse para realizar
un seguimiento de los movimientos y posiciones de las extremidades, o actividades musculares específicas, e
incluso para ejercer control«. «El tráfico neuronal sensorial olfativo y gustativo puede ser espiado por
instrumentos nanosensoriales«. «Las señales de dolor pueden registrarse o modificarse según sea necesario, al
igual que los impulsos nerviosos mecánicos y de temperatura de los receptores ubicados en la piel«. Freitas
señala que la retina es rica en pequeños vasos sanguíneos, «permitiendo el fácil acceso tanto a los
fotorreceptores (bastón, cono, bipolar y ganglio) como al integrador de. neuronas«. Las señales del nervio
óptico representan más de cien millones de niveles por segundo, pero este nivel de procesamiento de
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 46/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
señales ya es manejable artificialmente. Como han indicado Tomaso Poggio del MIT y otros, aún no
comprendemos la codificación de las señales del nervio óptico. Una vez que tengamos la capacidad de
monitorear las señales de cada fibra discreta en el nervio óptico, nuestra capacidad para interpretar
estas señales será mucho más fácil. Esta es actualmente un área de intensa investigación. Las señales
sin procesar del cuerpo pasan por múltiples niveles de procesamiento antes de agregarse en una
representación dinámica compacta en dos pequeños órganos llamados ínsula derecha e izquierda,
ubicados en lo profundo de la corteza cerebral. Para la realidad virtual de inmersión total, como se
pretende con el Metaverso, puede ser más efectivo aprovechar las señales ya interpretadas en la ínsula
en lugar de las señales no procesadas en todo el cuerpo. Escanear el cerebro con el propósito de aplicar
ingeniería inversa a sus principios de funcionamiento es una acción más fácil que escanearlo con el
propósito de «cargar» una personalidad en particular. Para aplicar ingeniería inversa al cerebro, solo
necesitamos escanear las conexiones en una región lo suficiente como para comprender su patrón
básico. No necesitamos capturar cada conexión. Una vez que comprendemos los patrones de cableado
neuronal dentro de una región, podemos combinar ese conocimiento con una comprensión detallada
de cómo funciona cada tipo de neurona en esa región. Aunque una región particular del cerebro puede
tener miles de millones de neuronas, contendrá solo un número limitado de tipos de neuronas. Ya se
ha hecho un progreso significativo en la derivación de los mecanismos subyacentes a variedades
específicas de neuronas y conexiones sinápticas al estudiar estas células in vitro, así como in vivo
utilizando métodos como el escaneo de dos fotones.
Ya tenemos tecnología capaz de producir escaneos de muy alta resolución para ver la forma precisa de
cada conexión en un área particular del cerebro, si el escáner está físicamente cerca de las
características neuronales. Con respecto a los nanobots, ya hay cuatro conferencias importantes
dedicadas al desarrollo de dispositivos del tamaño de células sanguíneas con fines diagnósticos y
terapéuticos. Podemos proyectar el costo exponencialmente decreciente de la computación y el
tamaño rápidamente decreciente, así como la efectividad creciente de las tecnologías electrónicas y
mecánicas. Con base en estas proyecciones, podemos anticipar de forma conservadora la tecnología
nanobot necesaria para implementar este tipo de escenarios durante la actual década de 2020. Una vez
que el escaneo basado en nanobots se haga realidad, finalmente estaremos en la misma posición en la
que se encuentran hoy los diseñadores de circuitos, ya que podremos colocar sensores altamente
sensibles y de muy alta resolución, en forma de nanobots, en millones o incluso miles de millones. de
ubicaciones en el cerebro y, por lo tanto, presenciar con asombroso detalle los cerebros vivos en acción.
No obstante, hay que considerar los niveles de modelado y comprensión en el cerebro, desde la física
de las reacciones sinápticas hasta las transformaciones de la información por parte de los grupos
neuronales. En aquellas regiones del cerebro para las que hemos logrado desarrollar modelos
detallados, encontramos un fenómeno similar al que involucra a las células pancreáticas. Los modelos
son complejos pero siguen siendo más simples que las descripciones matemáticas de una sola célula o
incluso una sola sinapsis. Como indicamos anteriormente, estos modelos específicos de la región
también requieren una computación significativamente menor de lo que implica teóricamente la
capacidad computacional de todas las sinapsis y células. El neurólogo Gilles Laurent del Instituto de
Tecnología de California observa: «En la mayoría de los casos, el comportamiento colectivo de un sistema es
muy difícil de deducir a partir del conocimiento de sus componentes. La neurociencia es una ciencia de los
sistemas en los que los sistemas de primer orden y locales son necesarios los esquemas explicativos pero no
suficientes«.
Aunque los primeros modelos trataban a la neurona como la unidad principal de transformación de la
información, las investigaciones se han vuelto hacia el énfasis en sus componentes subcelulares. De
hecho, una sinapsis cerebral real es mucho más compleja de lo que se describe en el modelo clásico de
redes neuronales de McCulloch-Pitts, una unidad de cálculo que intenta modelar el comportamiento
de una neurona «natural«, similares a las que constituyen del cerebro humano. La respuesta sináptica
está influenciada por una variedad de factores, incluida la acción de múltiples canales controlados por
una variedad de potenciales iónicos (voltajes) y múltiples neurotransmisores y neuromoduladores. Sin
embargo, se han hecho progresos considerables en los últimos años en el desarrollo de fórmulas
matemáticas que subyacen al comportamiento de las neuronas, las dendritas, las sinapsis y la
representación de la información en los trenes de picos, o pulsos de neuronas que han sido activadas.
Existen modelos bien fundamentados para la biofísica de los cuerpos neuronales, las sinapsis y la
acción de las redes neuronales de retroalimentación, como las que se encuentran en la retina y los
nervios ópticos, y muchas otras clases de neuronas. La atención a cómo funciona la sinapsis tiene sus
raíces en el trabajo pionero de la biopsicología Donald Hebb, que abordó la pregunta: ¿Cómo funciona
la memoria a corto plazo? La región del cerebro asociada con la memoria a corto plazo es la corteza
prefrontal, aunque ahora nos damos cuenta de que se han identificado diferentes formas de retención
de información a corto plazo en la mayoría de los otros circuitos neuronales que se han estudiado de
cerca. La mayor parte del trabajo de Hebb se centró en los cambios en el estado de las sinapsis para
fortalecer o inhibir las señales recibidas y en el circuito de reverberación más controvertido en el que
las neuronas disparan en un bucle continuo. Otra teoría propuesta por Hebb es un cambio en el estado
de una neurona misma, es decir, una función de memoria en el soma celular (cuerpo). La evidencia
experimental apoya la posibilidad de todos estos modelos. La memoria sináptica hebbiana clásica y la
memoria reverberatoria requieren un retraso de tiempo antes de que se pueda utilizar la información
registrada. Los experimentos in vivo muestran que en al menos algunas regiones del cerebro hay una
respuesta neuronal que es demasiado rápida para ser explicada por tales modelos de aprendizaje
estándar y, por lo tanto, solo podría lograrse mediante cambios en el soma inducidos por el
aprendizaje. Otra posibilidad no anticipada directamente por Hebb son los cambios en tiempo real en
las propias conexiones neuronales. Los resultados de escaneos recientes muestran un rápido
crecimiento de los picos de dendritas y nuevas sinapsis, por lo que debe considerarse como un
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 48/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
mecanismo importante. Los experimentos también han demostrado una rica variedad de
comportamientos de aprendizaje a nivel sináptico que van más allá de los simples modelos hebbianos.
Las sinapsis pueden cambiar su estado rápidamente, pero luego comienzan a decaer lentamente con la
estimulación continua, o en algunos casos por falta de estimulación, o muchas otras variaciones.
Aunque los modelos contemporáneos son mucho más complejos que los modelos de sinapsis simples
ideados por Hebb, sus intuiciones han demostrado ser correctas en gran medida. Además de la
plasticidad sináptica hebbiana, los modelos actuales incluyen procesos globales que proporcionan una
función reguladora. Por ejemplo, la escala sináptica evita que los potenciales sinápticos se vuelvan
cero, y, por lo tanto, no se puedan aumentar a través de enfoques multiplicativos, o se vuelvan
excesivamente altos y, por lo tanto, dominen una red. Experimentos in vitro han encontrado
escalamiento sináptico en redes cultivadas de neuronas neocorticales, del hipocampo y de la médula
espinal. Otros mecanismos son sensibles a la sincronización general de picos y la distribución de
potencial a través de muchas sinapsis. Las simulaciones han demostrado la capacidad de estos
mecanismos descubiertos recientemente para mejorar el aprendizaje y la estabilidad de la red. El
nuevo desarrollo más emocionante en nuestra comprensión de la sinapsis es que la topología de las
sinapsis y las conexiones que forman cambian continuamente. Nuestro primer vistazo a los rápidos
cambios en las conexiones sinápticas fue revelado por un innovador sistema de escaneo que requiere
un animal genéticamente modificado cuyas neuronas han sido diseñadas para emitir una luz verde
fluorescente. El sistema puede obtener imágenes del tejido neuronal vivo y tiene una resolución
suficientemente alta para capturar no solo las dendritas (conexiones interneuronales) sino también las
espinas: pequeñas proyecciones que brotan de las dendritas e inician posibles sinapsis.
El neurobiólogo Karel Svoboda y sus colegas del Laboratorio Cold Spring Harbor en Long Island
utilizaron el sistema de escaneo en ratones para investigar las redes de neuronas que analizan la
información de los bigotes, un estudio que proporcionó una mirada fascinante al aprendizaje
neuronal. A las dendritas les crecían continuamente nuevas espinas. La mayoría de estos duraron solo
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 49/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
uno o dos días, pero en ocasiones una columna permaneció estable. «Creemos que la alta rotación que
vemos podría desempeñar un papel importante en la plasticidad neuronal, en el sentido de que las espinas que
brotan se extienden para sondear diferentes socios presinápticos en las neuronas vecinas«, dijo Svoboda. «Si
una conexión determinada es favorable, es decir, reflejando un tipo deseable de recableado cerebral, entonces estas
sinapsis se estabilizan y se vuelven más permanentes. Pero la mayoría de estas sinapsis no van en la dirección
correcta y están retraídas«. Otro fenómeno consistente que se ha observado es que las respuestas
neuronales disminuyen con el tiempo, si se repite un estímulo en particular. Esta adaptación da mayor
prioridad a los nuevos patrones de estímulo. Un trabajo similar realizado por el neurobiólogo Wen-
Biao Gan de la Facultad de Medicina de la Universidad de Nueva York sobre espinas neuronales en la
corteza visual de ratones adultos muestra que este mecanismo de la columna vertebral puede contener
recuerdos a largo plazo: «Digamos que un niño de 10 años usa 1000 conexiones para almacenar una pieza de
información. Cuando tenga 80 años, una cuarta parte de las conexiones seguirán allí, sin importar cómo cambien
las cosas. Es por eso que aún puedes recordar tus experiencias de la infancia«. Wen-Biao Gan también explica:
«Nuestra idea era que en realidad no necesitas hacer muchas sinapsis nuevas y deshacerte de las viejas cuando
aprendes y memorizas. Solo necesitas modificar la fuerza de las sinapsis preexistentes para el aprendizaje y la
memoria a corto plazo. Sin embargo, es probable que se hagan o eliminen algunas sinapsis para lograr la
memoria a largo plazo«.
La razón por la que los recuerdos pueden permanecer intactos incluso si han desaparecido las tres
cuartas partes de las conexiones es que el método de codificación utilizado parece tener propiedades
similares a las de un holograma. En un holograma, la información se almacena en un patrón difuso a
lo largo de una región extensa. Si destruyes las tres cuartas partes del holograma, toda la imagen
permanece intacta, aunque con solo una cuarta parte de la resolución. La investigación de Pentti
Kanerva, neurocientífica del Instituto de Neurociencia Redwood, respalda la idea de que los recuerdos se
distribuyen dinámicamente en una región de neuronas. Esto explica por qué los recuerdos más
antiguos persisten pero, sin embargo, parecen «desvanecerse«, porque su resolución ha disminuido. Los
investigadores también están descubriendo que neuronas específicas realizan tareas de reconocimiento
especiales. Un experimento con pollos identificó neuronas del tallo cerebral que detectan retrasos
particulares cuando los sonidos llegan a los dos oídos. Diferentes neuronas responden a diferentes
cantidades de retraso. Aunque hay muchas irregularidades complejas en el funcionamiento de estas
neuronas y las redes de las que dependen, lo que realmente están logrando es fácil de describir y sería
simple de replicar. Según el neurocientífico Scott Makeig de la Universidad de California en San Diego,
«los resultados neurobiológicos recientes sugieren un papel importante de las entradas neuronales sincronizadas
con precisión en el aprendizaje y la memoria«. Un experimento reciente en el Instituto de Ciencias No
Lineales de la Universidad de California en San Diego demuestra el potencial de las neuronas electrónicas
para emular con precisión las biológicas. Las neuronas (biológicas o de otro tipo) son un excelente
ejemplo de lo que a menudo se denomina computación caótica. Cada neurona actúa de una manera
esencialmente impredecible. Cuando toda una red de neuronas recibe información del mundo exterior
o de otras redes de neuronas, la señalización entre ellas parece al principio ser frenética y aleatoria.
Con el tiempo, típicamente una fracción de segundo más o menos, la interacción caótica de las
neuronas se apaga y surge un patrón estable de activación. Este patrón representa la «decisión» de la
red neuronal. Si la red neuronal está realizando una tarea de reconocimiento de patrones, y tales tareas
constituyen la mayor parte de la actividad en el cerebro humano, el patrón emergente representa el
reconocimiento apropiado. .
Entonces, la pregunta que abordaron los investigadores de San Diego fue: ¿podrían las neuronas
electrónicas participar en esta danza caótica junto con las biológicas? Conectaron neuronas artificiales
con neuronas reales de langostas espinosas en una sola red, y su red híbrida biológica-no biológica
funcionó de la misma manera, es decir, una interacción caótica seguida de un patrón emergente
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 50/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
estable, y con el mismo tipo de resultados que una red biológica de neuronas. Esencialmente, las
neuronas biológicas aceptaron a sus pares electrónicos. Esto indica que el modelo matemático caótico
de estas neuronas era razonablemente preciso. La disposición detallada de las conexiones y sinapsis en
una región determinada es un producto directo de la extensión del uso de esa región. Como el escaneo
cerebral ha alcanzado una resolución lo suficientemente alta como para detectar el crecimiento de la
columna dendrítica y la formación de nuevas sinapsis, podemos ver que nuestro cerebro crece y se
adapta para seguir literalmente nuestros pensamientos. Esto da nuevos matices de significado a la
máxima de Descartes «Pienso, luego existo«. En un experimento realizado por el neurocientífico
estadounidense Michael Merzenich y sus colegas en la Universidad de California en San Francisco, la
comida de los monos se colocó en tal posición que los animales tenían que manipular con destreza un
dedo para obtenerla. Los escáneres cerebrales antes y después revelaron un crecimiento dramático en
las conexiones interneuronales y sinapsis en la región del cerebro responsable de controlar ese dedo.
Edward Taub de la Universidad de Alabama estudió la región de la corteza responsable de evaluar la
información táctil de los dedos. Al comparar a los no músicos con los intérpretes experimentados de
instrumentos de cuerda, no encontró ninguna diferencia en las regiones del cerebro dedicadas a los
dedos de la mano derecha, pero sí una gran diferencia en los dedos de la mano izquierda. Si
hiciéramos un dibujo de las manos basándonos en la cantidad de tejido cerebral dedicado a analizar el
tacto, los dedos de la mano izquierda de los músicos, que en el caso de instrumentos de cuerdas
normalmente se utilizan para controlar las cuerdas, serían enormes. Aunque la diferencia fue mayor
para aquellos músicos que comenzaron su formación musical con un instrumento de cuerda cuando
eran niños, «incluso si empiezas a tocar el violín a los 40«, comentó Taub, «todavía tienes una reorganización
cerebral«. Un hallazgo similar proviene de una evaluación de un programa de software, desarrollado
por Paula Tallal y Steve Miller en la Universidad de Rutgers, llamado Fast ForWord, que ayuda a los
estudiantes disléxicos. El programa lee texto a los niños, ralentizando los fonemas entrecortados
basados en la observación de que muchos estudiantes disléxicos no pueden percibir estos sonidos
cuando se hablan rápidamente. Se ha demostrado que leer con esta forma modificada del habla ayuda
a estos niños a aprender a leer. Utilizando la resonancia magnética funcional, John Gabrieli, de la
Universidad de Stanford, descubrió que la región prefrontal izquierda del cerebro, un área asociada con
el procesamiento del lenguaje, había crecido y mostraba una mayor actividad en los estudiantes
disléxicos que usaban el programa. Paula Tallal dice: «Tu creas tu cerebro a partir de la información que
recibes».
El Dr. Álvaro Pascual-Leone de la Universidad de Harvard escaneó los cerebros de voluntarios antes y
después de que practicaran un ejercicio sencillo de piano. La corteza cerebral motora de los
voluntarios cambió como resultado directo de su práctica. Luego hizo que un segundo grupo solo
pensara en hacer el ejercicio del piano pero sin mover ningún músculo. Sorprendentemente, esto
produjo un cambio igualmente pronunciado en la red de la corteza motora. Estudios recientes de
resonancia magnética funcional (fMRI) sobre el aprendizaje de relaciones visoespaciales, la capacidad
para representar, analizar y manipular objetos mentalmente, encontraron que las conexiones
interneuronales pueden cambiar rápidamente durante el transcurso de una sola sesión de aprendizaje.
Los investigadores encontraron cambios en las conexiones entre las células de la corteza parietal
posterior en lo que se llama la vía «dorsal«, que contiene información sobre la ubicación y las
propiedades espaciales de los estímulos visuales, y las células de la corteza temporal inferior posterior
en la vía «ventral«, que contiene reconocidas características invariantes de diferentes niveles de
abstracción. Significativamente, esa tasa de cambio fue directamente proporcional a la tasa de
aprendizaje. Investigadores de la Universidad de California en San Diego informaron una idea clave
sobre la diferencia en la formación de recuerdos a corto y largo plazo. Usando un método de escaneo
de alta resolución, los científicos pudieron ver cambios químicos dentro de las sinapsis en el
hipocampo, la región del cerebro asociada con la formación de recuerdos a largo plazo. Descubrieron
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 51/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
que cuando una célula se estimulaba por primera vez, la actina, un neuroquímico, se movía hacia las
neuronas a las que estaba conectada la sinapsis. Esto también estimuló la actina en las células vecinas
para alejarse de la célula activada. Sin embargo, estos cambios duraron solo unos minutos. Si los
estímulos se repetían lo suficiente, entonces se producía un cambio más significativo y permanente.
«Los cambios a corto plazo son solo parte de la forma normal en que las células nerviosas se comunican entre sí«,
dijo el investigador principal, Michael A. Colicos. Los cambios a largo plazo en las neuronas ocurren
solo después de que las neuronas se estimulan cuatro veces en el transcurso de una hora. La sinapsis
en realidad se dividirá y se formarán nuevas sinapsis, produciendo un cambio permanente que
presumiblemente durará por el resto de su vida. La analogía con la memoria humana es que cuando
ves o escuchas algo una vez, puede quedarse en tu mente durante unos minutos. Si no es importante,
se desvanece y lo olvidas 10 minutos después. Pero si lo vemos o lo escuchamos nuevamente y esto
continúa sucediendo durante la próxima hora, lo recordaremos por mucho más tiempo. Y las cosas
que se repiten muchas veces se pueden recordar durante toda la vida. Una vez que un axón forma dos
nuevas conexiones, esas conexiones son muy estables y no hay razón para creer que desaparecerán.
Ese es el tipo de cambio que uno imaginaría que duraría toda la vida.
«Es como una lección de piano«, dice el investigador y profesor de biología Yukiko Goda. «Si tocas una
partitura musical una y otra vez, se graba en tu memoria«. De manera similar, en un artículo en Science, los
neurocientíficos S. Lowel y W. Singer informan haber encontrado evidencia de una formación
dinámica rápida de nuevas conexiones interneuronales en la corteza visual, que describieron con la
frase de Donald Hebb «Lo que se dispara junto se conecta«. «Durante un tiempo hemos sabido bastante sobre
cómo funciona la memoria, pero no teníamos un concepto claro de cuál es el dispositivo de almacenamiento
clave«, dijo la investigadora y directora del Instituto Whitehead para la Investigación Biomédica, Susan
Lindquist. «El estudio efectuado sugiere cuál podría ser el dispositivo de almacenamiento, pero es una
sugerencia tan sorprendente descubrir que puede estar involucrada una actividad similar a la de los priones. Ello
indica que los priones no son solo bichos raros de la naturaleza, sino que podrían participar en procesos
fundamentales«. Los ingenieros también están descubriendo que los priones, una proteína mal plegada
capaz de transmitir su forma mal plegada a otras variedades de la misma proteína, son un medio
poderoso para construir memorias electrónicas. Los estudios de escaneo cerebral también están
revelando mecanismos para inhibir recuerdos innecesarios e indeseables. Usando resonancia magnética
funcional (fMRI), científicos de la Universidad de Stanford pidieron a los sujetos del estudio que
intentaran olvidar la información que habían memorizado anteriormente. Durante esta actividad, las
regiones de la corteza frontal que se han asociado con la represión de la memoria mostraron un alto
nivel de actividad, mientras que el hipocampo, la región normalmente asociada con el recuerdo,
estaba relativamente inactiva. Estos hallazgos «confirman la existencia de un proceso de olvido activo y
establecen un modelo neurobiológico para orientar la investigación sobre el olvido motivado«, escribieron el
profesor de psicología de la Universidad de Stanford John Gabrieli y sus colegas. Gabrieli también
comentó: «La gran noticia es que hemos demostrado cómo el cerebro humano bloquea un recuerdo no deseado,
que existe tal mecanismo y tiene una base biológica. Te hace superar la posibilidad de que no haya nada en el
cerebro que suprimiría un recuerdo, que todo era una ficción mal entendida«. Además de generar nuevas
conexiones entre las neuronas, el cerebro también crea nuevas neuronas a partir de células madre
neurales, que se replican para mantener una reserva de sí mismas. En el curso de la reproducción,
algunas de las células madre neurales se convierten en células «precursoras neurales«, que a su vez
maduran en dos tipos de células de apoyo llamadas astrocitos y oligodendrocitos, así como en neuronas.
Las células evolucionan aún más en tipos específicos de neuronas. Sin embargo, esta diferenciación no
puede tener lugar a menos que las células madre neurales se alejen de su fuente original en los
ventrículos del cerebro. Solo alrededor de la mitad de las células neuronales realizan con éxito el viaje,
que es similar al proceso durante la gestación y la primera infancia en el que solo sobrevive una parte
de las neuronas en desarrollo del cerebro temprano. Los científicos esperan evitar este proceso de
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 52/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
migración neuronal mediante la inyección de células madre neuronales directamente en las regiones
objetivo, así como crear medicamentos que promuevan este proceso de neurogénesis, o creación de
nuevas neuronas, para reparar el daño cerebral causado por una lesión o enfermedad.
Un experimento realizado por los investigadores en genética Fred Gage, G. Kempermann y Henriette
van Praag en el Instituto Salk de Estudios Biológicos mostró que la neurogénesis en realidad es
estimulada por nuestra experiencia. Mover ratones de una jaula estéril y poco interesante a una que
fuese estimulante duplicó aproximadamente el número de células en división en las regiones del
hipocampo. Lo más probable es que el cerebro humano esté compuesto, en su mayor parte, por un
gran número de sistemas distribuidos relativamente pequeños, ordenados por la embriología en una
sociedad compleja que está controlada en parte por sistemas simbólicos seriales que se agregan más
tarde. Pero los sistemas subsimbólicos que hacen la mayor parte del trabajo desde abajo deben, por su
propio carácter, impedir que todas las demás partes del cerebro sepan mucho sobre cómo funcionan. Y
esto, en sí mismo, podría ayudar a explicar cómo las personas hacen tantas cosas y tienen ideas tan
incompletas sobre cómo se hacen realmente esas cosas. Además de nuevos conocimientos sobre la
plasticidad de la organización de cada región del cerebro, los investigadores están creando
rápidamente modelos detallados de regiones particulares del cerebro. Estos modelos y simulaciones
neuromórficas están ligeramente rezagados respecto de la disponibilidad de la información en la que
se basan. El rápido éxito de convertir los datos detallados de los estudios de las neuronas y los datos
de interconexión del escaneo neuronal en modelos efectivos y simulaciones de trabajo desmiente el
escepticismo que a menudo se manifiesta sobre nuestra capacidad inherente de comprender nuestros
propios cerebros. Por lo general, no es necesario modelar la funcionalidad del cerebro humano sobre
una base de no linealidad por no linealidad y sinapsis por sinapsis. Las simulaciones de regiones que
almacenan recuerdos y habilidades en neuronas y conexiones individuales, como el cerebelo, hacen
uso de modelos celulares detallados. Sin embargo, incluso para estas regiones, las simulaciones
requieren muchos menos cálculos de lo que implican todos los componentes neuronales. Esto es cierto
para la simulación del cerebelo. Aunque hay una gran cantidad de complejidad detallada y no
linealidad en las partes subneuronales de cada neurona, así como un patrón de cableado semialeatorio
y caótico que subyace a los trillones de conexiones en el cerebro, se ha logrado un progreso
significativo en los últimos veinte años en las matemáticas de modelar tales sistemas adaptativos no
lineales. Por lo general, no es necesario conservar la forma exacta de cada dendrita y el perfil preciso
de cada conexión interneuronal. Podemos comprender los principios de funcionamiento de extensas
regiones del cerebro examinando su dinámica en el nivel de análisis apropiado. Ya se ha tenido un
éxito significativo en la creación de modelos y simulaciones de extensas regiones cerebrales. La
aplicación de pruebas a estas simulaciones y la comparación de los datos con los obtenidos de
experimentos psicofísicos en cerebros humanos reales han producido resultados impresionantes. Dada
la relativa tosquedad de nuestras herramientas de escaneo y detección hasta la fecha, el éxito en el
modelado demuestra la capacidad de extraer los conocimientos correctos de la gran cantidad de datos
que se recopilan.
Una pregunta que Kurzweil se plantea en su libro La era de las máquinas espirituales es: ¿cómo se las
arregla un niño de diez años para atrapar una pelota que le han lanzado? Todo lo que un niño puede
ver es la trayectoria de la pelota desde su posición. Para inferir realmente la trayectoria de la pelota en
el espacio tridimensional, sería necesario resolver difíciles ecuaciones diferenciales simultáneas. Se
necesitarían resolver ecuaciones adicionales para predecir el curso futuro de la pelota, y más
ecuaciones para traducir estos resultados en lo que se requiere de los propios movimientos del
jugador. ¿Cómo logra un niño todo esto en unos pocos segundos sin computadora y sin entrenamiento
en ecuaciones diferenciales? Claramente, no está resolviendo ecuaciones conscientemente, pero ¿cómo
resuelve el problema su cerebro? La verdad es que hemos avanzado considerablemente en la
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 53/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
A pesar de la uniformidad del procesamiento de información del cerebelo, la amplia gama de sus
funciones puede entenderse en términos de la variedad de entradas que recibe de la corteza cerebral a
través de los núcleos del tronco encefálico y luego a través de las células de fibra musgosa del
cerebelo, y de otros, particularmente la región de la «oliva inferior» del cerebro a través de las células de
fibra trepadora del cerebelo. El cerebelo es responsable de nuestra comprensión del momento y la
secuencia de las entradas sensoriales, así como de controlar nuestros movimientos físicos. El cerebelo
es también un ejemplo de cómo la considerable capacidad del cerebro supera con creces a la
información proporcionada por su compacto genoma. La mayor parte del genoma dedicado al cerebro
describe la estructura detallada de cada tipo de célula neural, incluidas sus dendritas, espinas y
sinapsis, y cómo estas estructuras responden a la estimulación y el cambio. Relativamente poco código
genómico es responsable del «cableado» real. En el cerebelo, el método de cableado básico se repite
miles de millones de veces. Está claro que el genoma no proporciona información específica sobre cada
repetición de esta estructura del cerebelo, sino que especifica ciertas restricciones sobre cómo se repite
esta estructura, al igual que el genoma no especifica la ubicación exacta de las células en otros órganos.
Algunas de las salidas del cerebelo van a unas doscientas mil neuronas motoras alfa, que determinan
las señales finales para los aproximadamente seiscientos músculos del cuerpo. Las entradas a las
neuronas motoras alfa no especifican directamente los movimientos de cada uno de estos músculos,
pero están codificadas de una manera más compacta, que aún no se comprende bien. Las señales
finales a los músculos se determinan en los niveles más bajos del sistema nervioso, específicamente en
el tronco encefálico y la médula espinal. Curiosamente, esta organización se lleva al extremo en el
pulpo, cuyo sistema nervioso central aparentemente envía comandos de muy alto nivel a cada uno de
sus brazos, tales como «agarre ese objeto y acérquelo«, dejándolo en manos de un sistema nervioso
periférico independiente en cada brazo para llevar a cabo la misión. Se ha aprendido mucho en los
últimos años sobre el papel de los tres principales tipos de nervios del cerebelo. Las neuronas llamadas
«fibras trepadoras» parecen proporcionar señales para entrenar el cerebelo. La mayor parte de la salida
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 54/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
del cerebelo proviene de las llamadas grandes células de Purkinje, cada una de las cuales recibe
alrededor de doscientas mil entradas (sinapsis), en comparación con el promedio de alrededor de mil
para un neurona típica. Las entradas provienen en gran parte de las células granulares, que son las
neuronas más pequeñas, empaquetadas alrededor de seis millones por milímetro cuadrado.
Los estudios sobre el papel del cerebelo durante el aprendizaje de los movimientos de escritura a
mano por parte de los niños muestran que las células de Purkinje en realidad toman muestras de la
secuencia de movimientos, cada una de las cuales es sensible a una muestra específica. Obviamente, el
cerebelo requiere una guía perceptual continua de la corteza visual. Los investigadores pudieron
vincular la estructura de las células del cerebelo con la observación de que existe una relación inversa
entre la curvatura y la velocidad al escribir a mano, es decir, se puede escribir más rápido dibujando
líneas rectas en lugar de curvas detalladas para cada letra. Estudios celulares detallados y estudios en
animales nos han proporcionado impresionantes descripciones matemáticas de la fisiología y
organización de las sinapsis del cerebelo, así como de la codificación de la información en sus entradas
y salidas, y de las transformaciones realizadas. Recopilando datos de múltiples estudios, Javier F.
Medina, Michael D. Mauk y sus colegas de la Facultad de Medicina de la Universidad de Texas idearon
una simulación detallada de abajo hacia arriba del cerebelo. Presenta más de diez mil neuronas
simuladas y trescientas mil sinapsis, e incluye todos los tipos principales de células del cerebelo. Las
conexiones de las células y las sinapsis están determinadas por una computadora, que «conecta» la
región simulada del cerebelo siguiendo restricciones y reglas, similares al método estocástico, aleatorio
dentro de restricciones, utilizado para conectar el cerebro humano real a partir de su código genético.
No sería difícil expandir la simulación del cerebelo de la Universidad de Texas a un mayor número de
sinapsis y células. Los investigadores de Texas aplicaron un experimento de aprendizaje clásico a su
simulación y compararon los resultados con muchos experimentos similares sobre el
condicionamiento humano real. En los estudios en humanos, la tarea implicó asociar un tono auditivo
con una bocanada de aire aplicada al párpado, lo que hace que el párpado se cierre. Si el soplo de aire
y el tono se presentan juntos durante cien a doscientos intentos, el sujeto aprenderá la asociación y
cerrará el ojo del sujeto simplemente al escuchar el tono. Si luego se presenta el tono muchas veces sin
el soplo de aire, el sujeto finalmente aprende a disociar los dos estímulos para «extinguir» la respuesta,
por lo que el aprendizaje es bidireccional. Después de ajustar una variedad de parámetros, la
simulación proporcionó una coincidencia razonable con los resultados experimentales sobre el
condicionamiento del cerebelo humano y animal. Curiosamente, los investigadores descubrieron que
si creaban lesiones simuladas del cerebelo, eliminando porciones de la red simulada del cerebelo,
obtenían resultados similares a los obtenidos en experimentos con conejos que habían recibido
lesiones del cerebelo reales.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 55/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Debido a la uniformidad de esta gran región del cerebro y la relativa simplicidad de su cableado
interneuronal, sus transformaciones de entrada-salida se comprenden relativamente bien, en
comparación con las de otras regiones del cerebro. Aunque las ecuaciones relevantes aún requieren
refinamiento, esta simulación de abajo hacia arriba ha demostrado ser bastante impresionante.
Kurzweil cree que la forma de crear una inteligencia similar a la del cerebro es construir un sistema de
modelo preciso de trabajo en tiempo real, con suficiente detalle para expresar la esencia de cada
cálculo que se está realizando, y verificar su correcto funcionamiento contra las mediciones del sistema
real. Un ejemplo importante de modelado neuromórfico de una región del cerebro es la réplica integral
de una parte significativa del sistema de procesamiento auditivo humano desarrollado por Lloyd
Watts y sus colegas. El software de Watts es capaz de igualar las complejidades que han sido reveladas
en sutiles experimentos sobre la audición humana y la discriminación auditiva. Watts ha utilizado su
modelo como un preprocesador (parte frontal) en los sistemas de reconocimiento de voz y ha
demostrado su capacidad para seleccionar un hablante de los sonidos de fondo. Esta es una hazaña
impresionante de la que los humanos son capaces, pero hasta ahora no había sido factible en los
sistemas automatizados de reconocimiento de voz. Al igual que la audición humana, el modelo de
cóclea de Watts está dotado de sensibilidad espectral, en que oímos mejor a ciertas frecuencias en
respuestas temporales en que somos sensibles a la sincronización de los sonidos, lo que crea la
sensación de su ubicación espacial, en enmascaramiento, amplitud no lineal dependiente de la
frecuencia que permite la capacidad de escuchar sonidos fuertes y bajos, en el control de ganancia
(amplificación) y otras características sutiles. Los resultados que obtiene son directamente
comprobables por datos biológicos y psicofísicos. También hemos avanzado tanto en la comprensión
de la codificación de la información visual que se han desarrollado implantes de retina experimentales
e instalado quirúrgicamente en pacientes. Sin embargo, debido a la relativa complejidad del sistema
visual, nuestra comprensión del procesamiento de la información visual va a la zaga de nuestro
conocimiento de las regiones auditivas. Un pionero en la comprensión del procesamiento visual es
Tomaso Poggio del MIT, quien ha distinguido sus dos tareas como identificación y categorización. Ya
se han diseñado sistemas experimentales y comerciales que tienen un éxito razonable en la
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 56/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
identificación de rostros. Se utilizan como parte de los sistemas de seguridad para controlar el ingreso
de personal en determinados edificios y en los cajeros automáticos. En la categorización, se plantea la
capacidad de diferenciar, por ejemplo, entre una persona y un automóvil o entre un perro y un gato.
Es un asunto más complejo, aunque recientemente se han logrado avances.
Una extensa literatura apoya el uso de la «hipótesis y prueba» en tareas más complejas de
reconocimiento de patrones. La corteza hace una conjetura sobre lo que está viendo y luego determina
si las características de lo que realmente está en el campo de visión coinciden con su hipótesis. A
menudo nos enfocamos más en la hipótesis que en la prueba real, lo que explica por qué las personas a
menudo ven y escuchan lo que esperan percibir en lugar de lo que realmente está allí. «Hipótesis y
prueba» también es una estrategia útil en nuestros sistemas de reconocimiento de patrones basados en
computadora. Aunque tenemos la ilusión de recibir imágenes de alta resolución de nuestros ojos, lo
que el nervio óptico en realidad envía al cerebro son solo contornos y pistas sobre puntos de interés en
nuestro campo visual. Entonces esencialmente alucinamos el mundo a partir de recuerdos corticales
que interpretan una serie de películas de resolución extremadamente baja que llegan en canales
paralelos. En un estudio de 2001 publicado en la revista Nature, Frank S. Werblin, profesor de biología
molecular y celular en la Universidad de California en Berkeley, y el estudiante de doctorado Boton
Roska, MD, demostraron que el nervio óptico transporta de diez a doce canales de salida, cada uno de
los cuales solo lleva información mínima sobre una escena dada. Un grupo de lo que se llama células
ganglionares envía información solo sobre los bordes, así como cambios en el contraste. Otro grupo
detecta solo grandes áreas de color uniforme, mientras que un tercer grupo es sensible solo a los
fondos detrás de las figuras de interés. «Aunque creemos que vemos el mundo de manera tan completa, lo
que recibimos son solo pistas, bordes en el espacio y el tiempo«, dice Werblin. «Estas 12 imágenes del mundo
constituyen toda la información que tendremos sobre lo que hay ahí fuera, y a partir de estas 12 imágenes, que
son tan escasas, reconstruimos la riqueza del mundo visual. Tengo curiosidad por cómo la naturaleza seleccionó
estas 12 simples películas y cómo puede ser que sean suficientes para proporcionarnos toda la información que
parece que necesitamos». Tales hallazgos prometen ser un gran avance en el desarrollo de un sistema
artificial que podría reemplazar el ojo, la retina y el procesamiento temprano del nervio óptico.
Debido a que se encuentra en la parte superior de la jerarquía neuronal, la parte del cerebro menos
comprendida es la corteza cerebral (o neocórtex). Esta región, que consta de seis capas delgadas en las
áreas más externas de los hemisferios cerebrales, contiene miles de millones de neuronas. La corteza es
responsable de la percepción, la planificación, la toma de decisiones y la mayor parte de lo que
consideramos pensamiento consciente. Nuestra habilidad para usar el lenguaje, otro atributo único de
nuestra especie, parece ubicarse en esta región. Una pista intrigante sobre el origen del lenguaje y un
cambio evolutivo clave que permitió la formación de esta habilidad distintiva es la observación de que
solo unos pocos primates, incluidos los humanos y los monos, pueden usar un espejo para dominar
las habilidades. La realización de gestos manuales requiere la capacidad de correlacionar mentalmente
la ejecución y la observación de los movimientos de la propia mano. Un concepto estrechamente
relacionado es que la capacidad de imitar los movimientos o, en el caso de los bebés humanos los
sonidos vocales, de los demás es fundamental para el desarrollo del lenguaje. La imitación requiere la
capacidad de descomponer una presentación observada en partes, cada una de las cuales se puede
dominar mediante un refinamiento recursivo e iterativo. De esta manera, podemos construir
estructuras elaboradas de oraciones y párrafos a partir de un conjunto limitado de palabras. Otra
característica clave del cerebro humano es la capacidad de hacer predicciones, incluidas predicciones
sobre los resultados de sus propias decisiones y acciones. Algunos científicos creen que la predicción
es la función principal de la corteza cerebral, aunque el cerebelo también juega un papel importante en
la predicción del movimiento. Curiosamente, somos capaces de predecir o anticipar nuestras propias
decisiones. El trabajo del profesor de fisiología Benjamin Libet de la Universidad de California en Davis
muestra que la actividad neuronal para iniciar una acción en realidad ocurre alrededor de un tercio de
segundo antes de que el cerebro haya tomado la decisión de realizar la acción. La implicación, según
Libet, es que la decisión es realmente una ilusión, que «la conciencia está fuera del circuito». El científico
cognitivo y filósofo Daniel Dennett describe el fenómeno de la siguiente manera: «La acción se precipita
originalmente en alguna parte del cerebro, y las señales vuelan a los músculos, deteniéndose en el camino para
decirle a usted, el agente consciente, lo que está pasando, pero como todos los buenos funcionarios dejando que
usted, el presidente torpe, mantenga la ilusión de que usted lo comenzó todo«.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 58/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
Sin embargo, lo sorprendente es la cantidad de células fusiformes que hay en esta diminuta región. Tan
solo unas 80.000 en el cerebro humano, en que unas 45.000 están en el hemisferio derecho y 35.000 en
el hemisferio izquierdo. Esta disparidad parece explicar la percepción de que la inteligencia emocional
es competencia del cerebro derecho, aunque la desproporción es modesta. Los gorilas tienen unas
16.000 de estas células, los bonobos unas 2.100 y los chimpancés unas 1.800, mientras que otros
mamíferos carecen de ellos por completo, por lo que se supone carecen de inteligencia emocional. El
Dr. Arthur Craig del Instituto Neurológico Barrow en Phoenix ha proporcionado recientemente una
descripción de la arquitectura de las células fusiformes. Las entradas del cuerpo, estimadas en cientos de
megabits por segundo, incluidos los nervios de la piel, los músculos, los órganos y otras áreas, fluyen
hacia la parte superior de la médula espinal. Estos llevan mensajes sobre el tacto, la temperatura, los
niveles de ácido, como, por ejemplo, el ácido láctico en los músculos, el movimiento de los alimentos a
través del tracto gastrointestinal y muchos otros tipos de información. Estos datos se procesan a través
del tronco encefálico y el mesencéfalo. Las células clave crean un mapa del cuerpo que representa su
estado actual, similar a las pantallas utilizadas por los controladores de vuelo para rastrear aviones.
Luego, la información fluye a través de una región del tamaño de una nuez llamada núcleo
ventromedial posterior (VMpo), que aparentemente calcula reacciones complejas a estados corporales
como «esto sabe terrible«, «qué hedor» o «ese toque ligero es estimulante«. La información cada vez más
sofisticada termina en dos regiones de la corteza llamadas ínsula. Estas estructuras, del tamaño de
pequeños dedos, están ubicadas en los lados izquierdo y derecho de la corteza. Craig describe el
VMpo y las dos regiones de la ínsula como «un sistema que representa el yo material«. Aunque aún no se
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 59/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
comprenden los mecanismos, estas regiones son fundamentales para la autoconciencia y las
emociones complicadas. También son mucho más pequeños en otros animales. Por ejemplo, el VMpo
es del tamaño de un grano de arena en los monos macacos e incluso más pequeño en los animales de
nivel inferior. Estos hallazgos son consistentes con un creciente consenso de que nuestras emociones
están estrechamente vinculadas a áreas del cerebro que contienen mapas del cuerpo, una opinión
promovida por el Dr. Antonio Damasio de la Universidad de Iowa. También son consistentes con la
opinión de que gran parte de nuestro pensamiento se dirige hacia nuestros cuerpos para protegerlos y
mejorarlos, así como también atender sus innumerables necesidades y deseos.
Comprender los métodos del cerebro humano ayudará a diseñar máquinas similares inspiradas en la
biología. Otra aplicación importante será conectar nuestros cerebros con las computadoras, que ya está
sucediendo, pero que Kurzweil cree que se convertirá en una fusión cada vez más íntima en las
próximas décadas. La Agencia de Proyectos de Investigación Avanzada de Defensa estadounidense
(DARPA) ya está gastando $ 24 millones por año en la investigación de interfaces directas entre el
cerebro y las computadoras. Tomaso Poggio y James DiCarlo en el MIT, junto con Christof Koch en el
Instituto de Tecnología de California (Caltech), están intentando desarrollar modelos de reconocimiento
visual de objetos y cómo se codifica esta información. Estos podrían eventualmente usarse para
transmitir imágenes directamente a nuestros cerebros. Miguel Nicolelis y sus colegas de la Universidad
de Duke implantaron sensores en los cerebros de los monos, lo que permitió a los animales controlar un
robot solo con el pensamiento. El primer paso del experimento consistió en enseñar a los monos a
controlar un cursor en una pantalla con un joystick. Los científicos recopilaron un patrón de señales de
EEG (sensores cerebrales) y posteriormente hicieron que el cursor respondiera a los patrones
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 60/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
apropiados en lugar de a los movimientos físicos del joystick. Los monos aprendieron rápidamente
que el joystick ya no funcionaba y que podían controlar el cursor con solo pensar. Este sistema de
«detección de pensamientos» se conectó luego a un robot, y los monos pudieron aprender a controlar los
movimientos del robot solo con sus pensamientos. Al obtener retroalimentación visual sobre el
desempeño del robot, los monos pudieron perfeccionar su control mental sobre el robot. El objetivo de
esta investigación es proporcionar un sistema similar para humanos paralizados que les permita
controlar sus extremidades y su entorno. Un desafío clave en la conexión de implantes neurales a
neuronas biológicas es que las neuronas generan células gliales, que rodean un objeto «extraño» en un
intento de proteger el cerebro. Ted Berger y sus colegas están desarrollando recubrimientos especiales
que parecerán biológicos y, por lo tanto, atraerán en lugar de repeler a las neuronas cercanas. Otro
enfoque que persigue el Instituto Max Planck de Ciencias Cognitivas y Cerebrales Humanas en Munich es
la interfaz directa de nervios y dispositivos electrónicos. Un chip permite que las neuronas crezcan en
un sustrato especial que proporciona contacto directo entre los nervios y los sensores y estimuladores
electrónicos. Un trabajo similar en un «neurochip» en Caltech ha demostrado una comunicación
bidireccional no invasiva entre las neuronas y la electrónica.
Fuentes
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 61/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
4 comentarios »
1. ¿Realmente crees todas las patrañas que proclaman estos «iluminados» que con la «robotizacion»
humana todas las dolencias de la humanidad se resolverían, no mas hambre ni enfermedades? no
es mas que discurso político barato y vulgar, te pongo un ejemplo: «el hambre en el mundo»
¿realmente piensas que eso no podrían resolverlo ya mismo si quisieran?
Si te están mintiendo en algo tan obvio como esto automáticamente emerge la pregunta ¿realmente
buscan el bienestar de la humanidad? la respuesta es un rotundo NO.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 62/63
22/12/23, 16:34 De la ingeniería inversa del cerebro biológico al cerebro artificial « Oldcivilizations's Blog
El tema no es si lo creemos o no, sino tener en cuenta todas las investigaciones que están yendo
en esta dirección. Yo no creo que lo que busquen sea el bienestar de la humanidad, tal como
pregonan, sino un mayor control sobre todos nosotros y llevarnos hacia lo que llaman
transhumanismo. Pero lo que es un hecho es que se estan produciendo estos avances
tecnológicos a una velocidad cada vez mayor.
3. Hola, me gustaría saber quiér era Lucifer y contra quién se rebeló. Y quién era el Arcángel San
Miguel. Gracias. Un saludo.
«Lo que sabemos es una gota de agua; lo que ignoramos es el océano» (Isaac Newton). La idea es ir
introduciendo temas que representan un enigma todavía no desentrañado. Con tu ayuda esperamos
irlo mejorando. Y en este blog tenemos pensado abarcar temas relacionados con antiguas
civilizaciones, enigmas de la prehistoria, temas de interés, etc… Leer más
Haz un clic en alguna de estas imágenes para acceder a alguna de mis novelas (en Amazon – Kindle
books) o a mis otros blogs.
Site info
Oldcivilizations's Blog
Crea un blog o un sitio web gratuitos con WordPress.com.
https://oldcivilizations.wordpress.com/2022/12/26/de-la-ingenieria-inversa-del-cerebro-biologico-al-cerebro-artificial/ 63/63