Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Resumen
Dentro de treinta años, tendremos los medios tecnológicos para crear una inteligencia
sobrehumana. Poco después, la era humana terminará.
¿Es evitable tal progreso? Si no hay que evitarlos, ¿pueden guiarse los acontecimientos para
que podamos sobrevivir? Estas preguntas son investigadas. Se presentan algunas respuestas
posibles (y algunos peligros adicionales).
¿Qué es La Singularidad?
Las grandes redes informáticas (y sus usuarios asociados) pueden "despertar" como
una entidad sobrehumanamente inteligente.
Las interfaces computadora/humano pueden volverse tan íntimas que los usuarios
pueden razonablemente ser considerados sobrehumanamente inteligentes.
Las primeras tres posibilidades dependen en gran parte de las mejoras en el hardware de la
computadora. El progreso en el hardware de las computadoras ha seguido una curva
sorprendentemente constante en las últimas décadas [17]. Basado en gran parte en esta
tendencia, creo que la creación de una inteligencia superior a la humana ocurrirá durante los
próximos treinta años. (Charles Platt [20] ha señalado que los entusiastas de la IA han estado
haciendo afirmaciones como esta durante los últimos treinta años. Solo para no ser culpable
de una ambigüedad de tiempo relativo, permítanme ser más específico: me sorprendería si
esto evento ocurre antes de 2005 o después de 2030).
¿Cuáles son las consecuencias de este evento? Cuando una inteligencia superior a la humana
impulse el progreso, ese progreso será mucho más rápido. De hecho, no parece haber ninguna
razón por la cual el progreso en sí mismo no implique la creación de entidades aún más
inteligentes, en una escala de tiempo aún más corta. La mejor analogía que veo es con el
pasado evolutivo: los animales pueden adaptarse a los problemas y hacer inventos, pero a
menudo no más rápido que la selección natural puede hacer su trabajo: el mundo actúa como
su propio simulador en el caso de la selección natural. Los humanos tenemos la capacidad de
internalizar el mundo y realizar "qué pasaría si" en nuestras cabezas; podemos resolver
muchos problemas miles de veces más rápido que la selección natural. Ahora,
Desde el punto de vista humano, este cambio será tirar por la borda todas las reglas
anteriores, quizás en un abrir y cerrar de ojos, un desbocamiento exponencial más allá de
cualquier esperanza de control. Los desarrollos que antes se pensaba que solo podrían suceder
en "un millón de años" (si es que alguna vez suceden) probablemente sucederán en el próximo
siglo. (En [5], Greg Bear pinta un cuadro de los principales cambios que suceden en cuestión de
horas).
Creo que es justo llamar a este evento una singularidad ("la Singularidad" para los fines de este
artículo). Es un punto en el que nuestros viejos modelos deben ser descartados y reina una
nueva realidad. A medida que nos acerquemos a este punto, se perfilará cada vez más sobre
los asuntos humanos hasta que la noción se convierta en un lugar común. Sin embargo,
cuando finalmente suceda, aún puede ser una gran sorpresa y una gran incógnita. En la década
de 1950 fueron muy pocos los que lo vieron: Stan Ulam [28] parafraseó a John von Neumann
diciendo:
Una conversación se centró en el progreso cada vez más acelerado de la tecnología y los
cambios en el modo de vida humana, lo que da la apariencia de acercarse a una singularidad
esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los
conocemos, no podrían continuar.
Von Neumann incluso usa el término singularidad, aunque parece que está pensando en el
progreso normal, no en la creación de un intelecto sobrehumano. (Para mí, la sobrehumanidad
es la esencia de la Singularidad. Sin eso, obtendríamos un exceso de riquezas técnicas, nunca
absorbidas adecuadamente (ver [25]).)
Dejemos que una máquina ultrainteligente se defina como una máquina que puede superar
con creces todas las actividades intelectuales de cualquier hombre, por inteligente que
sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina
ultrainteligente podría diseñar máquinas aún mejores; entonces incuestionablemente habría
una "explosión de inteligencia" y la inteligencia del hombre quedaría muy atrás. Por lo tanto, la
primera máquina ultrainteligente es el _último_ invento que el hombre necesita hacer,
siempre que la máquina sea lo suficientemente dócil para decirnos cómo mantenerla bajo
control. ... Es más probable que improbable que, dentro del siglo XX,
El bien ha captado la esencia de la fuga, pero no persigue sus consecuencias más
inquietantes. Cualquier máquina inteligente del tipo que él describe no sería la "herramienta"
de la humanidad, como tampoco lo son los humanos las herramientas de los conejos, los
petirrojos o los chimpancés.
Durante los años 60, 70 y 80, se extendió el reconocimiento del cataclismo [29] [1] [31]
[5]. Quizás fueron los escritores de ciencia ficción quienes sintieron el primer impacto
concreto. Después de todo, los escritores de ciencia ficción "duras" son los que tratan de
escribir historias específicas sobre todo lo que la tecnología puede hacer por nosotros. Cada
vez más, estos escritores sintieron un muro opaco a través del futuro. Una vez, pudieron poner
tales fantasías millones de años en el futuro [24]. Ahora vieron que sus extrapolaciones más
diligentes dieron como resultado lo incognoscible... pronto. Una vez, los imperios galácticos
podrían haber parecido un dominio poshumano. Ahora, lamentablemente, incluso los
interplanetarios lo son.
¿Qué pasa con los años 90, 2000 y 10, mientras nos deslizamos hacia el borde? ¿Cómo se
extenderá el enfoque de la Singularidad a través de la visión del mundo humano? Durante un
tiempo todavía, los críticos generales de la inteligencia de las máquinas tendrán buena
prensa. Después de todo, hasta que tengamos un hardware tan poderoso como el cerebro
humano, probablemente sea una tontería pensar que seremos capaces de crear una
inteligencia humana equivalente (o mayor). (Existe la posibilidad descabellada de que
podamos hacer un equivalente humano a partir de un hardware menos potente, si
estuviéramos dispuestos a renunciar a la velocidad, si estuviéramos dispuestos a conformarnos
con un ser artificial que fuera literalmente lento [30]. Pero es es mucho más probable que
diseñar el software sea un proceso complicado, involucrando muchos comienzos en falso y
experimentación. Si es así, entonces la llegada de máquinas autoconscientes no ocurrirá hasta
después del desarrollo de hardware que sea sustancialmente más poderoso que el equipo
natural de los humanos).
Pero a medida que pasa el tiempo, deberíamos ver más síntomas. El dilema que sienten los
escritores de ciencia ficción se percibirá en otros esfuerzos creativos. (He escuchado a
escritores de cómics reflexivos preocuparse por cómo tener efectos espectaculares cuando
todo lo visible puede ser producido por el lugar común tecnológico). Veremos que la
automatización reemplaza los trabajos de nivel cada vez más alto. Tenemos herramientas en
este momento (programas de matemáticas simbólicas, cad/cam) que nos liberan de la mayor
parte del trabajo pesado de bajo nivel. O dicho de otra manera: el trabajo que es
verdaderamente productivo es el dominio de una fracción cada vez más pequeña y más elitista
de la humanidad. En la llegada de la Singularidad, estamos viendo que las predicciones del
_verdadero_ desempleo tecnológico finalmente se hacen realidad.
Otro síntoma del progreso hacia la Singularidad: las propias ideas deberían extenderse cada
vez más rápido, e incluso las más radicales pronto se convertirán en lugares comunes. Cuando
comencé a escribir ciencia ficción a mediados de los años 60, parecía muy fácil encontrar ideas
que tardaron décadas en filtrarse en la conciencia cultural; ahora el plazo de entrega parece
más de dieciocho meses. (Por supuesto, esto podría ser solo porque estoy perdiendo la
imaginación a medida que envejezco, pero también veo el efecto en los demás). Al igual que el
choque en un flujo comprimible, la Singularidad se acerca a medida que aceleramos a través
de la velocidad crítica.
¿Y la llegada de la propia Singularidad? ¿Qué se puede decir de su apariencia real? Dado que
se trata de una fuga intelectual, probablemente ocurrirá más rápido que cualquier revolución
técnica vista hasta ahora. El evento precipitante probablemente será inesperado, tal vez
incluso para los investigadores involucrados. ("¡Pero todos nuestros modelos anteriores eran
catatónicos! Solo estábamos ajustando algunos parámetros..."). Si la red está lo
suficientemente extendida (en sistemas integrados ubicuos), puede parecer como si nuestros
artefactos en su conjunto se hubieran despertado repentinamente.
¿Y qué sucede un mes o dos (o un día o dos) después de eso? Solo tengo analogías para
señalar: El surgimiento de la humanidad. Estaremos en la era Post-Humana. Y a pesar de todo
mi optimismo tecnológico desenfrenado, a veces pienso que estaría más cómodo si estuviera
considerando estos eventos trascendentales de hace mil años... en lugar de veinte.
Bueno, tal vez no suceda en absoluto: A veces trato de imaginar los síntomas que debemos
esperar para ver si la Singularidad no se desarrolla. Están los argumentos ampliamente
respetados de Penrose [19] y Searle [22] contra la practicidad de la inteligencia de las
máquinas. En agosto de 1992, Thinking Machines Corporation realizó un taller para investigar
la pregunta "Cómo construiremos una máquina que piense" [27]. Como puede adivinar por el
título del taller, los participantes no apoyaron especialmente los argumentos en contra de la
inteligencia artificial. De hecho, hubo acuerdo general en que las mentes pueden existir en
sustratos no biológicos y que los algoritmos son de importancia central para la existencia de las
mentes. Sin embargo, hubo mucho debate sobre la potencia de hardware en bruto que está
presente en los cerebros orgánicos. Una minoría sintió que las computadoras más grandes de
1992 estaban dentro de los tres órdenes de magnitud del poder del cerebro humano. La
mayoría de los participantes estuvo de acuerdo con la estimación de Moravec [17] de que
estamos a diez o cuarenta años de la paridad del hardware. Y, sin embargo, hubo otra minoría
que señaló [7] [21] y conjeturó que la competencia computacional de las neuronas individuales
puede ser mucho mayor de lo que generalmente se cree. Si es así, el hardware de nuestra
computadora actual podría ser hasta _diez_ órdenes de magnitud menor que el equipo que
llevamos en la cabeza. Si esto es cierto (o, para el caso, si la crítica de Penrose o Searle es
válida), es posible que nunca veamos una Singularidad. En cambio, a principios de la década de
2000 encontraríamos que las curvas de rendimiento de nuestro hardware comenzaban a
estabilizarse, esto debido a nuestra incapacidad para automatizar el trabajo de diseño
necesario para admitir mejoras adicionales de hardware. Terminaríamos con un hardware
_muy_ potente, pero sin la capacidad de impulsarlo más. El procesamiento de señales digitales
comerciales podría ser increíble, dando una apariencia analógica incluso a las operaciones
digitales, pero nada "despertaría" nunca y nunca habría la fuga intelectual que es la esencia de
la Singularidad. Probablemente sería visto como una edad de oro... y también sería el fin del
progreso. Esto es muy parecido al futuro predicho por Gunther Stent. De hecho, en la página
137 de [25],
Pero si la Singularidad tecnológica puede suceder, sucederá. Incluso si todos los gobiernos del
mundo comprendieran la "amenaza" y tuvieran un miedo mortal a ella, el progreso hacia la
meta continuaría. En la ficción, ha habido historias de leyes aprobadas que prohíben la
construcción de "una máquina a semejanza de la mente humana" [13]. De hecho, la ventaja
competitiva (económica, militar, incluso artística) de cada avance en la automatización es tan
convincente que aprobar leyes o tener costumbres que prohíban tales cosas simplemente
asegura que alguien más las obtenga primero.
Eric Drexler [8] ha proporcionado ideas espectaculares sobre hasta dónde puede llegar la
mejora técnica. Está de acuerdo en que las inteligencias sobrehumanas estarán disponibles en
un futuro cercano, y que tales entidades representan una amenaza para el statu quo
humano. Pero Drexler argumenta que podemos confinar tales dispositivos transhumanos para
que sus resultados puedan examinarse y usarse de manera segura. Esta es la máquina
ultrainteligente de IJ Good, con una dosis de precaución. Argumento que el confinamiento es
intrínsecamente impráctico. Para el caso de confinamiento físico: imagínate encerrado en tu
casa con acceso limitado a los datos del exterior, de tus amos. Si esos maestros pensaran a un
ritmo, digamos, un millón de veces más lento que tú, hay pocas dudas de que durante un
período de años (su tiempo) podría encontrar "consejos útiles" que incidentalmente lo
liberarían. (Llamo a esta forma de superinteligencia de "pensamiento rápido"
"superhumanidad débil". Tal entidad "débilmente sobrehumana" probablemente se quemaría
en unas pocas semanas de tiempo exterior. "Superhumanidad fuerte" sería más que aumentar
la velocidad del reloj en un mente equivalente a la humana. Es difícil decir con precisión cómo
sería una "sobrehumanidad fuerte", pero la diferencia parece ser profunda. Imagine ejecutar
una mente de perro a una velocidad muy alta. ¿Se sumarían mil años de vida perruna a alguna
percepción humana? (Ahora bien, si la mente del perro se reconfigurara inteligentemente y
luego funcionara a alta velocidad, podríamos ver algo diferente...) Muchas especulaciones
acerca de la superinteligencia parecen estar basadas en el modelo débilmente
sobrehumano. Creo que nuestras mejores conjeturas sobre el mundo posterior a la
Singularidad se pueden obtener pensando en la naturaleza de la superhumanidad
fuerte. Volveré sobre este punto más adelante en el artículo).
Si la Singularidad no puede ser prevenida o confinada, ¿qué tan mala podría ser la era Post-
Humana? Bueno... bastante mal. La extinción física de la raza humana es una posibilidad. (O
como dijo Eric Drexler sobre la nanotecnología: dado todo lo que esa tecnología puede hacer,
¡quizás los gobiernos simplemente decidan que ya no necesitan ciudadanos!). Sin embargo, la
extinción física puede no ser la posibilidad más aterradora. De nuevo, analogías: piensa en las
diferentes formas en que nos relacionamos con los animales. Algunos de los crudos abusos
físicos son inverosímiles, sin embargo... En un mundo poshumano todavía habría muchos
nichos donde la automatización humana equivalente sería deseable: sistemas integrados en
dispositivos autónomos, demonios conscientes de sí mismos en el funcionamiento inferior de
seres sintientes más grandes. (Una inteligencia fuertemente sobrehumana probablemente
sería una Sociedad de la Mente [16] con algunos componentes muy competentes). Algunos de
estos equivalentes humanos podrían usarse para nada más que el procesamiento de señales
digitales. Se parecerían más a las ballenas que a los humanos. Otros pueden ser muy parecidos
a los humanos, pero con una unilateralidad, una _dedicación_ que los pondría en un hospital
psiquiátrico en nuestra era. Aunque ninguna de estas criaturas podría ser humanos de carne y
hueso, podrían ser las cosas más cercanas en el nuevo entorno a lo que llamamos humanos
ahora. (IJ Good tenía algo que decir al respecto, aunque en esta fecha tardía el consejo puede
ser discutible: Good [12] propuso una "Meta-regla de oro", que podría parafrasearse como
"Trata a tus inferiores como te tratarían tus superiores". Es una idea maravillosa y paradójica (y
la mayoría de mis amigos no la creen) ya que la recompensa de la teoría de juegos es muy
difícil de articular. Sin embargo, si pudiéramos seguirlo, en cierto sentido eso podría decir algo
sobre la plausibilidad de tal bondad en este universo).
Y es muy probable que la IA sea un camino mucho más fácil para lograr la superhumanidad
que la IA pura. En los humanos, los problemas de desarrollo más difíciles ya han sido
resueltos. Construir desde dentro debería ser más fácil que descubrir primero lo que
realmente somos y luego construir máquinas que sean todo eso. Y hay al menos un
precedente conjetural para este enfoque. Cairns-Smith [6] ha especulado que la vida biológica
pudo haber comenzado como complemento de una vida aún más primitiva basada en el
crecimiento cristalino. Lynn Margulis (en [15] y en otros lugares) ha presentado fuertes
argumentos de que el mutualismo es una gran fuerza impulsora en la evolución.
Tenga en cuenta que no estoy proponiendo que la investigación de IA sea ignorada o menos
financiada. Lo que sucede con la IA a menudo tendrá aplicaciones en la IA y viceversa. Estoy
sugiriendo que reconozcamos que en la investigación de redes e interfaces hay algo tan
profundo (y potencialmente salvaje) como la Inteligencia Artificial. Con esa perspectiva,
podemos ver proyectos que no son tan directamente aplicables como el trabajo de diseño de
redes e interfaces convencionales, pero que sirven para avanzar hacia la Singularidad a lo largo
del camino de IA.
Aquí hay algunos proyectos posibles que cobran especial significado, dado el punto de vista de
IA:
Desarrolle interfaces que permitan el acceso a la computadora y la red sin requerir que
el ser humano esté atado a un solo lugar, sentado frente a una computadora. (Este es
un aspecto de IA que encaja tan bien con las ventajas económicas conocidas que ya se
está invirtiendo mucho esfuerzo en ello).
Usar redes de área local para hacer equipos humanos que realmente funcionen (es
decir, que sean más efectivos que los miembros que los componen). Esta es
generalmente el área de "groupware", que ya es una actividad comercial muy
popular. El cambio de punto de vista aquí sería considerar la actividad del grupo como
un organismo combinado. En cierto sentido, esta sugerencia podría considerarse como
el objetivo de inventar unas "Reglas de orden" para tales operaciones combinadas. Por
ejemplo, el enfoque grupal puede mantenerse más fácilmente que en las reuniones
clásicas. La experiencia de los miembros humanos individuales podría aislarse de los
problemas del ego, de modo que la contribución de los diferentes miembros se centre
en el proyecto del equipo. Y, por supuesto, las bases de datos compartidas podrían
usarse de manera mucho más conveniente que en las operaciones de comités
convencionales. (Tenga en cuenta que esta sugerencia está dirigida a operaciones de
equipo en lugar de reuniones políticas. En un entorno político, la automatización
descrita anteriormente simplemente haría cumplir el poder de las personas que hacen
las reglas).
Los ejemplos anteriores ilustran la investigación que se puede realizar en el contexto de los
departamentos de informática contemporáneos. Hay otros paradigmas. Por ejemplo, gran
parte del trabajo en inteligencia artificial y redes neuronales se beneficiaría de una conexión
más estrecha con la vida biológica. En lugar de simplemente tratar de modelar y comprender
la vida biológica con computadoras, la investigación podría dirigirse hacia la creación de
sistemas compuestos que dependan de la vida biológica como guía o para proporcionar
características que aún no entendemos lo suficientemente bien como para implementarlas en
el hardware. Un sueño de mucho tiempo de la ciencia ficción ha sido el cerebro directo a las
interfaces de la computadora [2] [29]. De hecho, hay trabajo concreto que se puede hacer (y
se está haciendo) en esta área:
Los enlaces directos a los cerebros parecen factibles, si la tasa de bits es baja: dada la
flexibilidad de aprendizaje humano, es posible que no sea necesario seleccionar con
precisión los objetivos reales de las neuronas cerebrales. Incluso 100 bits por segundo
serían de gran utilidad para las víctimas de accidentes cerebrovasculares que, de otro
modo, estarían confinadas a interfaces basadas en menús.
Pero en este mundo más brillante y amable, los problemas filosóficos en sí mismos se vuelven
intimidantes. Una mente que permanece en la misma capacidad no puede vivir para
siempre; después de unos pocos miles de años se parecería más a un bucle de cinta repetitivo
que a una persona. (La imagen más escalofriante que he visto de esto está en [18].) Para vivir
indefinidamente, la mente misma debe crecer... y cuando se vuelve lo suficientemente grande
y mira hacia atrás... ¿qué sentimiento de compañerismo puede tener? con el alma que era
originalmente? Ciertamente, el ser posterior sería todo lo que fue el original, pero muchísimo
más. Y así, incluso para el individuo, la noción de Cairns-Smith o Lynn Margulis de una nueva
vida que crece progresivamente a partir de la vieja debe seguir siendo válida.
Este "problema" sobre la inmortalidad surge de formas mucho más directas. La noción de ego
y autoconciencia ha sido la base del racionalismo testarudo de los últimos siglos. Sin embargo,
ahora la noción de autoconciencia está siendo atacada por la gente de Inteligencia Artificial
("autoconciencia y otros engaños"). La amplificación de inteligencia socava nuestro concepto
de ego desde otra dirección. El mundo posterior a la Singularidad implicará redes de ancho de
banda extremadamente alto. Una característica central de las entidades fuertemente
sobrehumanas probablemente sea su capacidad para comunicarse en anchos de banda
variables, incluidos aquellos mucho más altos que el habla o los mensajes escritos. ¿Qué
sucede cuando las piezas del ego se pueden copiar y fusionar, cuando el tamaño de una
autoconciencia puede crecer o reducirse para adaptarse a la naturaleza de los problemas bajo
consideración? Estas son características esenciales de la sobrehumanidad fuerte y la
Singularidad. Pensando en ellos, uno comienza a sentir lo esencialmente extraña y diferente
que será la era Post-Humana -- _no importa cuán inteligente y benignamente se presente_.
Desde un ángulo, la visión se ajusta a muchos de nuestros sueños más felices: un tiempo sin
fin, donde podemos conocernos verdaderamente y comprender los misterios más
profundos. Desde otro ángulo, se parece mucho al peor de los casos que imaginé
anteriormente en este documento.
¿Cuál es el punto de vista válido? De hecho, creo que la nueva era es simplemente demasiado
diferente para encajar en el marco clásico del bien y el mal. Ese marco se basa en la idea de
mentes aisladas e inmutables conectadas por enlaces tenues de bajo ancho de banda. Pero el
mundo posterior a la Singularidad _sí_ encaja con la tradición más amplia de cambio y
cooperación que comenzó hace mucho tiempo (quizás incluso antes del surgimiento de la vida
biológica). Creo que hay nociones de ética que se aplicarían en una era así. La investigación
sobre IA y comunicaciones de gran ancho de banda debería mejorar esta comprensión. Veo
solo los destellos de esto ahora [32]. Está la meta-regla de oro de Good; tal vez haya reglas
para distinguirse uno mismo de los demás sobre la base del ancho de banda de la conexión. Y
aunque la mente y el yo serán mucho más lábiles que en el pasado, gran parte de lo que
valoramos (conocimiento, memoria, pensamiento) nunca se perderá. Creo que Freeman Dyson
tiene razón cuando dice [9]: "Dios es en lo que se convierte la mente cuando ha sobrepasado
la escala de nuestra comprensión".
[Deseo agradecer a John Carroll de la Universidad Estatal de San Diego y a Howard Davidson de
Sun Microsystems por analizar conmigo la versión preliminar de este artículo].
[1] Alfve'n, Hannes, escribiendo como Olof Johanneson, _The End of Man?_, Award Books,
1969 publicado anteriormente como "The Tale of the Big Computer", Coward-McCann,
traducido de un libro copyright 1966 Albert Bonniers Forlag AB con traducción al inglés
copyright 1966 por Victor Gollanz, Ltd.
[2] Anderson, Poul, "Kings Who Die", _If_, marzo de 1962, p8-36. Reimpreso en _Seven
Conquests_, Poul Anderson, MacMillan Co., 1969.
[3] Asimov, Isaac, "Runaround", _Astounding Science Fiction_, marzo de 1942, p94. Reimpreso
en _Robot Visions_, Isaac Asimov, ROC, 1990. Asimov describe el desarrollo de sus historias de
robótica en este libro.
[4] Barrow, John D. y Frank J. Tipler, _El principio cosmológico antrópico_, Oxford University
Press, 1986.
[5] Bear, Greg, "Blood Music", _Analog Science Fiction-Science Fact_, junio de 1983. Ampliado
a la novela _Blood Music_, Morrow, 1985.
[6] Cairns-Smith, AG, _Siete pistas sobre el origen de la vida_, Cambridge University Press,
1985.
[7] Conrad, Michael _et al._, "Hacia un cerebro artificial", _BioSystems_, vol 23, pp175-218,
1989.
[9] Dyson, Freeman, _Infinito en todas las direcciones_, Harper && Row, 1988.
[10] Dyson, Freeman, "Física y biología en un universo abierto", _Review of Modern Physics_,
vol 51, pp447-460, 1979.
[11] Good, IJ, "Speculations Concerning the First Ultraintelligent Machine", en _Advances in
Computers_, vol 6, Franz L. Alt y Morris Rubinoff, eds, pp31-88, 1965, Academic Press.
[12] Bien, IJ, [¡Ayuda! No puedo encontrar la fuente de la meta-regla de oro de Good, aunque
tengo el claro recuerdo de haber oído hablar de ella en algún momento de la década de
1960. A través de la ayuda de la red, he encontrado punteros a una serie de elementos
relacionados. G. Harry Stine y Andrew Haley han escrito sobre metalaw en relación con los
extraterrestres: G. Harry Stine, "How to Get Along with Extraterrestrials... or Your Neighbor",
_Analog Science Fact- Science Fiction_, febrero de 1980, p39 -47.] [13] Herbert, Frank, _Dune_,
Berkley Books, 1985. Sin embargo, esta novela se publicó por entregas en _Analog Science
Fiction-Science Fact_ en la década de 1960.
[14] Kovacs, GTA _et al._, "Conjunto de microelectrodos de regeneración para el registro y
estimulación de nervios periféricos", _IEEE Transactions on Biomedical Engineering_, v 39, n 9,
pp 893-902.
[15] Margulis, Lynn y Dorion Sagan, _Microcosmos, Four Billion Years of Evolution from Our
Microbial Ancestors_, Summit Books, 1986.
[18] Niven, Larry, "La ética de la locura", _If_, abril de 1967, pp82-108. Reimpreso en _Neutron
Star_, Larry Niven, Ballantine Books, 1968.
[19] Penrose, Roger, _La nueva mente del emperador_, Oxford University Press, 1989.
[21] Rasmussen, S. _et al._, "Conexionismo computacional dentro de las neuronas: un modelo
de autómatas citoesqueléticos al servicio de las redes neuronales", en _Emergent
Computation_, Stephanie Forrest, ed., pp428-449, MIT Press, 1991.
[22] Searle, John R., "Minds, Brains, and Programs", en _The Behavioral and Brain Sciences_,
vol 3, Cambridge University Press, 1980. El ensayo se reproduce en _The Mind's I_, editado por
Douglas R. Hofstadter y Daniel C. Dennett, Basic Books, 1981 (mi fuente para esta
referencia). Esta reimpresión contiene una excelente crítica del ensayo de Searle.
[23] Sims, Karl, "Interactive Evolution of Dynamical Systems", Thinking Machines Corporation,
Technical Report Series (publicado en _Toward a Practice of Autonomous Systems:
Proceedings of the First European Conference on Artificial Life_, París, MIT Press, diciembre de
1991.
[24] Stapledon, Olaf, _The Starmaker_, Berkley Books, 1961 (pero desde la fecha en adelante,
probablemente escrito antes de 1937).
[25] Stent, Gunther S., _The Coming of the Golden Age: A View of the End of Progress_, The
Natural History Press, 1969.
[26] Swanwick Michael, _Vacuum Flowers_, serializado en _Isaac Asimov's Science Fiction
Magazine_, diciembre (?) 1986 - febrero 1987. Reeditado por Ace Books, 1988.
[27] Thearling, Kurt, "Cómo construiremos una máquina que piense", un taller en Thinking
Machines Corporation, 24-26 de agosto de 1992. Comunicación personal.
[28] Ulam, S., Tribute to John von Neumann, _Boletín de la American Mathematical Society_,
vol 64, nr 3, parte 2, mayo de 1958, pp1-49.
[29] Vinge, Vernor, "Bookworm, Run!", _Analog_, marzo de 1966, pp8-40. Reimpreso en _True
Names and Other Dangers_, Vernor Vinge, Baen Books, 1987.
[30] Vinge, Vernor, "True Names", _Binary Star Number 5_, Dell, 1981. Reimpreso en _True
Names and Other Dangers_, Vernor Vinge, Baen Books, 1987.