Está en la página 1de 27

ISAAC ASIMOV

El hombre bicentenario

EL HOMBRE BICENTENARIO
Isaac Asimov

1 Las Tres Leyes de la robtica: 1. Un robot no debe causar dao a un ser humano ni, por inaccin, permitir que un ser humano sufra ning n dao. !. Un robot debe obedecer las rdenes impartidas por los seres humanos, e"cepto cuando dichas rdenes est#n reidas con la $rimera Ley. %. Un robot debe proteger su propia e"istencia, mientras dicha proteccin no est# reida ni con la $rimera ni con la &egunda Ley.

Gracias dijo Andrew Martin, aceptando el asiento que le ofrecan. Su semblante no delataba a una persona acorralada, pero eso era. En realidad su semblante no delataba nada, pues no dejaba ver otra expresi n que la triste!a de los ojos. "ena el cabello lacio, casta#o claro $ fino, $ no %aba vello en su rostro. &areca reci'n afeitado. (esta anticuadas, pero pulcras ropas de color rojo aterciopelado. Al otro lado del escritorio estaba el cirujano, $ la placa del escrito inclua una serie indentificatoria de letras $ n)meros, pero Andrew no se molest en leerla. *astara con llamarle +doctor,. -.u/ndo se puede reali!ar la operaci n doctor0 pre1unt . El cirujano murmur , con esa inalienable nota de respeto que un robot siempre usaba ante un ser %umano2 3o esto$ se1uro de entender c mo o en qui'n debe reali!arse esa operaci n, se#or. El rostro del cirujano %abra revelado cierta respetuosa intransi1encia si tal expresi n o cualquier otra %ubiera sido posible en el acero inoxidable con un li1ero tono de bronce. Andrew Martin estudi la mano derec%a del robot, la mano quir)r1ica, que descansaba en el escritorio. 4os lar1os dedos estaban artsticamente modelados en curvas met/licas tan 1r/ciles $ apropiadas que era f/cil ima1inarlas empu#ando un escalpelo que moment/neamente se transformara en parte de los propios dedos. En su trabajo no %abra vacilaciones, tropie!os, temblores ni errores. Eso iba unido a la especiali!aci n tan deseada por la %umanidad que pocos robots posean $a un cerebro independiente. .laro que un cirujano necesita cerebro, pero 'ste estaba tan limitado en su capacidad que no reconoca a Andrew. "al ve! nunca le %ubiera odo nombrar. -Al1una ve! %a pensado que le 1ustara ser un %ombre0 le pre1unt Andrew. El cirujano dud un momento, como si la pre1unta no encajara en sus sendas positr nicas. &ero $o so$ un robot, se#or. -3o sera preferible ser un %ombre0 Sera preferible ser mejor cirujano. 3o podra serlo si fuera %ombre, s lo si fuese un robot m/s avan!ado. Me 1ustara ser un robot m/s avan!ado.

-3o le ofende que $o pueda darle rdenes, que $o pueda %acerle poner de pie, sentarse, moverse a derec%a e i!quierda, con s lo decirlo0 Es mi placer a1radarle. Si sus rdenes interfiriesen en mi funcionamiento respecto de usted o de cualquier otro ser %umano, no le obedecera. 4a primera 4e$, concerniente a mi deber para con la se1uridad %umana, tendra prioridad sobre la Se1unda 4e$, la referente a la obediencia. 5e no ser as, la obediencia es un placer para m... &ero -a qui'n debo operar0 A m. 6mposible. Es una operaci n evidentemente da#ina. Eso no importa dijo Andrew con calma. 3o debo infli1ir da#o objet el cirujano. A un ser %umano no, pero $o tambi'n so$ un robot. 2 Andrew tena muc%a m/s experiencia de robot cuando acabaron de manufacturarlo. Era como cualquier otro robot, con dise#o ele1ante $ funcional. 4e fue bien en el %o1ar adonde lo llevaron, en aquellos das en que los robots eran una rare!a en las casas $ en el planeta. 7aba cuatro personas en la casa2 el +se#or,, la +se#ora,, la +se#orita, $ la +ni#a,. .onoca los nombres, pero nunca los usaba. El Se#or se llamaba Gerald Martin. Su n)mero de serie era 358... 3o se acordaba de las cifras. 7aba pasado muc%o tiempo, pero si %ubiera querido recordarlas %abra podido %acerlo. S lo que no quera. 4a 3i#a fue la primera en llamarlo Andrew, porque no era capa! de pronunciar las letras, $ todos %icieron lo mismo que ella. 4a 3i#a... 4le1 a vivir noventa a#os $ %aba fallecido tiempo atr/s. En cierta ocasi n, 'l quiso llamarla Se#ora, pero ella no se lo permiti . 9ue 3i#a %asta el da de su muerte. Andrew estaba destinado a reali!ar tareas de a$uda de c/mara, de ma$ordomo $ de criado. Eran das experimentales para 'l $ para todos los robots en todas partes, excepto en las factoras $ las estaciones industriales $ exploratorias que se %allaban fuera de la "ierra. 4os Martin le tenan afecto $ muc%as veces le impedan reali!ar su trabajo porque la Se#orita $ la 3i#a preferan ju1ar con 'l. 9ue la Se#orita la primera en darse cuenta de c mo se poda solucionar aquello. "e ordenamos a que jue1ues con nosotras $ debes obedecer las rdenes le dijo. 4o lamento, Se#orita contest Andrew, pero una orden previa del Se#or sin duda tiene prioridad. &ap/ s lo dijo que esperaba que t) te encar1aras de la limpie!a replic ella. Eso no es una orden. :o s te lo ordeno. Al Se#or no le importaba. El Se#or senta un 1ran cari#o por la Se#orita $ por la 3i#a, incluso m/s que la Se#ora, $ Andrew tambi'n les tena cari#o. Al menos, el efecto que ellas ejercan sobre sus actos eran aquellos que en un ser %umano se %ubieran considerado los efectos del cari#o. Andrew lo consideraba cari#o, pues no conoca otra palabra desi1narlo. "all para la 3i#a un pendiente de madera. Ella se lo %aba ordenado. Al parecer, a la Se#orita le %aban re1alado por su cumplea#os un pendiente de marfilina con volutas, $ la 3i#a senta celos. S lo tena un tro!o de madera $ se lo dio a Andrew con un cuc%illo de cocina. Andrew lo tall r/pidamente. 3

;u' bonito, Andrew dijo la ni#a. Se lo ense#ar' a pap/. El Se#or no poda creerlo. -5 nde conse1uiste esto Mand$0 As llamaba el Se#or a la 3i#a. .uando la 3i#a le ase1ur que deca la verdad, el Se#or se volvi %acia Andrew. -4o %as %ec%o t), Andrew0 S Se#or. -5e d nde copiaste el dise#o0 Es una representaci n 1eom'trica, Se#or, que armoni!a con la fibra de la madera. Al da si1uiente, el Se#or le llev otro tro!o de una madera $ un vibrocuc%illo el'ctrico. "alla al1o con esto, Andrew. 4o que quieras. Andrew obedeci $ el Se#or le observ < lue1o, examin el producto durante un lar1o rato. 5espu's de eso, Andrew dej de servir la mesa. 4e ordenaron que le$era libros sobre dise#o de muebles, $ aprendi a fabricar 1abinetes $ escritorios. El Se#or le dijo2 Son productos asombrosos, Andrew. Me complace %acerlos, Se#or. -. mo que te complace0 4os circuitos de mi cerebro funcionan con ma$or fluide!. 7e odo usar el t'rmino +complacer, $ el modo en que usted lo usa concuerda con mi modo de sentir. Me complace %acerlos, Se#or. 3 Gerald Martin llev a Andrew a la oficina re1ional de 8obots $ 7ombres Mec/nicos de Estados =nidos. .omo miembro de la 4e1islatura 8e1ional, no tuvo problemas para conse1uir una entrevista con el jefe de robopsicolo1a. M/s a)n, s lo estaba calificado para poseer un robot por ser miembro de la 4e1islatura. 4os robots no eran al1o %abitual en aquellos das. Andrew no comprendi nada al principio, pero en a#os posteriores, $a con ma$ores conocimientos, evocara esa escena $ lo comprendera. El robopsic lo1o, Merton Mans>$, escuc% con el ce#o cada ve! m/s fruncido $ reali! un esfuer!o para no tamborilear en la mesa con los dedos. "ena tensos los ras1os $ la frente arru1ada $ daba la impresi n de ser m/s joven de lo que aparentaba. 4a rob tica no es un arte exacto, se#or Martin dijo. 3o puedo explic/rselo detalladamente, pero la matem/tica que ri1e la confi1uraci n de las sendas positr nicas es tan compleja que s lo permite soluciones aproximadas. 3aturalmente, como construimos todo en torno de las "res 4e$es, 'stas son incontrovertibles. 5esde lue1o, reempla!aremos ese robot... En absoluto protest el Se#or. 3o se trata de un fallo. ?l cumple perfectamente con sus deberes. El punto es que tambi'n reali!a exquisitas tallas en madera $ nunca repite los dise#os. &roduce obras de arte. Mans>$ pareca confundido. Es extra#o. .laro que actualmente estamos probando con sendas 1enerali!adas... -.ree usted que es realmente creativo0 ('alo usted mismo. 4e entre1 una peque#a esfera de madera, en la que %aba una escena con ni#os tan peque#os que apenas se vean< pero las proporciones eran perfectas $ armoni!aban de un modo natural con la fibra, como si tambi'n 'sta estuviera tallada.

-?l %i!o esto0 exclam Mans>$. Se lo devolvi , sacudiendo la cabe!a. &uramente fortuito. Al1o que %a$ en sus sendas. -&ueden repetirlo0 &robablemente no. 3unca nos %an informado de nada semejante. @*ienA 3o me molesta en absoluto que Andrew sea el )nico. Me temo que la empresa querr/ recuperar ese robot para estudiarlo. Blvdelo replic el Se#or. Se volvi %acia Andrew2 (/monos a casa. .omo usted desee, Se#or dijo Andrew. 4 4a Se#orita sala con jovencitos $ no estaba muc%o en casa. A%ora era la 3i#a, que $a no era tan ni#a, quien llenaba el %ori!onte de Andrew. 3unca olvidaba que la primera talla en madera de Andrew %aba sido para ella. 4a llevaba en una cadena de plata que le penda del cuello. 9ue ella la primera que se opuso a la costumbre del Se#or a re1alar los productos. (amos, pap/. Si al1uien los quiere, que pa1ue por ellos. (alen la pena. "u no eres codiciosa, Mand$. 3o es por nosotros, pap/. Es por el artista. Andrew jam/s %aba odo esa palabra $ en cuanto tuvo un momento a solas la busc diccionario. &oco despu's reali!aron otro viaje< en esa ocasi n para visitar al abo1ado del Se#or. -;u' piensas de esto Co%n0 le pre1unt el Se#or. El abo1ado se llamaba Co%n 9ein1old. Era canoso $ barri1 n, $ los bordes de sus lentes de contacto estaban te#idos de verde brillante. Mir la peque#a placa que el Se#or le %aba entre1ado. Es bella... &ero esto$ al tanto. Es una talla de un robot, ese que %as trado conti1o. S, es obra de Andrew. -(erdad, Andrew0 S, Se#or. -.u/nto pa1aras por esto Co%n0 pre1unt el Se#or. 3o s'. 3o colecciono esos objetos. -.reeras que me %an ofrecido doscientos cincuenta d lares por esta cosita0 Andrew %a fabricado tambi'n sillas que %e vendido por quinientos d lares. 4os productos de Andrew nos %an permitido depositar doscientos mil d lares en el banco. @.ielos, te est/ %aciendo rico, GeraldA S lo a medias. 4a mitad est/ en una cuenta a nombre de Andrew Martin. -5el robot0 Exacto, $ quiero saber si es le1al. -4e1al0 9ein1old se reclin en la silla, %aci'ndola crujir. 3o %a$ precedentes, Gerald. -. mo firm tu robot los papeles necesarios0 Sabe %acer la firma de su nombre $ $o la llev'. 3o lo llev' a 'l al banco en persona. -Es preciso %acer al1o m/s0 en el

Mmm... 9ein1old entrecerr los ojos durante unos se1undos. *ueno, podemos crear un fondo fiduciario que maneje las finan!as en su nombre, lo cual %ar/ de capa aislante entre 'l $ el mundo %ostil. Aparte de eso, mi consejo es que no %a1as nada m/s. 7asta a%ora nadie te %a detenido. Si al1uien se opone, d'jale que se querelle. -: te %ar/s car1o del caso si %a$ al1una querella0 &or un anticipo, claro que s. -5e cu/nto0 9ein1old se#al la placa de madera. Al1o como esto. Me parece justo dijo el Se#or. 9ein1old se ri entre dientes mientras se volva %acia el robot. -Andrew, te 1usta tener dinero0 S, se#or. -;u' piensas %acer con 'l0 &a1ar cosas que de lo contrario tendra que pa1ar el Se#or. Esto le a%orrar/ 1astos al Se#or. 5 7ubo ocasiones para ello. 4as reparaciones eran costosas $ las revisiones a)n m/s. .on los a#os se produjeron nuevos modelos de robot, $ el Se#or se preocup de que Andrew contara con cada nuevo dispositivo, %asta que fue un dec%ado de excelencia met/lica. El propio robot se encar1aba de los 1astos. Andrew insista en ello. S lo sus sendas positr nicas permanecieron intactas. El Se#or insista en ello. 4os nuevos no son tan buenos como t), Andrew. 4os nuevos robots no sirven. 4a empresa %a aprendido a %acer sendas m/s precisas, m/s especficas, m/s particulares. 4os nuevos robots no son vers/tiles. 7acen aquello para lo cual est/n dise#ados $ jam/s desvan. "e prefiero a ti. Gracias, Se#or, : es obra tu$a, Andrew, no lo olvides. Esto$ se1uro de que Mans>$ puso fin a las sendas 1enerali!adas en cuanto te ec% un buen vista!o. 3o le 1ust que fueras tan imprevisible... -Sabes cu/ntas veces pidi que te llevaramos para estudiarte0 @3ueve vecesA &ero nunca se lo permit, $ a%ora que se %a retirado qui!/ nos dejen en pa!. El cabello del Se#or disminu$ $ encaneci , $ el rostro se le puso fofo, pero Andrew tena mejor aspecto que cuando entr a formar parte de la familia. 4a Se#ora se %aba unido a una colonia artstica de Europa $ la Se#orita era poeta en 3ueva :or>. A veces escriban, pero no con frecuencia. 4a 3i#a estaba casada $ viva a poca distancia. 5eca que no quera abandonar a Andrew $ cuando naci su %ijo, el Se#orito, dej que el robot co1iera el biber n para alimentarlo. Andrew comprendi que el Se#or, con el nacimiento de ese nieto, tena $a al1uien que reempla!ara a quienes se %aban ido. 3o sera tan injusto presentarle su solicitud. Se#or le dijo, %a sido usted mu$ amable al permitir que $o 1astara mi dinero se1)n mis deseos. Era tu dinero, Andrew. S lo por voluntad de usted, Se#or. 3o creo que la le$ le %ubiera impedido conservarlo. 4a le$ no me va a persuadir de que me porte mal, Andrew.

A pesar de todos los 1astos $ a pesar de los impuestos, Se#or, ten1o casi seiscientos mil d lares. 4o s', Andrew. ;uiero d/rselos, Se#or. 3o los aceptar', Andrew. A cambio de al1o que usted puede darme, Se#or. A%, -;u' es eso, Andrew0 Mi libertad, Se#or. "u... ;uiero comprar mi libertad, Se#or. 6 3o fue tan f/cil. El Se#or se sonroj , solt un +@&or amor de 5iosA,, dio media vuelta $ se alej . 9ue la 3i#a quien lo1r convencerlo, en un tono duro $ desafiante, $ delante de Andrew. 5urante treinta a#os, nadie %aba dudado en %ablar en su presencia, trat/rase de 'l o no. Era s lo un robot. &ap/, -porqu' te lo tomas como una afrenta personal0 ?l se1uir/ aqu. .ontinuar/ si'ndote leal. 3o puede evitarlo. 4o tiene incorporado. 4o )nico que quiere es formalismo verbal. ;uiere que lo llamen libre. -Es tan terrible0 -3o se lo %a 1anado0 @.ielosA 'l $ $o %emos %ablado de esto durante a#os. -.onque durante a#os0 Si, una $ otra ve! lo %a ido poster1ando por temor a lastimarte. :o le dije que te lo pidiera. ?l no sabe qu' es la libertad. Es un robot. &ap/, no lo conoces. 7a ledo todo lo que %a$ en la biblioteca. 3o s' qu' siente por dentro, pero tampoco s' qu' sientes t). .uando le %ablas, reacciona ante las diversas abstracciones tal como t) $ $o. -;u' otra cosa cuenta0 Si las reacciones de al1uien son como las nuestras, -qu' m/s se puede pedir0 4a le$ no adoptar/ esa actitud se obstin el Se#or, exasperado. Se volvi %acia Andrew $ le dijo con vo! ronca2 @Mira, o$eA 3o puedo liberarte a no ser de una forma le1al, $ si esto lle1a a los tribunales no s lo no obtendr/s la libertad, sino que la le$ se enterar/ oficialmente de tu fortuna. "e dir/n que un robot no tiene derec%o a 1anar dinero. -(ale la pena que pierdas tu dinero por esta farsa0 4a libertad no tiene precio, Se#or replic Andrew. S lo la posibilidad de obtenerla $a vale ese dinero. 7 El tribunal tambi'n poda pensar que la libertad no tena precio $ decidir que un robot no poda comprarla por muc%o que pa1ase, por alto que fuese el precio. 4a declaraci n del abo1ado re1ional, que representaba a quienes %aban entablado un pleito conjunto para oponerse a la libertad de Andrew, fue 'sta2 4a palabra +libertad, no si1nificaba nada cuando se aplicaba a un robot, pues s lo un ser %umano poda ser libre. 4o repiti varias veces, siempre que le pareca apropiado< lentamente, moviendo las manos al son de las palabras. 4a 3i#a pidi permiso para %ablar en nombre de Andrew.

4a llamaron por su nombre completo, el cual Andrew nunca %aba odo antes2 Amanda 4aura Martin .%arne$ puede acercarse al estrado. Gracias, se#ora. 3o so$ abo1ada $ no s' %ablar con propiedad, pero espero que todos presten atenci n al si1nificado e i1noren las palabras. .omprendamos qu' si1nifica ser libre en el caso de Andrew. En al1unos sentidos, $a lo es. 4leva por lo menos veinte a#os sin que un miembro de la familia Martin le ordene %acer al1o que 'l no %ubiera %ec%o por propia voluntad. &ero si lo deseamos, podemos ordenarle cualquier cosa $ expresarlo con la ma$or rude!a posible, porque es una m/quina $ nos pertenece. -&orqu' %a de se1uir en esa situaci n, cuando nos %a servido durante tanto tiempo $ tan lealmente $ %a 1anado tanto dinero para nosotros0 3o nos debe nada m/s< los deudores somos nosotros. Aunque se nos pro%ibiera le1almente someter a Andrew a una cervidumbre involuntaria, 'l nos servira voluntariamente. .oncederle la libertad ser/ s lo una triqui#uela verbal, pero si1nificara muc%simo para 'l. 4e dara todo $ no nos costara nada. &or un momento pareci que el jue! contena una sonrisa. Entiendo su ar1umentaci n, se#ora .%arne$. 4o cierto es que a este respecto no existe una le$ obli1atoria ni un precedente. Sin embar1o, existe el supuesto t/cito de que s lo el ser %umano puede 1o!ar de libertad. &uedo establecer una nueva le$, o someterme a la decisi n de un tribunal superior< pero no puedo fallar en contra de ese supuesto. &ermtame interpelar al robot. @AndrewA S, se#ora. Era la primera ve! que Andrew %ablaba ante el tribunal $ el jue! se asombr de la modulaci n %umana de aquella vo!. -&orqu' quieres ser libre, Andrew0 -En qu' sentido es importante para ti0 -5eseara usted ser esclavo, se#ora0 &ero no eres esclavo. Eres un buen robot, un robot 1enial, por lo que me %an dic%o, capa! de expresiones artsticas sin paran1 n. -;u' m/s podras %acer si fueras libre0 ;ui!/ no pudiera %acer m/s de lo que %a1o a%ora, se#ora, pero lo %ara con ma$or ale1ra. .reo que s lo al1uien que desea la libertad puede ser libre. :o deseo la libertad. : eso le proporcion al jue! un fundamento. El ar1umento central de su sentencia fue2 +3o %a$ derec%o a ne1ar la libertad a nin1)n objeto que posea una mente tan avan!ada como para entender $ desear ese estado., M/s adelante, el "ribunal Mundial ratific la sentencia. 8 El Se#or se1ua dis1ustado $ su /spero tono de vo! %aca que Andrew se sintiera como si tuviese un cortocircuito. 3o quiero tu maldito dinero, Andrew. 4o tomar' s lo porque de lo contrario no te sentir/s libre. A partir de a%ora, puedes ele1ir tus tareas $ %acerlas como te pla!ca. 3o te dar' rdenes, excepto 'sta2 que %a1as lo que se te pla!ca. &ero si1o siendo responsable de ti. Esa forma parte de la sentencia del jue!. Espero que lo entiendas. 3o seas irascible, pap/ interrumpi la 3i#a. 4a responsabilidad no es una 1ran car1a. Sabes que no tendr/s que %acer nada. 4as "res 4e$es si1uieron vi1entes. Entonces, -en qu' sentido es libre0 -Acaso los seres %umanos no est/n obli1ados por sus le$es, Se#or0 3o vo$ a discutir dijo el Se#or. Se marc% , $ a partir de entonces Andrew lo vio con poca frecuencia.

4a 3i#a iba a verlo a menudo a la casita que le %aban construido $ entre1ado. 3o dispona de cocina ni cuarto de ba#o. S lo tena dos %abitaciones. =na era una biblioteca $ la otra serva de dep sito $ taller. Andrew acept muc%os encar1os $ como robot libre trabaj m/s que antes, %asta que pa1 el costo de la casa $ el edificio se transfiri le1almente. =n da, fue a verlo el Se#orito..., no, @Geor1eA El Se#orito %aba insistido en eso despu's de la sentencia del jue!. =n robot libre no llama Se#orito a nadie le %aba dic%o Geor1e. :o te llamo Andrew. ") debes llamarme Geor1e. El da en que Geor1e fue a verlo a solas le inform de que el Se#or estaba a1oni!ando. 4a 3i#a se encontraba junto al lec%o, pero el Se#or tambi'n quera estuviese Andrew. El Se#or %abl con vo! potente, aunque pareca incapa! de moverse. Se esfor! en levantar la mano. Andrew dijo, Andrew... 3o me a$udes, Geor1e. Me esto$ muriendo, eso es todo, no esto$ impedido... Andrew, me ale1ra que seas libre. S lo quera decirte eso. Andrew no supo qu' decir. 3unca %aba estado frente a un moribundo, pero saba que era el modo %umano de dejar de funcionar. Era como ser desmontado de una manera involuntaria e irreversible, $ Andrew no saba qu' era lo apropiado decir en ese momento. S lo pudo quedarse en pie, callado e inm vil. .uando todo termin , la 3i#a le dijo2 "al ve! te %a$a parecido %ura#o %acia el final, Andrew, pero estaba viejo $ le doli quisieras ser libre. : entonces Andrew %all las palabras adecuadas2 3unca %abra sido libre sin 'l, 3i#a. 9 Andrew comen! a usar ropa despu's de la muerte del Se#or. Empe! pantalones viejos, unos que le %aba dado Geor1e. por ponerse unos que

Geor1e $a estaba casado $ era abo1ado. Se incorpor a la firma de 9ein1old. El viejo 9ein1old %aba muerto tiempo atr/s, pero su %ija continu con el bufete, que con el tiempo pas a llamarse 9ein1old $ Martin. .onserv ese nombre incluso cuando la %ija se retir $ nin1)n 9ein1old la sucedi . En la 'poca en que Andrew se puso ropa por primera ve!, el apellido Martin acababa de a#adirse a la firma. Geor1e se esfor! en no sonrer al verle ponerse los pantalones por primera ve!, pero Andrew le not la sonrisa en los ojos. Geor1e le ense# a c mo manipular la car1a de est/tica para permitir que los pantalones se abrieran, le cubrieran la parte inferior del cuerpo $ se cerraran. Geor1e le %i!o una demostraci n con sus propios pantalones, pero Andrew comprendi que 'l tardara en imitar la soltura de ese movimiento. -: para qu' quieres llevar pantalones, Andrew0 dijo Geor1e. "u cuerpo resulta tan bellamente funcional que es una pena cubrirlo< especialmente, cuando no tienes que preocuparte por la temperatura ni por el pudor. : adem/s no se ci#en bien sobre el metal. -Acaso los cuerpos %umanos no resultan bellamente funcionales, Geor1e0 Sin embar1o, os cubrs. &ara abri1arnos, por limpie!a, como protecci n, como adorno. 3ada de eso aplica en tu caso. Me siento desnudo sin ropa. Me siento diferente, Geor1e. @5iferenteA Andrew, %a$ millones de robots en la "ierra. En esta re1i n, se1)n el )ltimo censo, %a$ casi tantos robots como %ombres. 9

4o s', Geor1e. 7a$ robots que reali!an cualquier tipo de tarea concebible. : nin1uno de ello usa ropa. &ero nin1uno de ellos es libre, Geor1e. &oco a poco, Andrew mejor su 1uardaropa. 4o in%iban la sonrisa de Geor1e $ la mirada de las personas que le encar1aban trabajos. Aunque fuera libre, el detallado pro1rama con que %aba sido construido le impona un determinado comportamiento con la 1ente, $ s lo se animaba a avan!ar poco a poco. 4a desaprobaci n directa lo contrariaba durante meses. 3o todos aceptaban la libertad de Andrew. ?l era incapa! de 1uardarles rencor, pero sus procesos mentales se encontraban con dificultades al pensar en ello. Sobre todo, evitaba ponerse ropa cuando crea que la 3i#a iba a verlo. Era $a una anciana que a menudo viva lejos, en un clima m/s templado, pero en cuanto re1resaba iba a visitarlo. En uno de esos re1resos, Geor1e le coment 2 Ella me %a convencido Andrew. Me presentar' como candidato a la 4e1islatura el a#o pr ximo. 5e tal abuelo, tal nieto, dice ella. 5e tal abuelo... Andrew se interrumpi , desconcertado. ;uiero decir que $o, el nieto, ser' como el Se#or, el abuelo, que estuvo un tiempo en la 4e1islatura. Eso sera a1radable, Geor1e. Si el Se#or a)n estuviera... Se interrumpi de nuevo, pues no quera decir +en funcionamiento,. 3o pareca adecuado. (ivo 4o a$ud Geor1e. S, pienso en el viejo monstruo de cuando en cuando. Andrew reflexion sobre esa conversaci n. Se daba cuenta de sus limitaciones de len1uaje al %ablar con Geor1e. El idioma %aba cambiado un poco desde que Andrew se %aba convertido en un ser con vocabulario innato. Adem/s, Geor1e practicaba una len1ua coloquial que el Se#or $ la 3i#a no utili!aban. -&orqu' llamaba monstruo al Se#or, cuando esa palabra no pareca la apropiada0 4os libros no lo a$udaban. Eran anti1uos $ la ma$ora trataban de tallas en madera, de arte o de dise#o de muebles. 3o %aba nin1uno sobre el idioma ni sobre las costumbres de los seres %umanos. &ens que deba buscar los libros indicados $, como robot libre, supuso que sera mejor no pre1untarle a Geor1e. 6ra a la ciudad $ %ara uso de la biblioteca. 9ue una decisi n triunfal $ sinti que su electropotencial se elevaba tanto que tuvo que activar una bobina de impedancia. Se puso un atuendo completo, incluida una cadena de madera en el %ombro. 7ubiera preferido pl/stico brillante, pero Geor1e le %aba dic%o que la madera resultaba m/s ele1ante $ que el cedro bru#ido era muc%o m/s valioso. 4levaba recorridos treinta metros cuando una creciente resistencia le %i!o detenerse. 5esactiv la bobina de impedancia, pero no fue suficiente. Entonces, re1res a la casa $ anot cuidadosamente en un papel. +Esto$ en la biblioteca, 4o dej a la vista, sobre la mesa. 10 3o lle1 a la biblioteca. 7aba estudiado el plano. .onoca el itinerario, pero no su apariencia. 4os monumentos al natural no se asemejaban a los smbolos del plano $ eso le %aca dudar. 9inalmente pens que deba de %aberse equivocado, pues todo pareca extra#o. Se cru! con al1)n que otro robot campesino, pero cuando se decidi a pre1untar no %aba nadie a la vista. &as un ve%culo $ no se detuvo. Andrew se qued de pi', indeciso, $ entonces vio venir dos seres %umanos por el campo.

10

Se volvi %acia ellos, $ ellos cambiaron de rumbo para salirse al encuentro. =n instante antes iban %ablando en vo! alta, pero se %aban callado. "enan una expresi n que Andrew asociaba con la incertidumbre de los %umanos $ eran j venes, aunque no muc%o. -(einte a#os0 Andrew nunca saba determinar la edad de los %umanos. Se#ores, -podran indicarme el camino %acia la biblioteca de la ciudad0 =no de ellos, el m/s alto de los dos, que llevaba un enorme sombrero, le dijo al otro2 Es un robot. El otro tena nari! prominente $ p/rpados 1ruesos. (a vestido coment . El alto casc los dedos. Es el robot libre. En casa de los Martin tienen un robot libre que no pertenece a nadie. -&orqu' otra ra! n iba a usar ropa0 &re1)ntaselo. -Eres el robot de los Martin0 So$ Andrew Martin, se#or. *ien, pues qutate esa ropa. 4os robots no usan ropa. : le dijo al otro2 Es repu1nante. Mralo. Andrew titube . 7aca tanto tiempo que no oa una orden en ese tono de vo! que los circuitos de la Se1unda 4e$ se atascaron un instante. ;utate la ropa repiti el alto. "e lo ordeno. Andrew empe! a desvestirse. "ralas all le orden el alto. Si no pertenece a nadie su1iri el de nari! prominente, podra ser nuestro. 5e cualquier modo dijo el alto -qui'n va a poner objeciones a lo que %a1amos0 3o estamos da#ando nin1una propiedad... : le indic a Andrew2 Ap $ate sobre la cabe!a. 4a cabe!a no es para... balbuce 'l. Es una orden. Si no sabes c mo %acerlo, int'ntalo. Andrew volvi a dudar $ lue1o apo$ la cabe!a en el suelo. 6ntent levantar las piernas $ ca$ pesadamente. ;u'date quieto le orden el alto, $ le dijo al otro2 &odemos desmontarlo. -Al1una ve! %as desmontado un robot0 -3os dejar/ %acerlo0 -. mo podra impedirlo0 Andrew no tena modo de impedirlo si le ordenaban no resistirse. 4a Se1unda 4e$, la de obediencia, tena prioridad sobre la "ercera le$, la de supervivencia. En cualquier caso, no poda defenderse sin %acerles da#o, $ eso si1nificara violar la &rimera 4e$. Ante ese pensamiento, sus unidades motrices se contrajeron li1eramente $ Andrew se qued all tiritando. El alto lo empuj con el pie. Es pesado. .reo que vamos a necesitar %erramientas para este trabajo. &odramos ordenarle que se desmonte el mismo. Sera divertido verle intentarlo. S asinti el alto, pensativamente, pero apart'moslo del camino. Si viene al1uien...

11

Era demasiado tarde. Al1uien vena, $ era Geor1e. Andrew le vio cru!ar una loma a lo lejos. 4e %ubiera 1ustado %acerle se#as, pero la )ltima orden %aba sido que se quedara quieto. Geor1e ec% a correr $ lle1 con el aliento entrecortado. 4os dos j venes retrocedieron unos pasos. Andrew -%a pasado al1o0 Esto$ bien Geor1e. Entonces ponte de pie... -;u' pasa con tu ropa0 -Es tu robot ami1o0 pre1unt el alto. 3o es el robot de nadie. -;u' %a ocurrido aqu0 4e pedimos cort'smente que se quitara la ropa. -&orqu' te molesta, si no es tu$o0 -;u' %acan Andrew0 "enan la intenci n de desmebrarme. Estaban a punto de trasladarme a un lu1ar tranquilo para ordenarme que me desmontara $o mismo. Geor1e se volvi Sonrean. %acia ellos. 4e temblaba la barbilla. 4os dos j venes no retrocedieron m/s.

-;u' piensas %acer 1ordinfl n0 dijo el alto, con tono burl n -Atacarnos0 3o. 3o es necesario. Este robot %a vivido con mi familia durante m/s de setenta a#os. 3os conoce $ nos estima m/s que a nadie. 4e dir' que vosotros dos me est/is atacando amena!ando $ quer'is matarme. 4e pedir' que me defienda. Entre vosotros $ $o, optar/ por m. -Sab'is qu' os ocurrir/ cuando os ataque0 4os dos j venes recularon atemori!ados. Andrew, corro peli1ro porque estos dos quieren %acerme da#o. @(' %acia ellosA Andrew obedeci , $ los dos j venes no esperaron. &usieron los pies en polvorosa. 5e acuerdo, Andrew, c/lmate dijo Geor1e, un poco demudado, pues $a no estaba en edad para en!ar!arse con un joven $ menos con dos. 3o podra %aberlos lastimado, Geor1e. (i que no te estaban atacando. 3o te orden' que los atacaras, s lo que fueras %acia ellos. Su miedo %i!o lo dem/s. -. mo pueden temer a los robots0 Es una enfermedad %umana, de la que a)n no nos %emos curado. &ero eso no importa. -;u' demonios %aces aqu, Andrew0 Estaba a punto de re1resar $ contratar un %elic ptero cuando te encontr'. -. mo se te ocurri ir a la biblioteca0 :o te %ubiera trado los libros que necesitaras. So$ un... 8obot libre. Si, vale. -;u' queras de la biblioteca0 ;uiero saber m/s acerca de los robots, Geor1e. ;uiero escribir una %istoria de los robots. *ien, va$amos a casa... : reco1e tus ropas, Andrew. 7a$ un mill n de libros sobre rob tica $ todos ellos inclu$en %istorias de la ciencia. El mundo no s lo se est/ saturando de robots, sino de informaci n sobre ellos. Andrew mene la cabe!a< con un 1esto %umano que %aba adquirido recientemente. 3o me refiero a una %istoria de la rob tica, Geor1e, sino a una %istoria de los robots, escrita por un robot. ;uiero explicar lo que sienten los robots acerca de lo que %a ocurrido desde que se les permiti trabajar $ vivir en la "ierra. Geor1e enarc las cejas, pero no dijo nada.

12

11 4a 3i#a $a tena m/s de oc%enta $ tres a#os, pero no %aba perdido ener1a ni determinaci n. =saba el bast n m/s para 1esticular que para apo$arse. Escuc% la %istoria %ec%a una furia. Es espantoso, Geor1e -;ui'nes eran esos rufianes0 3o lo s'. -;u' importa0 Al final no causaron da#o. &ero pudieron causarlo. ") eres abo1ado, Geor1e, $ si disfrutas de una buena posici n se debe al talento de Andrew. El dinero que 'l 1an es el cimiento de todo lo que tenemos aqu. ?l da continuidad a esta familia $ no permitir' que lo traten como a un ju1uete de cuerda. -;u' quieres que %a1a, madre0 7e dic%o que eres abo1ado, -es que no me escuc%as0 &repara una acci n constitutiva, obli1a a los tribunales re1ionales a declarar los derec%os de los robots, lo1ra que la 4e1islatura apruebe le$es necesarias $ lleva el asunto al "ribunal Mundial si es preciso. Estar' vi1ilando, Geor1e, $ no tolerar' vacilaciones. 7ablaba en serio, $ lo que comen! como un modo de aplacar a esa formidable anciana se transform en un asunto complejo, tan enmara#ado que resultaba interesante. .omo socio m/s anti1uo de 9ein1old $ Martin, Geor1e plane la estrate1ia, pero dej el trabajo a sus cole1as m/s j venes, entre ellos a su %ijo &aul, que tambi'n trabajaba en la firma $ casi todos los das le presentaba un informe a la abuela. Ella, a su ve!, deliberaba todos los das con Andrew. Andrew estaba profundamente involucrado. &oster1 nuevamente su trabajo en el libro sobre los robots mientras cavilaba sobre las ar1umentaciones judiciales, $ en ocasiones %aca )tiles su1erencias. Geor1e me dijo que los seres %umanos siempre %an temido a los robots dijo una ve!. Mientras sea as, los tribunales $ las le1islaturas no trabajar/n a favor de ellos. -3o tendra que %acerse al1o con la opini n p)blica0 As que, mientras &aul permaneca con el ju!1ado, Geor1e opt por la tribuna p)blica. Eso le permita ser informal $ lle1aba al extremo de usar esa ropa nueva $ floja que llamaban +%arapos,. &ero no te la pises en el estrado, pap/ le advirti &aul. 6nterpel a la convenci n anual de %olonoticias en una ocasi n, diciendo2 Si en virtud de la Se1unda 4e$ podemos exi1ir a cualquier robot obediencia ilimitada en todos los aspectos que entra#an da#o para un ser %umano, entonces cualquier ser %umano tiene un temible poder sobre cualquier robot. .omo la Se1unda 4e$ tiene prioridad sobre la "ercera, cualquier ser %umano puede %acer uso de la le$ de obediencia para anular la le$ de autoprotecci n. &uede ordenarle a cualquier robot que se %a1a da#o a s mismo o que se autodestru$a, s lo por capric%o. +-Es eso justo0 -"rataramos as a un animal0 7asta un objeto inanimado que nos %a prestado un buen servicio se 1ana nuestra consideraci n. : un robot no es insensible. 3o es un animal. &uede pensar, %ablar, ra!onar, bromear. -&odemos tratarlos como ami1os, podemos trabajar con ellos $ no brindarles el fruto de esa amistad, el beneficio de la colaboraci n mutua0 +Si un ser %umano tiene el derec%o de darle a un robot cualquier orden que no supon1a da#o para un ser %umano, debera tener la decencia de no darle a un robot nin1una orden que supon1a da#o para un robot, a menos que lo requiera la se1uridad %umana. =n 1ran poder supone una 1ran responsabilidad, $ si los robots tienen tres le$es para prote1er a los %ombres -es muc%o pedir que los %ombres ten1an un par de le$es para prote1er a los robots0 Andrew tena ra! n. 4a batalla por 1anarse la opini n p)blica fue la clave en los tribunales $ en la 4e1islatura, $ al final se aprob una le$ que impona unas condiciones, se1)n las cuales se pro%iban las rdenes lesivas para los robots. "ena muc%os vericuetos $ los casti1os por violar la le$ eran insuficientes, pero el principio qued establecido. 4a 4e1islatura Mundial la aprob el da de la muerte de la 3i#a.

13

3o fue coincidencia que la 3i#a se aferrara a la vida tan desesperadamente durante el )ltimo debate $ s lo cejara cuando le comunicaron la victoria. Su )ltima sonrisa fue para Andrew. Sus )ltimas palabras fueron2 9uiste bueno con nosotros, Andrew. Muri co1i'ndole la mano, mientras Geor1e, con su esposa $ sus %ijos, permaneca a respetuosa distancia de ambos. 12 Andrew a1uard pacientemente mientras el recepcionista entraba al despac%o. El robot podra %aber usado el interfono %olo1r/fico, pero sin duda era presa de cierto nerviosismo por tener que tratar con otro robot $ no con un ser %umano. Andrew se detuvo cavilando sobre esa cuesti n. -+3erviosismo, era la palabra adecuada para una criatura que en ve! de nervios tena sendas positr nicas0 -&oda usarse como un t'rmino anal 1ico0 Esos problemas se1uan con frecuencia mientras trabajaba en su libro sobre los robots. El esfuer!o de pensar frases para expresar todas las complejidades le %aba mejorado el vocabulario. Al1unas personas lo miraban al pasar, $ 'l no eluda sus miradas. 4as afrontaba con calma $ la 1ente se alejaba. Sali &aul Martin. &areca sorprendido, aunque Andrew tuvo dificultades para verle la expresi n, pues &aul usaba ese 1rueso maquillaje que la moda impona para ambos sexos $, aunque le confera m/s vi1or a su blando rostro, Andrew lo desaprobaba. 7aba notado que desaprobar a los seres %umanos no le inquietaba demasiado mientras no lo manifestara verbalmente. 6ncluso poda expresarlo por escrito. Estaba se1uro de que no siempre %aba sido as. Entra, Andrew. 4amento %aberte %ec%o esperar, pero tena que concluir una tarea. Entra. Me dijiste que queras %ablar conmi1o, pero no saba que queras %ablarme aqu. Si est/s ocupado, &aul, esto$ dispuesto a esperar. &aul mir el jue1o de sombras cambiantes en el cuadrante de la pared que serva como reloj. 5ispon1o de un rato. -7as venido solo0 Alquil' un autom vil. -Al1)n problema0 pre1unt &aul, con cierta ansiedad. 3o esperaba nin1uno. Mis derec%os est/n prote1idos. 4a ansiedad de &aul se a1udi! . Andrew, te %e explicado que la le$ no es de ejecuci n obli1atoria salvo en situaciones excepcionales... : si insistes en usar ropa acabar/s teniendo problemas, como aquella primera ve!. 4a )nica. &aul. 4amento que est's dis1ustado. *ien, mralo de este modo2 eres pr/cticamente una le$enda viviente, Andrew, $ eres demasiado valioso para arro1arte el derec%o de ponerte en peli1ro... -. mo anda el libro0 Me esto$ acercando al final, &aul. El editor est/ mu$ contento. @*ienA 3o s' si se encuentra contento exactamente con el libro en cuanto tal. .reo que piensa vender muc%os ejemplares porque est/ escrito por un robot, $ eso le %ace estar contento. Me temo que es mu$ %umano.

14

3o esto$ dis1ustado. ;ue se venda, sea cual sea la ra! n, porque eso si1nificar/ dinero $ me vendr/ bien. 4a abuela te dej ... 4a 3i#a era 1enerosa $ s' que puedo contar con la a$uda de la familia. &ero espero que los derec%os del libro me a$uden en el pr ximo paso. -5e qu' %ablas0 ;uiero ver al presidente de 8obots $ 7ombres Mec/nicos S.A. 7e intentado concentrar una cita, pero %asta a%ora no pude dar con 'l. 4a empresa no colabor conmi1o en la preparaci n del libro, as que no me sorprende. &aul estaba divirti'ndose. .olaboraci n es lo )ltimo que puedes esperar. 4a empresa no colabor con nosotros en nuestra 1ran luc%a por los derec%os de los robots. "odo lo contrario, $a entiendes por qu'2 si les otor1as derec%os a los robots, qui!/ la 1ente no quiera comprarlos. &ero si llamas t), podr/s conse1uirme una entrevista. Me tienen poca simpata como a ti, Andrew. ;ui!/ puedas insinuar que la firma 9ein1old $ Martin est/ dispuesta a iniciar una campa#a para refor!ar a)n m/s los derec%os de los robots. -3o sera una mentira, Andrew0 S, &aul, $ $o no puedo mentir. &or eso debes llamar t). A%, no puedes mentir, pero puedes insti1arme a mentir, -verdad0 Eres cada ve! m/s %umano Andrew. 13 3o fue f/cil, a pesar del renombre de &aul. &ero al fin se lo1r . 7arle$ Sm$t%eD8obertson, que descenda del fundador de la empresa por lnea materna $ %aba adoptado ese 1ui n en el apellido para indicarlo, pareca dis1ustado. Se aproximaba a la edad de jubilarse, $ el tema de los derec%os de los robots %aba acaparado su 1esti n como presidente. 4levaba el cabello 1ris aplastado $ el rostro sin maquillaje. Miraba a Andrew con %ostilidad. 7ace un si1lo dijo Andrew, un tal Merton Mans>$, de esta empresa, me dijo que la matem/tica que ri1e la trama de las sendas positr nicas era tan compleja que s lo permita soluciones complejas $, por lo tanto, mis aptitudes no eran del todo previsibles. Eso fue %ace casi un si1lo. Sm$t%eD8obertson dud un momento, lue1o a#adi en tono fro 2 :a no es as. 3uestros robots est/n construidos $ adiestrados con precisi n para reali!ar sus tareas. S dijo &aul, que estaba all para cerciorarse de que la empresa actuara limpiamente, con el resultado de que mi recepcionista necesita asesoramiento cada ve! que se aparta de una tarea convencional. M/s se dis1ustara usted si se pusiera a improvisar replic Sm$t%eD8obertson. Entonces, -ustedes $a no manufacturan robots como $o, flexibles $ adaptables0 pre1unt Andrew. 3o. 4a investi1aci n que %e reali!ado para preparar mi libro prosi1ui Andrew indica que so$ el robot m/s anti1uo en activo.

15

El m/s anti1uo a%ora $ el m/s anti1uo siempre. El m/s anti1uo que %abr/ nunca. 3in1)n robot es )til despu's de veinticinco a#os. 4os recuperaremos para reempla!arlos por modelos m/s nuevos. 3in1)n robots es )til despu's de veinticinco a#os tal como se los fabrica a%ora se#al &aul . Andrew es mu$ especial en ese sentido. Andrew, ateni'ndose al rumbo que se %aba tra!ado, dijo2 &or ser el robot m/s anti1uo $ flexible del mundo, -no so$ tan excepcional como para merecer un tratamiento especial de la empresa0 En absoluto respondi Sm$t%eD8obertson. Ese car/cter excepcional es un estorbo para la empresa. Si usted estuviera alquilado, en ve! de %aber sido vendido por una infortunada decisi n, lo %abramos reempla!ado %ace muc%simo tiempo. &ero de eso de trata se anim Andrew. So$ un robot libre $ so$ due#o de m mismo. &or lo tanto, acudo a usted a pedirle que me reemplace. =sted no puede %acerlo sin el consentimiento del due#o. En la actualidad, ese consentimiento se inclu$e obli1atoriamente como condici n para el alquiler, pero en mi 'poca no era as. Sm$t%eD8obertson estaba estupefacto $ desconcertado, $ 1uard silencio. Andrew observ el %olo1rama de la pared. Era una m/scara mortuoria de Susan .alvin, santa patrona de la rob tica. 7aba muerto dos si1los atr/s, pero despu's de escribir el libro Andrew le conoca tan bien que tena la sensaci n de %aberla tratado personalmente. -. mo puedo reempla!arte0 replic Sm$t%eD8obertson. Si le reempla!o como robot, -c mo puedo darle el nuevo robot a usted, el propietario, si en el momento del reempla!o usted deja de existir0 Sonri de un modo siniestro. 3o es difcil terci &aul. 4a personalidad de Andrew est/ asentada en su cerebro positr nico, $ esa parte no se puede reempla!ar sin crear un nuevo robot. &or consi1uiente, el cerebro positr nico es Andrew el propietario. "odas las dem/s pie!as del cuerpo del robot se pueden reempla!ar sin alterar la personalidad del robot, $ esas pie!as pertenecen al cerebro. :o dira que Andrew desea proporcionarle a su cerebro un nuevo cuerpo rob tico. En efecto asinti Andrew. Se volvi %acia Sm$t%eD8obertson. =stedes %an fabricado androides, -verdad0, robots que tienen apariencia %umana, incluida la textura de la piel. S, lo %emos %ec%o. 9uncionaban perfectamente con su cutis $ sus tendones fibrosint'ticos. &r/cticamente no %aba nada de metal, salvo en el cerebro, pero eran tan resistentes como los robots de metal. M/s resistentes, en realidad. &aul se interes 2 3o lo saba. -.u/ntos %a$ en el mercado0 3in1uno contest Sm$t%eD8obertson. Eran muc%o m/s caros que los modelos de metal, $ un estudio del mercado revel que no seran aceptados. &arecan demasiado %umanos. &ero la empresa conserva toda su destre!a afirm Andrew. 5eseo, pues, ser reempla!ado por un robot or1/nico, por un androide. @Santo cieloA exclam &aul. Sm$t%eD8obertson se puso r1ido. @Eso es imposibleA -&or qu' imposible0 pre1unt supuesto. 3o fabricamos androides. Andrew. &a1ar' lo que sea, dentro de lo ra!onable, por

16

3o quieren fabricar androides dijo &aul. Eso no es lo mismo que no poseer la capacidad para fabricarlos. 5e todos modos, fabricar androides va contra nuestra poltica p)blica. 3o %a$ le$ que lo pro%iba se#al &aul. Aun as, no los fabricamos ni pensamos %acerlo. &aul se aclar la 1ar1anta. Se#or Sm$t%eD8obertson, Andrew es un robot libre $ est/ amparado por la le$ que 1aranti!a los derec%os de los robots. Entiendo que usted est/ al corriente de ello. :a lo creo. Este robot, como robot, libre, opta por usar vestimenta. &or esta ra! n, a menudo es %umillado por seres %umanos desconsiderados, a pesar de la le$ que pro%ibe %umillar a los robots. Es difcil tomar medidas contra infracciones va1as que no cuentan con la reprobaci n 1eneral de quienes deben decidir sobre la culpa $ la inocencia. 3uestra empresa lo comprendi desde el principio. 4amentablemente, la firma de su padre no. Mi padre %a muerto, pero en este asunto veo una clara infracci n, con una parte perjudicada. -5e qu' %abla0 1ru# Sm$t%eD8obertson. Andrew Martin, que acaba de convertirse en mi cliente, es un robot libre capacitado para solicitar a 8obot $ 7ombres Mec/nicos el derec%o de reempla!o, el cual la empresa otor1a a quien posee un robot durante m/s de veinticinco a#os. M/s a)n, la empresa insiste en que %a$a reempla!os. &aul sonri con desenfado. El cerebro positr nico de mi cliente es propietario del cuerpo de mi cliente, que, desde lue1o, tiene m/s de veinticinco a#os. El cerebro positr nico exi1e reempla!o del cuerpo $ ofrece pa1ar un precio ra!onable por un cuerpo de androide, en calidad de dic%o reempla!o. Si usted rec%a!a el requerimiento, mi cliente sufrir/ una %umillaci n $ presentaremos una querella. Adem/s, aunque la opini n p)blica no respaldara la reclamaci n de un robot en este caso, le recuerdo que su empresa no 1o!a de popularidad. 7asta quienes m/s utili!an los robots $ se aprovec%an de ellos recelan la empresa. Esto puede ser un vesti1io de tiempos en que los robots eran mu$ temidos. &uede ser resentimiento contra el podero $ la rique!a de 8obots $ 7ombres Mec/nicos, que ostenta el monopolio mundial. Sea cual fuera la causa, el resentimiento existe $ creo que usted preferir/ no ir a juicio, teniendo en cuenta que mi cliente es rico $ que vivir/ muc%os si1los, lo cual le permitir/ prolon1ar la batalla eternamente. Sm$t%eD8obertson se %aba rubori!ado. =sted intenta a obli1arme a ... 3o le obli1o a nada. Si desea rec%a!ar la ra!onable solicitud de mi cliente, puede %acerlo $ nos marc%aremos sin decir m/s... &ero entablaremos un pleito, como es nuestro derec%o, $ a la lar1a usted perder/. *ien... empe! Sm$t%eD8obertson, $ se call . (eo que va usted a aceptar. &uede que ten1a dudas, pero al fin aceptar/. 4e %ar' otra aclaraci n. Si, al transferir el cerebro positr nico de mi cliente de su cuerpo actual a un cuerpo or1/nico se produce al1una lesi n, por leve que sea, no descansar' %asta %aber arruinado a su empresa. 5e ser necesario, %ar' todo lo posible para movili!ar a la opini n p)blica contra ustedes si una senda del cerebro de platinoDiridio de mi cliente sufre al1)n da#o. -Est/s de acuerdo, Andrew0 Andrew titube . Era como aprobar la mentira, el c%antaje, el maltrato $ la %umillaci n de un ser %umano, pero no %a$ da#o fsico, se dijo, no %a$ da#o fsico. 9inalmente lo1r pronunciar un tmido s.

17

14 Era como estar reconstruido. 5urante das, semanas $ meses Andrew se sinti persona, $ los actos m/s sencillos lo %acan vacilar. &aul estaba fren'tico. "e %an da#ado, Andrew. "endremos que entablar un pleito. 3o lo %a1as dijo Andrew mu$ despacio. 3unca podr/s probar pr... -&remeditaci n0 &remeditaci n. Adem/s, $a me encuentro m/s fuerte, mejor. es el t... -"emblor0 "rauma. A fin de cuentas, nunca antes se practic semejante oper... oper... Andrew senta el cerebro desde dentro, al1o que nadie m/s poda %acer. Saba que se encontraba bien $, durante los meses que le llev aprender la plena coordinaci n $ el pleno interjue1o positr nico, se pas %oras ante el espejo. @3o pareca %umanoA El rostro era r1ido $ los movimientos, demasiado deliberados. .areca de la soltura del ser %umano, pero qui!/ pudiera lo1rarlo con el tiempo. Al menos, poda ponerse ropa sin la ridcula anomala de tener un rostro de metal. (olver' al trabajo. &aul sonri . Eso si1nifica que $a est/s bien. -;u' piensas %acer0 -Escribir/s otro libro0 3o respondi mu$ serio. (ivo demasiado tiempo como para dejarme seducir por una sola carrera. 7ubo un tiempo en que era artista $ a)n puedo volver a esa ocupaci n. : %ubo un tiempo en que fui %istoriador $ a)n puedo volver a eso. &ero a%ora deseo ser robobi lo1o. 8obopsic lo1o, querr/s decir. 3o. Eso implicara el estudio de cerebros positr nicos, $ en este momento no deseo %acerlo. =n robobi lo1o sera al1uien que estudia el funcionamiento del cuerpo que va con ese cerebro. Eso no se llamara un robotista0 =n robotista trabaja con un cuerpo de metal. :o estudiar' un cuerpo %umanoide or1/nico, $ el )nico esp'cimen que existe es el mo. =n campo mu$ limitado observ &aul. .omo artista, toda la inspiraci n te perteneca< como %istoriador, estudiabas principalmente los robots< como robobi lo1o, s lo te estudiar/s a ti mismo. Andrew asinti con la cabe!a. Eso parece. Andrew tuvo que comen!ar desde el principio, pues no saba nada de biolo1a $ casi nada de ciencias. Empe! a frecuentar bibliotecas, donde consultaba ndices electr nicos durante %oras, con su apariencia totalmente normal debido a la ropa. 4os pocos que saban que era un robot no se entrometan. .onstru$ un laboratorio en una sala que a#adi a su casa, $ tambi'n se %i!o una biblioteca. "ranscurrieron a#os. =n da, &aul fue a verlo. Es una l/stima que $a no trabajes en la %istoria de los robots. "en1o entendido que 8obots $ 7ombres Mec/nicos est/ adoptando una poltica radicalmente nueva. &aul %aba envejecido, $ unas c'lulas foto pticas %aban reempla!ado sus deteriorados ojos. En ese aspecto estaba m/s cerca de Andrew. como otra

18

-;u' %an %ec%o0 pre1unt Andrew. Est/n fabricando ordenadores centrales, cerebros positr nicos 1i1antescos que se comunican por microondas con miles de robots. 4os robots no poseen cerebro. Son las extremidades del 1i1antesco cerebro, $ los dos est/n separados fsicamente. -Es m/s eficiente0 4a empresa afirma que s. Sm$t%eD8obertson marc el nuevo rumbos antes de morir. Sin embar1o, ten1o la sospec%a de que es una reacci n contra ti. 3o quieren fabricar robots que les causen problemas como t), $ por eso %an separado el cerebro del cuerpo. El cerebro no desear/ cambiar de cuerpo $ el cuerpo no tendr/ un cerebro que desee nada. Es asombrosa la influencia que %as ejercido en la %istoria de los robots. "us facultades artsticas animaron a la empresa a fabricar robots m/s precisos $ especiali!ados< tu libertad deriv en la formulaci n del principio de los derec%os rob ticos< tu insistencia en tener un cuerpo de androide %i!o que la empresa separase el cerebro del cuerpo. Supon1o que al final la empresa fabricar/ un enorme cerebro que controlar/ miles de millones de cuerpos rob ticos. "odos los %uevos en un cesto. &eli1roso. Mu$ desatinado. Me parece que tienes ra! n. &ero no creo que ocurra %asta dentro de un si1lo $ no vivir' para verlo. ;ui!/ ni siquiera viva para ver el a#o pr ximo. @&aulA exclam Andrew preocupado. &aul se enco1i de %ombros. 3o somos como t). 3o importa demasiado, pero si es importante aclararte al1o. So$ el )ltimo %umano de los Martin. 7a$ descendientes de mi ta abuela, pero ellos no cuentan. El dinero que controlo personalmente quedar/ en tu fondo a tu nombre $, en la medida en que uno puede prever el futuro, estar/s econ micamente a salvo. Eso es innecesario rec%a! Andrew con dificultad, pues a pesar de todo ese tiempo no lo1raba %abituarse a la muerte de los Martin. 3o discutamos. As ser/n las cosas. -En qu' est/s trabajando0 5ise#o un sistema que permita que los androides, $o mismo, obten1an ener1a de la combusti n de %idrocarburos, $ no de las c'lulas at micas. &aul enarc las cejas. -5e modo que puedan respirar $ comer0 S. -.u/nto %ace que investi1as ese problema0 Muc%o tiempo, pero creo que %e dise#ado una c/mara de combusti n adecuada para una descomposici n catali!ada controlada. &ero -por qu', Andrew0 4a c'lula at mica es infinitamente mejor. En ciertos sentidos, qui!/< pero la c'lula at mica es in%umana. 15 4e llev tiempo, pero Andrew tena tiempo de sobra. Ante todo, no quiso %acer nada %asta que &aul muriese en pa!. .on la muerte del bisnieto del Se#or, Andrew se sinti m/s expuesto a un mundo %ostil, de modo que estaba a)n m/s resuelto a se1uir el rumbo que %aba esco1ido tiempo atr/s. &ero no estaba solo. Aunque un %ombre %aba muerto, la firma 9ein1old $ Martin se1ua viva, pues una empresa no muere, as como no muere un robot. 4a firma tena sus instrucciones $ las cumpli al pie de la letra. A trav's del fondo fiduciario $ la firma le1al, Andrew conserv su fortuna $, a cambio de 19

una suculenta comisi n anual, 9ein1old $ Martin se involucr en los aspectos le1ales de la nueva c/mara de combusti n. .uando lle1 el momento de visitar 8obots $ 7ombres Mec/nicos S.A., lo %i!o a solas. En una ocasi n %aba ido con el Se#or $ en otra con &aul< esta ve! era la tercera, estaba solo $ pareca un %ombre. 4a empresa %aba cambiado. 4a planta de producci n se %aba despla!ado a una 1ran estaci n espacial, como ocurra con muc%as industrias. .on ellas se %aban ido muc%os robots. 4a "ierra pareca cada ve! m/s un parque, con una poblaci n similar a robots, de los cuales un treinta por cierto estaban dotados de un cerebro aut nomo. El director de investi1aciones era Alvin Ma1descu, de te! $ cabellos oscuros $ barba puntia1uda. Sobre la cintura s lo usaba la faja pectoral impuesta por la moda. Andrew vesta se1)n la anticuada moda de varias d'cadas. "e cono!co, desde lue1o dijo Ma1descu, $ me a1rada verte. Eres uno de nuestros productos m/s notables $ es una l/stima que el viejo Sm$t%eD8obertson te tuviera inquina. &odramos %aber un 1ran trato conti1o. Aun pueden. 3o, no creo. 7a pasado el momento. 7ace m/s de un si1lo que tenemos robots en la "ierra, pero eso est/ cambiando. Se ir/n al espacio $ los que permane!can aqu no tendr/n cerebro. &ero quedo $o, $ me quedo en la "ierra. S, pero t) no pareces robot. -;u' nueva solicitud traes0 ;uiero ser menos robot. .omo so$ tan or1/nico, deseo una fuente or1/nica de ener1a. Aqu ten1o los planos... Ma1descu los mir sin prisa. 4os observaba con creciente inter's. Es notablemente in1enioso. -A qui'n se le %a ocurrido todo esto0 A m. Ma1descu lo mir fijamente. Supondra una reestructuraci n total del cuerpo $ sera experimental, pues nunca se %a intentado. "e aconsejo que no lo %a1as, que te quedes como est/s. El rostro de Andrew tena una capacidad expresiva limitada, pero no ocult su impaciencia. &rofesor Ma1descu, no lo entiende. =sted no tiene m/s opci n que acceder a mi requerimiento. Si se pueden incorporar estos dispositivos a mi cuerpo, tambi'n se pueden incorporar a cuerpos %umanos. 4a tendencia a prolon1ar la vida %umana mediante pr tesis se est/ afian!ando. 3o %a$ dispositivos mejores que los que $o %e dise#ado. .ontrolo las patentes a trav's de 9ein1old $ Martin. Somos capaces de montar una empresa para desarrollar pr tesis que qui!/ terminen 1enerando seres %umanos con muc%as de las propiedades de los robots. Su empresa se ver/ afectada. En cambio, si me opera a%ora $ accede a %acerlo en circunstancias similares en el futuro, percibir/ una comisi n por utili!ar las patentes $ controlar la tecnolo1a rob tica $ prot'sica para seres %umanos. El alquiler inicial se otor1ar/ s lo cuando se %a$a reali!ado la primera operaci n, $ cuando %a$a pasado tiempo suficiente para demostrar que tuvo 'xito. 4a &rimera 4e$ no le cre nin1una in%ibici n ante las severas condiciones que le estaba imponiendo a un ser %umano. 7aba aprendido que lo que pareca crueldad poda resultar bondad a la lar1a. Ma1descu estaba estupefacto. 3o so$ $o quien debe decidir en semejante asunto. Es una decisi n de empresa $ llevar/ tiempo. &uedo esperar un tiempo ra!onable dijo Andrew, pero s lo un tiempo ra!onable.

20

: pens con satisfacci n que &aul mismo no lo %abra %ec%o mejor. 16 9ue s lo un tiempo ra!onable, $ la operaci n result todo un 'xito. :o me opona a esta operaci n, Andrew le dijo Ma1descu, pero no por lo que t) piensas. 3o estaba en contra del experimento, de %aberse tratado de otro. 5etestaba poner en peli1ro tu cerebro positr nico. A%ora que tienes sendas positr nicas que act)an recprocamente con sendas nerviosas simuladas, podra resultar difcil rescatar el cerebro intacto si el cuerpo se deteriorase. :o tena confian!a en la capacidad personal de la empresa. : a%ora puedo comer. *ueno, puedes sorber aceite de oliva. Eso si1nifica que %abr/ que %acer de ve! en cuando limpie!a de la c/mara de combusti n, como $a te %emos explicado. Es un factor inc modo, dira $o. ;ui!/, si $o no pensara se1uir adelante. 4a auto limpie!a no es imposible. Esto$ trabajando en un dispositivo que se encar1ar/ de los alimentos s lidos que inclu$an parte no combustible< la materia indi1erible, por as decirlo, que %abr/ que desec%ar. Entonces, necesitar/s un ano. Su equivalente. -;u' m/s, Andrew0 "odo lo dem/s. -"ambi'n 1enitales0 En la medida en que concuerden con mis planes. Mi cuerpo es un lien!o donde pienso dibujar... Ma1descu a1uard redondearla 'l mismo2 -=n %ombre0 :a veremos se limit a decir Andrew. Es una ambici n contradictoria, Andrew. ") eres muc%o mejor que un %ombre. 7as ido cuesta abajo desde que optaste por ser or1/nico. Mi cerebro no se %a da#ado. 3o, claro que no. &ero, Andrew, los nuevos %alla!1os prot'sicos que %an posibilitado tus patentes se comerciali!an bajo tu nombre. Eres reconocido como el 1ran inventor $ se te %onra por ello... tal como eres. -&or qu' quieres arries1ar m/s tu cuerpo0 Andrew no respondi . 4os %onores lle1aron. Acept el nombramiento en varias instituciones culturales, entre ellas una consa1rada a la nueva ciencia que 'l %aba creado< la que 'l llam robobiolo1a, pero que se denominaba protetolo1a. En el ciento cincuenta aniversario de su fabricaci n, se celebr una cena de %omenaje en 8obots $ 7ombres Mec/nicos. Si Andrew vio en ello al1una irona, no lo mencion . Alvin Ma1descu, $a jubilado, presidi la cena. "ena noventa $ cuatro a#os $ a)n viva porque tena pr tesis que, entre otras cosas, cumplan las funciones del %1ado $ de los ri#ones. 4a cena alcan! su momento culminante cuando Ma1descu, al cabo de un discurso breve $ emotivo, al! la copa para brindar por +el robot sesquicentenario,. a que conclu$era la frase, pero como la pausa se prolon1aba decidi

21

Andrew se %aba %ec%o remodelar los tendones del rostro %asta el punto de que poda expresar una 1ama de emociones, pero se comport de un modo pasivo durante toda la ceremonia. 3o le a1radaba ser un robot sesquicentenario. 17 4a protetolo1a le permiti a Andrew abandonar la "ierra. En las d'cadas que si1uieron a la celebraci n del sesquicentenario, la 4una se convirti en un mundo m/s terrcola que la "ierra en todos los aspectos menos en el de la 1ravedad, un mundo que alber1aba una densa poblaci n en sus ciudades subterr/neas. All, las pr tesis deban tener en cuenta la menor 1ravedad, $ Andrew pas cinco a#os en la 4una trabajando con especialistas locales para introducir las necesarias adaptaciones. .uando no se encontraba trabajando, deambulaba entre los robots, que lo trataban con cortesa rob tica debida a un %ombre. 8e1res a la "ierra, que era mon tona $ apacible en comparaci n, $ fue a las oficinas de 9ein1old $ Martin para anunciar su vuelta. El entonces director de la firma, Simon 5e4on1, se qued sorprendido. 3os %aban anunciado que re1resabas, Andrew dijo, aunque estuvo a punto de llamarlo +se#or Martin,, pero no te esper/bamos %asta la semana entrante. Me impacient' contest bruscamente Andrew, que ansiaba ir al 1rano. En la 4una, Simon, estuve al mando de un equipo de investi1aci n de veinte cientficos %umanos. 4es daba rdenes que nadie cuestionaba. 4os robots lunares me trataban como a un ser %umano. -Entonces por qu' no so$ un ser %umano0 5e4on1 adopt una expresi n cautelosa. ;uerido Andrew, como acabas de explicar, tanto los robots como los %umanos te tratan como si fueras un ser %umano. &or consi1uiente, eres un ser %umano de facto. 3o me basta con ser un ser %umano de facto. ;uiero que no s lo me traten como tal, sino que me identifiquen le1almente como tal. ;uiero ser un ser %umano de 'ure. Eso es distinto. A% trope!aramos con los prejuicios %umanos $ con el %ec%o indudable de que, por muc%o que pare!cas un ser %umano, no lo eres. -En qu' sentido0 "en1o la forma de un ser %umano $ r1anos equivalentes a los de los %umanos. Mis r1anos son id'nticos a los que tiene un ser %umano con pr tesis. 7e reali!ado aportaciones artsticas, literarias $ cientficas a la cultura %umana, tanto como cualquier ser %umano vivo. -;u' m/s se puede pedir0 :o no pedira nada. El problema es que se necesitara una 4e$ de la 4e1islatura Mundial para definirte como ser %umano. 9rancamente, no creo que sea posible. -.on qui'n debo %ablar en la 4e1islatura0 .on la presidencia de la .omisi n para la .iencia $ la "ecnolo1a, tal ve!. -&uedes pedir una reuni n0 &ero no necesitas un intermediario. .on tu presti1io... 3o. Enc/r1ate t). Andrew ni siquiera pens que estaba d/ndole una orden a un ser %umano. En la 4una se %aban acostumbrado a ello. ;uiero que sepan que 9ein1old $ Martin me apo$a plenamente en esto. &ues bien... &lenamente, Simon. En ciento setenta $ tres a#os %e aportado muc%simo a esta firma. En el pasado estuve obli1ado para con otros miembros de esta firma. A%ora no. 22

Es a la inversa, $ esto$ reclamando mi deuda. (er' qu' puedo %acer dijo 5e4on1. 18 4a presidencia de la .omisi n para .iencia $ la "ecnolo1a era una asi/tica llamada .%ee 4iD 7sin1. .on sus prendas transparentes Eque ocultaban lo que ella quera ocultar mediante un resplandorF, pareca envuelta en pl/stico. Simpati!o con su af/n de obtener derec%os %umanos plenos le dijo. En otros tiempos de la %istoria %ubo inte1rantes de la poblaci n %umana que luc%aron por obtener derec%os plenos. &ero -qu' derec%os puede desear que $a no ten1a0 Al1o mu$ simple2 el derec%o a la vida. =n robot puede ser desmontado en cualquier momento. : un ser %umano puede ser ejecutado en cualquier momento. 4a ejecuci n s lo puede reali!arse dentro del marco de la 4e$. &ara desmontarme a m no se requiere un juicio< s lo se necesita la palabra de un ser %umano que ten1a autori!aci n para poner fin a mi vida. Adem/s..., adem/s... Andrew procur reprimir su tono implorante, pero su expresi n $ su vo! %umani!adas lo traicionaban. 4o siento es que deseo ser %ombre. 4o %e deseado durante seis 1eneraciones de seres %umanos. 4iD7sin1 lo mir con sus ojos oscuros. 4a 4e1islatura puede aprobar una le$ declar/ndolo %umano< lle1ado el caso, podra aprobar una le$ declarando %umana a una estatua de piedra. Sin embar1o, creo que en el primer caso servira tan poco como para el se1undo. 4os diputados son tan %umanos como el resto de la poblaci n, $ siempre existe un recelo contra los robots. -6ncluso actualmente0 6ncluso actualmente. "odos admitiramos que usted se %a 1anado a pulso el premio de ser %umano, pero persistira el temor de sentar un precedente indeseable. -;u' precedente0 So$ el )nico robot libre, el )nico de mi tipo, $ nunca se fabricar/ otro. &ueden pre1unt/rselo a 8obots $ 7ombres Mec/nicos. ,3unca, es muc%o tiempo, Andrew, o, si lo prefiere, se#or Martin, pues personalmente le considero %umano. 4a ma$ora de los diputados se mostrar/n reacios a sentar ese precedente, por insi1nificante que pare!ca. Se#or Martin, cuenta usted con mi respaldo, pero no le aconsejo que abri1ue esperan!as. En realidad... Se reclin en el asiento $ arru1 la frente. En realidad, si la discusi n se vuelve acalorada, sur1ir/ cierta tendencia, tanto dentro como fuera de la 4e1islatura, a favorecer esa postura, que antes mencion usted, la que quieran desmontarle. 4ibrarse de usted podra ser el modo m/s f/cil de resolver el dilema. &enselo antes de insistir. -3adie recordar/ la t'cnica de la protetolo1a, al1o que me pertenece casi por completo0 &arecer/ cruel, pero no la recordar/n. B, en todo caso, la recordar/n desfavorablemente. 5ir/n que usted lo %i!o con fines e1ostas, que fue parte de una campa#a para roboti!ar a los seres %umano o para %umani!ar a los robots< $ en cualquiera de ambos casos sera p'rfido $ mali1no. =sted nunca %a sido vctima de una campa#a poltica de despresti1io, $ le ase1uro que se convertira en el blanco de unas calumnias que ni usted ni $o creeramos, pero s %abra 1ente que las creera. Se#or Martin, viva su vida en pa!. Se levant . Al lado de Andrew, que estaba sentado, pareca menuda, casi una ni#a. Si decido luc%ar por mi %umanidad dijo Andrew, -usted estar/ de mi lado0 Ella reflexion $ contest 2

23

S, en la medida de lo posible. Si en al1)n momento esa postura amena!a mi futuro poltico, tendr' que abandonarle, pues para m no es una cuesti n fundamental. &rocuro ser franca. Gracias. 3o le pedir' otra cosa. Me propon1o continuar esta luc%a al mar1en de las consecuencias, $ le pedir' a$uda mientras usted pueda brind/rmela. 19 3o fue una luc%a directa. 9ein1old $ Martin aconsej paciencia $ Andrew mascull que no tena una paciencia infinita. 4ue1o, 9ein1old $ Martin inici una campa#a para delimitar la !ona de combate. Entabl un pleito en el que se rec%a!aba la obli1aci n de pa1ar deudas a un individuo con un cora! n prot'sico, ale1ando que la posesi n de un r1ano rob tico lo despojaba de %umanidad $ de sus derec%os constitucionales. 4uc%aron con destre!a $ tenacidad< perdan en cada paso que daban, pero procurando siempre que la sentencia resultante fuese lo m/s 1en'rica posible, $ lue1o la presentaban mediante apelaciones ante el "ribunal Mundial. 4lev a#os $ millones de d lares. .uando se dict la )ltima sentencia, 5e4on1 festej la derrota como si fuera un portante triunfo. Andrew estaba presente en las oficinas de la firma, por supuesto. 7emos lo1rado dos cosas, Andrew, $ ambas son buenas. En primer lu1ar, %emos establecido que nin1)n n)mero de artefactos le quita la %umanidad al cuerpo %umano. En se1undo lu1ar, %emos involucrado a la opini n p)blica de tal modo que estar/ a favor de una interpretaci n amplia de lo que si1nifica %umanidad, pues no %a$ ser %umano existente que no desee una pr tesis si eso puede mantenerlo con vida. : crees que la 4e1islatura me conceder/ el derec%o a la %umanidad0 5e4on1 pareca un poco inc modo. En cuanto a eso, no puedo ser optimista. ;ueda el )nico r1ano que el "ribunal Mundial %a utili!ado como criterio de %umanidad. 4os seres %umanos poseen un cerebro celular or1/nico $ los robots tienen un cerebro positr nico de platino e iridio... 3o Andrew, no pon1as esa cara. .arecemos de conocimientos para imitar el funcionamiento de un cerebro celular en estructuras artificiales parecidas al cerebro or1/nico, as que no se puede incluir en la sentencia, ni siquiera t) podras lo1rarlo. -;u' %aremos entonces0 6ntentarlo, por supuesto. 4a diputada 4iD7sin1 estar/ de nuestra parte $ tambi'n una cantidad creciente de diputados. El presidente sin duda se1uir/ la opini n de la ma$ora de la 4e1islatura en este asunto. -.ontamos con una ma$ora0 3o, al contrario. &ero podramos obtenerla si el p)blico expresa su deseo de que se te inclu$a en una interpretaci n amplia de lo que si1nifica %umanidad. 7a$ pocas probabilidades, pero si no deseas abandonar debemos arries1arnos. 20 4a diputada 4iD7sin1 era muc%o m/s vieja que cuando Andrew la conoci . :a no llevaba aquellas prendas transparentes, sino que tena el cabello corto $ vesta con ropa tubular. En cambio, Andrew a)n se atena, dentro de los lmites de lo ra!onable, al modo de vestir que predominaba cuando 'l comen! a usar ropa un si1lo atr/s.

24

7emos lle1ado tan lejos como podamos, Andrew. 4o intentaremos nuevamente despu's del receso, pero, con franque!a, la derrota es se1ura $ tendremos que desistir. "odos estos esfuer!os s lo me %an valido una derrota se1ura en la pr xima campa#a parlamentaria. 4o s', $ lo lamento. =na ve! dijiste que me abandonaras si se lle1aba a ese extremo< -por qu' no lo %as %ec%o0 &orqu' cambi' de opini n. Abandonarte se convirti en un precio muc%o m/s alto del que estaba dispuesta a pa1ar por una nueva 1esti n. 7ace m/s de un cuarto de si1lo que esto$ en la 4e1islatura. Es suficiente. -3o %a$ modo de %acerles cambiar de parecer, .%ee0 7e convencido a toda la 1ente ra!onable. El resto, la ma$ora, no est/n dispuestos a renunciar a su aversi n emocional. 4a aversi n emocional no es una ra! n v/lida para votar a favor o en contra. 4o s', Andrew, pero la ra! n que ale1an no es la aversi n emocional. "odo se reduce al tema del cerebro, pues. &ero -es que todo %a de limitarse a una posici n entre c'lulas $ positrones0 -3o %a$ modo de imponer una definici n funcional0 5ebemos decir que un cerebro est/ %ec%o de esto o lo otro0 -3o podemos decir que el cerebro es al1o capa! de alcan!ar cierto nivel de pensamiento0 3o dar/ resultado. "u cerebro fue fabricado por el %ombre, el cerebro %umano no. "u cerebro fue construido, el %umano se desarroll . &ara cualquier ser %umano que se propon1a mantener la barrera entre 'l $ el robot, esas diferencias constitu$en una muralla de acero de un >il metro de 1rosor $ un >il metro de altura. Si pudi'ramos lle1ar a la ra! de su antipata..., a la aut'ntica ra! de... Al cabo de tantos a#os coment tristemente 4iD7sin1, si1ues intentando ra!onar con los seres %umanos. &obre Andrew, no te enfades, pero es tu personalidad rob tica la que te impulsa en esa direcci n. 3o lo s' dijo Andrew. Si pudiera someterme... 1 (co !i "aci# $ Si pudiera someterse... Saba desde tiempo atr/s que poda lle1ar a ese extremo, $ al fin decidi ver al cirujano. *usc uno con la %abilidad suficiente para la tarea, lo cual si1nificaba un cirujano robot, pues no poda confiar en un cirujano %umano, ni por su destre!a ni por sus intenciones. El cirujano no podra %aber reali!ado la operaci n en un ser %umano, as que Andrew, despu's de poster1ar el momento de la decisi n con un triste interro1atorio que reflejaba su torbellino interior, dej de lado la &rimera 4e$ diciendo2 :o tambi'n so$ un robot. : a#adi , con la firme!a con que %aba aprendido a dar rdenes en las )ltimas d'cadas, incluso a seres %umanos2 4e orden que realice esta operaci n. En ausencia de la &rimera 4e$, una orden tan firme, impartida por al1uien que se pareca tanto a un ser %umano, activ la Se1unda 4e$, imponiendo la obediencia. 21 Andrew estaba se1uro de que el malestar que senta era ima1inario. Se %aba recuperado de la operaci n. 3o obstante, se apo$ disimuladamente contra la pared. Sentarse sera demasiado revelador.

25

4a votaci n definitiva se %ar/ esta semana, Andrew dijo 4iD7sin1. 3o %e podido retrasarla m/s, $ perderemos... A% terminar/ todo, Andrew. "e a1rade!co tu %abilidad para la demora. Me %a proporcionado el tiempo que necesitaba $ %e corrido el ries1o que deba correr. -5e qu' ries1o %ablas0 pre1unt 4iD7sin1, con manifiesta preocupaci n. 3o poda cont/rtelo a ti ni a la 1ente de 9ein1old $ Martin, pues saba que me detendras. Mira, si el problema es el cerebro, -acaso la ma$or diferencia no resiste en la inmortalidad0 -A qui'n le importa la apariencia, la constituci n ni la evoluci n del cerebro0 4o que importa es que las c'lulas cerebrales mueren, que deben morir. Aunque se manten1an o se reemplacen los dem/s r1anos, las c'lulas cerebrales, que no se pueden reempla!ar sin alterar $ matar la personalidad, deben morir con el tiempo. Mis sendas positr nicas, %an durado casi dos si1los sin cambios $ pueden durar varios si1los m/s. -3o es 'sa la barrera fundamental0 4os seres %umanos pueden tolerar que un robot sea inmortal, pues no importa cu/nto dure una m/quina< pero no pueden tolerar a un ser %umano inmortal, pues su propia mortalidad s lo es tolerable siempre $ cuando sea universal. &or eso no quieren considerarme %umano. -A d nde quieres lle1ar, Andrew0 7e eliminado ese problema. 7ace d'cadas, mi cerebro positr nico fue conectado a nervios or1/nicos. A%ora una )ltima operaci n %a reor1ani!ado esas conexiones de tal modo que lentamente mis sendas pierdan potencial. 4a a!orada 4iD7sin1 call un instante. 4ue1o, apret los labios. -;uieres decir que %as planeado morirte, Andrew0 Es imposible. Eso viola la "ercera 4e$. 3o. 7e esco1ido entre la muerte de mi cuerpo $ la muerte de mis aspiraciones $ deseos. 7abra violado la "ercera 4e$ si %ubiese permitido que mi cuerpo viviera a costa de una muerte ma$or. 4iD7sin1 le a1arr el bra!o como si fuera a sacudirle. Se contuvo. Andrew, no dar/ resultado. (uelve a tu estado anterior. 6mposible. Se %an causado muc%os da#os. Me queda un a#o de vida. 5urar' %asta el se1undo centenario de mi construcci n. Me permit esa debilidad. -(ale la pena0 Andrew, eres un necio. Si consi1o la %umanidad, %abr/ valido la pena. 5e lo contrario, mi luc%a terminar/, $ eso tambi'n %abr/ valido la pena. 4iD7sin1 %i!o al1o que la asombr . 8ompi a llorar en silencio. 22 9ue extra#o el modo en que ese )ltimo acto captur la ima1inaci n del mundo. Andrew no %aba lo1rado conmover a la 1ente con todos sus esfuer!os, pero %aba aceptado la muerte para ser %umano, $ ese sacrificio fue demasiado 1rande para que lo rec%a!aran. 4a ceremonia final se pro1ram deliberadamente para el se1undo centenario. El presidente mundial deba firmar el acta $ darle car/cter de le$, $ la ceremonia se transmitira por una red mundial de emisoras $ se vera en el Estado de la 4una e incluso en la colonia marciana. Andrew iba en una silla de ruedas. A)n poda caminar, pero con 1ran esfuer!o. Ante los ojos de la %umanidad, el presidente mundial dijo2 7ace cincuenta a#os, Andrew fue declarado el robot sesquicentenario. %i!o una pausa $ a#adi solemnemente2 7o$, el Se#or Martin es declarado el %ombre bicentenario. : Andrew, sonriendo, extendi la mano para estrec%ar la del presidente.

26

23 Andrew $aca en el lec%o. Sus pensamientos se disipaban. 6ntentaba a1arrarse a ellos con desesperaci n. @=n %ombreA @Era un %ombreA ;uera serlo %asta su )ltimo pensamiento. ;uera disolverse, morir siendo %ombre. Abri los ojos $ reconoci a 4iD7sin1 que a1uardaba solemnemente. 7aba otras personas, pero s lo eran sombras irreconocibles. =nicamente 4iD7sin1 se recortaba contra ese fondo cada ve! m/s borroso. Andrew tendi la mano $ sinti va1amente el apret n. Ella se esfumaba ante sus ojos mientras sus )ltimos pensamientos se disipaban. &ero, antes de que la ima1en de 4iD7sin1 se desvaneciera del todo, un )ltimo pensamiento cru! la mente de Andrew por un instante fu1a!. 3i#a susurr , en vo! tan queda que nadie le o$ .

%IN

Libros Tauro
%ttp2GGwww.4ibros"auro.com.ar

27