Está en la página 1de 3

Tres leyes de la robótica

Las tres leyes de la robótica son un conjunto de normas elaboradas por el escritor deciencia ficción Isaac Asimov que se aplican a la
mayoría de los robots de sus novelas y cuentos y que están diseñados para cumplir órdenes. En ese universo, las leyes son
«formulaciones matemáticas impresas en los senderos positrónicos del cerebro» de los robots (líneas de código del programa que
regula el cumplimiento de las leyes guardado en la memoria principal de aquellos). Aparecidas por primera vez en el relato «Círculo
vicioso» (Runaround, 1942), establecen lo siguiente:

1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto
con la primera ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la
primera o con la segunda ley.1
Esta redacción de las leyes es la forma convencional en la que los humanos de las historias las enuncian; su forma real sería la de una
serie de instrucciones equivalentes y mucho más complejas en el cerebro del robot.

Asimov atribuye las tres leyes a John W. Campbell, que las habría redactado durante una conversación sostenida el 23 de diciembre
de 1940. Sin embargo, Campbell sostiene que Asimov ya las tenía pensadas, y que simplemente las expresaron entre los dos de una
manera más formal.

Las tres leyes aparecen en un gran número de historias de Asimov, tanto en su serie de los robots como en varias historias
relacionadas, y la serie de novelas protagonizadas por Lucky Starr. También han sido utilizadas por otros autores cuando han
trabajado en el universo de ficción de Asimov, y son frecuentes las referencias a ellas en otras obras, no solo de ciencia ficción, sino
también de otros géneros.

Índice
Propósito
Historia de las tres leyes de la robótica
La ley cero
Véase también
Referencias

Propósito
Estas tres leyes surgen únicamente como medida de protección para los seres humanos. Según el propio Asimov, la concepción de las
leyes de la robótica quería contrarrestar un supuesto "complejo de Frankenstein", es decir, un temor que el ser humano desarrollaría
frente a unas máquinas que hipotéticamente pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera desobedecer una
de las leyes, el cerebro positrónico del robot resultaría dañado irreversiblemente y el robot "moriría". A un primer nivel no presenta
ningún problema dotar a los robots con tales leyes, a fin de cuentas, son máquinas creadas por el hombre para su ayuda en diversas
tareas. La complejidad reside en que el robot pueda distinguir cuáles son todas las situaciones que abarcan las tres leyes, o sea poder
deducirlas en el momento. Por ejemplo saber en determinada situación si una persona está corriendo peligro o no, y deducir cuál es la
fuente del daño o la solución.

Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo los imperativos de sus tres
leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar: ¿Es posible
que un robot viole alguna persona? ¿Es posible que un robot "dañe" a un ser humano? La mayor parte de las historias de robots de
Asimov se basan en situaciones en las que a pesar de las tres leyes, podríamos responder a las anteriores preguntas con un "sí".

Historia de las tres leyes de la robótica


Las tres leyes de la robótica de Asimov aparecen formuladas por primera vez en 1942, en el relato
Círculo vicioso, de Asimov.

El autor busca situaciones contradictorias en las que la aplicación objetiva de las tres leyes se pone en tela de juicio planteando a la
vez interesantes dilemas filosóficos y morales que, en esta colección, Robots & Aliens están más presentes que nunca.

Los primeros robots construidos en la Tierra (vistos, por ejemplo, en Yo, robot) eran modelos poco avanzados. Era una época en
donde la robopsicología no estaba aún desarrollada. Estos robots podían ser enfrentados a situaciones en las cuales se vieran en un
conflicto con sus leyes. Una de las situaciones más sencillas se da cuando un robot debe dañar a un ser humano para evitar que dos o
más sufran daño. Aquí los robots decidían en función de un criterio exclusivamente cuantitativo, quedando luego inutilizados, al
verse forzados a violar la primera ley.

Posteriores desarrollos en la robótica, permitieron la construcción de circuitos más complejos, con una mayor capacidad de
autorreflexión. Una peculiaridad de los robots es que pueden llegar a redefinir su concepto de "daño" según sus experiencias, y
determinar niveles de éste. Su valoración de los seres humanos también puede ser determinada por el ambiente. Es así que un robot
puede llegar a dañar a un ser humano por proteger a otro que considere de más valía, en particular su amo. También podría darse el
caso de que un robot dañara físicamente a un ser humano para evitar que otro sea dañado psicológicamente, pues llega a ser una
tendencia el considerar los daños psicológicos más graves que los físicos. Estas situaciones nunca se hubieran dado en robots más
antiguos. Asimov plantea en sus historias de robots las más diversas situaciones, siempre considerando las posibilidades lógicas que
podrían llevar a los robots a tales situaciones.

La ley cero
Uno puede llegar a encariñarse con los robots de Asimov
, el cual nos muestra en sus historias robots cada vez más "humanos". EnEl
«
hombre bicentenario», Asimov nos narra la historia de Andrew Martín, nacido robot, y que lucha durante toda su vida (como "Uno")
para ser reconocido como un ser humano. Están también R. Daneel Olivaw y R. Giskard Reventlov, que tienen un papel fundamental
en la segunda expansión de los seres humanos y la consiguiente fundación del imperio galáctico. Siendo los robots más complejos
jamás creados, fueron capaces de desarrollar la ley cero de la robótica ("Zeroth law", en inglés) como corolario filosófico de la
primera:

Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

R. Giskard murió en Robots e Imperio, tras verse obligado a dañar a un ser humano en virtud de la ley cero. El problema fundamental
con esta ley es definir "Humanidad", así como determinar qué supone un "daño" para la Humanidad. R. Daneel logró asimilarla
gracias al sacrificio de Giskard, convirtiéndose desde entonces en el protector en la sombra de la Humanidad. Daneel, bajo distintas
identidades, se convierte en uno de los personajes más importantes del ciclo de Trántor (formado por los cuentos y novelas de robots,
las novelas del imperio, y la saga de las fundaciones: 17 libros) siendo además un elemento clave en su continuidad

Véase también
Yo, robot. Colección de relatos en los que se establecen y plantean los problemas de las tres leyes de la robótica.

Referencias
1. Asimov, Isaac (1989). «Círculo vicioso». Los robots. trad. Domingo Santos. Barcelona: Martínez Roca. ISBN 84-270-
0906-2.

Obtenido de «https://es.wikipedia.org/w/index.php?title=T
res_leyes_de_la_robótica&oldid=110986110»
Esta página se editó por última vez el 1 oct 2018 a las 15:13.

El texto está disponible bajo laLicencia Creative Commons Atribución Compartir Igual 3.0 ; pueden aplicarse cláusulas
adicionales. Al usar este sitio, usted acepta nuestrostérminos de uso y nuestra política de privacidad.
Wikipedia® es una marca registrada de laFundación Wikimedia, Inc., una organización sin ánimo de lucro.

También podría gustarte