Está en la página 1de 3

Tres leyes de la robtica

En ciencia ficcin las tres leyes de la robtica son un conjunto de normas escritas
por Isaac Asimov, que la mayora de los robots de sus novelas y cuentos estn diseados
para cumplir. En ese universo, las leyes son "formulaciones matemticas impresas en los
senderos positrnicos del cerebro" de los robots (lneas de cdigo del programa de
funcionamiento del robot guardadas en la ROM del mismo). Aparecidas por primera vez en
el relato Runaround (1942), establecen lo siguiente:
1. Un robot no puede hacer dao a un ser humano o, por inaccin, permitir que un
ser humano sufra dao.
2. Un robot debe obedecer las rdenes dadas por los seres humanos, excepto si estas
rdenes entrasen en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta proteccin
no entre en conflicto con la Primera o la Segunda Ley.
1

Esta redaccin de las leyes es la forma convencional en la que los humanos de las historias
las enuncian; su forma real sera la de una serie de instrucciones equivalentes y mucho ms
complejas en el cerebro del robot..
Estas leyes surgen como medida de proteccin para los seres humanos. Segn el propio
Asimov, la concepcin de las leyes de la robtica quera contrarrestar un supuesto
"complejo de Frankenstein", es decir, un temor que el ser humano desarrollara frente a
unas mquinas que hipotticamente pudieran rebelarse y alzarse contra sus creadores. De
intentar siquiera desobedecer una de las leyes, el cerebro positrnico del robot resultara
daado irreversiblemente y el robot morira. A un primer nivel no presenta ningn
problema dotar a los robots con tales leyes, a fin de cuentas, son mquinas creadas por el
hombre para su servicio. La complejidad reside en que el robot pueda distinguir cules son
todas las situaciones que abarcan las tres leyes, o sea poder deducirlas en el momento. Por
ejemplo saber en determinada situacin si una persona est corriendo peligro o no, y
deducir cul es la fuente del dao.
Las tres leyes de la robtica representan el cdigo moral del robot. Un robot va a actuar
siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se
comportar como un ser moralmente correcto. Sin embargo, es lcito preguntar: Es posible
que un robot viole alguna de sus tres leyes? Es posible que un robot "dae" a un ser
humano? La mayor parte de las historias de robots de Asimov se basan en situaciones en las
que a pesar de las tres leyes, podramos responder a las anteriores preguntas con un "s".

Historia de las tres leyes de la robtica
Los primeros robots construidos en la Tierra (vistos, por ejemplo, en Yo, Robot) eran
modelos poco avanzados. Era una poca en donde la robopsicologa no estaba an
desarrollada. Estos robots podan ser enfrentados a situaciones en las cuales se vieran en un
conflicto con sus leyes. Una de las situaciones ms sencillas se da cuando un robot debe
daar a un ser humano para evitar que dos o ms sufran dao. Aqu los robots decidan en
funcin de un criterio exclusivamente cuantitativo, quedando luego inutilizados, al verse
forzados a violar la primera ley.
La ley cero
Uno puede llegar a encariarse con los robots de Asimov, el cual nos muestra en sus
historias robots cada vez ms "humanos". En "El hombre bicentenario", Asimov nos narra
la historia de Andrew Martin, nacido robot, y que lucha durante toda su vida (como "Uno")
para ser reconocido como un ser humano. Estn tambin R. Daneel Olivaw y R. Giskard
Reventlov, que tienen un papel fundamental en la segunda expansin de los seres humanos
y la consiguiente fundacin del imperio galctico. Siendo los robots ms complejos jams
creados, fueron capaces de desarrollar la ley cero de la robtica ("Zeroth law", en ingls)
como corolario filosfico de la primera:
En 2011, el Consejo de Investigacin de Ingeniera y Ciencias Fsicas (Engineering and
Physical Sciences Research Council, EPSRC por sus siglas en ingls) y el Consejo de
Investigacin de Artes y Humanidades (Arts and Humanities Research Council, AHRC por
sus siglas en ingls) de Gran Bretaa publicaron conjuntamente un conjunto de cinco
principios ticos "para los diseadores, constructores y los usuarios de los robots en
el mundo real, junto con siete mensajes de alto nivel", destinado a ser transmitido, sobre la
base de un taller de investigacin enseptiembre de 2010.
2

1. Los robots no deben ser diseados exclusivamente o principalmente para matar o
daar a los humanos.
2. Los seres humanos, no los robots, son los agentes responsables. Los robots son
herramientas diseadas para lograr los objetivos humanos.
3. Los robots deben ser diseados de forma que aseguren su proteccin y seguridad.
4. Los robots son objetos, no deben ser diseados para aprovecharse de los usuarios
vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser
posible distinguir a un robot de un ser humano.
5. Siempre debe ser posible averiguar quin es el responsable legal de un robot.
Los mensajes destinados a ser transmitidos fueron:
1. Creemos que los robots tienen el potencial de proporcionar impacto positivo
inmenso para la sociedad. Queremos animar a la investigacin del robot
responsable.
2. La mala prctica nos perjudica a todos.
3. Abordar las inquietudes obvias del pblico nos ayudar a todos avanzar.
4. Es importante demostrar que nosotros, como especialistas en robtica, estamos
comprometidos con los mejores estndares posibles de la prctica.
5. Para entender el contexto y las consecuencias de nuestra investigacin, debe
trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho,
filosofa y las artes.
6. Debemos tener en cuenta la tica de la transparencia: hay lmites que deben ser
accesibles.
7. Cuando vemos las cuentas errneas en la prensa, nos comprometemos a tomar el
tiempo para ponerse en contacto con los periodistas.

También podría gustarte