Está en la página 1de 2

Si viviéramos ya en un mundo futuro y existieran robots equipados con

inteligencia artificial, iguales en todo lo demás a los humanos, ¿sería


necesario que fueran conscientes de que lo son? Es decir, ¿debe un robot
saber que no es un ser humano? Imagínese viviendo en ese mundo sin
saber si usted es o no un robot: ¿querría saberlo?, ¿sería conveniente? Si
no hay diferencias fundamentales entre humano y robot, ¿tiene sentido
saber si se es una cosa o la otra?

Ya convivimos con robots. No siempre los llamamos así, pero están en


todas partes: en nuestras cocinas, en los móviles, pilotan los aviones,
regulan las transacciones bursátiles, acabarán por conducir nuestros
vehículos, o los vehículos serán robots, etc.

Para Nikola Kesarovski es fundamental que el robot sepa que lo es. En su


obra La quinta ley (1983), un robot que desconoce su condición acaba con
un ser humano al darle un abrazo demasiado cariñoso. No tenía intención
de hacer daño. Esta situación es relevante porque normalmente se recurre
a las famosas tres leyes de la robótica que Asimov expuso en 1942
(Círculo vicioso) como lenitivo ante el temor que produce la posibilidad
de convivir con robots en todo mejores que nosotros y, además, casi
inmortales. El problema es que esas leyes no tienen en cuenta los excesos
afectuosos.
Seis leyes de la robótica
La primera las leyes de Asimov establece que ningún robot ocasionará
daño a un humano por acción u omisión. Lamentablemente, esta ley da
más problemas que soluciones porque es complicado definir lo que es
daño. Por ejemplo, recientemente se ha creado un robot albañil.
Aparentemente, esto no ocasiona daño a nadie. Sin embargo, si deja sin
trabajo a los que ahora se dedican a ello, ¿no estaría ocasionando un
daño? Pero, si dejara de construir, el “daño” se lo estaría causando a
quienes esperan la vivienda.
How The Conversation is different: We explain without oversimplifying.
Learn more
Para superar esos problemas, algunos autores de ciencia ficción han
sentido la necesidad de complementar las tres leyes de Asimov. Lubien
Dilov dio la cuarta en su obra El camino de Ícaro (1974): “Todo robot
debe identificarse siempre como tal”. Y Kesarovsky enuncia la quinta más
o menos así en su obra La quinta ley (1983): “Todo robot debe saber
siempre que es un robot”. Tal vez sería más correcto alterar el orden de
estas dos leyes, ya que resulta evidente que para identificarse como robot
debe saberse primero que se es tal cosa.
Puede añadirse otra, de Harry Harrison: “Un robot debe reproducirse, en
tanto en cuanto esta reproducción no entre en conflicto con las leyes
primera o tercera (de Asimov)”. Para Harrison, ésta era la cuarta ley:
aparece en su obra de 1986 La cuarta ley de la robótica. Entraría en
conflicto con la de Dilov en cuanto al orden que han de seguir. Pero esto
es un detalle menor. El caso es que hay seis leyes con las que se pretende
desvanecer cualquier amenaza que la convivencia con robots pueda
suponer en el futuro. Son, ordenadas según mi criterio:
1. Un robot no debe dañar a un ser humano o permitir, por inacción,
que sufra daño un ser humano (Asimov, 1942).
2. Un robot debe cumplir las órdenes dadas por seres humanos, salvo
aquellas que entren en conflicto con la primera ley (Asimov, 1942).
3. Un robot debe proteger su propia existencia, siempre que esta
protección no entre en conflicto con las leyes primera o segunda (Asimov,
1942).
4. Un robot debe saber siempre que es un robot (Kesarovsky, 1983).
5. Un robot debe identificarse siempre como tal (Dilov, 1974).
6. Un robot debe reproducirse, en tanto en cuanto esta reproducción
no entre en conflicto con las leyes primera o tercera (Harrison, 1986).
Creo que para solucionar el problema que ocasiona la primera ley y que se
ha mencionado antes, convendría redactarla de la siguiente manera:

1. Un robot no iniciará nunca un acto de agresión contra la vida o la


propiedad de un ser humano.
Esta redacción es más adecuada por dos motivos: en primer lugar, al decir
que no “iniciará” nunca un acto de agresión, permite pensar en la
posibilidad de robots encargados de garantizar la seguridad, que se verían
obligados, tarde o temprano, a responder a actos violentos iniciados por
humanos. En segundo lugar, los robots podrían llevar a cabo acciones
que, siendo perjudiciales para los humanos, como ocupar puestos de
trabajo, no podrían considerarse como agresión, por lo mismo que no lo
consideramos así cuando lo hace un ser humano.

También podría gustarte