Si viviéramos ya en un mundo futuro y existieran robots equipados con
inteligencia artificial, iguales en todo lo demás a los humanos, ¿sería
necesario que fueran conscientes de que lo son? Es decir, ¿debe un robot saber que no es un ser humano? Imagínese viviendo en ese mundo sin saber si usted es o no un robot: ¿querría saberlo?, ¿sería conveniente? Si no hay diferencias fundamentales entre humano y robot, ¿tiene sentido saber si se es una cosa o la otra?
Ya convivimos con robots. No siempre los llamamos así, pero están en
todas partes: en nuestras cocinas, en los móviles, pilotan los aviones, regulan las transacciones bursátiles, acabarán por conducir nuestros vehículos, o los vehículos serán robots, etc.
Para Nikola Kesarovski es fundamental que el robot sepa que lo es. En su
obra La quinta ley (1983), un robot que desconoce su condición acaba con un ser humano al darle un abrazo demasiado cariñoso. No tenía intención de hacer daño. Esta situación es relevante porque normalmente se recurre a las famosas tres leyes de la robótica que Asimov expuso en 1942 (Círculo vicioso) como lenitivo ante el temor que produce la posibilidad de convivir con robots en todo mejores que nosotros y, además, casi inmortales. El problema es que esas leyes no tienen en cuenta los excesos afectuosos. Seis leyes de la robótica La primera las leyes de Asimov establece que ningún robot ocasionará daño a un humano por acción u omisión. Lamentablemente, esta ley da más problemas que soluciones porque es complicado definir lo que es daño. Por ejemplo, recientemente se ha creado un robot albañil. Aparentemente, esto no ocasiona daño a nadie. Sin embargo, si deja sin trabajo a los que ahora se dedican a ello, ¿no estaría ocasionando un daño? Pero, si dejara de construir, el “daño” se lo estaría causando a quienes esperan la vivienda. How The Conversation is different: We explain without oversimplifying. Learn more Para superar esos problemas, algunos autores de ciencia ficción han sentido la necesidad de complementar las tres leyes de Asimov. Lubien Dilov dio la cuarta en su obra El camino de Ícaro (1974): “Todo robot debe identificarse siempre como tal”. Y Kesarovsky enuncia la quinta más o menos así en su obra La quinta ley (1983): “Todo robot debe saber siempre que es un robot”. Tal vez sería más correcto alterar el orden de estas dos leyes, ya que resulta evidente que para identificarse como robot debe saberse primero que se es tal cosa. Puede añadirse otra, de Harry Harrison: “Un robot debe reproducirse, en tanto en cuanto esta reproducción no entre en conflicto con las leyes primera o tercera (de Asimov)”. Para Harrison, ésta era la cuarta ley: aparece en su obra de 1986 La cuarta ley de la robótica. Entraría en conflicto con la de Dilov en cuanto al orden que han de seguir. Pero esto es un detalle menor. El caso es que hay seis leyes con las que se pretende desvanecer cualquier amenaza que la convivencia con robots pueda suponer en el futuro. Son, ordenadas según mi criterio: 1. Un robot no debe dañar a un ser humano o permitir, por inacción, que sufra daño un ser humano (Asimov, 1942). 2. Un robot debe cumplir las órdenes dadas por seres humanos, salvo aquellas que entren en conflicto con la primera ley (Asimov, 1942). 3. Un robot debe proteger su propia existencia, siempre que esta protección no entre en conflicto con las leyes primera o segunda (Asimov, 1942). 4. Un robot debe saber siempre que es un robot (Kesarovsky, 1983). 5. Un robot debe identificarse siempre como tal (Dilov, 1974). 6. Un robot debe reproducirse, en tanto en cuanto esta reproducción no entre en conflicto con las leyes primera o tercera (Harrison, 1986). Creo que para solucionar el problema que ocasiona la primera ley y que se ha mencionado antes, convendría redactarla de la siguiente manera:
1. Un robot no iniciará nunca un acto de agresión contra la vida o la
propiedad de un ser humano. Esta redacción es más adecuada por dos motivos: en primer lugar, al decir que no “iniciará” nunca un acto de agresión, permite pensar en la posibilidad de robots encargados de garantizar la seguridad, que se verían obligados, tarde o temprano, a responder a actos violentos iniciados por humanos. En segundo lugar, los robots podrían llevar a cabo acciones que, siendo perjudiciales para los humanos, como ocupar puestos de trabajo, no podrían considerarse como agresión, por lo mismo que no lo consideramos así cuando lo hace un ser humano.