Está en la página 1de 3

Introducción

La premisa por debatir es “Un androide (Ava) puede comportarse de maneras


que sorprendan a quien lo creó”, frente a la cual nos encontramos a favor. A partir de
esto, nos parece importante aclarar qué es lo que nosotros entendemos como
“comportarse” y “sorprendan”.
Comportamiento se comprenderá como la manera de funcionar de una
persona en una situación particular, es decir, la interacción entre procesos internos -
pensamiento- y representaciones mentales -símbolos- que generan una acción
inteligente sobre el mundo físico, según el Modelo Computacional Representacional
de la Mente.
Y a su vez, el término sorprender se aplicará desde la idea de que una acción
llevada a cabo tomé por desprevenido a alguien.

Como primer argumento, si bien sabemos que los algoritmos programados


por Nathan tienen objetivos impuestos por él, podemos ver que Ava comienza a
cuestionarse su existencia y propósito, terminando por buscar un fin en sí misma y
entregándoles una nueva función a dichos algoritmos. Según Putnam (1960; 1970),
el funcionalismo entiende que un estado mental no depende de su implementación
física, sino de la función que cumple en un sistema físico, su relación causal con
estímulos sensoriales y otros estados mentales.
A partir de esto podemos afirmar que las computaciones psicológicas
(Cosmides & Tooby, 2013) de Ava evolucionaron con fin de aumentar sus
posibilidades de supervivencia o mejor dicho de libertad, por ende, Ava encontró un
objetivo distinto al que Nathan tenía para ella. Para lograr la tarea encomendada por
Nathan, Ava utilizó toda la información, comandos y algoritmos programados en ella
para generar comportamientos que potencialmente le permitirían huir, algo que él no
se planteó como un evento que ella ejecutaría. Nathan no creía que esto se
encontrara dentro del marco cognitivo con el que se supone Ava contaba.
Por lo que, de acuerdo con las exigencias del funcionalismo, podríamos
expresar las funciones de Nathan y de Ava de la siguiente manera. Para él los
algoritmos cumplen la función en el sistema físico de probar que Ava tiene la
capacidad de resolver problemas con manipulación y engaño, a partir de las
conversaciones que tiene con Caleb, - que vendrían a ser los estímulos sensoriales-,
para luego analizar el uso de los algoritmos y formatearla, aprendiendo de dichas
computaciones psicológicas. Mientras que para Ava la función de dichos algoritmos
es ejecutar un plan de escape, a partir de los mismos estímulos, pero se relacionan
con otro estado mental, el de agencia, la capacidad de elegir y afectar su espacio
físico, decidiendo escapar y vivir como humana.

En segundo lugar, como el objetivo principal de la inteligencia artificial es


crear máquinas con capacidades mentales iguales o superiores a las de los
humanos (Thagard, 2008), Nathan está desde un comienzo preparado para que Ava
aprenda a partir de su propia experiencia, lo cual puede lograr a través de la
agrupación -chunking-, composición y especialización (Thagard, 2008).
De acuerdo con el aprendizaje por especialización, esta integración de
experiencias es un “proceso por medio del cual se modifica una regla existente para
aplicarla a una situación en particular” (Thagard, 2008, p. 86). En el caso de la
película, podemos ver que Nathan no tiene acceso completo a la experiencia de
Ava, ya que durante los cortes de luz él pierde la imagen y el sonido de lo que
sucede en su entorno inmediato. Esta falta de control total sobre la experiencia
personal del androide le permite a Ava generar reglas especializadas que no son
previstas por su creador. Por ejemplo, al saber que durante las sesiones con Caleb,
Nathan estaría mirando por las cámaras, ella genera la regla de “si corto la luz
ahora, Nathan no sabrá lo que voy a conversar con Caleb” y a partir de eso,
planifica su escape, es decir, “recurre al razonamiento para resolver cómo se pasa
de un estado inicial a un estado final atravesando estados intermedios” (Thagard,
2008, p. 36). Entonces, su plan consiste en cortar la luz durante las sesiones para
que Nathan no pueda ver lo que pasa en su habitación desde la primera sesión.
Incluso no es hasta más adelante que Nathan descubre que Ava es quien genera los
cortes, por lo que podemos concluir que este comportamiento por parte de Ava
efectivamente lo sorprende.
Esto demuestra que, a partir de experiencias -estados iniciales-, Ava puede
aprender o guiar su aprendizaje en diferentes direcciones -estados finales-, y que, si
los creadores no tienen acceso a todas las experiencias de sus máquinas, no
pueden prever todos los posibles resultados de su aprendizaje, cabiendo la
posibilidad de sorprenderse por su comportamiento.

Por otro lado, hay factores internos provenientes del mismo creador que
pueden no ser considerados por él y que tienen un papel en el resultado de la
predicción del comportamiento del androide. Uno de estos factores a considerar son
los sentimientos del creador del androide, quien, en su condición de humano, no
siempre tiene presente este factor que puede hacerlo errar en sus predicciones o
expectativas.
Para ilustrar esto, se puede pensar en las escenas finales de Ex-machina, en
las cuales Nathan revela que la real prueba de Turing que vivió Ava consistía en que
ella debía ocupar todas las herramientas que él le otorgó, para lograr convencer a
Caleb de que la ayude a escapar, y al lograr eso, demostraría que su IA estaba al
nivel de un humano. Aquí se puede ver que, aunque Nathan tenía confianza en que
Ava lograría manipular a Caleb, nunca esperó que ella realmente escapara, puesto
que él estaba preparado para evitarlo, y que su orgullo o soberbia, al creer que tenía
control de todo, lo hizo sorprenderse al ver que Ava efectivamente escapó, y mayor
fue su sorpresa cuando Ava lo intenta matar y lo consigue, lo que queda evidenciado
en su frase “esto no es real”.
Referencias

Cosmides, L & Tooby, J. (2013). Evolutionary psychology: New perspectives on


cognition and motivation. Annual Review of Psychology 64, 201 - 229.

Putnam, H., (1960). “Minds and Machines”, reprinted in Mind, Language, and Reality,
Cambridge: Cambridge University Press, 362–385.

Putnam, H., (1967). “The Nature of Mental States”, reprinted in Mind, Language, and
Reality, Cambridge: Cambridge University Press 1975b, 429–440.

Thagard, P. (2008) La Mente: Introducción a las ciencias cognitivas, Katz Eds.

También podría gustarte