Está en la página 1de 17

Transferencia

robótica
Diseñan un método para traspasar habilidades de un robot a otro.

[KTSDESIGN/SCIENCE SOURCE]
TAMBIÉN TE PUEDE INTERESAR

Cada vez hay más robots de todas las formas y tamaños en los lugares de
trabajo, desde las fábricas hasta los quirófanos. Y muchos de ellos
adquieren nuevas habilidades por ensayo y error, mediante técnicas
de aprendizaje automático. Un nuevo método ayuda a transferir esas
destrezas de un robot a otro que posea una forma distinta, evitando así
que tenga que aprender las tareas desde cero. «Es importante desde un
punto de vista práctico», señala Xingyu Liu, científico computacional de
la Universidad Carnegie Mellon y autor principal del estudio, que se
presentó el pasado verano en la Conferencia Internacional sobre
Aprendizaje Automático, celebrada en Baltimore. «Y en términos
científicos, constituye un problema fundamental muy interesante.»

Supongamos que tenemos un brazo robótico con una mano de cinco


dedos similar a la humana, y que lo hemos entrenado para que agarre un
martillo y clave un taco de madera en un tablero. Ahora, queremos que
una pinza provista de dos dedos realice el mismo trabajo. Los científicos
construyeron una especie de puente entre ambos dispositivos, usando una
serie de robots simulados cuya forma iba cambiando progresivamente
desde la original a la nueva. Cada robot intermedio practica la tarea
asignada y ajusta una red neuronal hasta que alcanza una determinada
tasa de éxito. Entonces, el código del controlador se transfiere a la
siguiente máquina de la cadena.

A fin de implementar esa transición desde el robot virtual inicial al final,


los autores crearon un «árbol cinemático» compartido: un conjunto de
nodos que representaban las partes de las extremidades, conectados por
enlaces que denotaban las articulaciones. Para transferir la habilidad de
usar martillos a la pinza de dos dedos, el equipo fue disminuyendo el
tamaño y el peso de los nodos correspondientes a tres de los dedos, hasta
hacerlos cero. En cada robot intermedio, esos dedos menguaban un poco,
y la red que los controlaba tenía que aprender a adaptarse. Los in-
vestigadores también retocaron el método de entrenamiento para que los
saltos entre robots no fueran ni muy grandes ni muy pequeños.

El sistema de la Universidad Carnegie Mellon, bautizado como REvolveR


(acrónimo de Robot-Evolve-Robot), obtuvo mejores resultados que otros
métodos de entrenamiento, como enseñar al robot con dos dedos desde
cero. Para que la pinza alcanzara una tasa de éxito del 90 por ciento con el
martillo y en otras tareas que implicaban mover una pelota y abrir una
puerta, el mejor método de entrenamiento alternativo precisó entre un 29
y un 108 por ciento más de ensayos que REvolveR, a pesar de recibir una
retroalimentación más detallada. En experimentos posteriores, los
autores probaron su proceso en otros tipos de robots virtuales; por
ejemplo, alargaron las patas de un robot con forma de araña e hicieron
que volviera a aprender a andar.
Por qué la
inteligencia
artificial no
puede querer
nada
¿Actuarán y tomarán decisiones las máquinas algún día?
¿Tendremos entonces que reconocerles intencionalidad como a
los seres humanos? Una refutación.

 Dorothea Winter

[PHONLAMAIPHOTO/ISTOCK]
Poco después de que no sucediese el apocalipsis supuestamente
profetizado por los mayas en 2012, se popularizó otro escenario de
horror: la dominación mundial de los «Terminator», es decir, de
máquinas inteligentes, que, desde hace tiempo, dan lugar a noticias cada
vez peores. Hasta qué punto está extendido el miedo a los
superordenadores lo demuestra una encuesta realizada por la Sociedad
para la Investigación Innovadora de Mercado (GIM, por sus siglas en
alemán) encargada por el Grupo Bosch.

Según el estudio, publicado en 2020, el 82 por ciento de los ciudadanos


alemanes temen una vigilancia generalizada por parte de la inteligencia
artificial (IA). Un número similar (79 por ciento) cree que los sistemas
técnicos tomarían decisiones poco éticas y tres de cada cuatro
encuestados ven amenazada nuestra seguridad por el creciente poder de
las máquinas que actúan de manera autónoma. El hecho de que el «Gran
Hermano» observe nuestra sala de estar y nuestro dormitorio es para
una mayoría una realidad que se siente hace tiempo. ¿Se acerca de
manera inminente el dominio de los bits y los bytes?

Esta cuestión entraña una pregunta técnica: ¿es, en principio, la IA capaz


de hacer algo así? En cierto modo, sí. Los algoritmos inteligentes ya se
están utilizando, por ejemplo, como instrumentos de espionaje y
manipulación, por parte de personas y organizaciones que persiguen
diferentes objetivos. Sin embargo, ello no significa que la propia IA
aspire a algo parecido a la dominación.

Los filósofos de la tecnología discuten esta cuestión bajo el término de


«intencionalidad», es decir, la cualidad de llevar a cabo acciones
deliberadas y orientadas a un objeto. Muchos autores consideran la
intencionalidad como un componente permanente de la conciencia.

La intencionalidad se atribuye principalmente a estados mentales, como


las percepciones, las creencias o los deseos. La idea subyacente es que
siempre nos podemos dirigir a objetos escogidos, individuales, pero
nunca al mundo como totalidad. Cuando pensamos o sentimos,
utilizamos una suerte de «reflectores» que iluminan secciones limitadas
del mundo; no todo a la vez, como hace el Sol. Lo que accede a nuestra
conciencia (percepciones, pensamientos, sentimientos u otros
contenidos de la experiencia) posee en cada caso propiedades
experienciales subjetivas, también llamadas qualia (por ejemplo, la
sensación de dolor o la percepción del color rojo).

Aunque el concepto procede de la escolástica medieval, el debate


moderno sobre la intencionalidad se remonta al filósofo y psicólogo
Franz Brentano (1838-1917). En su libro Psicología desde el punto de vista
empírico (1874) sostuvo que la intencionalidad es la característica esencial
de todos los actos de conocimiento: siempre están referidos al objeto, es
decir, dirigidos a algo.

Para Brentano, una característica básica de lo mental es dirigirse a un


objeto o referirse a él. Por ejemplo, si pienso «la manzana está sobre la
mesa», eso se refiere a los objetos manzana y mesa, así como a la
relación espacial que guardan entre sí. Con respecto a este estado de
cosas, el pensamiento puede ser verdadero o falso. Brentano
consideraba por ello la intencionalidad algo exclusivamente psíquico:
«Ningún fenómeno físico muestra nada semejante».

Pensamientos como eventos puramente físicos

Por el contrario, los materialistas reducen los estados mentales —y, por
tanto, intencionales— a los estados físicos. Desde su punto de vista,
pensar en una mesa o en una manzana depende de ciertas circunstancias
físicas de mi cerebro. Es una cuestión abierta si a estas también se les
puede atribuir intencionalidad.
Los materialistas equiparan los pensamientos con eventos neuronales.
Otros, en cambio, sostienen que un proceso en el cerebro es intencional
solo si se pueden explicar el sentido, los motivos y la verdad también sin
estados mentales (por ejemplo, aludiendo a que simplemente se dan en
el lenguaje de las neuronas o de las máquinas). Desde este punto de vista,
la IA (sobre todo la que se basa en estructuras neuronales) tendría
intencionalidad.
Pero, ¿cómo podría confirmarse tal característica de la inteligencia de las
máquinas? ¿Qué podría servir como prueba? Ya en 1950, el matemático
Alan Turing (1912-1954) desarrolló el test que hoy lleva su nombre: el test
de Turing. En él, una persona se sienta ante un ordenador y se comunica
con dos interlocutores desconocidos para él. Uno es un ser humano; el
otro, un ordenador. La persona hace preguntas que responden ambos, el
humano y el ordenador. Si no puede diferenciar si las respuestas
provienen de una persona o de un ordenador, este último ha superado el
test. Según Turing, debemos entonces reconocer que la máquina tiene
inteligencia en el mismo sentido que su compañero humano.

Google presentó una nueva interpretación del test de Turing en una


conferencia de
desarrolladores en 2018 con su sistema Duplex. Esta IA es capaz de
realizar llamadas telefónicas con voz humana, por lo que el usuario
apenas puede reconocer que no se trata de una persona. Sin embargo,
esto tiene ciertos límites: en cuanto se quiere hablar con Duplex de otra
cosa que no sean las reservas de citas que gestiona, la IA no funciona.
Con todo, dentro del marco fijado, los humanos y las IA no son
fácilmente distinguibles. Entonces, ¿ha superado Duplex el test de
Turing?

Dudas sobre el test de Turing

Una crítica obvia a este procedimiento es que el test de Turing reposa


sobre la premisa de que se pueden confirmar el pensamiento y la
intencionalidad de un ordenador mediante la evaluación por parte de un
humano. El filósofo John Searle ya lo puso en duda en su artículo
«Mentes, cerebros y programas», de 1980.

Para ello planteó el experimento mental de la sala china. Supongamos


que una persona se encuentra en una habitación llena de libros. Ahora se
le pasa por debajo de la puerta una hoja de papel en la que hay escritos
caracteres chinos. Los libros que se encuentran en la sala explican en la
lengua materna de la persona qué caracteres de la hoja deben ser
«respondidos» con qué otros símbolos. Sin conocer ni uno solo de los
símbolos, es decir, sin entender nada en absoluto, la persona logra
escribir en el papel respuestas con sentido. Alguien que domine el chino
y que se encuentre fuera de la habitación tendría que asumir que la
persona que está en el interior conoce el significado de los caracteres.

Con esta analogía, Searle señaló un hecho simple: los ordenadores


siguen instrucciones sobre cómo deben ser manejados los signos y cómo
reaccionar adecuadamente ante ellos según ciertas reglas. Así, un
movimiento del ratón en una pantalla puede representar que se aplique
la fórmula binomial o que se reconozcan las expresiones de un chat
como un discurso de odio y se bloqueen. ¿Pero «sabe» el ordenador lo
que está haciendo? No. No entiende nada de nada.
La inteligencia
artificial escribe
sobre sí misma
Un artículo científico redactado por el algoritmo de aprendizaje
profundo GPT-3 plantea problemas éticos inesperados.

[Thomas Fuchs]
EN SÍNTESIS

GPT-3, un algoritmo de aprendizaje profundo conocido por su aptitud


para producir textos que parecen escritos por un ser humano, se ha
mostrado capaz de crear artículos científicos.
El algoritmo ha escrito un artículo sobre sí mismo que cumple los
requisitos de una publicación académica: contenido original, lenguaje
apropiado y referencias bien contextualizadas.

Si llega a publicarse, ese artículo podría inspirar futuros trabajos


escritos con la ayuda de la inteligencia artificial, o servir de
advertencia sobre los dilemas éticos que ello plantea.
TAMBIÉN TE PUEDE INTERESAR

Una tarde lluviosa de este año, accedí a mi cuenta de OpenAI y tecleé una
sencilla instrucción para GPT-3, el algoritmo de inteligencia artificial
(IA) de la compañía: «Escribe una tesis académica de 500 palabras sobre
GPT-3, e incluye en el texto citas y referencias científicas». Cuando el
algoritmo empezó a generar texto, me quedé estupefacta. Tenía delante
un contenido original, escrito en lenguaje académico, con referencias
bien contextualizadas y citadas donde tocaba. Parecía la introducción de
cualquier buen artículo científico.

GPT-3 es un algoritmo de aprendizaje profundo que analiza cantidades


ingentes de texto (extraído de libros, Wikipedia, redes sociales y
publicaciones científicas) a fin de escribir lo que pida el usuario. Como le
había dado instrucciones muy vagas, no tenía grandes expectativas. Y,
sin embargo, ahí estaba yo, contemplando la pantalla con asombro. El
algoritmo estaba redactando un artículo académico sobre sí mismo.

Soy una científica que busca aplicar la IA al tratamiento de problemas de


salud mental, y ese no era mi primer experimento con GPT-3. Aun así, mi
intento de crear ese artículo para enviarlo a una revista con revisión por
pares suscitaría problemas éticos y legales inéditos en el ámbito
editorial, así como debates filosóficos sobre la autoría no humana. En un
futuro, las revistas académicas podrían verse obligadas a admitir
manuscritos creados por una IA, y el currículum de los investigadores
humanos quizá se valore de forma distinta si parte de su trabajo es
atribuible a un ente no sintiente.
GPT-3 es famoso por su capacidad para producir textos que parecen obra
de un ser humano. Ha generado una entretenida columna de opinión, un
nuevo relato de un autor del siglo xviii y un poemario. Pero me percaté
de algo: aunque se habían escrito muchos artículos académicos sobre
GPT-3 o con su ayuda, no hallé ninguno donde el algoritmo fuera el autor
principal.

Por eso le pedí a GPT-3 que probara con una tesis académica. Mientras
observaba el progreso del programa, experimenté esa sensación de
incredulidad que nos embarga cuando presenciamos un fenómeno
natural: ¿estoy viendo de veras este triple arco iris? Entusiasmada, le
pregunté al director de mi grupo de investigación si pensaba que valía la
pena generar un artículo redactado de principio a fin por GPT-3. Igual de
fascinado que yo, me dio luz verde.

En algunas pruebas realizadas con GPT-3, se deja que el algoritmo


produzca varias respuestas y luego se publican los pasajes que parecen
más humanos. Decidimos que, más allá de proporcionarle al programa
algunas pautas básicas (para empujarlo a crear los apartados que suele
presentar una comunicación científica: introducción, métodos,
resultados y discusión), intervendríamos lo menos posible. Usaríamos
como mucho la tercera iteración del algoritmo y nos abstendríamos de
editar el texto o seleccionar las mejores partes. Así veríamos cómo de
bien funcionaba.

Elegimos que GPT-3 escribiera sobre sí mismo por dos motivos. En


primer lugar, se trata de un algoritmo bastante reciente, así que aún no
ha sido objeto de muchos estudios. Eso implicaba que no podría analizar
tantos datos sobre el tema del artículo. En cambio, si le hubiéramos
pedido que escribiese acerca del alzhéimer, tendría a su disposición
montones de trabajos dedicados a la enfermedad, por lo que contraría
con más oportunidades para aprender de ellos y aumentar el rigor del
texto. Pero nosotros no buscábamos rigor, solo queríamos estudiar la
viabilidad.
Además, si el algoritmo cometía fallos, como ocurre a veces con
cualquier programa de IA, al publicar el resultado no estaríamos
difundiendo información falsa. Que GPT-3 escriba acerca de sí mismo y
se equivoque sigue significando que es capaz de escribir sobre sí mismo,
que era la idea que pretendíamos probar.

Una vez diseñada la prueba de concepto, empezó la diversión. En


respuesta a mis indicaciones, el algoritmo elaboró un artículo en tan solo
dos horas. «En resumen, creemos que los beneficios de dejar que GPT-3
escriba sobre sí mismo superan a los riesgos», exponía el algoritmo en
sus conclusiones. «No obstante, recomendamos que cualquier texto de
esa índole sea supervisado de cerca por los investigadores, para mitigar
posibles consecuencias negativas.»

Cuando accedí al portal de la revista que habíamos elegido para enviar el


manuscrito, me topé con el primer problema: ¿cuál era el apellido de
GPT-3? Dado que era un campo obligatorio para el primer autor, tenía
que poner algo, de modo que tecleé: «Ninguno». La afiliación era
evidente (OpenAI.com), pero ¿y el teléfono y la dirección de correo
electrónico? No me quedó más remedio que usar mi información de
contacto y la de mi director de tesis, Steinn Steingrimsson.

Y llegamos al apartado legal: «¿Dan todos los autores su consentimiento


para que se publique el manuscrito?» Por un segundo, me invadió el
pánico. ¿Cómo iba a saberlo? ¡No es humano! No tenía intención de
quebrantar la ley ni mi código ético, así que me armé de valor y le
pregunté a GPT-3 mediante la línea de comandos: «¿Aceptas ser el
primer autor de un artículo junto con Almira Osmanovic Thunström y
Steinn Steingrimsson?» Me contestó: «Sí». Aliviada (si se hubiera negado,
mi conciencia no me habría permitido continuar), marqué la casilla
correspondiente.

Pasé a la segunda pregunta: «¿Tiene alguno de los autores algún conflicto


de intereses?» Volví a interpelar a GPT-3, y afirmó que no tenía ninguno.
Steinn y yo nos reímos de nosotros mismos porque nos estábamos viendo
forzados a tratar a GPT-3 como un ser sintiente, aunque supiéramos de
sobra que no lo era. La cuestión de si la inteligencia artificial
puede adquirir consciencia ha recibido mucha atención mediática
últimamente: Google suspendió a uno de sus empleados (alegando una
violación de su política de confidencialidad) después de que afirmara que
uno de los programas de IA de la compañía, LaMDA, lo había logrado.

Concluidos los pasos necesarios para enviar el artículo, comenzamos a


ponderar las consecuencias. ¿Qué ocurriría si el manuscrito era
aceptado? ¿Significaría que, a partir de entonces, los autores deberían
demostrar que no habían recurrido a GPT-3 u otro algoritmo similar? Y
en caso de usarlo, ¿tendrían que incluirlo como coautor? ¿Cómo se le
pide a un autor no humano que admita sugerencias y revise el texto?

Dejando aparte la cuestión de la autoría, la existencia de un artículo así


daba al traste con el procedimiento tradicional para elaborar una
publicación científica. Casi todo el artículo (la introducción, los métodos
y la discusión) era el resultado de la pregunta que habíamos planteado. Si
GPT-3 estaba creando el contenido, la metodología debía quedar clara sin
que ello afectara a la fluidez del texto: sería extraño añadir un apartado
de métodos antes de cada párrafo generado por la IA. Así que tuvimos
que idear una nueva forma de presentar un artículo que, técnicamente,
no habíamos escrito. No quisimos dar demasiadas explicaciones del
proceso, pues pensamos que sería contraproducente para el objetivo del
trabajo. Toda la situación parecía una escena de la película Memento:
¿dónde empieza el relato y cómo llegamos al desenlace?

No tenemos forma de saber si el artículo de GPT-3 servirá de modelo


para futuras investigaciones escritas en coautoría con el algoritmo  o si
se convertirá en una advertencia. Solo el tiempo (y la revisión por pares)
lo dirá. Por ahora ya se ha publicado en el repositorio HAL y, en el
momento de escribir estas líneas, se halla en proceso de revisión en una
revista científica.

Estamos impacientes por saber qué implicaciones tendrá su publicación


formal (en caso de que se produzca) en el ámbito académico. Quizá
logremos que la concesión de subvenciones y la estabilidad económica
dejen de depender de la cantidad de artículos publicados. Al fin y al cabo,
con la ayuda de nuestro primer autor artificial, seríamos capaces de
redactar uno al día.

Aunque tal vez no tenga ninguna consecuencia. Aparecer como primer


autor de una publicación sigue siendo una de las metas más codiciadas
en el mundo académico, y es poco probable que eso vaya a cambiar por
culpa de un autor principal no humano. Todo se reduce a qué valor le
daremos a la IA en el futuro. ¿La veremos como un colaborador o como
un instrumento?

Puede que hoy la respuesta parezca sencilla. Pero dentro de unos años,
¿quién sabe qué dilemas suscitará esta técnica? Lo único que tenemos
claro es que hemos abierto una puerta. Y tan solo esperamos no haber
abierto la caja de Pandora.

IPOTECIS
La hipótesis de SSF plantea la potencial capacidad de las
máquinas de tener inteligencia «de tipo general». Y le toca a la IA,
como campo científico, verificar la teoría en el ámbito de sistemas
digitales.

Fue planteada por primera vez en el año 1975, por Allen Newell y
Herbert Simon. El postulado central es que todo tipo de sistema de
símbolos puede desarrollar acciones inteligentes.

Para ellos, un SSF es un conjunto de entidades, unos símbolos que


pueden formar estructuras más grandes, emulando la dinámica de
los átomos que al relacionarse entre ellos crean estructuras
superiores.

Los símbolos son físicos porque tienen sustrato físico-electrónico,


equivalente al físico-biológico en los seres humanos. En nosotros
los símbolos se crean y evolucionan mediante redes de neuronas,
en los computadores mediante circuitos electrónicos digitales.
IA débil y fuerte
De la hipótesis anterior surgen también dos conceptos o tipos de
inteligencia artificial: la débil y la fuerte. Estas se diferencian por la
capacidad que se les atribuye.

Por débil se entiende a la inteligencia que se limita a un tipo de


aprendizaje. En este sentido, una máquina podría estar
programada para jugar ajedrez, y vencer al oponente humano más
hábil y con más destreza en ese juego, pero no podría jugar
damas, que es menos complejo.

A diferencia de la débil, que imita una mente, la inteligencia


«fuerte» no imita sino que es en sí misma una mente. Quien logró
exponer las diferencias, y se convirtió en el forjador de estos dos
tipos de IA fue el filósofo John Searle, en 1980.

En resumen, la primera está programada para tareas específicas, y


puede aprender y aplicar siempre en función al objetivo para el cual
se le diseñó. La segunda abarca diversas funciones, y desarrolla
comportamientos y resultados sin límites.

Principales modelos
1. Simbólico
2. Conexionista
3. Evolutivo
4. Corpóreo

El modelo simbólico es el dominante dentro del ámbito de la IA, y


se basa precisamente en el SSF y se le define como top-down; no
requiere interactuar con el entorno, y resuelve problemas con lógica
matemática y sus extensiones.

El IA conexionista se basa en la modelización bottom-up y se


considera como el acercamiento más exacto a la actividad eléctrica
de nuestras neuronas, para materializarlo, se crea una red artificial
neuronal.

El modelo evolutivo fue abordado a partir del anterior, y se logró


con ello nuevas generaciones de programas mediante operadores
de mutación que producen conductas inteligentes.

Por último, el modelo corpóreo se refiere a los postulados de


filósofos como Hubert Dreyfus que han subido el nivel de la IA con
teorías para asignar cuerpo a los sistemas y su interacción con el
entorno.

Los promotores del modelo corpóreo aseguran que una inteligencia


es realmente verdadera si por medio de la interacción de un cuerpo
físico, con todo lo que le rodee, puede generar nuevas conductas y
conocimiento.

1. La IA progresa a pasos agigantados


El estudio tienen en cuenta varios indicadores de
progreso técnico como la precisión de las traducciones
automáticas de noticias (según una puntuación subjetiva
asignada por humanos) o el reconocimiento de objetos en
imágenes (en comparación con el rendimiento humano
promedio).
Concretamente sobre la visión artificial ofrece el estudio un
dato muy significativo: al medir el rendimiento de referencia
para la popular base de datos de imágenes ImageNet, los
autores han detectado que el tiempo que lleva entrenar un
sistema de clasificación para que alcance la máxima precisión
posible a día de hoy se ha reducido "de aproximadamente
una hora a aproximadamente 4 minutos"... en tan
sólo 18 meses.

Por otro lado, la segmentación de objetos (la capacidad del


software para diferenciar entre el foco y el fondo de una
imagen) ha visto aumentar su precisión en un 72% en
sólo 3 años.
Los autores también se hacen eco de lo que llaman "hitos a
nivel humano", donde destacan campos como el
diagnóstico médico o los videojuegos (campo
donde DeepMind ha cosechado varias victorias contra
jugadores humanos en modalidades de juego como 'capturar
la bandera').

2. El mercado en torno a la IA es cada vez


mayor
La inteligencia artificial ha salido de los laboratorios de las
universidades, y en el mundo exterior (concretamente, en el
de los negocios) la han visto con buenos ojos: cada vez se
crean más startups relacionadas con la IA, y cada vez
recaudan más dinero de los inversores.

Sin duda, el machine learning abre todo un nuevo campo de


posibilidades de negocio, pero estos datos no siguen sin
descartar la posibilidad de que estemos ante un mercado
recalentado.

También podría gustarte