Documentos de Académico
Documentos de Profesional
Documentos de Cultura
robótica
Diseñan un método para traspasar habilidades de un robot a otro.
[KTSDESIGN/SCIENCE SOURCE]
TAMBIÉN TE PUEDE INTERESAR
Cada vez hay más robots de todas las formas y tamaños en los lugares de
trabajo, desde las fábricas hasta los quirófanos. Y muchos de ellos
adquieren nuevas habilidades por ensayo y error, mediante técnicas
de aprendizaje automático. Un nuevo método ayuda a transferir esas
destrezas de un robot a otro que posea una forma distinta, evitando así
que tenga que aprender las tareas desde cero. «Es importante desde un
punto de vista práctico», señala Xingyu Liu, científico computacional de
la Universidad Carnegie Mellon y autor principal del estudio, que se
presentó el pasado verano en la Conferencia Internacional sobre
Aprendizaje Automático, celebrada en Baltimore. «Y en términos
científicos, constituye un problema fundamental muy interesante.»
Dorothea Winter
[PHONLAMAIPHOTO/ISTOCK]
Poco después de que no sucediese el apocalipsis supuestamente
profetizado por los mayas en 2012, se popularizó otro escenario de
horror: la dominación mundial de los «Terminator», es decir, de
máquinas inteligentes, que, desde hace tiempo, dan lugar a noticias cada
vez peores. Hasta qué punto está extendido el miedo a los
superordenadores lo demuestra una encuesta realizada por la Sociedad
para la Investigación Innovadora de Mercado (GIM, por sus siglas en
alemán) encargada por el Grupo Bosch.
Por el contrario, los materialistas reducen los estados mentales —y, por
tanto, intencionales— a los estados físicos. Desde su punto de vista,
pensar en una mesa o en una manzana depende de ciertas circunstancias
físicas de mi cerebro. Es una cuestión abierta si a estas también se les
puede atribuir intencionalidad.
Los materialistas equiparan los pensamientos con eventos neuronales.
Otros, en cambio, sostienen que un proceso en el cerebro es intencional
solo si se pueden explicar el sentido, los motivos y la verdad también sin
estados mentales (por ejemplo, aludiendo a que simplemente se dan en
el lenguaje de las neuronas o de las máquinas). Desde este punto de vista,
la IA (sobre todo la que se basa en estructuras neuronales) tendría
intencionalidad.
Pero, ¿cómo podría confirmarse tal característica de la inteligencia de las
máquinas? ¿Qué podría servir como prueba? Ya en 1950, el matemático
Alan Turing (1912-1954) desarrolló el test que hoy lleva su nombre: el test
de Turing. En él, una persona se sienta ante un ordenador y se comunica
con dos interlocutores desconocidos para él. Uno es un ser humano; el
otro, un ordenador. La persona hace preguntas que responden ambos, el
humano y el ordenador. Si no puede diferenciar si las respuestas
provienen de una persona o de un ordenador, este último ha superado el
test. Según Turing, debemos entonces reconocer que la máquina tiene
inteligencia en el mismo sentido que su compañero humano.
[Thomas Fuchs]
EN SÍNTESIS
Una tarde lluviosa de este año, accedí a mi cuenta de OpenAI y tecleé una
sencilla instrucción para GPT-3, el algoritmo de inteligencia artificial
(IA) de la compañía: «Escribe una tesis académica de 500 palabras sobre
GPT-3, e incluye en el texto citas y referencias científicas». Cuando el
algoritmo empezó a generar texto, me quedé estupefacta. Tenía delante
un contenido original, escrito en lenguaje académico, con referencias
bien contextualizadas y citadas donde tocaba. Parecía la introducción de
cualquier buen artículo científico.
Por eso le pedí a GPT-3 que probara con una tesis académica. Mientras
observaba el progreso del programa, experimenté esa sensación de
incredulidad que nos embarga cuando presenciamos un fenómeno
natural: ¿estoy viendo de veras este triple arco iris? Entusiasmada, le
pregunté al director de mi grupo de investigación si pensaba que valía la
pena generar un artículo redactado de principio a fin por GPT-3. Igual de
fascinado que yo, me dio luz verde.
Puede que hoy la respuesta parezca sencilla. Pero dentro de unos años,
¿quién sabe qué dilemas suscitará esta técnica? Lo único que tenemos
claro es que hemos abierto una puerta. Y tan solo esperamos no haber
abierto la caja de Pandora.
IPOTECIS
La hipótesis de SSF plantea la potencial capacidad de las
máquinas de tener inteligencia «de tipo general». Y le toca a la IA,
como campo científico, verificar la teoría en el ámbito de sistemas
digitales.
Fue planteada por primera vez en el año 1975, por Allen Newell y
Herbert Simon. El postulado central es que todo tipo de sistema de
símbolos puede desarrollar acciones inteligentes.
Principales modelos
1. Simbólico
2. Conexionista
3. Evolutivo
4. Corpóreo