Está en la página 1de 102

EDICIÓN N°21 | AÑO 2021

INTELIGENCIA ARTIFICIAL
Hacia una política Sistemas de toma de decisiones Aplicaciones de la IA:
chilena de inteligencia automatizadas: ¿De qué hablamos Colección de artículos
independientes abordando
artificial, nacida en cuando hablamos de transparencia y
distintas aplicaciones de la
contexto de pandemia del derecho a una explicación? inteligencia artificial
/ Andrea Rodríguez / Catherine Muñoz, Jeanna Matthews y Jorge Pérez / Varios autores
Contenidos
COMITÉ EDITORIAL
María Cecilia Bastarrica
Claudio Gutiérrez
Alejandro Hevia
Ana Gabriela Martínez
Editorial Jorge Pérez
1 / Federico Olmedo
Jocelyn Simmonds

EDITOR GENERAL
Federico Olmedo

Prediciendo indicadores en el retail


2
EDITORA PERIODÍSTICA
Ana Gabriela Martínez
/ Nelson Baloian, José A. Pino y Belisario Panay
PERIODISTA
Karin Riquelme
Premio Turing 2019: La revolución de la animación
8 3D por computadora DISEÑO
Paulette Filla
/ Benjamin Bustos y Nancy Hitschfeld
FOTOGRAFÍAS E IMÁGENES
Comunicaciones DCC

Historia y evolución de la inteligencia artificial


14 / Andrés Abeliuk y Claudio Gutiérrez
Revista BITS de Ciencia del
Departamento de Ciencias de la
Hacia una política chilena de inteligencia artificial, Computación de la Facultad de

22 nacida en contexto de pandemia Ciencias Físicas y Matemáticas de


la Universidad de Chile se encuentra
/ Andrea Rodríguez bajo Licencia Creative Commons
Atribución-NoComercial-Compartir-
Sistemas de toma de decisiones automatizadas: Igual 3.0 Chile. Basada en una obra
en www.dcc.uchile.cl
¿De qué hablamos cuando hablamos de transparencia y del
27 derecho a una explicación?
/ Catherine Muñoz, Jeanna Matthews y Jorge Pérez

Una dicotomía engañosa y una paradoja ética Revista Bits de Ciencia Nº21
37 / Ricardo Baeza-Yates
ISSN 0718-8005 (versión impresa)
www.dcc.uchile.cl/revista
ISSN 0717-8013 (versión en línea)

Aplicaciones de la inteligencia artificial


41 / Varios autores Departamento de Ciencias de la
Computación
Avda. Beauchef 851, 3º piso,
edificio norte. Santiago, Chile.
837-0459 Santiago
Iniciativas de inteligencia artificial
76 / Varios autores www.dcc.uchile.cl

56 22 9780652
A medio siglo de mi encuentro con la computación
84
revista@dcc.uchile.cl
en la “Escuela de Injeniería”
/ Juan Álvarez Rubio
dccuchile

El contenido de los artículos publica-


Doctorados
93 / Miguel Campusano, Matías Toro, Mauricio Quezada y Daniel Hernández
dos en esta Revista, son de exclusiva
responsabilidad de sus autores y no
reflejan necesariamente el pensa-
miento del Departamento de Cien-
cias de la Computación de la Univer-
sidad de Chile.
Editorial

Impulsada principalmente por los avan- sus aplicaciones, y discutimos los desa-

Editorial ces del aprendizaje automático (machine


learning), la Inteligencia Artificial (IA) ha
adquirido un rol prominente en los últimos
fíos éticos —y también paradojas— que
conllevan su aplicación. A nivel nacional,
presentamos tres iniciativas institucio-
años. Son cada día más los actores, tanto nales recientes, gestadas en torno a la
FEDERICO OLMEDO privados como públicos, que la están in- IA, y describimos en mayor profundidad
Editor General corporando para mejorar sus procesos o la iniciativa gubernamental para promo-
Revista Bits de Ciencia automatizar tareas que tradicionalmente ver y regular la IA, la Política Nacional de
requerían la intervención de un ser huma- Inteligencia Artificial.
no. El impacto que esta tecnología está
teniendo en la sociedad, particularmente Finalmente abordamos otros temas
en la toma de decisiones, es innegable: atingentes y de actualidad en las seccio-
desde determinar qué películas o series nes de Investigación Destacada (Predi-
nos recomienda nuestra plataforma de ciendo indicadores en el retail), Premio
streaming favorita, hasta decidir quién es Turing (La revolución de la animación 3D
apto/a para la otorgación de un crédito o por computadora), Computación y Socie-
quién es el/la “mejor” candidato/a para dad (Juan Álvarez Rubio: A medio siglo
un puesto de trabajo. de mi encuentro con la computación en
la “Escuela de Injeniería”), y Doctorados.
En este número de la Revista hemos de-
cidido abordar, por tanto, algunos de los Espero que disfruten de este número ex-
aspectos fundamentales de esta tecno- tendido (2021) de la Revista. Cualquier
logía. Hacemos un repaso de su desa- comentario o sugerencia, no duden en
rrollo histórico, describimos algunas de escribirnos a revista@dcc.uchile.cl.

1
Investigación
destacada

Prediciendo
indicadores en
el retail

2
Investigación
destacada

NELSON BALOIAN JOSÉ A. PINO BELISARIO PANAY

Profesor Asociado del Departamento Profesor Titular del Departamento Ingeniero Civil en Computación y
de Ciencias de la Computación de la de Ciencias de la Computación de Magíster en Ciencias mención Com-
Universidad de Chile, y profesor visi- la Universidad de Chile. Cofundador putación de la Universidad de Chile.
tante regular en las universidades de del DCC, ha servido como Presidente Líneas de trabajo: aprendizaje au-
Waseda, Japón, y de Duisburg-Essen, de la Sociedad Chilena de Ciencias tomático. En Twitter lo encuentras
Alemania. PhD en Ciencias por la Uni- de la Computación y Presidente de como @belisariops.
versidad de Duisburg, Alemania. Sus CLEI. Sus áreas de interés actuales
áreas de interés de investigación han son aprendizaje de máquina y admi- bpanay@dcc.uchile.cl
sido los sistemas de apoyo compu- nistración de procesos de negocio.
tacionales para el aprendizaje, siste- Su investigación se ha publicado en
mas distribuidos y machine learning. journals, incluyendo Expert Systems
Ha sido autor de más de 30 artículos with Applications, Information Sys-
en revistas indexadas y más de 100 tems Frontiers y ACM Computing
en conferencias internacionales. Surveys.

nbaloian@dcc.uchile.cl jpino@dcc.uchile.cl

Las tiendas no-online en nuestro país de la eficacia. Pero podría darse que dicción de indicadores para tiendas del
han sufrido fuerte con la pandemia del muchas personas visiten la tienda, pero retail llevado a cabo por nuestro grupo
COVID-19. Como han debido permane- pocas compren, así es que la proporción MARAL (Machine learning Research
cer cerradas durante largos periodos, de personas que compran con respecto Applied Lab) con financiamiento de Cor-
en éstos no han recibido ingresos, pero al total de visitantes (conversion rate) fo Innova y apoyo de la empresa Follow
sí han debido afrontar sus gastos fijos. es un segundo indicador apropiado. Un Up. El grupo está compuesto, además
En consecuencia, es importante para tercer indicador es el total de ventas en de los autores del artículo, por Sergio
ellas optimizar su operación cuando las dinero realizadas por unidad de tiempo. Peñafiel (estudiante de Magíster, ya gra-
condiciones mejoren. ¿Cómo podría un duado), Jonathan Frez (candidato a Doc-
administrador conocer su situación en Estos indicadores no sólo pueden ser- torado) y Cristóbal Fuenzalida (estudian-
cuanto a ventas? vir para conocer la situación pasada, te de Ingeniería Civil en Computación).
sino que pueden usarse para predecir
Un primer indicador de la eficacia de las el desempeño futuro. En la medida
ventas es averiguar la cantidad de per- que eso sea posible, el administrador
sonas que visita la tienda por unidad de puede prepararse para esa futura de- El problema
tiempo. En caso de que nadie entre a la manda. Así, puede preparar el número
tienda, mal puede haber ventas. Por el suficiente de vendedores y cajeros, el
contrario, si muchas personas van a la stock de productos a vender y el flujo Un enfoque al tema de la predicción de
tienda, hay mayor probabilidad de que de caja esperado. indicadores es usar información previa
compren. Entonces, el número de per- sobre estos mismos indicadores, pero
sonas que entra a la tienda por unidad En este artículo presentamos un pro- ¿cómo obtenerla? Aquí viene el aporte
de tiempo (foot traffic) es un indicador yecto de desarrollo de software de pre- de la empresa Follow Up. Esta compañía

3
Investigación
destacada

nacional ha instalado cámaras a la en-


trada de gran número de tiendas de Chi-
le, Colombia, Perú, Japón y otros países. 1750
Con ayuda de ellas, ha construido una
1500
base de datos del foot traffic de esas
tiendas: la cantidad de visitantes por 1250
hora. Los datos de los otros indicadores

Visitantes
se pueden obtener del software de ven- 1000
tas de las tiendas mismas.
750

La predicción que se pretende debe 500


cumplir dos requerimientos. Por una
parte, el software debe proveer la im- 250
portancia que cada variable de entrada 2015 2016 2017 2018 2019
tiene en la resultante salida. Esto por- Fecha
que sabiendo ese peso, los administra-
dores pueden reaccionar mejor a cam-
bios inesperados de las condiciones Figura 1. Número de visitantes a una tienda por hora de acuerdo a la fecha.
ambientales, tales como un nuevo día
festivo, o una campaña de marketing.
El segundo requerimiento se refiere al Conjunto de
grado de confianza o por el contrario, de observaciones
incertidumbre, de la predicción. Estos re- Nuevo vector
querimientos implican que el modelo a
usarse debe tener algún grado de trans-
Observación Masa
parencia, en oposición a los modelos de
X1 0.1
“caja negra”, que no entregan ninguna in-
formación adicional a la predicción mis- X2 0.4

ma. Normalmente, los modelos de caja X3 0.2


negra entregan predicciones con menos X4 0.1
error que los métodos transparentes, por m* 0.2
lo que típicamente se paga un precio en
términos de calidad de predicción si se
quiere transparencia. En nuestra inves- Figura 2. Ilustración del método.
tigación, entonces, intentamos desarro-
llar un método de tipo transparente que
tuviera similar calidad de predicción que
los modelos de caja negra. teriormente, se realizaron experimen-
tos con el modelo estudiando cómo El modelo desarrollado
se desempeña con nuestros datos. En
cada iteración, se cambiaba el embed-
Metodología ding o el modelo, hasta obtener resul- Después de revisar varios modelos de
tados satisfactorios. predicción publicados en la literatura,
seleccionamos para mayor investiga-
El método usado para encontrar un Los datos utilizados en nuestro estu- ción el modelo de Evidential Regression
modelo satisfactorio fue el siguiente. dio no fueron todos los disponibles. Se (EVREG), basado en una extensión di-
Después de investigar los modelos buscaron datos de tiendas con datos fusa de las funciones de creencia, de-
existentes, se trató de mejorar algu- completos durante cuatro años. Sólo 20 sarrollado por Petit-Renaud y Denoeux,
no promisorio. En seguida, se trabajó tiendas cumplían estos requisitos, con publicado en 2004 [1]. Las funciones de
en el embedding, es decir, investigar información entre agosto de 2015 y el creencia, a su vez, son parte de la Teo-
la mejor manera de codificar la infor- mismo mes de 2019. La Figura 1 mues- ría de Dempster-Shafer también conoci-
mación disponible (en un vector) para tra un típico patrón de comportamiento da como la teoría de evidencia [2]. Este
que sea entendida por el modelo. Pos- del foot traffic en dicho período. método predice un valor usando un

4
Investigación
destacada

[Nuestro enfoque] logra un buen desempeño en


general, obteniendo resultados comparables a los Método RMSE

mejores métodos probados en la literatura. RF 0.1041 ± 0.01


WEVREG 0.1088 ± 0.01
SVM 0.1133 ± 0.01
conjunto de observaciones pasadas. Al reflejar la incertidumbre de la respuesta,
predecir, a cada observación se le asig- Evidential Regression entrega una masa GP 0.1321 ± 0.01
na una masa que representa la similitud a esta observación del intervalo de sali- LSTM 0.1422 ± 0.02
con el vector que se va a predecir. Lue- da, la cual representa el grado de incer-
SARIMA 0.1489 ± 0.03
go estas masas son transformadas en tidumbre del proceso.
una distribución de probabilidades con
la que se calcula un valor esperado. En Evidential Regression calcula las masas Figura 3. Resultados.
términos simples podemos explicarlos de cada una de las observaciones en el
con la Figura 2. set de entrenamiento con una distancia
usando un vector de características.
Acá tenemos un ejemplo donde se tie- Este vector de características codifica la se usará un k-NN (k-nearest neighbors)
ne un conjunto de observaciones con 4 información de un problema, por ejem- donde sólo se calcularán las masas de
vectores (en azul). Éste sería el conjunto plo, para este problema las dimensiones los k vecinos más cercanos.
de entrenamiento de un problema. Y lo del vector tenían datos como el trimes-
que se necesita es predecir la salida de tre, mes, día del mes y día de la semana
una nueva observación (en rojo). Para del evento que se quería predecir. Al cal-
encontrar el valor estimado de salida de cular la distancia entre estos vectores Evaluación
esta nueva observación, se puede supo- de características Evidential Regression
ner que un vector que esté cerca de ella supone que todas las dimensiones o
va a tener una salida parecida. En este características de los vectores de entre- Los datos consisten en datos de tres indi-
ejemplo el segundo vector es el más namiento son igual de importantes para cadores foot traffic, conversion rate y total
cercano, así que se puede suponer que calcular la similitud o importancia entre de ventas de 20 tiendas, entre agosto de
éste tiene la salida más parecida. Para vectores. ¿Pero qué pasa si estamos pre- 2015 y el mismo mes de 2019. La meta
reflejar esto, se le asigna una “masa” o diciendo foot traffic para una tienda que de este problema es predecir cada uno de
importancia a cada uno de los puntos se encuentra cerca de oficinas? Se es- estos indicadores para el mes de julio de
en el conjunto de observaciones según peraría que los días de semana afecten 2019, usando todos los datos que se tie-
una función de distancia (por ejemplo, mucho la predicción de sus entradas, ya nen disponibles. Para esto se tenían da-
la euclidiana). Mientras mayor es la que es en días hábiles cuando más pú- tos diarios de cada uno de estos indica-
masa más importante es el punto. Esto blico se observa. Entonces una diferen- dores. El vector de características se creó
significa que mientras más cerca está cia de una dimensión como el día de la desagregando el tiempo de los eventos y
un punto de la nueva observación, más semana no afectará de la misma mane- se les aplicó una representación circular,
importante es la evidencia que éste en- ra que una diferencia en una dimensión por ejemplo, el día de la semana (repre-
trega. Lo anterior, es similar a un regre- como el trimestre en que se encuentra sentado con un entero que va de 0 a 6) se
sor de k-vecinos más cercanos donde el evento. Entonces lo que proponemos separa en el seno y coseno del día de la
se calcula una contribución según una es una versión mejorada de Evidential semana. A esto se agregó una secuencia
distancia. Pero la teoría de la evidencia Regression que llamaremos Weighted que tenía los valores de salida de los últi-
fue creada para razonar con incerteza. Evidential Regression (WEVREG) que usa mos 6 meses con un intervalo de 1 mes,
Por ejemplo, puede ocurrir que los pun- una distancia ponderada, para el cálculo esto significa que para el día 1 de agosto,
tos del conjunto de entrenamiento están de masas [3]. Estos pesos serán apren- se tenían los valores de salida del 1 de ju-
muy lejos de la nueva observación, por didos durante la fase de entrenamiento lio, 1 de junio y así sucesivamente.
lo que no se puede estar seguro de la del algoritmo usando descenso de gra-
respuesta que se entrega. Para esto se diente. Cada peso representa la impor- Para evaluar cuantitativamente el méto-
agrega otra fuente de información, en tancia de la dimensión del vector de do propuesto, se le comparó con otros
este ejemplo además de las observacio- entrada para predecir las salidas del mo- métodos que han sido usados con an-
nes de entrenamiento se conocen cuá- delo y así ayudará al modelo a aumentar terioridad en la literatura. Estos son mé-
les son los valores por los que se mueve su poder de predicción. Además, para todos como Random Forest (RF), Long
la salida de estas observaciones. Para disminuir la complejidad del algoritmo, Term Short Memory (LSTM), Support

5
Investigación
destacada

Otra característica destacable [de nuestro enfoque] x es la nueva observación, mi es la masa


es su interpretabilidad [...]: el modelo da los pesos del vecino i, yi es el valor de salida del ve-
cino i, m* es la masa de la incertidumbre,
de los atributos después del entrenamiento. sup y y inf y son el valor máximo y mínimo
de salida del conjunto de vecinos.

(1)

250

200
Con esto se puede calcular un límite su-
perior e inferior de esta predicción como
se muestra en las Ecuaciones 2 y 3.
150
Visitantes

(2)
100

50

(3)
0

05 / 07 09 / 07 13 / 07 17 / 07 21 / 07 25 / 07 29 / 07 01 / 08
2019 2019 2019 2019 2019 2019 2019 2019

Fecha
Además de entregar una predicción y su
Conjunto de validación Predicción Incertidumbre intervalo de incertidumbre, el método es
capaz de entregar una medida que repre-
Figura 4. Predicción del foot traffic. senta la importancia de cada una de las
variables de la entrada que es usada para
predecir. En la Figura 5 se puede observar
la importancia de cada una de estas varia-
Vector Machine (SVM), Gaussian Process predicción de nuestro modelo. Como se bles. Como se puede ver, para esta tienda
(GP) y Seasonal Autoregressive Integrated puede ver, se ajusta bastante a los datos en particular el valor más importante para
Moving Average (SARIMA). En la Figura reales y además entrega un intervalo de la predicción es la secuencia de valores
3 pueden observarse los resultados. El variación el cual es la incertidumbre de la anteriores, en especial, los valores del foot
error medido fue el Root Mean Squared respuesta. Las predicciones son calcula- traffic registrados hace 1 mes y 6 meses
Error (RMSE), mientras menor es este das como un valor esperado, cuando se antes del día que se quiere predecir.
error mejor es el método. De todos los predice una nueva observación, por ejem-
métodos puestos a prueba el RF fue el plo la del día 5 de julio, se calculan las ma-
que obtuvo los mejores resultados, pero sas (o importancias) de cada uno de sus
fue seguido de cerca por nuestro método k vecinos. Para llegar a una predicción se Conclusiones
propuesto, el cual obtuvo el segundo lu- multiplican estas masas por los valores de
gar para nuestro conjunto de datos. salida de sus vecinos y, además, se agre-
ga el término de incertidumbre el cual se Del análisis de los resultados presentados
En la Figura 4 podemos observar la pre- calcula como la masa de la incertidumbre en la sección anterior podemos ver que
dicción del foot traffic para una tienda en por el valor medio del intervalo en que se nuestro enfoque logra predecir correcta-
particular. En color azul se ve la curva real mueven los vecinos de la nueva observa- mente los indicadores claves del retail. En
(determinada a partir de las observacio- ción. Esto se muestra en la Ecuación (1), efecto, en la Figura 4, podemos ver que
nes de las cámaras) y en naranjo se ve la donde N es la cantidad total de vecinos, en general las predicciones están bien

6
Investigación
destacada

lo está utilizando un embedding cíclico


3.0
junto con la secuencia de los seis meses
anteriores para una tienda en particular.
2.5 A partir de esta figura, queda claro que
para esta tienda en particular algunos
2.0
componentes como el año o componen-
Peso

1.5 tes parciales de la hora y el día del mes


no son realmente importantes para pre-
1.0
decir sus visitantes. Además, las carac-
0.5 terísticas más importantes para predecir
(2) el número de visitantes parecen ser el
0.0 número de visitantes observados en me-
doy_cos
hour_sin
hour_cos
dom_sin

month_sin

week_sin
week_cos
quarter_sin

seq_2
seq_3
seq_4
seq_5
seq_6
dom_cos
dow_sin
dow_cos

month_cos

quarter_cos
year
woy_sin
woy_cos
seq_1
doy_sin

ses anteriores. El mes anterior es el más


importante, y posteriormente se observa
una disminución de importancia seguida
Columna
de un aumento en el quinto y sexto mes
que podría deberse al comportamiento
Figura 5. Importancia de los parámetros. cíclico de los visitantes de esta tienda
en particular.

Hablando de desempeño, WEVREG logra


ajustadas a las curvas reales. El método no variación. En la misma figura, podemos un buen desempeño en general, obtenien-
tiene problemas para detectar las puntas observar que casi todos los valores reales do resultados comparables a los mejores
y valles de los valores reales, aunque no están dentro del intervalo de variación. Sin métodos probados en la literatura [4].
alcanza los mismos valores superiores e embargo, podemos observar que el ancho Como se muestra en las Figura 3, RF ob-
inferiores. En particular, el modelo apenas de este intervalo es amplio, cubriendo al- tiene el mejor desempeño y este resulta-
alcanza los valores extremos de la predic- rededor del 30% del rango de predicción. do coincide con lo reportado previamen-
ción. Esta deficiencia puede explicarse por Esto podría deberse a que los vectores te en la literatura [5].
la naturaleza de la predicción con k-NN; utilizados por los métodos posteriores al
hay que tener en cuenta que para predecir enfoque k-NN para cada predicción no son Como se trata de problemas de series
un valor 0 (el mínimo en nuestro caso), el muy similares entre sí, obteniendo una de tiempo, se esperaba que LSTM, que
modelo requiere que todos los vecinos que alta incertidumbre para el proceso. es un método basado en aprendizaje
observa también deben tener el valor 0; si profundo, obtuviera los mejores resulta-
alguno de ellos no tiene un valor 0 enton- Otra característica destacable del mode- dos, pero no pudo superar nuestro mé-
ces “mueve” la predicción hacia el centro. lo WEVREG es su interpretabilidad. Como todo propuesto en general. Una posible
se muestra en la Figura 5, el modelo da razón detrás de este bajo rendimiento
Otra característica de WEVREG es su ca- los pesos de los atributos después del podría ser el uso de una arquitectura de
pacidad de proporcionar intervalos de entrenamiento. En este caso, el mode- red única para todas las tiendas.

REFERENCIAS
[1] S. Petit-Renaud, T. Denœux: Nonparametric regression analysis of uncertain and imprecise data using belief functions. Int. J. Approx.
Reason. 35, 2004, 1–28.
[2] G. Shafer: Dempster’s rule of combination. Int. J. Approx. Reason. 79, 2016, 26–40.
[3] B. Panay, N. Baloian, J.A. Pino, S. Peñafiel, H. Sanson, N. Bersano: Feature selection for health care costs prediction using Weighted
Evidential Regression. Sensors 20(16), 2020, 4392.
[4] B. Panay, N. Baloian, J.A. Pino, S. Peñafiel, J. Frez, C. Fuenzalida, H. Sanson: Forecasting key retail performance indicators using
interpretable regression. Sensors 21(5), 2021, 1874.
[5] S. Abrishami, P. Kumar, W. Nienaber: Smart stores: A scalable foot traffic collection and prediction system. In Industrial Conference
on Data Mining; Springer: Cham, Switzerland, 2017, 107–121.

7
8
Turing
Premio

3D por
Premio Turing 2019:

computadora
La revolución
de la animación

Ed Catmull
Ganadores del Premio Turing 2019.

Patrick M. Hanrahan
Fuente: Ed Catmull https://awards.acm.org/award-winners/catmull_1244219 | Patrick Hanrahan: https://news.stanford.edu/2020/03/18/pat-hanrahan-wins-turing-award/
Premio
Turing

Este reconocimiento fue otorgado en el dores tener una libertad virtualmente


año 2019 a Edwin E. Catmull y Patrick ilimitada para generar escenas, incluso
M. Hanrahan, por sus contribuciones “rompiendo” las leyes de la física, permi-
en el área de Computer-Generated Ima- tiéndoles crear escenas que serían muy
gery (imágenes generadas por compu- difíciles o muy costosas de recrear en un
tadora o CGI). Estas contribuciones han escenario real.
liderado los avances en el área de la
computación gráfica, innovando en sus Los inicios de la CGI se remontan a las
conceptos fundamentales, algoritmos, primeras décadas de desarrollo de la
hardware y software. Es interesante computación como ciencia. Ya a finales
destacar que este Premio Turing 2019 de la década de los cincuenta, en el film
BENJAMÍN BUSTOS lo comparten dos personas con perfiles Vértigo de Alfred Hitchcock se utilizó
bastante distintos. Por una parte, Cat- CGI para generar una animación en 2D
Profesor Titular del Departamento de mull es un emprendedor e innovador que que corresponde a la secuencia de aper-
Ciencias de la Computación, Univer-
sidad de Chile. Investigador Asociado
tuvo un gran impacto en la industria del tura de esta película. En la década de los
del Instituto Milenio Fundamentos de cine, pero su producción científica tiene setenta se empezó a utilizar CGI para ge-
los Datos. Doctor en Ciencias Natu- relativamente pocas citas. En cambio, nerar, en forma rudimentaria aún, peque-
rales por la Universidad de Konstanz, Hanrahan es un académico más tradi- ñas escenas de acción 2D en películas, y
Alemania. Líneas de investigación: re- cional, con alto impacto en investigación también se empezó a utilizar animación
cuperación de información multimedia
basada en contenido, búsqueda por
medido en citas. El Premio Turing 2019 en 3D. Luego, en los años ochenta la pe-
similitud y bases de datos multimedia. reconoce tanto los aportes de Catmull lícula TRON fue una de las primeras en
como de Hanrahan desde sus respecti- hacer uso intensivo de CGI para generar
bebustos@dcc.uchile.cl vas perspectivas, dado su innegable im- secuencias largas de animación en 3D,
pacto en el desarrollo de la computación de varios minutos de duración. Final-
gráfica en 3D y en CGI. mente, la primera película que fue 100%
generada utilizando CGI fue Toy Story en
En las siguientes secciones de este 1995 (ver Figura 1). De ahí en adelante,
artículo introducimos primero en qué los avances en las técnicas de CGI y en
consiste Computer-Generated Imagery, la capacidad de cómputo de los com-
luego describimos quién es cada uno putadores actuales, han permitido el ir
de los galardonados y sus contribu- generando efectos cada vez más espec-
ciones más importantes, y finalmente taculares y realistas.
concluimos con el impacto que han
tenido sus contribuciones no sólo en El propósito de la animación en 3D es
el área de la computación gráfica, sino generar escenarios en tres dimensiones
también en el cine y en otras áreas de con el uso del computador. Para lograr
la ciencia e ingeniería. esto, primero es necesario definir cómo
NANCY HITSCHFELD
KAHLER se representará la información 3D en el
computador. Una de las principales for-
Profesora Asociada del Departamento mas para hacer esto es representando
de Ciencias de la Computación, Univer- Imágenes generadas por los objetos como mallas de polígonos
sidad de Chile. Miembro del CEnter for
Modern Computational ENgineering
computadora (triángulos o cuadriláteros), en donde
cada polígono de la malla se define
(CEMCEN). Doctora en Technischen
Wissenschaften por la ETH-Zurich, por las coordenadas en el espacio car-
Suiza. Líneas de investigación: mallas El concepto de imágenes generadas tesiano tridimensional de sus vértices.
de polígonos y poliedros, algoritmos por computadora o CGI (por la sigla en Al colocar polígonos en forma adyacen-
paralelos (computación en GPU), algo- inglés de Computer-Generated Imagery) te se pueden formar las superficies de
ritmos en ciencia e ingeniería compu-
se refiere a la generación de imágenes y los objetos que se están modelando.
tacional y educación en computación.
Participa de comisiones y actividades gráficos 3D aplicadas al arte, cine, tele- Adicionalmente, se puede representar
para atraer mujeres a STEM. visión, etc., mediante el uso de compu- la orientación de la superficie (hacia el
tadores utilizando algoritmos y técnicas interior o hacia el exterior) usando el
nancy@dcc.uchile.cl de computación gráfica. La ventaja de orden en que se almacenan los vértices
utilizar CGI es que permite a los crea- de cada polígono. La ventaja que tiene

9
Premio
Turing

Figura 1. Cuarta parte de la saga Toy Story, cuyas películas de animación 3D fueron Figura 2. Ejemplo de objeto 3D represen-
totalmente producidas por computadora (CGI). tado como malla de polígonos.

el usar mallas de polígonos es que inclu- junto a Parke midieron y calcularon ma- el grado de Bachelor of Science en Físi-
so con pocos polígonos se pueden mo- nualmente una triangulación 3D del mo- ca y Ciencias de la Computación (1970)
delar objetos complejos, lo que permite delo de yeso, usando un par de cientos y el PhD en Ciencias de la Computación
tener una representación simple del ob- de triángulos. Finalmente, introdujeron (1974) en la Universidad de Utah. Du-
jeto y que no ocupa mucha memoria en toda esta información en un computa- rante su carrera fue vicepresidente de la
el computador. En caso que se requiera dor, con lo que produjeron una visuali- División de Computación en Lucasfilm
mayor precisión o nivel de resolución, zación en 3D de su mano. En el video Ltd., donde dirigió el desarrollo en áreas
siempre es posible refinar las mallas y titulado “A Computer Animated Hand” de computación gráfica, edición de vi-
agregar más polígonos para definir la se observa el modelo 3D de la mano, deos, videojuegos y audio digital.
superficie del objeto con mayor nivel de que puede rotar y flexionar los dedos.1
detalle. La Figura 2 muestra un ejemplo Este video ha sido descrito como “revo- Su motivación por crear películas na-
de una malla de polígonos que repre- lucionario” para su época, y fundó las ció desde muy pequeño inspirado por
senta un objeto 3D. bases para todo el desarrollo posterior las películas de Walt Disney como Pe-
de la CGI [1]. ter Pan y Pinocho. Él creó animaciones
Las primeras animaciones generadas armando cuadernillos de imágenes, en
usando CGI utilizaron mallas de trián- que página a página contenían dibujos
gulos para representar objetos simples. que varían gradualmente. Al mostrar
Un ejemplo notable es una animación Edwin E. Catmull rápidamente las páginas consecutivas,
computarizada en 3D de una mano las imágenes parecían animarse simu-
creada por Edwin E. Catmull y Fred Par- lando un movimiento.
ke en 1972 en la Universidad de Utah. Edwin Catmull fue cofundador de Pixar
Para este proyecto, Catmull creó un mo- Animation Studios y presidente de Pixar Durante su años en la universidad, rea-
delo de yeso de su propia mano. Luego, y Walt Disney Animation Studios. Obtuvo lizó dos aportes fundamentales a la

1 | https://vimeo.com/59434349.

10
Premio
Turing

Este Premio Turing 2019 lo comparten dos


personas con perfiles bastante distintos [...]:
Catmull es un [...] innovador que tuvo un gran
impacto en la industria del cine [...] En cambio,
Hanrahan es un académico [...] con alto impacto en
investigación.

Hasta ese momento, el proceso de resolución que se desea de la imagen


mapear texturas era impreciso y lento a generar. Cada triángulo que queda
pues consistía en el proceso inverso: incluido dentro de este cubo se reco-
dado un píxel a pintar, se buscaba en el rre en función de los píxeles (scanline)
espacio en tres dimensiones, qué par- que cubre, y el color o textura asociada
te de la textura asociada a un triángulo a este triángulo define como pintar es-
proyectado, le correspondía. tos píxeles. Cada vez que se pinta un
píxel se almacena la profundidad en el
Figura 3. La misma malla del objeto 3D Parches bicúbicos. Los bicubic pat- eje z (dentro de este cubo) del triángu-
de la Figura 2, pero con texturas aplica- ches pueden ser vistos como polígo- lo que definió su color. Si aparece otro
das sobre la malla. nos de cuatro lados, en que cada lado triángulo más cercano a la cara del
está representado por un polinomio de cubo que representa la imagen a gene-
grado 3 (curva cúbica). Cada lado nece- rar, se usa el color/textura de este nue-
sita dos puntos de control adicionales vo triángulo y se recuerda esta profun-
computación gráfica: (i) mapeo de tex- y en el interior del polígono se requie- didad. Esta técnica almacena, en todo
turas (texture mapping) y (ii) parches ren cuatro puntos adicionales, para momento, el color y la profundidad del
bicúbicos (bicubic patches). permitir representar superficies curvas triángulo que está definiendo el color
de forma más realista que polígonos actual. Cuando se terminan de recorrer
Mapeo de texturas. Una textura es una planares. Catmull introdujo técnicas los triángulos de la escena, se tiene la
imagen que contiene la forma en que innovadoras para crear y pintar de ma- imagen calculada.
queremos pintar una parte de un ob- nera realista bicubic patches en vez de
jeto, difícil de especificar geométrica- polígonos planos, de las cuales surgió, El algoritmo del z-buffer fue más tarde
mente, como por ejemplo la rugosidad junto al mapeo de texturas, la técnica generalizado al A-buffer para permitir
de la piel de la mano mencionada en del z-buffer (descrito al mismo tiempo el manejo de transparencias, y comple-
la sección anterior. Aplicado a nuestro por Wolfgang Strasser). Para determi- mentado con técnicas que simplifican
ejemplo, el mapeo de texturas permi- nar qué partes de la escena modelada los modelos tridimensionales que tienen
te hacer calzar una imagen real de la (por ejemplo, qué triángulos de la ma- una enorme cantidad de polígonos a ras-
piel de una mano, en dos dimensio- lla que representa la mano menciona- terizar, el z-buffer puede aplicarse a los
nes, a cada triángulo de la malla que da más arriba) serán visibles e influyen polígonos que tendrán un impacto en la
la representa, una vez que el modelo en cómo se pinta en la imagen genera- imagen final.
de la mano ha sido proyectado a dos da, la técnica del z-buffer permite se-
dimensiones para generar su imagen leccionar, al estar pintando la imagen, Cabe destacar que bajo su conducción
en el computador. El mapeo se realiza el color asociado al triángulo más cer- por más de treinta años, Pixar realizó
desde la textura al triángulo proyecta- cano a la cámara (punto desde donde una serie de películas muy exitosas
do, en donde los colores de la textura se mira la escena). A cada triángulo de usando el software RenderMan. Este
son usados para pintar los píxeles que la escena, se le aplican las transfor- software ha sido usado en 44 de las
están contenidos en el triángulo a pin- maciones de movimiento y proyección últimas 47 películas nominadas por
tar (ver Figura 3). El aporte de Edmund para llevarlo a una representación nor- la Academy Award en la categoría de
Catmull fue diseñar un nuevo algorit- malizada, representada por un cubo efectos visuales. Entre estas películas
mo, para hacer calzar una textura con (-1,-1,-1) y (1,1,1), en donde la imagen se encuentran Avatar, Titanic, La Bella
la proyección de un triángulo, todo a generar coincide con el rectángulo y la Bestia, y El Señor de los Anillos. En
como parte del mismo proceso de ge- (-1,-1,-1) y (1,1,-1). Este rectángulo se sus laboratorios, fueron inventadas y
nerar la imagen del objeto a pintar [2]. discretiza en píxeles, considerando la publicadas una serie de tecnologías

11
Premio
Turing

El impacto de los algoritmos sobre los parches bicúbi- Brook motivó y condujo al desarrollo de
algoritmos, fundamentos cos introducidos por Edwin Catmull. Cuda, un lenguaje de programación de
RenderMan es considerado el modelo propósito general para las tarjetas gráfi-
teóricos y software que estándar para generar efectos visuales cas NVidia.
desarrollaron Catmull y en CGI.
Hanrahan [...] no sólo se
La contribuciones de Hanrahan son
mide en citas o cantidad casi innumerables; ha creado nuevos Epílogo
de artículos [...], sino conceptos, modelos, algoritmos tanto
también [...] en Premios secuenciales como paralelos, lengua-
jes de programación gráficos y para El Premio Turing 2019 fue otorgado a
Óscar. las GPU's, y software para rendering Edwin Catmull y Patrick Hanrahan por
realístico de objetos, entre otras. Es di- sus contribuciones en CGI y en anima-
fícil decidir cuales son sus aportes más ción computarizada 3D. El impacto de
fundacionales entre las cuales están importantes, pero sin duda entre estos los algoritmos, fundamentos teóricos y
composición de imágenes, motion blur, se encuentran: (i) la creación de un nue- software que desarrollaron Catmull y
y simulación de ropa, entre otras. vo método, light field rendering, que da Hanrahan durante sus carreras no sólo
al usuario la sensación de volar a tra- se mide en citas o en cantidad de artícu-
vés de las escenas, generando nuevas los científicos destacados, sino que tam-
vistas desde puntos de visión arbitra- bién se mide en Premios Óscar. Todos
Patrick M. Hanrahan rios sin información de profundidad ni en nuestra vida cotidiana podemos ver
geométrica, sino muestreando pedazos ejemplos en donde sus contribuciones
(slices) en grandes arreglos de imáge- fueron fundamentales, por ejemplo al
Pat Hanrahan es actualmente Profesor nes previamente digitalizadas o pinta- sentarnos al ver una película con anima-
de Ciencias de la Computación e Inge- das [4]; (ii) técnicas para representar la ciones o al jugar a nuestro videojuego fa-
niería Eléctrica en el Computer Graphics piel y el pelo usando subsurface scat- vorito. Pero, sus contribuciones no sólo
Laboratory de la Universidad de Stan- tering [5]; (iii) algoritmos para modelar se limitan a la industria del entreteni-
ford. Obtuvo su grado de Bachelor of efectos complejos de la interacción miento. El desarrollo del lenguaje Brook
Science en Ingeniería Nuclear (1977) y entre distintas fuentes de luz y los ob- permitió que los procesadores gráficos
un PhD en Biofísica (1985) de la Univer- jetos de la escena (iluminación global) conocidos como GPU’s, actualmente
sidad de Wisconsin-Madison. Él fue una usando Monte Carlo ray tracing [6]; y (iv) con miles de procesadores y disponibles
de las primeras personas contratadas lenguajes para programar GPU’s. a un precio razonable en notebooks y
en Pixar por Edwin Catmull. Como cientí- computadores de escritorio, pudieran ser
fico senior permaneció allí desde el año Los lenguajes para programar las GPU’s usados como unidades de cálculo multi-
1986 hasta el año 1989. Entre los años (unidades de procesamiento gráfico) propósito y no sólo en el proceso de ren-
1991 y 1994 fue Profesor Asociado en la han sido un aporte revolucionario pues dering gráfico. Es así como hoy en día se
Universidad de Princeton y desde el año permitieron que animaciones y video- usan para para correr algoritmos inclui-
1994 hasta ahora está en la Universidad juegos tridimensionales complejos se dos en aplicaciones computacionales
de Stanford. puedan realizar en tiempo real. En este de alto desempeño, tales como simula-
ámbito, apenas aparecieron las GPU’s en ciones numéricas, análisis de imágenes
Durante su estadía en Pixar, Hanrahan los años noventa, Hanrahan y sus estu- en biología y medicina, entrenamiento
lideró el desarrollo del nuevo sistema diantes extendieron el lenguaje de sha- de algoritmos de machine learning sobre
gráfico RenderMan, software que per- ding incluido en RenderMan para usar la datos masivos para aplicaciones de in-
mite que formas curvas puedan ser GPU, motivando más tarde el desarrollo teligencia artificial, entre otras. Muchos
pintadas de manera realista conside- de versiones comerciales y el lenguaje descubrimientos y avances aún por venir
rando iluminación y las propiedades de de shading GLSL de OpenGL, la librería en el futuro se los debemos en parte al
los materiales (shaders). La idea clave gráfica abierta más usada en el mundo. trabajo de Catmull y Hanrahan.
fue separar el comportamiento de re- Más aún, en los años 2000, nuevamente
flexión de la luz de la geometría del ob- junto a sus estudiantes, desarrollaron el Agradecimientos
jeto y calcular el color, transparencia, lenguaje Brook [7], un lenguaje que per- Nuestros agradecimientos a Iván Sipirán,
y textura sobre puntos de la superficie mitió comenzar a usar las GPU's como quien amablemente contribuyó con las
del objeto [3]. RenderMan también in- poder de cálculo de propósito general imágenes para las Figuras 2 y 3 de este
cluyó el concepto de z-buffering y los y no sólo para aplicaciones gráficas. artículo.

12
Premio
Turing

REFERENCIAS
[1] Andrew Utterson. A Computer Generated Hand. Ensayo para el National Film Registry. https://www.loc.gov/static/programs/natio-
nal-film-preservation-board/documents/computer_hand2.pdf (último acceso: 14 de abril de 2021).
[2] E. Catmull, AR Smith. 3-D transformations of images in scanline order. ACM SIGGRAPH Computer Graphics 14 (3):279-285. 1980.
[3] RA Drebin, L Carpenter, P Hanrahan. Volume rendering. ACM SIGGRAPH Computer Graphics, 22 (4):65-74. 1988.
[4] Marc Levoy, Pat Hanrahan. Light field rendering. Proceedings of the 23rd Annual Conference on Computer Graphics and Interactive
Techniques, pages 31-42. 1996.
[5] SR Marschner, HW Jensen, M Cammarano, S Worley, P Hanrahan. Light scattering from human hair fibers. ACM Transactions on
Graphics (TOG) 22 (3):780-791. 2003.
[6] State of the Art in Monte Carlo Ray Tracing for Realistic Image Synthesis. SIGGRAPH 2001 Course 29. 2001. Available from: https://
www.researchgate.net/publication/2872516_State_of_the_Art_in_Monte_Carlo_Ray_Tracing_for_Realistic_Image_Synthesis#full-
TextFileContent (último acceso: 20 de mayo de 2021).
[7] Ian Buck, Tim Foley, Daniel Horn, Jeremy Sugerman, Kayvon Fatahalian, Mike Houston, Pat Hanrahan. Brook for GPUs: stream com-
puting on graphics hardware. ACM Transactions on Graphics (TOG) 23 (3):777-786. 2004.

13
Inteligencia
Artificial

Historia y
evolución de
la inteligencia
artificial

14
Inteligencia
Artificial

nes cada vez más complejas. El desafío


El primer programa de IA computacional radica en encontrar la
combinación de operaciones que de-
muestran un teorema dado, entre una
En 1842, la matemática y pionera de la cantidad exponencial de posibles com-
informática, Ada Lovelace, programó el binaciones. La contribución de los auto-
primer algoritmo destinado a ser pro- res fue idear un enfoque heurístico, o de
cesado por una máquina. Adelantada a reglas generales, que permiten recortar
su época, Ada especuló que la máquina el árbol de búsqueda de manera “inte-
“podría actuar sobre otras cosas ade- ligente” y encontrar una solución en la
más de los números... el motor (la má- mayoría de los casos, pero no siempre.
quina) podría componer piezas musica- La introducción de los procesos heurís-
les elaboradas y científicas de cualquier ticos han influenciado enormemente la
ANDRÉS ABELIUK
grado de complejidad o extensión”. Dé- ciencia de la computación y según los
Profesor Asistente del Departamento cadas más tarde, la visión de Ada es mismos autores, son la magia central
de Ciencias de la Computación de la una realidad gracias a la Inteligencia en toda resolución de problemas hu-
Universidad de Chile. Ph.D en Cien- Artificial (IA). Sin embargo, un hito con- manos. No es coincidencia que esta
cias de la Computación por la Univer- siderado como el momento fundacional tesis provenga de Herbert Simon, quien
sidad de Melbourne, Australia. Líneas
de investigación: computación social
de la “inteligencia artificial”, tanto del recibió el Nobel en economía por la pro-
e inteligencia colectiva, análisis de término como del campo de estudio, vocadora idea de modelar el compor-
redes sociales e impacto de la inteli- es una conferencia en Darmouth el año tamiento humano, no como un agente
gencia artificial en la sociedad. 1956 organizada por John McCarthy, “homo economicus” totalmente racio-
Marvin Minsky, Claude Shannon y Na- nal, sino que con “racionalidad limitada”
aabeliuk@dcc.uchile.cl
thaniel Rochester [1]. En ella, los orga- cuya toma de decisiones es principal-
nizadores invitaron a unos diez inves- mente heurística [3].
tigadores para formalizar el concepto
de inteligencia artificial como un nuevo
campo de estudio científico. Pioneros
de la IA, cuatro de los asistentes fueron Dos paradigmas de
posteriormente galardonados con el
premio Turing (a menudo denominado investigación en IA
Premio Nobel de informática) por sus
contribuciones a la IA. Una idea común
entre los asistentes, y profundamente IA simbólica
arraigada hasta el día de hoy en el es-
tudio de la IA, es que el pensamiento es La búsqueda heurística fue un pilar clave
una forma de computación no exclusiva para los avances de la IA en sus comien-
de los seres humanos o seres biológi- zos. Todo tipo de tareas de resolución
cos. Más aún, existe la hipótesis de que de problemas, como probar teoremas y
CLAUDIO GUTIÉRREZ la inteligencia humana es posible de re- jugar ajedrez, implican tomar decisiones
plicar o simular en máquinas digitales. que se pueden modelar como un árbol
Profesor Titular del Departamento de de decisiones que debe ser recorrido
Ciencias de la Computación de la Uni-
Ese mismo año dos de los participantes para encontrar una estrategia que re-
versidad de Chile. Investigador Senior
del Instituto Milenio Fundamentos de de la conferencia, Alan Newell y Herbert suelva el problema. Los algoritmos de
los Datos. Licenciado en Matemáticas Simon, publican lo que es considerado búsqueda heurística son parte de una
por la Universidad de Chile y Ph.D. en el primer programa computacional de colección de métodos que se basan en
Computer Science por la Wesleyan inteligencia artificial [2]. El programa representar el conocimiento implícito o
University. Líneas de investigación:
“Logic Theory Machine” es capaz de procedimental que poseen los humanos
fundamentos de los datos, bases de
datos, lógica aplicada a la computa- descubrir demostraciones de teoremas de forma explícita, utilizando símbolos
ción y semántica de la Web. en lógica simbólica. La idea principal y reglas (legibles por humanos) en pro-
es que a través de la combinación de gramas informáticos. La “IA simbólica”
cgutierr@dcc.uchile.cl simples operaciones primitivas, el pro- demostró ser muy exitosa en las prime-
grama puede ir construyendo expresio- ras décadas de la IA logrando codificar

15
Inteligencia
Artificial

en “sistemas expertos” el razonamiento mana como si fuese una computadora son atribuidos a una malinterpretada ex-
humano en dominios de conocimiento procesadora de símbolos, existe otra posición de las limitaciones y fortalezas
específico. Un ejemplo son los siste- escuela de pensamiento que se basa en del perceptrón en un libro por pioneros
mas de apoyo de diagnóstico médico a modelar la biología del cerebro que está de la IA simbólica, Marvin Minsky y Sey-
través de motores de inferencia y bases compuesto por redes neuronales bioló- mour Papert en 1969 [5]. No fue hasta
de conocimientos que resumen el cono- gicas. Frank Rosenblatt (psicólogo) en comienzos de 1980, que Geoffrey Hin-
cimiento médico basado en evidencia. 1958 propuso el perceptrón, una gene- ton (Premio Turing en 2018) y colegas
Uno de los logros más populares de la ralización de la neurona McCulloch-Pitts redescubren y popularizan el método lla-
IA simbólica culmina con la derrota del que podía “aprender” a través de coefi- mado retropropagación [6]; el algoritmo
campeón mundial de ajedrez en 1997, cientes de ponderación para cada en- central detrás de la búsqueda heurística
Garry Kasparov, por el computador Deep trada de la neurona. Hasta el día de hoy, (estilo IA simbólica) que logra encontrar
Blue de IBM [4] (ver infografía de línea de el perceptrón es la unidad fundamental los parámetros del modelo que minimi-
tiempo en la Figura 1). para muchas de las redes neuronales zan su error, así permitiendo que una red
artificiales e impulsa el paradigma co- neuronal de múltiples capas aprenda a
nocido como IA conexionista. A pesar partir de datos. Este avance resuelve
IA conexionista de su promesa, la investigación en re- las limitaciones de los perceptrones de
des neuronales se detuvo por falta de Rosenblatt y crea un resurgimiento en la
Paralelamente con la emergencia de la financiamiento y una sobreexpectación investigación del aprendizaje profundo
IA simbólica, que modela la mente hu- no cumplida. Hechos que parcialmente (ver Figura 1).

1842 1921 1943 1950 1956

Las neuronas
De los números a se vuelven
Se introduce la palabra “Robot” Turing Test La “IA” nace
la poesía artificiales

La matemática Ada Lo- Karel Čapek, un dramaturgo checo, lanzó su obra de El primer modelo ma- Alan Turing propone un El término “inteligencia
velace fue la primera en ciencia ficción “Rossum’s Universal Robots”, donde temático de la neuro- test para saber si una artificial” es acuñado
ver el potencial de las exploró el concepto de personas artificiales a las na fue propuesto por máquina exhibe un com- en una conferencia en
computadoras más allá que llamó robots, que proviene de la palabra “robo- Warren McCulloch y portamiento inteligente. la Universidad de Dart-
de las matemáticas. ta” (esclavo). Walter Pitts. mouth organizada por
John McCarthy.

1956 1961 1964 1969 1974 - 1980 1986

Aprendiendo a
El primer El problema del aprender con
Unimate Eliza Invierno IA
programa de IA XOR retropropagación

Allen Newell, Herbert El robot industrial, Uni- Joseph Weizenbaum, Marvin Minsky y Sey- Muchos comienzos en En un artículo muy influ-
Simon y Cliff Shaw fue- mate, inventado por científico informático mour Papert exploran falso y callejones sin yente, Rumelhart, Hin-
ron coautores de Logic George Devol, se con- de MIT, desarrolló ELI- en un libro las fortale- salida dejan a la investi- ton, y Williams, popu-
Theorist, el primer pro- virtió en el primero en ZA, el primer chatbot zas y limitaciones de gación en IA sin fondos larizan el algoritmo de
grama informático de trabajar en una línea que podía conversar los perceptrones, la y con poco interés. retropropagación para
inteligencia artificial. de montaje de General funcionalmente en in- más importante sien- entrenar redes neurona-
Motors. glés con una persona. do la incapacidad de les multicapa.
implementar la función
lógica XOR.

16
Inteligencia
Artificial

1986 1987 - 1993 1997 2002 2009

Segundo Invierno
RNNs Deep Blue Roomba ImageNet democratiza los datos
IA

Michael Jordan intro- El interés y la financia- Deep Blue, una com- El primer robot de éxito Fei-Fei Li lanzó ImageNet, una base de datos gratui-
duce una arquitectura ción de la investigación putadora que juega comercial para el hogar: ta de 14 millones de imágenes. Los investigadores
para el aprendizaje su- en inteligencia artificial al ajedrez derrota al una aspiradora autóno- de IA comenzaron a usar ImageNet para entrenar
pervisado en secuen- nuevamente disminuyen. campeón mundial, Ga- ma llamada Roomba. redes neuronales para catalogar fotos e identificar
cias de datos. rry Kasparov. objetos.

2012 2014 2014 2015 - 2016 2017 2018

Enseñando a Aprendizaje
Visión las máquinas a profundo al BERT, un modelo
Alexa AlphaGo
sobrehumana inventar alcance de todos de lenguaje

Una red neuronal convo- Ian Goodfellow introdu- Amazon lanza Alexa, Se lanzan dos librerías La IA de Google, Alpha- Google desarrolló BERT,
lucional se utiliza para ce las redes generativas un asistente virtual in- de código abierto Ten- Go, vence al campeón la primera “representa-
ganar el concurso de re- adversarias (GAN) que teligente con interfaz sorFlow y PyTorch, que mundial Ke Jie en el ción de lenguaje bidi-
conocimiento de imáge- utilizan dos redes neuro- de voz. rápidamente se popula- complejo juego de mesa reccional y sin super-
nes sobre ImageNet, con nales enfrentándose una rizan como el software de Go. visión” que se puede
un rendimiento sobrehu- contra la otra para ge- por defecto para de- utilizar en una variedad
mano por primera vez. nerar nuevas instancias sarrollar proyectos de de tareas de lenguaje
sintéticas de datos. Se aprendizaje automático. natural, como respon-
utilizan ampliamente en der preguntas.
la generación de imáge-
nes, video y voz.

Figura 1. Historia de la inteligencia artificial.

impulsan el desarrollo de la IA. La Figu- rizar imágenes con una mayor precisión
La revolución del ra 2 muestra cómo los conceptos de IA, que el humano promedio [7]. Al siguien-
aprendizaje profundo aprendizaje automático (machine lear- te año, el sistema AlphaGo de DeepMind
ning) y aprendizaje profundo (deep lear- se corona maestro de Go tras vencer al
ning) se relacionan el uno con el otro. campeón mundial, Lee Sedol [8]. Este
En la década del 2010, dos cosas harían suceso es impactante ya que en el Go
posible la revolución de aplicaciones de Como consecuencia de estos avances, hay en promedio alrededor de 300 mo-
redes neuronales y algoritmos de apren- se desarrollaron aplicaciones basadas vimientos posibles que se pueden hacer
dizaje profundo. Primero, los avances en las redes neuronales donde la IA en cada turno, mientras que en el ajedrez
de hardware especializado han acele- simbólica no tuvo éxito. Por ejemplo en es cercano a 30 movimientos. En otras
rado drásticamente el entrenamiento y aplicaciones de visión, como reconoci- palabras, el árbol de búsqueda del Go
el rendimiento de las redes neuronales miento facial y detección de cáncer, y en tiene un factor de ramificación de un or-
y reducido su consumo de energía. Se- aplicaciones de lenguaje, como la traduc- den de magnitud mayor al ajedrez, razón
gundo, el aumento de datos abiertos dis- ción de idiomas y asistentes virtuales. principal por la cual la IA simbólica, por
ponibles online y servicios de bajo costo En 2015, Microsoft Research utiliza una sí sola, falló en desarrollar un programa
para etiquetar datos vía crowdsourcing arquitectura de red neuronal para catego- para jugar Go.

17
Inteligencia
Artificial

Limitaciones de la IA
Un aspecto clave y poderoso de las re-
des neuronales es que no requieren que
se especifiquen las reglas del dominio a
modelar; las reglas se aprenden a partir
de los datos de entrenamiento. La falta
de conocimiento de alto nivel embebido
en el sistema por expertos humanos,
como es el caso de la IA simbólica, se
contrarresta con la capacidad de inferir
estadísticamente un modelo del domi-
nio a partir de suficientes datos. Sin em-
bargo, una desventaja importante de las
redes neuronales es que requieren gran-
des recursos computacionales y canti-
dades enormes de datos. Por ejemplo,
se estima que replicar los experimentos
de AlphaGo costaría alrededor de 35 mi-
llones de dólares sólo en poder compu-
tacional [9]. Por otro lado, los datos de-
ben ser cuidadosamente “curados” para
ser representativos y así poder genera-
lizar correctamente y no producir resul-
tados sesgados, como ha sido el caso
en textos sexistas y racistas generados
a partir de modelos de lenguaje [10]. Por
otro lado, mientras que programas de
software basados en reglas explícitas
son fáciles de rastrear y comprender
cómo llegaron a tomar ciertas decisio- Figura 2. Diagrama de Venn que muestra la relación entre distintas subáreas de la
nes, no se puede decir lo mismo de los inteligencia artificial.
algoritmos de aprendizaje profundo que
debido a su alta complejidad son difíci-
les de interpretar y comunicar por huma-
nos. Estas limitaciones son uno de los creadas por equipos académicos, Caffe experimentar la construcción de mode-
grandes desafíos en la IA y hay mucha y Theano, hasta las actuales dominan- los de IA y a la vez contribuir a expandir
investigación activa en estas direccio- tes, PyTorch y TensorFlow, respaldadas las bases de datos públicas y poner a
nes [11,12]. por Facebook y Google, respectivamen- disposición nuevas soluciones.
te, el acceso a estos softwares de códi-
go abierto han facilitado el cambio hacia Como ejemplo del poder de democrati-
la innovación tecnológica impulsada por zar datos, en el 2009 el proyecto Image-
Democratizando la IA el aprendizaje automático. Tanto en la Net, liderado por la investigadora Fei-Fei
investigación de vanguardia como en la Li, puso a disposición del público una
creación de aplicaciones por la indus- gran base de datos visual que ayudó a
Desde que el aprendizaje profundo recu- tria, la democratización de la IA reduce investigadores a crear modelos más
peró prominencia alrededor del 2010, los las barreras de entrada para que las per- rápidos y precisos de reconocimiento
softwares gratuitos y de código abier- sonas y organizaciones puedan ingresar visual de objetos. Esta colección de imá-
to especializados para el aprendizaje al apasionante mundo de la IA con poca genes se convirtió rápidamente en una
profundo han sido enormemente res- o nada de inversión financiera. Pueden competencia anual (ahora organizada
ponsables de impulsar el campo hacia aprovechar los datos y algoritmos dis- en Kaggle) para ver qué algoritmos po-
adelante. Desde las primeras librerías ponibles públicamente para comenzar a dían identificar objetos en las imágenes

18
Inteligencia
Artificial

La búsqueda heurística fue un pilar clave para los


avances de la IA en sus comienzos. IA en Chile

Describiremos a grandes rasgos el de-


con la tasa de error más baja. El 2012, y se distingue por su “memoria”, ya que sarrollo actual de la IA en Chile en tres
el primer equipo en usar redes neurona- al iterar sobre la entrada, mantiene un áreas: empresarial, investigación acadé-
les en la competencia venció el estado estado interno que codifica informa- mica, y enseñanza y propuestas.
del arte con una precisión récord. La ción sobre los elementos anteriores
arquitectura propuesta por integrantes dentro de la secuencia e influenciando A nivel empresarial las técnicas de IA
del laboratorio de Geoffrey Hinton en la el output actual [14]. El procesamiento ya están comenzando a ser un commo-
Universidad de Toronto, Red Neuronal de lenguaje natural juega un papel vital dity, esto es, están a disposición en el
Convolucional [13], fue inspirada por las en muchos sistemas, desde el análisis mercado regular y se están usando de
características estructurales y fisiológi- de curriculums para la contratación, manera generalizada (particularmente
cas de la visión animal. Hoy en día, estas hasta asistentes virtuales y detección en lo que respecta a aprendizaje por
redes neuronales están en todas partes: de spam. Sin embargo, el desarrollo y medio de datos). Otra pregunta es si
se usan para etiquetar las fotos en pla- la implementación de la tecnología de hay desarrollos “novedosos”. A mane-
taformas sociales; los vehículos autóno- NLP no es tan equitativo como parece. ra de ejemplo nombraremos cuatro.
mos las utilizan para detectar objetos; y Aunque se hablan más de 7000 idiomas NotCo, cuyo logro es “combinar la inte-
se usan para digitalizar textos. en todo el mundo, la gran mayoría de ligencia artificial con el conocimiento
los avances tecnológicos son aplicados del mundo vegetal para crear produc-
Desde entonces, se han introducido una al inglés. Una iniciativa para contrarres- tos”. Usan técnicas de análisis de da-
multitud de nuevos conjuntos de datos tar esta inequidad es liderada por Jorge tos y visualización innovadoras, pero
estimulando investigación en subcam- Pérez, académico del Departamento de hay poca información sobre su nivel
pos de la IA como el procesamiento Ciencias de la Computación (DCC) de la innovador de IA/ML. El otro ejemplo es
de lenguaje natural (NLP) y reconoci- Universidad de Chile, que junto a estu- Fintual. Aquí se usan bastantes cosas
miento de voz y audio. La arquitectura diantes han puesto a libre disposición que se pueden considerar IA, por ejem-
precursora en NLP, es la Red Neuronal de la comunidad un modelo de lenguaje plo, “bots de inversión” que permiten
Recurrente, que usa datos secuenciales en español [15]. seguir ciertos índices para invertir de

19
Inteligencia
Artificial

Un aspecto clave [...] de las redes neuronales es les van por el lado del marco ético para
que no requieren que se especifiquen las reglas del los desarrollos en esta disciplina. Men-
cionaremos algunos de los principales:
dominio a modelar; las reglas se aprenden a partir
de los datos de entrenamiento. 1. La IA y la economía [16]. Aquí apare-
cen temas como los usos de la IA en
el mundo del trabajo: por ejemplo,
forma pasiva y a bajo costo. El tercer solos o con colegas de otras institu- ¿dónde están los límites de los flu-
ejemplo es CornerShop que usa tec- ciones en diversas universidades a lo jos de trabajo automatizado donde
nologías de datos y analítica para su largo del país. hay personas involucradas? Y la pre-
diseño de operaciones. Finalmente, un gunta fundamental del área: ¿cómo
ejemplo de una empresa más pequeña Respecto de la enseñanza, han prolife- distribuiremos la riqueza creada por
es Zippedi, orientada a robótica de al- rado los cursos de IA, así como diplo- las máquinas?
macenes para optimizar digitalmente mados y magíster en el área dictados
las estanterías. Hay también muchas por diferentes universidades y organi- 2. La IA y la sociedad [17]. ¿Cómo afec-
otras empresas tipo startup que están zaciones. Esto muestra que la IA se ha tan las máquinas inteligentes la
haciendo cosas tipo chatbots, aplica- convertido en un boom en Chile, con los relación entre los seres humanos?
ciones de procesamiento de imágenes, claros y oscuros propios de un boom. ¿Quiénes decidirán los usos de las
bioinformática, etc., la mayoría apli- En este marco diferentes organizacio- máquinas inteligentes? ¿Quién y
cando investigación ya consolidada nes e instituciones discuten sobre los cómo controlar los sesgos (introdu-
(no desarrollando). usos de IA en diferentes áreas, entre cidos intencional o no intencional-
ellos, la Comisión Desafíos del Futuro mente) a las máquinas? ¿Cuáles son
Respecto de la investigación dedicada del Senado, las universidades, las Fuer- los límites (o no existen) al desarrollo
a la IA propiamente tal (esto es, publi- zas Armadas, el Ministerio de Ciencia de ese tipo de proyectos?
cando regularmente en revistas o con- y Tecnología, etc. Se han elaborado di-
ferencias de IA) son pocos los grupos versos documentos. Algunos ejemplos 3. La IA y los humanos. ¿Cómo afecta-
a lo largo del país. Destacamos IALab son: “Inteligencia Artificial para Chile. rán las máquinas inteligentes nuestro
de la Pontificia Universidad Católica La urgencia de desarrollar una estrate- comportamiento? ¿Hasta qué nivel es
de Chile, que tiene varios años y bue- gia”, del Senado de la República; “Ejér- permisible “ensamblar” esas máqui-
na infraestructura (particularmente su cito Virtual” de la Academia Politécnica nas con nuestra biología?
cluster de GPUs para IA). Su fuerte es Militar, y “Política Nacional de Inteligen-
visión computacional y robótica. Otro cia Artificial” del Ministerio de Ciencia. 4. La IA y el medio ambiente. ¿Cuáles
grupo es el de Inteligencia Computa- son los límites razonables de uso de
cional del Departamento de Ingeniería recursos para estos proyectos?
Eléctrica (UChile) que está centrado en
robótica y visión, y procesamiento de Ética, alcances y 5. Seguridad, usos militares [18]. ¿Qué es
señales y aprendizaje en este campo. necesario y cómo regular este ámbito,
En el DCC (UChile) hay un grupo (Re- limitaciones de la IA tradicionalmente complejo de regular?
LeLa) centrado en IA y NLP. La Univer-
sidad de Concepción recientemente Como toda tecnología, la IA trae apare- 6. Superinteligencia [19]. ¿Qué dere-
creó un grupo de IA enfocado a Siste- jada dilemas éticos. En el caso de la IA chos y deberes tendrán estos robots?
mas Multiagente y Robótica. Por otra esto se agranda por el poder transfor- ¿Quién es responsable por sus desa-
parte, hay muchos grupos en diversas mador de la realidad que puede traer rrollos y usos? ¿Qué nivel de decisio-
universidades dedicados más bien a aparejado esta tecnología. Así es que nes se les permitirá tomar en asun-
aplicaciones de AI en diferentes áreas, hoy, al igual que la investigación biomé- tos humanos?
como empresarial, comercial, cien- dica desde siempre, el test de la ética
tífica, social, etc. y luego publican en debe ser aplicado a los desarrollos de Hay miles de otras preguntas. Uno po-
esas disciplinas. Por ejemplo, el Insti- IA. Esto se refiere particularmente a dría replicar todas las de la ética clási-
tuto Data Science de la Universidad del funcionalidades donde existen máqui- ca, pues en definitiva lo que está ocu-
Desarrollo (UDD) aplica técnicas de IA nas y aparatos con “inteligencia” o ha- rriendo con la IA débil al menos, es la
en proyectos asociados a la minería y bilidades de simulación de lo humano realización de gran parte de los proyec-
agricultura. Finalmente, hay muchxs que sobrepasan con creces las de los tos clásicos de simulación de facetas
investigadores que trabajan más bien humanos. Y las preguntas fundamenta- de lo humano.

20
Inteligencia
Artificial

REFERENCIAS
[1] James Moor. “The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years”. AI Magazine 27(4), 2006. https://doi.
org/10.1609/aimag.v27i4.1911.
[2] A. Newell y H. Simon. “The Logic Theory Machine – A Complex Information Processing System”. IRE Transactions on Information
Theory 2, 1956.
[3] Wheeler, Gregory. “Bounded Rationality”. The Stanford Encyclopedia of Philosophy, 2020. https://plato.stanford.edu/archives/
fall2020/entries/bounded-rationality/.
[4] Hansen Hsu. AI and Play, part 1: How Games Have Driven two Schools of AI Research, Computer History Museum, 2020. https://
computerhistory.org/blog/ai-and-play-part-1-how-games-have-driven-two-schools-of-ai-research/.
[5] Minsky, Marvin, y Seymour A. Papert. Perceptrons: An Introduction to Computational Geometry. MIT press, 2017.
[6] Rumelhart, D. E., Hinton, G. E., y Williams, R. J. Learning Representations by Back-Propagating Errors. Nature, 1986.
[7] He, Kaiming, et al. “Delving Deep into Rectifiers: Surpassing Human-Level Performance on Imagenet Classification”. Proceedings of
the IEEE international conference on computer vision, 2015.
[8] Silver, D., Huang, A., Maddison, C. et al. Mastering the Game of Go with Deep Neural Networks and Tree Search. Nature 529, 2016.
[9] DeepMind’s Losses and the Future of Artificial Intelligence. WIRED, 2019. https://www.wired.com/story/deepminds-losses-future-ar-
tificial-intelligence/.
[10] Zou, J. y Schiebinger, L. AI can be Sexist and Racist – It’s Time to Make it Fair. Nature 559, 324–326, 2018.
[11] Xie, Ning, et al. “Explainable Deep Learning: A Field Guide for the Uninitiated”. arXiv preprint, 2020.
[12] Mehrabi, Ninareh, et al. “A Survey on Bias and Fairness in Machine Learning”. arXiv preprint, 2019.
[13] Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. “Imagenet Classification with Deep Convolutional Neural Networks”. Advan-
ces in neural information processing systems 25, 2012.
[14] Mikolov, Tomáš, et al. “Recurrent Neural Network based Language Model”. Eleventh annual conference of the international speech
communication association, 2010.
[15] Cañete, José, Gabriel Chaperon, Rodrigo Fuentes, y Jorge Pérez. “Spanish pre-trained Bert Model and Evaluation Data”. PML4DC at
ICLR 2020, 2020.
[16] Egana-delSol, Pablo. “The Future of Work in Developing Economies: What can we learn from the South?”. Available at SSRN 3497197, 2019.
[17] Tomašev, N., Cornebise, J., Hutter, F. et al. AI for Social Good: Unlocking the Opportunity for Positive Impact. Nat Commun 11, 2468, 2020.
[18] Toby Walsh A.I. Expert, Is Racing to Stop the Killer Robots. The New York Times, 2019. https://www.nytimes.com/2019/07/30/scien-
ce/autonomous-weapons-artificial-intelligence.html.
[19] Alfonseca, M., Cebrián, M., Anta, A. F., Coviello, L., Abeliuk, A., y Rahwan, I. Superintelligence cannot be Contained: Lessons from
Computability Theory. Journal of Artificial Intelligence Research, 2021.

21
Inteligencia
Artificial

Hacia una
política chilena
de inteligencia
artificial, nacida
en contexto de
pandemia

22
Inteligencia
Artificial

que demandarán, inevitablemente, re- partir de la superación de brechas y de


cursos económicos. potenciar el desarrollo de tecnología y
fomento de innovación basado en inte-
La elaboración de una política de inte- ligencia artificial en el sector privado.
ligencia artificial requiere hacer explí- Japón establece etapas de desarrollo,
citas definiciones que permitan comu- desde la utilización de datos e inteli-
nicar con claridad la visión de lo que gencia artificial en la industria de servi-
se espera alcanzar. Algo comúnmente cios relacionados, para pasar a su uso
aceptado es definir inteligencia artifi- público y expansión, y terminar con la
cial como una disciplina que aborda la creación de un ecosistema que poten-
creación de métodos computaciona- cie la integración.
les que realizan tareas consideradas
inteligentes, en específico, que razo- En el año 2018 se suman Francia, Ale-
ANDREA RODRÍGUEZ
nan, se adaptan y actúan. Partiendo de mania, Reino Unido con sus propias es-
Integrante de la Comisión Asesora esto, uno puede entender qué o qué no trategias de inteligencia artificial. Fran-
para la Política Nacional de Inteligen- abarca inteligencia artificial. Inteligen- cia resalta los aspectos éticos y de
cia Artificial. Vicerrectora de Investi- cia artificial no es equivalente a trans- inclusión, valorando el desarrollo eco-
gación y Profesora Titular del Depar- formación digital, automatización, nómico basado en datos, proponiendo
tamento de Ingeniería Informática
y Ciencias de la Computación de la
sensorización (Internet of Things) o ro- la creación de un número específico de
Universidad de Concepción. Investi- bótica. Aunque relacionados, mezclar centros interdisciplinarios y definiendo
gadora Asociada del Instituto Milenio temas nos llevan a confundir el real como sectores estratégicos salud, me-
Fundamentos de los Datos. PhD. in avance que podemos tener en inteli- dio ambiente, transporte/movilidad,
Spatial Information Science and Engi- gencia artificial. Por ejemplo, la trans- defensa y seguridad. Alemania por su
neering por la Universidad de Maine,
Estados Unidos.
formación digital en distintos ámbitos lado, enfatiza la necesidad de un de-
puede llevarse a cabo sin haber logra- sarrollo de inteligencia artificial que
andrea@udec.cl do avances importantes en inteligen- considere a la sociedad y el desarrollo
cia artificial. sostenible, incorporando la necesidad
de medidas de monitoreo y diagnósti-
co de las aplicaciones y la penetración
Motivado por el impacto actual y pro- de la inteligencia artificial en la socie-
yectado a nivel mundial, tanto en lo
Contexto internacional dad. Reino Unido marca una diferencia
económico y social de la inteligencia respecto a políticas de entre las acciones del Gobierno y la in-
artificial, junto con el diagnóstico en- inteligencia artificial dustria, donde la inteligencia artificial
tregado por la Comisión Desafíos del pasa a ser uno de los grandes desafíos
Futuro del Senado que levantó la ne- de su política industrial, promoviendo
cesidad de una Estrategia Nacional de En el contexto internacional, varios la innovación y productividad en los
Inteligencia Artificial, el Gobierno de países han elaborado sus propias es- distintos sectores junto a la genera-
Chile encarga al Ministerio de Ciencia, trategias para el fomento de la inteli- ción de talento. A nivel latinoameri-
Tecnología, Conocimiento e Innova- gencia artificial. Tal es así, que el AI cano, y en ese mismo año, México es
ción (CTCI), a mediados del año 2019, Index Report 2021 de la Universidad de el primer país en elaborar una estra-
la elaboración de una Política Nacio- Stanford da cuenta de 32 países que tegia con el objetivo de impulsar su
nal de Inteligencia Artificial y su Plan ya han elaborado y 22 países que están liderazgo en la materia. La estrategia
de Acción, proceso que al momento en proceso de elaborar estrategias de mexicana propone el desarrollo de un
de escribir este artículo no está con- inteligencia artificial. En un comienzo marco de gobernanza multisectorial,
cluido. Este artículo describe los linea- Canadá, China, Japón, entre otros, en un levantamiento de usos, necesida-
mientos generales de la política pre- el año 2017 establecieron estrategias des industriales y mejores prácticas
sentada a consulta pública, la cual se y objetivos de fomento de la inteligen- en el Gobierno, además de incorporar
encuentra en su etapa final de elabo- cia artificial. Canadá enfatiza el aporte el trabajo con expertos que permitan la
ración. Cabe señalar que la situación desde la academia, financiando insti- continuidad de las iniciativas.
de pandemia no sólo atrasó el proce- tutos, investigadores, investigación en
so, sino que además creó un escena- inteligencia artificial y sociedad, y un Un año más tarde, en 2019, Rusia y
rio donde será necesaria la decisión programa nacional de encuentros. Chi- Estados Unidos, entre otros países,
y convicción para impulsar acciones na se plantea como meta el liderazgo a presentan sus estrategias. Rusia pone

23
Inteligencia
Artificial

énfasis en intereses nacionales, en una Inteligencia artificial no es equivalente a


proyección hasta el año 2030. Esto in- transformación digital, automatización,
cluye iniciativa tecnológica nacional,
proyectos departamentales y progra- sensorización (Internet of Things) o robótica.
mas como el Economía Digital de la
Federación de Rusia. Estados Unidos
por otra parte, prioriza la necesidad de
que el gobierno federal invierta en in-
vestigación y desarrollo en inteligencia Eje Temas asociados
artificial y garantizar normas técnicas
para el desarrollo seguro y despliegue
de tecnologías. También el año 2019 Factores habilitantes • Capital Humano
Uruguay lanzó a consulta pública una • Infraestructura
estrategia de inteligencia artificial • Datos
que identifica como pilares la gober-
nanza de la política, el desarrollo de
capacidades de inteligencia artificial, Desarrollo y adopción • Generador de indicación y uso y adopción en
inteligencia artificial y ciudadanía, y el sector público y privado
uso responsable. Interesante es hacer • Valorización en productividad científica
notar que Uruguay es reconocido por • Vinculación al sector privado
el Government AI Readiness Index del • Fomento a la innovación y emprendimiento
2020 desarrollado por Oxford Insights y • Consideración del medio ambiente
el International Research Development
Center como el país mejor posicionado
en América Latina en el uso responsa- Ética, aspectos • Uso seguro y respetuoso de las personas
ble de inteligencia artificial por parte normativos y efectos • Ciberseguridad
del Gobierno, seguido en la región en sociales y económicos • Monitoreo del efecto en el empleo
este ranking por Chile. • Protección de datos
• Propiedad intelectual
Terminando esta acotada revisión, en el
año 2020 España presenta una estrate-
gia, recomendando la coordinación en-
tre instrumentos de fomento y agencias Figura 1. Ejes fundamentales de la política chilena de inteligencia artificial.
estatales de I+D+i en sectores estraté-
gicos para la economía y sociedad, ta-
les como educación, ciudad y territorio,
salud, energía, seguridad y turismo e que superan por mucho los cientos de la política chilena incluyó diferentes
industrias creativas. millones de dólares en periodos que van actores. Por un lado, se creó un co-
desde 4 a 13 años. Todo lo anterior en mité interministerial y se organizó el
Existiendo diversidad en la forma en condiciones prepandemia. Habrá que trabajo de coordinación y escritura del
que se gestaron las diversas estrategias esperar para dimensionar cómo estas trabajo en un grupo gestionado por el
nacionales, aspectos comunes a varias estrategias y sus plazos puedan verse Ministerio de CTCI. El comité asesor
de ellas incluyen la necesidad de contar afectados en la situación actual. de expertos jugó el rol de asesor entre-
con profesionales del área, el fomento gando ideas y revisando la propuesta
de las capacidades en infraestructura de política, y donde participan algunos
y disponibilidad de datos, el apoyo a la miembros que fueron anteriormente
investigación y la innovación, la defini- Lineamientos de la convocados por la Comisión Desafíos
ción de áreas estratégicas de aplicación, política nacional de del Futuro del Senado. Por otro lado,
y la consideración de aspectos éticos y inteligencia artificial se realizó un proceso participativo
de impacto en la sociedad. Algunos de durante el 2020 a través de mesas de
estos países, en particular países con trabajo, charlas y una consulta ciuda-
mayores recursos, explicitaron en su A nivel nacional, y sin entrar en mayor dana amplia en base al borrador de la
momento los recursos necesarios, los detalle del proceso, la elaboración de política.

24
Inteligencia
Artificial

En su versión preliminar y llevada a La política chilena de inteligencia artificial [...] usa


consulta pública, la política chilena de como principios transversales el desarrollo de
inteligencia artificial se proyecta hasta
el año 2030 y establece como misión el inteligencia centrado en las personas, fomentando
“empoderar al país en el uso y desarro- el desarrollo sostenible, enfatizando los aspectos
llo de sistemas de inteligencia artificial, de seguridad e inclusión, e insertada globalmente.
propiciando el debate sobre sus dilemas
éticos y sus consecuencias regulatorias,
sociales y económicas”. Usa como prin-
cipios transversales el desarrollo de El objetivo a nivel de profesionales y sistemas de IA con consideraciones de
inteligencia centrado en las personas, expertos es alcanzar los niveles de la eficiencia e impacto en el medio ambien-
fomentando el desarrollo sostenible, OCDE, teniendo en cuenta que se esti- te. Así mismo, establece el potencial
enfatizando los aspectos de seguridad ma que en Chile existe una persona de- desarrollo de aplicaciones de inteligen-
e inclusión, e insertada globalmente. dicada a investigación y desarrollo por cia artificial asociado al monitoreo del
cada mil personas de la fuerza laboral; medio ambiente en consonancia con la
Con un enfoque que extrae aspectos mientras que el promedio de la OCDE existencia de datos impulsado por el ob-
comunes a las políticas o estrategias es ocho. En este mismo eje, se plan- servatorio de cambio climático.
de otros países, la política chilena de tea esencialmente disponer de conec-
inteligencia artificial fue diseñada en tividad de calidad desplegada a nivel En el tercer eje de ética, aspectos nor-
torno a tres ejes principales (ver Fi- territorial, generando una hoja de ruta mativos y efectos sociales y económi-
gura 1). El eje de factores habilitantes de infraestructura de almacenamiento cos, la política enfatiza el desarrollo y
considera los factores o elementos ne- y cómputo para el desarrollo científi- uso de inteligencia artificial que sea
cesarios para el desarrollo de la inteli- co-tecnológico. Finalmente, se plantea concordante con los derechos funda-
gencia artificial en el país, abarcando la relevancia de la disposición de datos mentales, no discriminatorio, inclusivo
principalmente capital humano, datos científicos, y datos del sector público y y respetuoso de las normas de protec-
e infraestructura. El eje de desarrollo privado que fomenten el desarrollo y el ción de datos personales. Así mismo,
y adopción considera las formas de valor agregado de las herramientas ba- plantea el monitoreo del empleo y
promoción del uso de la tecnología, la sadas en aprendizaje. proveer mecanismos para resolución
adopción en sectores relevantes para de conflictos con los trabajadores. El
el país, y los roles que cumple la in- En el eje de desarrollo y adopción, se desarrollo seguro de la inteligencia
vestigación; además la transferencia, plantea en forma transversal generar in- artificial se asocia a posicionar la ci-
emprendimiento e innovación, tanto dicadores que valoren adecuadamente berseguridad como un componente
en el sector público como privado. El la investigación en el área e indicadores central de los sistemas de inteligencia
eje de ética, aspectos normativos y que permitan monitorear la adopción artificial y donde a su vez la inteligen-
efectos sociales y económicos, por su de tecnología en el sector público y pri- cia artificial puede aportar. Respecto a
parte,  plantea la discusión en torno al vado. Para la transferencia tecnológi- temas regulatorios, se releva la impor-
efecto de la inteligencia artificial en ca, la innovación y el emprendimiento, tancia de la inserción en la discusión
el campo laboral y la discusión de los se reconoce la necesidad de fomentar regulatoria a nivel internacional, aso-
requisitos que den garantía de su uso la relación academia-industria, la ge- ciando además los temas de propie-
seguro y responsable socialmente. neración armónica de una comunidad dad intelectual con el impulso econó-
de emprendedores y el fomento al em- mico que el desarrollo de inteligencia
En la formación de capital humano del prendimiento con base científico-tecno- artificial puede lograr.
eje de factores habilitantes, la política lógico en inteligencia artificial. Con el
establece como objetivos la formación objetivo de lograr un mejoramiento de
a distintos niveles, desde establecer servicios públicos, se plantea generar
competencias computacionales a nivel un plan de ruta partiendo por el sistema Comentarios generales
escolar, promover e incorporar la inte- de compras públicas, y en el sector pri-
ligencia artificial como una disciplina vado fomentar la capacitación e inser-
transversal a nivel técnico y profesio- ción de capacidades en el sector. La política chilena estructurada en los
nal, y apoyar postgrados en el área, tres ejes propuestos debiera cubrir
todo esto con un enfoque de formación Alineado con el principio de sustenta- brechas y posicionarnos a un nivel de
continua y de capacitación para la con- bilidad, la política propone fomentar la liderazgo, al menos a nivel de América
versación laboral que resulte necesaria. investigación, el desarrollo y el uso de Latina. Pero estas brechas parecen no

25
Inteligencia
Artificial

[La inteligencia artificial]


abre la posibilidad
de que aumenten las
brechas e inequidades
entre aquellos que
tengan o no tengan
el poder de esta
tecnología. Enfrentar
estos desafíos requiere
[...] verla como una
tecnología que ha
sido creada por la
inteligencia humana
y que debe estar al
servicio de la sociedad.

estar totalmente claras aún, y varias de cusión deberá ser abordada desde una Que la política nacional de inteligen-
las iniciativas apuntan a generar indica- perspectiva global, reconociendo el avan- cia artificial tenga impacto dependerá
dores que permitan hacer seguimiento ce en estas temáticas de otros países y no sólo de los recursos que el sector
de la adopción y el impacto de la inteli- su eventual adaptación en nuestro país. público y privado puedan aportar, sino
gencia artificial en el país. Chile, al igual del compromiso y convicción transver-
que otros países de la región, tiene un Existen muchas miradas que avizoran sal que vaya más allá de un gobierno
nivel de digitalización heterogéneo, con escenarios futuros donde la inteligencia para impulsar esta tecnología como
un claro mayor desarrollo en tecnolo- provoca cambios mayores en la socie- agente de desarrollo económico, so-
gías de información y de comunicación dad y en la forma en que interactuamos. cial y cultural del país. Esto se ve más
en torno a las grandes urbes. Si en algo La inteligencia artificial permite abordar importante de resolver dada la con-
la pandemia nos ha hecho avanzar, es tareas donde distintos tipos de restric- tingencia de la pandemia, la que ha
en forzar una mayor cobertura para la ciones físicas no permiten su realiza- incentivado la transformación digital,
conectividad, y hacer evidente la nece- ción por seres humanos. Esto abre las pero que también ha tenido un fuerte
sidad de calidad de esta cobertura. Así posibilidades a nuevas funcionalidades impacto económico que hace prever la
la tecnología 5G se plantea como una aún desconocidas, pero además abre falta de recursos desde el sector públi-
alternativa para superar estas brechas. la posibilidad de que aumenten las bre- co. Acorde a la trayectoria del aporte
chas e inequidades entre aquellos que del Estado a la investigación en Chile,
Tema interesante a resolver será como tengan o no tengan el poder de esta uno puede pronosticar que las priori-
se articula el potenciar el desarrollo de tecnología. Enfrentar estos desafíos dades no irán por apostar al desarrollo
inteligencia artificial a través de acceso requiere como paso inicial conocerla, científico del área con financiamiento
a datos y código abierto, con los temas eliminar los mitos y verla como una tec- público, sino más bien a la formación
de privacidad y de propiedad intelectual nología que ha sido creada por la inteli- de capital humano y al fomento de la
que se quieran asociar a bases de datos gencia humana y que debe estar al ser- innovación con la participación del
y métodos. Parte importante de esta dis- vicio de la sociedad. sector privado.

26
Inteligencia
Artificial

Sistemas de toma de decisiones


automatizadas:

¿De qué hablamos


cuando hablamos
de transparencia y
del derecho a una
explicación?

27
Inteligencia
Artificial

CATHERINE MUÑOZ JEANNA NEEFE MATTHEWS JORGE PÉREZ

Abogada, Magíster en Derecho In- Profesora de informática en Clarkson Profesor Asociado del Departamento
ternacional, Inversiones y Comercio University (EE.UU.), copresidenta fun- de Ciencias de la Computación de la
por la Universidad de Chile y Master dadora del Subcomité de Políticas de Universidad de Chile e Investigador
of Laws in International Law (LL.M.) Tecnología de la ACM sobre Inteligen- Asociado del Instituto Milenio Funda-
por la Universidad de Heidelberg, cia Artificial y Responsabilidad Algorít- mentos de los Datos. Doctor en Cien-
especializada en propiedad intelec- mica, vicepresidenta del Instituto de cias de la Ingeniería por la Pontificia
tual y regulación de tecnologías, en Ingenieros Eléctricos y Electrónicos Universidad Católica de Chile. Sus in-
particular, regulación de inteligencia (IEEE) - Comité de Política de IA de EE. tereses incluyen: datos Web, teoría de
artificial. UU. y miembro del Comité de Políticas redes neuronales profundas, y el análi-
de Tecnología de la ACM (ACM TPC). sis de texto en medicina y política. En
cmunozgut@gmail.com Twitter lo encuentras como @perez.
jnm@clarkson.edu

pechosos de fraude en base a variables otorgamiento de beneficios [3], sis-


Introducción arbitrarias y abiertamente discrimina- temas calificadores de riesgos que
torias, como el simple hecho de tener utilizaron bases de datos, muchos de
una doble nacionalidad, evento que, por ellos con contenido de carácter sensi-
A mediados de enero de 2021, en un sí solo, situaba a las personas en una bles, incompletos o falsos, proveídas
hecho histórico, el Gobierno de los Paí- categoría de alto riesgo delictual. Lo an- por empresas Data Brokers, sin ningún
ses Bajos dimitió en bloque luego de terior, unido a una mala gestión admi- estándar ético o legal [4], sistemas pre-
una investigación realizada por el par- nistrativa, injustamente obligó a estas dictivos de justicia penal que castiga
lamento de dicho país que concluyó familias a devolver dinero de subsidios en mayor medida a grupos marginados
que el Jefe de Estado y sus principa- recibidos. Muchas personas fueron de la población [5], sistemas de reco-
les ministros habían incurrido en faltas llevadas a la quiebra, otras familias se nocimiento facial sesgados usados
graves, evidenciando un menoscabo desintegraron y la gran mayoría pade- con fines de vigilancia y riesgosos re-
institucional y una discriminación sis- ció estrés psicológico [2]. sultados erróneos [6], y finalmente, la
temática contra un grupo vulnerable grave vulneración de derechos huma-
de la población holandesa. Esta impu- Lamentablemente este caso no es una nos, y en particular de la autonomía y
tación, tiene como fundamento la ma- excepción. Por el contrario, correspon- privacidad de las personas, derivada
siva y errónea acusación de fraude en de a una progresiva e instaurada regla del sistema automatizado de califica-
la obtención de subsidios sociales en general sobre el uso de sistemas au- ción de crédito social que impera en
contra de 26.000 familias inocentes, tomatizados de toma de decisiones China [7].
de origen marroquí y tunecino en su que pueden afectar de manera radical
gran mayoría [1]. la vida de las personas. Algunos ejem- La implementación de este tipo de sis-
plos incluyen a sistemas predictivos temas en países en vías de desarrollo,
La referida investigación constató que de obtención de beneficios sociales como Chile, evidencian, asimismo, un
un sistema automatizado de toma de cuya optimización se basó en reducir creciente interés. Chile ha formulado
decisiones definía aquellos casos sos- costos y reducir la mayor cantidad de dentro de sus políticas públicas y como

28
Inteligencia
Artificial

meta a corto plazo, la modernización las personas involucradas en su diseño das. Y esto no es así. Las decisiones
de sus funciones y prestaciones de e implementación, sin necesitar infor- automatizadas se toman de dos formas
servicios [8], incorporando las referi- mación detallada del funcionamiento principales: 1) según las instrucciones
das toma de decisiones automatizadas interno de los sistemas involucrados. escritas por programadores humanos,
potenciadas con Inteligencia Artificial Lo que se busca probar, en estos casos o 2) según las reglas aprendidas auto-
(IA). Lo anterior, bajo la consigna de efi- evidentes, es generalmente una discri- máticamente a partir de datos del pa-
ciencia pública, administración efectiva minación indirecta, la cual ocurre cuan- sado. Algunas personas pueden pensar
y con la promesa de minimizar pérdidas do una norma, en este caso un sistema, que el problema principal proviene de
de gastos fiscales, contribuyendo a po- aparentemente neutro, es aplicado a las instrucciones escritas directamen-
líticas de austeridad [9]. una población, perjudicando despro- te por programadores humanos, pero
porcionadamente a grupos vulnerables de hecho, el aprendizaje automático
Desde el punto de vista técnico, los de ésta [13]. En consecuencia, la reco- sobre datos pasados suele crear pro-
sistemas de tomas de decisiones auto- pilación de este tipo de información, en blemas aún mayores. Aprender auto-
matizadas pueden ser, o bien sistemas general, es suficiente para probar dicho máticamente desde datos del pasado
que apoyan determinadas decisiones te- “perjuicio dzesproporcionado”. Éste es es equivalente a considerar al pasado
niendo la última palabra un ser humano, un tipo de “transparencia”, pero no cual- como el oráculo del futuro que quere-
o sistemas que toman decisiones sin la quiera, sino aquella estratégicamente mos. En cierto sentido, aprendemos del
intervención de personas [10]. Esta dife- obtenida para construir un caso judicial pasado porque es todo lo que tenemos
rencia que pareciese ser trascendental, donde existe una evidente vulneración para aprender. Pero el pasado está lle-
no es tal y en ambos casos existen si- de derechos sobre las personas [14]. no de prejuicios de muchos tipos. Si,
milares niveles de riesgos en relación por ejemplo, miramos quién ha sido un
con la afectación de grupos protegidos. Ahora bien, ¿qué ocurre en aquellos ca- buen gerente en el pasado para definir
Por ejemplo, en el primer caso, también sos donde la falta, error o injusticia son quién será un buen gerente en el futuro,
llamado “semiautomatizado”, existe una sutiles y no evidentes? Pensemos en o quién ha sido un buen enfermero en el
tendencia comprobada; las personas un sistema de contratación de personal pasado para definir quién será un buen
confían más en el juicio de un algoritmo que ha rechazado una solicitud de em- enfermero en el futuro, es posible que
que en el propio cuando estos juicios es- pleo de una persona que cumplía todos descartemos personas calificadas que
tán en contradicción [3]. los requisitos o un sistema de toma de no coinciden con el perfil más típico del
decisiones que rechaza el ingreso de pasado. Si codificamos estos datos del
Llama la atención que el entusiasmo un joven a una universidad cumpliendo, pasado en sistemas informáticos sin
por este tipo de tecnología no ha mer- asimismo, todos los requisitos para ello. exigir una explicación de sus decisio-
mado a pesar de la abundante evidencia Estas personas pueden albergar razo- nes, entonces permitiremos que el pa-
que alerta sobre el riesgo de aplicarlos nables dudas sobre si han sido injusta- sado defina el futuro sin cuestionarlo.
a problemáticas sociales [11]. El deno- mente excluidas o discriminadas, pero a Estaríamos tomando la IA, que conside-
minador común en su aplicación es la diferencia de los casos anteriores, no es ramos una fuerza progresista y futuris-
naturaleza punitiva, lo que convierte a algo manifiesto. Incluso más, es posible ta, para usarla como un oráculo y ejecu-
estos sistemas en una amenaza poten- que estos sistemas ya cuenten con au- tor conservador de prejuicios pasados.
cial de amplificación y perpetuación de ditorías que demuestren que su funcio-
injusticias sociales sobre grupos históri- namiento está supuestamente libre de Los conceptos clásicos de transparen-
camente oprimidos y marginalizados, ta- sesgos de acuerdo con parámetros ma- cia y participación social en la toma de
les como pueblos originarios, afroame- temáticos de equidad [15]. Lamentable- decisiones, pilares fundamentales para
ricanos, latinos, asiáticos, comunidades mente es común que estos parámetros prevenir y combatir la arbitrariedad y
LGBTIQ+, musulmanes, personas de es- obedezcan a una visión exclusivamente la discriminación, parecen quedarse
casos recursos, entre otros [12]. tecnocrática del problema y tengan poco cortos en el contexto actual. En parti-
sustento comparado con parámetros cular, la transparencia puede tener di-
Muchos de estos casos son evidentes sociales de equidad [16, 17]. versas conceptualizaciones y se hace
e incuestionables discriminaciones, las imprescindible distinguir en palabras
que legalmente pueden ser acreditadas Los ejemplos más sutiles de sesgo son sencillas transparencia, explicabilidad
en un juicio. La información para docu- muy comunes, lo que va en contra de e interpretabilidad que son términos
mentar este tipo de casos toma como la creencia de muchas personas de que relacionados mas no sinónimos. ¿Qué
referencia los resultados de salida del las decisiones tomadas por computa- exigimos entonces cuando exigimos
sistema, junto con pruebas estadísti- doras o sistemas automatizados son transparencia y explicabilidad en las
cas y antecedentes relacionados con fundamentalmente lógicas e insesga- decisiones de un sistema automático?

29
Inteligencia
Artificial

Aprender automáticamente desde datos del pasado En efecto, desde orígenes coloniales las
es equivalente a considerar al pasado como el personas de escasos recursos no han
tenido control sobre su privacidad ni de-
oráculo del futuro que queremos. cisiones, en comparación con personas
de clases de mayores ingresos. A lo an-
terior, se agrega el hecho que, debido a
No pretendemos responder cabalmen- considerado como una explicación o evi- segregaciones y desigualdades, existe
te a la pregunta sino más bien aportar dencia clara para un grupo (p.ej., código una brecha de conocimiento en las per-
a la discusión desde una visión legal fuente de un sistema para un desarrolla- sonas sobre cómo funcionan las herra-
y computacional. Éste es el punto de dor de software), puede resultar opaco mientas tecnológicas y la forma en que
partida de este artículo y nuestra moti- para otro grupo o simples detalles téc- pueden proteger sus derechos. Adicio-
vación de escribirlo. nicos para un tercer grupo. A pesar de nalmente en muchos casos, la mayoría
esto, diversos grupos de investigación de las personas no son conscientes que
están actualmente trabajando en propo- están siendo parte de sistemas tecnoló-
ner mecanismos para una transparencia gicos ni de los riesgos asociados [22].
El concepto clásico de efectiva y con sentido. Éste es un aspecto crítico que debe ser
transparencia democratizado mediante mecanismos
de inclusión y en consideración a la dig-
La transparencia no es sinónimo de nidad de todos los ciudadanos. Como
Durante la última década se ha discuti- igualdad hemos mencionado, una transparencia
do sobre el nivel de transparencia que suficiente para una persona puede no
debe existir en el desarrollo y uso de sis- Comúnmente, el análisis de transparen- serlo para otra, por lo que deben existir
temas de IA, en particular, en aquellos cia es ex-ante (antes de que el sistema estándares de acceso a la información
que toman decisiones automatizadas se implemente), y no ex-post (después que consideren el entendimiento de to-
y que potencialmente pueden tener un de que el sistema ya esté implementado dos los ciudadanos.
impacto negativo sobre las personas. La y tenga un impacto en la vida de las per-
transparencia ha sido instaurada como sonas). En ese sentido, se entiende que La obtención de información se com-
uno de los principios esenciales en esta la transparencia y exigencia de informa- plejiza, tomando en consideración que
materia y guarda relación con la capa- ción pertinente, es un requisito para la existen diferentes definiciones contra-
cidad de proporcionar información que construcción de la confianza entre los puestas sobre conceptos relevantes
permita comprender cómo se desarrolla ciudadanos y entidades públicas o priva- como igualdad, discriminación y fair-
y despliega un sistema de IA [18, 19]. Al das y los sistemas que éstos proveen de ness [23]. Por ejemplo, dar prioridad a
respecto, la Iniciativa Global de IEEE so- forma previa a su uso, de manera que las los derechos de los individuos, priorizar
bre Ética de Sistemas Autónomos e Inte- personas puedan contar con anteceden- el bienestar de la sociedad en su conjun-
ligentes ha establecido cuatro condicio- tes necesarios para tomar la decisión de to, proteger a los grupos marginados,
nes para guiar la confianza informada de aceptar con cierta confianza el uso de un incluso proteger a todas las especies
los sistemas autónomos e inteligentes: modelo algorítmico que puede impactar- del planeta. Fairness es un concepto
1) efectividad, 2) competencia, 3) rendi- lo directamente. Pero esto es cierto sólo esencial en países de Europa o en Es-
ción de cuentas y siendo la 4) precisa- respecto de una parte de la población, tados Unidos, que se opone al concep-
mente la transparencia [20]. generalmente de clases acomodadas, to legal de discriminación, y que posee
ya que respecto de personas vulnerables distintas interpretaciones, dependiendo
La necesidad de transparencia es con- o de escasos recursos, el uso de siste- si se usa en el área computacional, so-
trastada con el hecho de que los siste- mas tecnológicos en temáticas que les cial o legal [24]. Este concepto no po-
mas de IA, particularmente los modelos impactan no les es consultado y menos see un equivalente exacto en Chile ni
de deep learning que tienen una estruc- explicado. Hasta cierto punto, exigir y en Latinoamérica, siendo interpretado
tura compleja, no permiten transparen- obtener transparencia es un “privilegio”, indistintamente como imparcialidad,
tar completamente su funcionamiento, un elemento más que suma e incremen- equidad o justicia [25] razón por la cual,
siendo en muchos casos imposible ex- ta la desigualdad estructural de nuestra en este artículo no le daremos una tra-
plicar la construcción y decisiones de sociedad. En síntesis, a las personas po- ducción e interpretación determinada.
éstos, incluso para sus propios desarro- bres simplemente les imponen sistemas
lladores, la famosa caja negra. Más aún, cuyas decisiones pueden afectar sus Dado que las definiciones de fairness y
una explicación satisfactoria [21] depen- vidas a largo plazo independientemente ética pueden variar, es especialmente
derá de la audiencia; algo que pueda ser de la transparencia. importante que todos los actores que

30
Inteligencia
Artificial

tienen interés en un sistema, y no sólo datos, características, modelos, qué Hasta cierto punto,
los desarrolladores o usuarios contratan- tipo de patrones busca, por qué a unas exigir y obtener
tes, reciban información que les permita personas sí y otras no, o por qué se di-
discutir sus prioridades en procesos de- rige a determinado grupo o ámbito geo- transparencia es
cisorios. En ese sentido, la transparencia gráfico, etc. En definitiva, información un "privilegio", un
es necesaria para que todas las partes sobre las decisiones políticas detrás de elemento más que
interesadas puedan debatir en un proce- las decisiones técnicas.
so decisorio en torno a la definición de suma e incrementa la
fairness que les parezca adecuada y no Para el cumplimiento del estándar an- desigualdad estructural
ceder esta decisión a los creadores, dise- terior, esta transparencia lleva implícita de nuestra sociedad.
ñadores y programadores de estos siste- la condición que organismos públicos
mas. En Grasso et al [21] se ha argumen- no adquieran sistemas de IA que estén
tado que el proceso de automatización a protegidos por secretos comerciales siones al momento de su construcción
menudo desplaza las grandes decisiones o acuerdos de confidencialidad. En el y despliegue.
de expertos en un dominio determinado mismo sentido, es necesario que exista
hacia programadores sin experiencia en una transparencia activa del Estado, con En ese sentido, si bien la transparencia
esta área y se discute cómo integrar los mecanismos como registros y platafor- es algo deseable, en la práctica necesi-
marcos de responsabilidad algorítmica mas públicas, además de procesos de tamos también ser capaces de auditar el
con herramientas como “fichas técnicas licitación abiertos. La colaboración pú- funcionamiento de los sistemas de ma-
para datasets” [26] y “Tarjetas modelo blico-privada debe ser totalmente trans- nera dinámica, mientras están tomando
para informes de modelos” [27] con los parente, haciendo público conflictos de las decisiones. Es aquí donde surgen
códigos de ética específicos de esta ma- intereses, contratos con proveedores y dos conceptos que hemos mencionado
teria [21]. cualquier información relevante, cum- tangencialmente pero que son de vital
pliendo con las más altas exigencias de importancia: la interpretabilidad y la ex-
probidad y rendición de cuentas. plicabilidad de un sistema de toma de
La transparencia no es sólo decisiones automatizada.
técnica, sino también social Asimismo, en el caso de software de uso
público, los gobiernos tienen la oportu- Para una conceptualización útil de ex-
No se debe perder de vista que estamos nidad de establecer requisitos técnicos plicabilidad, podemos centrarnos en
en presencia de sistemas sociotécnicos. adicionales tanto para su propio desa- la decisión de un sistema en un caso
En ese sentido, no pueden ser entendi- rrollo como para la compra de software específico, por ejemplo “una solicitud
dos sólo desde la técnica, ya que junto a desarrollados por terceros. Así por ejem- de crédito que fue rechazada”. Lo que
ésta, toman relevancia motivaciones e in- plo, en la fase de diseño o adquisición buscamos entonces, es que un humano
tereses de las personas que poseen una se podrían establecer requerimientos de sea capaz de entender la razón de esa
relación directa en la creación e imple- factores pro transparencia, como dispo- decisión particular (“¿por qué fue recha-
mentación de un determinado sistema. ner de software de código abierto, acce- zada la solicitud?”). Usualmente a esto
La suma de factores técnicos y sociales, so a artefactos de ingeniería de softwa- se le llama explicación post-hoc y local.
inciden directamente en los impactos re, incluidos documentos de requisitos y Post-hoc se refiere a que la explicación
del despliegue de este tipo de tecnolo- diseño, seguimiento de errores y bitáco- se hace considerando los veredictos del
gía. Como dice Shoshana Zhuboff en su ras de cambios en el código, planes de sistema después de que el sistema ya
libro The Age of Surveillance Capitalism, prueba y resultados [21]. está desplegado y en funcionamiento,
debemos preguntarnos: ¿quién sabe? mientras que local se refiere a explicar
¿quién decide quién sabe? y ¿quién deci- una decisión particular (en oposición a
de quién decide? [28]. explicar el sistema como un todo). Que
Explicabilidad e una decisión sea explicable en un siste-
En particular, respecto de sistemas de interpretabilidad ma, no significa que el funcionamiento
IA utilizados en políticas públicas, la en general (para todas las posibles de-
transparencia desde el punto de vista cisiones) sea explicable también. A esta
social se traduce en parte en contar Hasta ahora nos hemos concentrado explicación global le llamamos interpre-
además de información técnica, con principalmente en el concepto de trans- tabilidad; un sistema sería interpretable
información política y social sobre los parencia de los sistemas automáticos entonces, si un humano es capaz de en-
diseñadores y tomadores de decisio- desde una perspectiva general y sobre tender la manera en que el sistema toma
nes, sobre la elección de determinados la necesidad de contar con distintas vi- todas sus decisiones.

31
Inteligencia
Artificial

De la misma manera, se debe tener pre- tación) o que proporcionen una orienta- manera formal independiente de las
sente que cualquier explicación es una ción predictiva (por ejemplo, si tuviera características del sistema en cues-
simplificación del sistema completo. La- más experiencia en la categoría X, ten- tión. Más precisamente, supongamos
rraraju et al. [29] establecen claras mé- dría más probabilidades de ser contra- que un sistema M toma cierto veredicto
tricas para determinar la calidad de las tado para este trabajo en el futuro). En cuando es presentado con un conjunto
explicaciones, que incluyen la fidelidad, definitiva, en la comunidad científica se A de antecedentes, y consideremos la
es decir, el grado en que la explicación sigue trabajando en las características siguiente pregunta: ¿cuál es el mínimo
coincide con el sistema completo, la fal- de las buenas explicaciones y existe una grupo de antecedentes que es necesa-
ta de ambigüedad o el grado en que la tensión natural entre diferentes carac- rio cambiar en A para cambiar también
explicación aísla un único resultado para terísticas como la interpretabilidad y la el veredicto de M? Podríamos definir
cada caso, y la interpretabilidad, es de- fidelidad, aún no resuelta. entonces que un sistema automático
cir, el grado en que las personas pueden es interpretable, si para cada posible
entender la explicación. La fidelidad pue- conjunto de antecedentes, la anterior
de medirse minimizando la cantidad de Un intento de formalización y la pregunta se puede responder en un
desacuerdo entre la explicación y el sis- esperanza de auditabilidad tiempo prudente (“tiempo polinomial”
tema completo. La falta de ambigüedad en jerga computacional). Esta defini-
puede medirse minimizando la cantidad La anterior discusión se basa en que “un ción aseguraría que, por ejemplo, cada
de solapamiento entre las reglas de la humano sea capaz de entender” algo, lo persona a la que se le haya rechazado
explicación y maximizando el número que es sumamente difícil de formalizar una solicitud de crédito, podría obtener
de casos cubiertos por la explicación. y definir de una única forma. Una mane- en un tiempo prudente una explicación
La interpretabilidad puede medirse mini- ra de concretizar el problema es llevarlo del tipo “si cambia este grupo de ante-
mizando el número de reglas, el número a un tipo particular de explicación. Una cedentes, el crédito sería aprobado”.
de predicados utilizados en esas reglas muy usada es la del tipo contrafactual;
y la amplitud del número de casos con- en vez de preguntarnos el porqué de Sin perjuicio de lo anterior, debemos no-
siderados por cada nivel en el árbol de la decisión, nos preguntamos cómo tar que esta definición de interpretabili-
decisiones (por ejemplo, si X1 entonces cambiaría la decisión en presencia de dad es sumamente acotada y posible-
Y1, si X2 entonces Y2, si X3 entonces Y3, antecedentes distintos (“¿hubiese sido mente sea útil sólo en ciertos contextos.
sería de amplitud 3). Otras propiedades rechazada la solicitud si el postulante Si bien esta perspectiva es acotada, es
deseables de las explicaciones pueden hubiera sido una persona casada?”). formal, y una de las consecuencias de
ser que no utilicen características in- Este tipo de preguntas se han usado definir formalmente un problema de in-
aceptables (por ejemplo, utilizar la raza recientemente para comparar la inter- terpretabilidad, es que podemos poner a
o el género en las decisiones de contra- pretabilidad de distintos sistemas de prueba de manera precisa y comparativa

32
Inteligencia
Artificial

Existe el riesgo de que los usuarios entendamos el ejercicio de derechos fundamentales.


la explicación [acerca de la respuesta otorgada Esto toma una relevancia adicional en
relación con el uso de sistemas de IA.
por un sistema automático] como producto de La Constitución, además de mantener
causalidades. el equilibrio de los poderes del Estado,
consagra derechos fundamentales. De
estos derechos, los que más riesgo de
a distintas clases de sistemas automati- el proceso real para el que se usa el vulnerabilidad corren a la luz del uso de
zados. En efecto, con esta definición se sistema. Por ejemplo, una explicación sistemas de tomas de decisiones auto-
puede demostrar formalmente la creen- contrafactual (“qué habría pasado si matizadas poco transparentes o no ex-
cia popular de que sistemas basados en cambiaba el antecedente x”) no es ne- plicables, corresponden principalmente
árboles de decisión son más interpre- cesariamente causal (“el antecedente a los derechos de igualdad, privacidad y
tables que sistemas basados en redes x es el más importante en la decisión protección de datos, debido proceso y
neuronales profundas [30, 31]. Otro pun- del sistema”) sin embargo existe el ries- acceso a un juicio justo, seguridad, au-
to positivo de contar con una definición go de que los usuarios entendamos la tonomía, así como, acceso a informa-
del tipo anterior, es que un sistema inter- explicación como producto de causali- ción y libertad de expresión.
pretable se podría auditar respecto de la dades [34]. Se hace necesario entonces
existencia de sesgos en sus veredictos. que la sociedad, y más precisamente la Respecto del derecho de igualdad con-
Por ejemplo, si hubiese un conjunto de legislación, defina, al menos concep- sideramos que es una oportunidad
antecedentes protegidos (como géne- tualmente, qué tipo de explicaciones, histórica consagrar expresamente a la
ro o raza), podríamos exigir de manera interpretaciones y estándares deben igualdad no como “no discriminación”
efectiva que el solo cambio de esos an- ser exigidos a los sistemas automati- sino como un principio de antisubor-
tecedentes protegidos no cambien el ve- zados. Visualizamos acá un círculo vir- dinación. El propósito del principio de
redicto del sistema [32]. tuoso: las definiciones sociales podrán igualdad desde esta perspectiva (que
guiar el desarrollo técnico, incentivando muchos autores llaman igualdad real)
Si bien hemos mostrado posibilidades la cooperación y búsquedas de solucio- tiene por finalidad eliminar las estruc-
de resolver problemas de interpretabili- nes interdisciplinarias, enfocando así turas sociales históricamente discrimi-
dad de una manera un poco más preci- recursos y esfuerzos de investigación. natorias y excluyentes [35]. Lo anterior
sa, la aplicación de la definición anterior tiene una importante consecuencia so-
(o cualquier otra que se proponga desde bre la regulación de sistemas de toma
la técnica), no debiera obviar aspectos de decisiones automatizadas, ya que
sociales. Por ejemplo, no debieran ser Transparencia se traduce en que cualquier resultado
los mismos sistemas los que definan algorítmica y el proceso de éstos, que reproduzca y perpetúe
cuáles son los antecedentes protegi- constituyente condiciones estructurantes de injus-
dos. También se debe tomar en cuenta ticia social, no serán tolerados por la
que las explicaciones serán consumi- legislación y serán sancionados, sin
das por personas y por lo tanto se de- Mientras en todo el mundo los sistemas considerar otros elementos como la in-
biera evitar la jerga técnica y presentar basados en IA están cambiando la for- tención de provocar daños. Este punto
explicaciones precisas pero simples de ma en que se deciden aspectos impor- es importante cuando no podemos con-
entender, que incluyan modelos cuan- tantes de la vida de las personas, Chile tar con toda la transparencia requerida
titativos, cualitativos y antropológicos, se encuentra en un proceso histórico de frente a potenciales efectos negativos
entre otros [33]. diseño de una nueva Constitución. En en el uso de sistemas de toma de deci-
este contexto, Chile tiene la oportunidad siones automatizadas.
Explicaciones post-hoc, locales, basa- de delinear el rol que los sistemas de IA
das en contrafactuales y que puedan tendrán en la toma de decisiones acer- Por su parte, sobre la protección de la
generarse en tiempo razonable (poli- ca de la asignación de fondos públicos, privacidad y la protección de datos per-
nomial), son esencialmente conceptos puestos de trabajo, vivienda, créditos, sonales, la transparencia, y la interpre-
técnicos y las formalizaciones han veni- acceso a la salud, justicia, prevención tabilidad, cumplen un rol fundamental.
do principalmente desde el mundo cien- del delito y muchos otros. Notable es el caso de los artículos 13° y
tífico. En consecuencia, no debemos 15° del Reglamento General de Protec-
perder de vista que cualquier definición La transparencia, como un concepto ge- ción de Datos (GDPR, por sus siglas en
técnica puede tener implicancias en la neral, más que un principio propiamente inglés) en Europa, que proveen el dere-
forma en que las personas entenderán tal, es un medio que hace posible lograr cho a una “explicación significativa de

33
Inteligencia
Artificial

la lógica involucrada” en las decisio- Parlamento Europeo y del Consejo Euro- sistemas de IA por parte de los usua-
nes automáticas. Selbst y Powles [36] peo que establece normas armonizadas rios; entre otros.
consideran que esto traza un funda- sobre la inteligencia artificial (Ley de In-
mento claro hacia el “derecho a la ex- teligencia Artificial, publicada con fecha b. Deben contener documentación técni-
plicación”, que son complementadas 21 de abril de 2021 [EU Council 2021]), es ca sobre finalidad prevista, desarrolla-
con los artículos 22° y 35° del mismo un excelente ejemplo del contenido míni- dores, la interacción del sistema con
cuerpo legal. Chile tiene una oportuni- mo que debieran tener estas futuras nor- hardware o software que no forma
dad histórica de consagrar de manera mas legales, además de las ya referidas parte del mismo, los métodos y pasos
no ambigua en su nueva Constitución al GDPR, para el debido ejercicio de este realizados para el desarrollo del siste-
el “derecho a la explicación” respecto nuevo derecho constitucional. ma, incluido, el uso de sistemas pre-
de sistemas de IA, en particular, de entrenados o de herramientas propor-
toma de decisiones automatizadas. La Propuesta de Reglamento del Par- cionadas por terceros, lógica general
lamento Europeo sobre la inteligencia del sistema y de los algoritmos, las
Considerando lo descrito en puntos ante- artificial establece estándares de trans- opciones clave de diseño, las perso-
riores, específicamente sobre los límites parencia, registro y explicabilidad, res- nas o grupos de personas con los que
y riesgos de explicaciones descontextua- pecto de sistemas considerados por se pretende utilizar el sistema, opcio-
lizadas o no entendidas, creemos que to- este cuerpo legal como de alto riesgo, nes de clasificación, entre otras.
mando todas las prevenciones del caso, y que pueden ser resumidos en los si-
es fundamental el establecimiento de un guientes puntos: c. Información detallada sobre el segui-
“Derecho a la transparencia y suministro miento, el funcionamiento y el control
de información sobre sistemas de toma a. Deben contener instrucciones de uso de sistemas de IA, en particular, res-
de decisiones automatizadas”, consa- con información concisa, pertinen- pecto a sus capacidades y limitacio-
grados en la nueva Constitución dentro te, accesible y comprensible, sobre nes, incluidos los grados de precisión
de un “Derecho a la transparencia e in- datos de proveedor, características, para grupos de personas específicos
formación” de carácter más general, el capacidades y limitaciones de fun- en los que se prevé utilizar y el nivel ge-
cual para garantizarlo, debe ser comple- cionamiento, finalidad prevista, rendi- neral de precisión esperado en relación
mentado con la promulgación de normas miento, especificaciones de los datos con su finalidad prevista. A este último
de rango legal en donde se detallen los de entrada, las medidas de supervi- punto se debe complementar el requi-
mecanismos y estándares para su cum- sión humana, incluidas las medidas sito que el nivel de precisión debe estar
plimiento. Al respecto, la reciente publica- técnicas establecidas para facilitar la avalado por metodologías con bases
ción de la Propuesta de Reglamento del interpretación de los resultados de los científicas robustas e independientes.

34
Inteligencia
Artificial

A lo anterior, se debiese agregar la obli- sadas y posiblemente afectadas puedan IA, es el determinar qué rol esperamos
gación de efectuar una evaluación de entender y responder a ellas. que no cumpla y para ello el análisis en
impacto en relación con la afectación de el uso de sistema de toma de decisiones
derechos humanos. Las evaluaciones En particular, consideramos que se automatizadas no puede ser abordado
dejan documentado el proceso de acuer- debe promover un acceso equitativo so- netamente desde una perspectiva eco-
do con la letra (b) precedente y permiten bre transparencia social y aspectos téc- nómica de costos versus beneficios,
prever riesgos antes de su implementa- nicos, teniendo presente que estamos sino que se debe considerar si corres-
ción y posibles mejoras o derechamente frente a sistemas sociotécnicos, así ponde desplegar este tipo de sistemas
decidir sobre su no uso. como promover el acceso a informa- en consideración a los derechos y digni-
ción interpretable que pueda ser usada dad de las personas. Para asegurarnos
por profesionales especializados. Para de que esto se cumpla, requerimos, nue-
ello nos encontramos en una oportuni- vamente, transparencia e información.
Conclusiones dad histórica de plasmarlo en nuestra
nueva Constitución como un derecho Como profesionales del área legal y de
consagrado para todos los chilenos. las ciencias de la computación, sabe-
La transparencia y el acceso a la infor- mos que los sistemas computaciona-
mación es una idea que ha ocupado un Lo anterior en ningún caso se debe in- les complejos cometen errores, y a ve-
lugar destacado en la agenda política terpretar como que estas propuestas ces muchos errores. Por eso estamos
de las sociedades democráticas occi- conllevan una carga sobre las personas en contra de un mundo regido por el
dentales durante muchos años. Ha sido respecto de la decisión de determinar si principio de que “el computador sabe
cultivada, propagada y, a veces, mal uti- un sistema de IA es confiable o no. Sería más que nadie” o la creencia de que,
lizada por los medios de comunicación una carga injusta para lo cual no estamos a diferencia de los humanos, los sis-
en forma interesada. capacitados, por lo que siempre será una temas automáticos “pueden tomar de-
obligación del Estado asegurar que estos cisiones sin sesgos”. Soluciones sim-
En este artículo intentamos contribuir a la sistemas sean confiables y cumplan con plistas, o que sólo vengan del mundo
discusión, considerando la importancia todos los estándares necesarios para la técnico podrían, más que ayudar, crear
de distinguir las distintas funciones de la protección de los ciudadanos y en parti- más daño. Éste es uno de esos pro-
transparencia y de contar con explicacio- cular de aquellos más vulnerables. blemas en donde basados en ciencia
nes e interpretaciones sobre las decisio- y evidencia, pero sobre todo basados
nes que toman los sistemas automáticos Finalmente, tanto o más importante que en el bien común, debemos buscar una
de manera que todas las partes intere- decidir qué rol esperamos que cumpla la solución como sociedad.

REFERENCIAS
[1] G. Geiger, «How a Discriminatory Algorithm Wrongly Accused Thousands of Families of Fraud», ene. 01, 2021. https://www.vice.com/
en/article/jgq35d/how-a-discriminatory-algorithm-wrongly-accused-thousands-of-families-of-fraud (accedido abr. 28, 2021).
[2] T. K. der Staten-Generaal, «Parlementaire ondervraging kinderopvangtoeslag; Brief Presidium; Brief van het Presidium over een voors-
tel voor een parlementaire ondervraging kinderopvangtoeslag», jul. 01, 2020. https://zoek.officielebekendmakingen.nl/kst-35510-1
(accedido abr. 28, 2021).
[3] V. Eubanks, Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press, 2018.
[4] H. Fry, Hello world: Being human in the age of algorithms. WW Norton & Company, 2018.
[5] J. N. Matthews et al., «When Trusted Black Boxes Don’t Agree: Incentivizing Iterative Improvement and Accountability in Critical Sof-
tware Systems», 2020, pp. 102-108.
[6] K. Hill, «What Happens When Our Faces Are Tracked Everywhere We Go?», The New York Times, mar. 18, 2021.
[7] S. Engelmann, M. Chen, F. Fischer, C.-Y. Kao, y J. Grossklags, «Clear Sanctions, Vague Rewards: How China’s Social Credit System
Currently Defines “Good” and “Bad” Behavior», ene. 2019, pp. 69-78, doi: 10.1145/3287560.3287585.
[8] https://digital.gob.cl, «Ley de Transformación Digital», Ley de Transformación Digital. http://digital.gob.cl/transformacion-digital/
ley-de-transformacion-digital/ (accedido abr. 28, 2021).

35
Inteligencia
Artificial

[9] J. Hughes, «Algorithms and posthuman governance», J. Posthuman Stud., vol. 1, n.o 2, pp. 166-184, 2018.
[10] C. Orwat, «Risks of Discrimination through the Use of Algorithms. A study compiled with a grant from the Federal Anti-Discrimination
Agency», 2020.
[11] F. Chiusi et al., «Automating Society Report 2020», Automating Society Report 2020. https://automatingsociety.algorithmwatch.org
(accedido abr. 28, 2021).
[12] R. Benjamin, «Race after technology: Abolitionist tools for the new jim code», Soc. Forces, 2019.
[13] T. Khaitan, A theory of discrimination law. OUP Oxford, 2015.
[14] S. Wachter, B. Mittelstadt, y C. Russell, «Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and
AI», ArXiv Prepr. ArXiv200505906, 2020.
[15] K. Creel y D. Hellman, «The Algorithmic Leviathan: Arbitrariness, Fairness, and Opportunity in Algorithmic Decision Making Systems»,
Va. Public Law Leg. Theory Res. Pap., n.o 2021-13, 2021.
[16] A. D. Selbst, D. Boyd, S. A. Friedler, S. Venkatasubramanian, y J. Vertesi, «Fairness and abstraction in sociotechnical systems», 2019,
pp. 59-68.
[17] M. Srivastava, H. Heidari, y A. Krause, «Mathematical notions vs. human perception of fairness: A descriptive approach to fairness for
machine learning», 2019, pp. 2459-2468.
[18] S. Garfinkel, J. Matthews, S. S. Shapiro, y J. M. Smith, «Toward algorithmic transparency and accountability», 2017.
[19] A. Now, «The Toronto Declaration: Protecting the rights to equality and non-discrimination in machine learning systems», https://www.
accessnow.org/the-toronto-declaration-protecting-the-rights-to-equality-and-non-discrimination-in-machine-learning-systems/, 2018.
[20] K. Shahriari y M. Shahriari, «IEEE standard review—Ethically aligned design: A vision for prioritizing human wellbeing with artificial
intelligence and autonomous systems», 2017, pp. 197-201.
[21] I. Grasso, D. Russell, A. Matthews, J. Matthews, y N. R. Record, «Applying Algorithmic Accountability Frameworks with Domain-speci-
fic Codes of Ethics: A Case Study in Ecosystem Forecasting for Shellfish Toxicity in the Gulf of Maine», 2020, pp. 83-91.
[22] M. Madden, M. Gilman, K. Levy, y A. Marwick, «Privacy, poverty, and big data: A matrix of vulnerabilities for poor Americans», Wash UL
Rev, vol. 95, p. 53, 2017.
[23] A. Narayanan, «Translation tutorial: 21 fairness definitions and their politics», 2018, vol. 2, n.o 3, pp. 6-2.
[24] A. Xiang y I. D. Raji, «On the legal compatibility of fairness definitions», ArXiv Prepr. ArXiv191200761, 2019.
[25] J. Rawls, «Justice as fairness», Philos. Rev., vol. 67, n.o 2, pp. 164-194, 1958.
[26] T. Gebru et al., «Datasheets for datasets», ArXiv Prepr. ArXiv180309010, 2018.
[27] M. Mitchell et al., «Model cards for model reporting», 2019, pp. 220-229.
[28] S. Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power: Barack Obama’s Books of
2019. Profile Books, 2019.
[29] H. Lakkaraju, E. Kamar, R. Caruana, y J. Leskovec, «Faithful and customizable explanations of black box models», 2019, pp. 131-138.
[30] P. Barceló, M. Monet, J. Pérez, y B. Subercaseaux, «Model Interpretability through the lens of Computational Complexity», Adv. Neural
Inf. Process. Syst., vol. 33, pp. 15487-15498, 2020.
[31] Z. C. Lipton, «The Mythos of Model Interpretability: In machine learning, the concept of interpretability is both important and slippery.»,
Queue, vol. 16, n.o 3, pp. 31-57, jun. 2018, doi: 10.1145/3236386.3241340.
[32] P. Barceló, J. Pérez, y B. Subercaseaux, «Foundations of Languages for Interpretability and Bias Detection». Algorithmic Fairness
through the Lens of Causality and Interpretability Workshop at NeurIPS 2020
[33] M. M. Malik, «A Hierarchy of Limitations in Machine Learning», ArXiv Prepr. ArXiv200205193, 2020.
[34] R. Moraffah, M. Karami, R. Guo, A. Raglin, y H. Liu, «Causal interpretability for machine learning-problems, methods and evaluation»,
ACM SIGKDD Explor. Newsl., vol. 22, n.o 1, pp. 18-33, 2020.
[35] R. B. Siegel, «Equality talk: Antisubordination and anticlassification values in constitutional struggles over Brown», Harv Rev, vol. 117,
p. 1470, 2003.
[36] A. D. Selbst y J. Powles, «Meaningful Information and the Right to Explanation», Social Science Research Network, Rochester,
NY, SSRN Scholarly Paper ID 3039125, nov. 2017. Accedido: abr. 28, 2021. [En línea]. Disponible en: https://papers.ssrn.com/abs-
tract=3039125.

36
Inteligencia
Artificial

Una dicotomía
engañosa y una
paradoja ética

37
Inteligencia
Artificial

está en la legalidad del cirujano de IA, lo


Diversidad
cual es confuso, porque si fuera ilegal, la
elección sería retórica.

Los comentarios en este tuit son en su


Doctor
mayoría en contra del cirujano de IA humano
por muchas razones, la mayoría de las
cuales se incluyen a continuación. Para
empezar, supongamos que el robot mé- Robot
dico no es ilegal y sólo tenemos estas médico

dos opciones. ¿Cuál es el mejor? Dando


el beneficio de la duda al robot médico,
la respuesta depende de la complejidad
RICARDO BAEZA-YATES Complejidad
del cáncer y la normalidad del paciente,
Profesor de Investigación del Instituto es decir qué tan diferente es usted de la
de Inteligencia Artificial Experiencial población usada en los datos de entre- Figura 1. Preferencia de un doctor huma-
de Northeastern University, además namiento. Entonces, si conocemos es- no o un robot médico, según la compleji-
de Profesor Titular a tiempo parcial en tos datos y usted es un caso estándar,
los Departamentos de Tecnologías de dad del cáncer (eje x) y la normalidad del
la Información y de las Comunicacio-
puede elegir con seguridad al cirujano paciente (eje y) a operar.
nes de la Universitat Pompeu Fabra de IA. En todos los demás casos, es me-
en Barcelona y Ciencias de la Com- jor seguir con un médico humano que
putación de la Universidad de Chile, pueda generalizar y lidiar con problemas Error de
donde además es Investigador Senior predicción
inesperados en función de su experien-
del Instituto Milenio Fundamentos de
los Datos. Entre 2006 y 2016, fue vice-
cia. El diagrama de la Figura 1 muestra
presidente de investigación de Yahoo! estas dos dimensiones.
Labs, primero desde Barcelona y lue-
go en Sunnyvale, California. Es ACM e Supongamos que: (1) el robot médico
IEEE Fellow. En Twitter lo encuentras usó buenos datos de entrenamiento y
como @PolarBearby.
aprobó todas las regulaciones legales
(por ejemplo, regulación para dispositi-
vos médicos); (2) conocemos la distri-
Hace poco más de un año, el 20/02/2020 bución del error con respecto a la com-
—¿fecha aleatoria?—, Geoff Hinton, uno plejidad del caso (aunque la mayoría de Complejidad / |datos|
de los padres del aprendizaje profundo, los sistemas de IA ni siquiera reportan
tuiteó lo siguiente [1]: el error promedio); y (3) conocemos los
sesgos y debilidades del sistema con Figura 2. Error en la predicción del éxi-
Suponga que tiene cáncer y respecto a la diversidad de pacientes to de un robot médico, en función de la
tiene que elegir entre un ciruja- (por ejemplo, enfermedades actuales, complejidad de la cirugía y el tamaño de
no de IA de caja negra que no peso, presión arterial, etc.). Sí, estoy su- los datos de entrenamiento.
puede explicar cómo funciona, poniendo muchas cosas.
pero tiene una tasa de éxito del
90% y un cirujano humano con Como casi no existen estudios de dis-
una tasa del 80%. ¿Quiere que tribución del error de predicción en fun- instancias más complejas. Observe que
el cirujano de IA sea ilegal? ción de la complejidad de la instancia estoy usando el error de predicción en
del problema, supondremos que el error un sentido amplio, pero en nuestro caso
Esta provocativa (doble) pregunta inclu- relativo es proporcional a la compleji- particular sería el error en la predicción
ye una dicotomía engañosa, ya que una dad del caso dividida por el tamaño de de tener una cirugía exitosa o, en otras
persona racional no decidiría basándose los datos de entrenamiento usados para palabras, salvar al paciente.
sólo en un promedio que ni siquiera sabe ese nivel de complejidad (ver Figura 2).
cómo se calculó. Engañosa porque hay Esto supone que los datos de entrena- Para el médico humano consideremos que
una tercera posibilidad que es mucho miento son homogéneos, lo que difícil- (1) tiene mucha experiencia, lo que le per-
mejor: quiero un cirujano humano con mente es cierto en la práctica, ya que mite transferir sus conocimientos a even-
apoyo de IA. Pero el verdadero dilema normalmente hay menos datos para tos inesperados en casos complicados,

38
Inteligencia
Artificial

Para tener mejores robots médicos para todos, ron al cirujano de IA no son tan detalla-
debemos correr más riesgos con algunos pacientes, dos y cuando le pregunta al fabricante, le
dice que los datos son privados (según
lo que tiene varias facetas éticas [...]. las regulaciones legales que el fabrican-
te de cirujanos de IA debe cumplir, no
porque no quiera que nadie lo audite,
particularmente con respecto al sesgo
Precisión
de diversidad).
Robot médico

En este punto, su única opción es hacer


Experiencia
+ ruido una suposición informada basada en
cuán “distinto” es usted. Si es bastante
Doctor humano distinto, consulte con el médico huma-
no. Si usted es un caso típico (por ejem-
plo, un hombre blanco en los Estados
Error Unidos), puede asumir que los datos de
+ sesgo entrenamiento representan muchas de
esas personas y puede elegir con seguri-
dad al robot médico.
@polarbearby
Sin embargo, según la ley de Murphy, us-
Complejidad, diversidad, ... (posiblemente en densidad decreciente) ted está en el medio de la región derecha
del gráfico, donde la línea roja inferior y
la amarilla superior ya se cruzaron. Mala
Figura 3. Precisión de éxito de una cirugía (eje y) en función de los diversos factores suerte, los trabajos de investigación tam-
involucrados (eje x) para ambos doctores. poco tienen la distribución de errores, por
lo que realmente no conoce las líneas ro-
jas. Pero, tiene suerte con las líneas ama-
rillas, ya que encuentra un foro con mu-
así como evitar sesgos de diversidad de Sin embargo, en la práctica no tenemos chas opiniones sobre el médico humano,
la anatomía humana; pero (2) es humano tanta información. Primero, deberá hablar pudiendo estimar su experiencia y ruido.
y, por lo tanto, su desempeño varía según con el médico humano para saber cuán No ocurre lo mismo con el cirujano de IA
su estado de ánimo, las horas de sueño y complejo es su caso, ya que el cirujano de porque es bastante nuevo.
otros factores. Estos son ejemplos del rui- IA no puede explicar nada. Hinton diría que
do que existe en las decisiones humanas y el médico inventará una historia, no una Ahora se encuentra en un dilema, ya que
que tiene un costo tan o más alto que el de explicación, como en su entrevista en Wi- sabe que el cirujano de IA tiene una ven-
los sesgos [2, 3]. red [4] que fue refutada por ocho expertos taja del 10%. Pero debido al sesgo de di-
en Forbes [5]. Incluso si creemos esto, las versidad desconocido, la incertidumbre
Dado lo anterior, la precisión de tener personas necesitan historias para sentirse de un error de IA negativo y la fe en un
una cirugía exitosa en función de estos seguras y tomar decisiones importantes. ruido positivo, el médico humano podría
factores para ambos médicos viene La vida, lamentablemente, incluye también ser igualmente bueno. Piensa esto tres
dada por el gráfico de la Figura 3. Por lo las percepciones además de la realidad, veces y elige al médico humano. ¿Por
tanto, si sabe dónde usted se encuentra basta con ver lo que está sucediendo con qué? Sus instintos se lo dicen. Pero tam-
en este gráfico, según la complejidad de el novel coronavirus. bién sabe que el médico puede explicar
su cáncer y lo normal/diferente que us- más tarde lo que sucedió y en el caso de
ted sea, puede tomar la decisión correc- Ahora, supongamos que el médico hu- un problema, su familia podría estar psi-
ta utilizando el primer diagrama. Es de- mano le dice que su caso es bastante cológicamente mejor, ya que culpar a una
cir, si no coincide con el “caso estándar”, estándar (de lo contrario, ya sabe que máquina no es fácil. Más aún si el robot
mejor elegir un médico humano. Si se probablemente esté más seguro con el no puede explicar nada. Además, no ha
encuentra en el lado derecho del gráfico médico humano). Ahora necesita cono- tenido tiempo de leer todas las cláusulas
para las dos dimensiones utilizadas en cer las características de los datos de minúsculas de su seguro médico y tam-
el ejemplo, su riesgo es mayor y es por entrenamiento, pero los trabajos que poco quiere arriesgarse a dejar a su fami-
eso que se obtiene un cuarto de círculo. describen la investigación que conduje- lia con una enorme deuda de salud.

39
Inteligencia
Artificial

Si los robots médicos


no son ilegales, al
menos necesitan una
regulación estricta con
respecto a los datos
de entrenamiento,
pruebas estándar contra
resultados sesgados
y algún nivel de
explicación.

¿Podemos responder ahora si el ciru- sión arterial alta, alergias, etc.). Si ese complejos, por lo que ésta es una razón
jano de IA debería ser ilegal? Proba- es su caso, ni siquiera tendrá que elegir, social para preferir cirujanos humanos
blemente debería ser legal pero no es el médico humano le dirá directamente en los casos más arriesgados. Pero
una pregunta sencilla. Una ley de este que es un caso de riesgo para el robot para llegar a este punto, los médicos
tipo implica temas éticos, empatía y médico. Sí, quiero este tipo de explica- humanos deben adquirir experiencia
otros rasgos humanos. Por supuesto, ciones, ¡y mejor si vienen de un doctor en casos estándares, lo que implica
si los robots médicos no son ilegales, empático! (muy probablemente una que también deben realizar cirugías
al menos necesitan una regulación es- mujer, un sesgo positivo). cuando el cirujano de IA sería una me-
tricta con respecto a los datos de en- jor opción. Ésta es la paradoja, para
trenamiento, pruebas estándar contra Pareciera estar todo claro, sin embar- tener mejores robots médicos para to-
resultados sesgados y algún nivel de ex- go, hay una paradoja ética escondida dos, debemos correr más riesgos con
plicación, incluso si necesitan inventar en nuestra discusión anterior. Para algunos pacientes, lo que tiene varias
historias. También deben advertirnos mejorar el cirujano basado en IA, ellos facetas éticas que como objetivo final
cuándo no utilizarlos, ya que tomar la necesitan aprender y para eso nece- tienen el bienestar común de todos. Lo
decisión correcta, como hemos visto, sitamos tener grandes maestros hu- más justo sería hacerlo al azar, pero no
no es trivial. Esto es hoy estándar en manos que puedan generar datos de es tan sencillo en un mundo capitalis-
los medicamentos (por ejemplo, mu- entrenamiento asombrosos. Para ello, ta lleno de sesgos. Éste ya es un tema
jeres embarazadas, personas con pre- necesitan practicar en los casos más para filósofos y economistas.

REFERENCIAS
[1] Geoff Hinton, https://twitter.com/geoffreyhinton/status/1230592238490615816, 2/2020.
[2] Daniel Kahneman, Andrew M. Rosenfield, Linnea Gandhi, and Tom Blaser Noise: How to Overcome the High, Hidden Cost of Inconsis-
tent Decision Making, Harvard Business Review, https://hbr.org/2016/10/noise, 10/2016.
[3] Daniel Kahneman, Olivier Sibony, Cass R. Sunstein. Noise: A Flaw in Human Judgment. Little, Brown Spark, 5/2021.
[4] Tom Simonite: Google’s AI Guru Wants Computers to Think More Like Brains, Wired, https://www.wired.com/story/googles-ai-guru-
computers-think-more-like-brains/, 12/2018.
[5] Hessie Jones: Geoff Hinton Dismissed the Need for Explainable AI: 8 Experts Explain Why He’s Wrong, Forbes, https://www.for-
bes.com/sites/cognitiveworld/2018/12/20/geoff-hinton-dismissed-the-need-for-explainable-ai-8-experts-explain-why-hes-wrong/,
12/2018.

40
Inteligencia
Artificial

Aplicaciones de la
inteligencia artificial

MUJER
UNA MUJ ER
UN
PAS EAN DO A
PER RO

PERRO
CAMINATA

A través de una serie de miniartículos independientes, ilustramos cómo la inteligencia artificial y sus diferentes métodos
permiten abordar problemas en una amplia y creciente diversidad de dominios. Por cuestiones de extensión, la enumera-
ción no pretende ser exhaustiva y muchas áreas quedarán pendientes para una futura edición de la Revista.

41
Inteligencia
Artificial

¿Puede una máquina ver mejor


que un humano?

JAVIER CARRASCO Ingeniero Civil en Computación de la Universidad de Chile y egresado del Instituto Milenio Fundamentos de los Datos.
AIDAN HOGAN Profesor Asociado del Departamento de Ciencias de la Computación de la Universidad de Chile e Investigador Aso-
ciado del Instituto Milenio Fundamentos de los Datos.
JORGE PÉREZ Profesor Asociado del Departamento de Ciencias de la Computación de la Universidad de Chile e Investigador Aso-
ciado del Instituto Milenio Fundamentos de los Datos.

La última década ha sido testigo de perto humano puede lograr una tasa humanos necesitan más o menos in-
avances extraordinarios en el área de de error (top-5) de 5,1% en un sub- formación para poder clasificar una
la inteligencia artificial, impulsados, en conjunto de 1.500 imágenes de Ima- imagen correctamente en compara-
particular, por el concepto de redes neu- geNet. En la misma tarea, una red ción con las máquinas? ¿Qué tipo de
ronales profundas, combinado con la neuronal profunda del estado del arte información les importa más?
disponibilidad de enormes cantidades (SeNetResNet50 [2]) puede lograr una
de datos para entrenar estas redes. En- tasa de error (top-5) de 2,3%, es decir
tre las subáreas de la computación que que tiene mejor rendimiento que un
se han beneficiado con esta tecnología, humano experto en esta tarea. ¿Este Imágenes mínimas
podemos destacar, por ejemplo, la vi- resultado significa que las máquinas,
sión computacional, y la tarea específi- ahora, pueden “ver” mejor que los hu- positivas
ca de reconocimiento de imágenes. En manos? No necesariamente, pues es
esta tarea, la máquina recibe una ima- una pregunta multifacética. En esta Para poder entender y comparar la de-
gen de un objeto y tiene que devolver la tarea, las clases son muy finas, e in- pendencia que las máquinas y los hu-
clase de ese objeto, diciendo, por ejem- cluyen ejemplos como un cucal, un manos tienen para poder clasificar bien
plo, que la imagen representa un perro, Sealyham terrier, etc., que pueden ser una imagen, definimos el concepto de
una flor, una taza, etc. difíciles de recordar y distinguir para una imagen mínima positiva [3]: dada
un humano. También, la tarea siempre una imagen etiquetada con su clase, y
El conjunto de datos más usado para considera imágenes de calidad total. un clasificador de imágenes, la imagen
entrenar y evaluar métodos de recono- Entonces surge una duda: si las imá- mínima positiva es la versión de la ima-
cimiento de imágenes se llama Ima- genes tuvieran menos calidad que las gen con la peor calidad tal que el cla-
geNet; contiene millones de imágenes vistas en los ejemplos de entrenamien- sificador siga dando la clase correcta.
etiquetadas según mil clases distintas. to, ¿cómo afectaría el rendimiento de Con respecto a la calidad de la imagen,
Según Russakovsky et al. [1], un ex- las máquinas y de los humanos? ¿Los hablamos más específicamente de

42
Inteligencia
Artificial

Modelo Color Resolución Zona Combinación Experimentos y


resultados

SqueezeNet Para ver qué tan sensibles son los clasi-


ficadores frente a la pérdida de diferen-
tes tipos de información, hicimos expe-
rimentos con 20 clases simplificadas de
ImageNet, tomando 15 imágenes para
GoogLeNet cada clase. Tomamos cuatro modelos
que usan redes neuronales profundas,
que han logrado el mejor resultado so-
bre ImageNet en algún momento, y que
han sido entrenados con las imágenes
(completas) de entrenamiento de Ima-
ResNet50
geNet. Los cuatro modelos, en orden
de su rendimiento sobre ImageNet, son
SqueezeNet, GoogLeNet, ResNet50, y
SeNetResNet50. Se pueden ver ejem-
plos de las imágenes mínimas de cada
SeNetResNet50 modelo en la Figura 1 considerando va-
rias formas de reducción.

Luego medimos la proporción de re-


ducción para las imágenes mínimas
Humano positivas como el cociente entre el ta-
maño de la imagen original y la imagen
mínima positiva (ambas comprimidas
con PNG). Un menor cociente significa
que el modelo es más robusto a la pér-
Figura 1. Imágenes mínimas positivas para un gato. dida de información correspondiente.
En la Figura 2, podemos ver los resul-
tados, presentados como un diagrama
de caja. Se puede ver que los humanos
la información que contiene, medida durante el proceso de entrenamiento), son mejores para clasificar imágenes
usando el tamaño de la imagen compri- e implementamos una búsqueda sobre con menos colores y resolución, pero
mida (sin pérdida; usamos compresión los parámetros de reducción, empezan- que las máquinas pueden clasificar
de PNG). Se pueden considerar varias do con la imagen completa, y reducien- las imágenes basado en zonas más
formas de reducción de imágenes; en do la información hasta que se encuen- pequeñas. Estos resultados apoyan la
nuestro trabajo, hemos considerado las tre la imagen mínima. Para calcular las observación de Geirhos et al. [4] de que
reducciones de color, de resolución, de imágenes mínimas en el caso de las la textura de la imagen es una caracte-
zona, y la combinación de las tres. La máquinas, no se puede usar la misma rística importante para las redes neu-
tabla de la Figura 1 ejemplifica las imá- estrategia, pues el humano recordará la ronales profundas, las cuales pueden
genes mínimas para una imagen de un clase de la imagen completa. Así que diferenciar, por ejemplo, entre el pelo
gato, tal que el modelo (clasificador) in- diseñamos una interfaz que empieza de un gato y un perro. Por eso sólo ne-
dicado puede reconocer que la imagen con la imagen “nula” (con una reduc- cesitan una zona pequeña de una ima-
es de un gato, pero con más reducción, ción completa), tal que el humano pue- gen, pero sufren más con una pérdida
no puede más. da aumentar la información hasta que de resolución o color. Otra observación
pueda reconocer el objeto de la imagen es que los modelos más robustos fren-
Para calcular las imágenes mínimas y clasificarla (si la clasificación es inco- te a la pérdida de información también
en el caso de las máquinas, tomamos rrecta, descartamos la imagen y pasa- tienen mejor rendimiento para las imá-
una imagen de prueba (no vista antes mos a la próxima). genes completas.

43
Inteligencia
Artificial

Conclusiones
SqueezeNet
SqueezeNet GoogLeNet
GoogLeNet ResNet50
ResNet50 SeNetResNet50
SeNetResNet50 Humano
Humano
reducción

1
de reducción

¿Puede una máquina ver mejor que un


0.8 humano? Es una pregunta cada vez más
0.6 compleja, que puede ser interpretada
Proporciónde

de varias formas. En la Clasificación de


Proporción

0.4
Imágenes, nuestros resultados han in-
0.2 dicado que los humanos proveen resul-
0 tados más robustos frente a la pérdida
Color
Color Resoluciónón
Resoluci Zona
Zona Combinación
Combinaci ón de información. En la práctica, esto im-
plica que los resultados dados por las
Figura 2. Proporción de reducción para las imágenes mínimas positivas. redes neuronales profundas entrenadas
y evaluadas en el contexto de conjuntos
de imágenes completas pueden no apli-
carse a condiciones reales, en las cuales
Finalmente, hicimos un experimento pectivamente, de SqueezeNet (más un objeto (por ejemplo, una cara) está
usando cada clasificador para clasi- fáciles), GoogLeNet, ResNet50, y Se- parcialmente oculto, o está a distancia,
ficar las imágenes mínimas positivas NetResNet50 (más difíciles). Al revés, o iluminado parcialmente, etc.
de los otros clasificadores. Se pueden clasificando las imágenes mínimas
encontrar los resultados completos positivas de los humanos, los mode- Una pregunta que nos interesa ahora,
en nuestro artículo [3]. En resumen, los de máquina lograron una precisión entonces, es la siguiente: ¿se puede
observamos que los humanos pueden de 0,14-0,42 para color, 0,03-0,29 para mejorar la robustez de los clasificado-
clasificar mejor las imágenes mínimas resolución, 0,11-0,42 para zona, y 0,07- res de máquinas frente a la pérdida de
positivas de las máquinas que al revés, 0,35 para combinación; los mejores información? Los modelos que usamos
logrando una precisión de 0,89-0,92 modelos fueron, respectivamente, Se- en este trabajo fueron entrenados sobre
para color, 0,86-0,93 para resolución, NetResNet50 (mayor precisión), Res- imágenes completas. Quizás se puedan
0,76-0,87 para zona, y 0,74-0,85 para Net50, GoogLeNet y SqueezeNet (me- entrenar las redes con imágenes reduci-
combinación, con mejor precisión para nor precisión). das o mínimas, para mejorar su robustez
las imágenes mínimas positivas, res- en situaciones de información parcial.

REFERENCIAS
[1] Olga Russakovsky, Jia Deng, Hao Su, Jonathan Krause, Sanjeev Satheesh, Sean Ma, Zhiheng Huang, Andrej Karpathy, Aditya Khosla,
Michael S. Bernstein, Alexander C. Berg, y Fei-Fei Li. 2015. ImageNet Large Scale Visual Recognition Challenge. International Journal
of Computer Vision 115, 3 (2015), 211–252.
[2] Jie Hu, Li Shen, Samuel Albanie, Gang Sun, y Enhua Wu. 2019. Squeeze-andExcitation Networks. arXiV:1709.01507v4.
[3] Javier Carrasco, Aidan Hogan y Jorge Pérez. 2020. Laconic Image Classification: Human vs. Machine Performance. En el acta de la
International Conference on Information and Knowledge Management (CIKM), Galway, Ireland, [Online], October 19–23, 2020.
[4] Robert Geirhos, Patricia Rubisch, Claudio Michaelis, Matthias Bethge, Felix A. Wichmann, y Wieland Brendel. 2019. ImageNet-trained
CNNs are biased towards texture; increasing shape bias improves accuracy and robustness. En el acta de la International Conference
on Learning Representations (ICLR). OpenReview.net.

44
Inteligencia
Artificial

Procesamiento de Lenguaje
Natural: dónde estamos y qué
estamos haciendo

FELIPE BRAVO-MÁRQUEZ Profesor Asistente del Departamento de Ciencias de la Computación de la Universidad de Chile e Investiga-
dor Joven del Instituto Milenio Fundamentos de los Datos.
JOCELYN DUNSTAN Profesora Asistente de la Iniciativa de Datos e Inteligencia Artificial de la Facultad de Ciencias Físicas y
Matemáticas de la Universidad de Chile e Investigadora del Centro de Modelamiento Matemático.

El Procesamiento de Lenguaje Natu- primera de ellas: la Web está en su ma- phrasal verbs del inglés). Actualmente
ral (PLN) es una rama de la Inteligencia yoría en inglés, y el poder traducir pági- los traductores automáticos usados por
Artificial (IA) centrada en el diseño de nas en forma casi instantánea es algo Google o DeepL están basados en sofis-
métodos y algoritmos que toman como extraordinario. Traducir un texto no es ticadas redes neuronales.
entrada o producen como salida datos fácil pues no hay una biyección entre pa-
en la forma de lenguaje humano [1]. Esto labras en ambos lenguajes, sino que una PLN suele confundirse con otra discipli-
puede venir en forma de texto o audio, y frase puede requerir menos palabras en na hermana llamada Lingüística Com-
una vez que el audio es transcrito, ambos un idioma que en otro (pensar por ejem- putacional (LC). Si bien ambas están
tipos de datos tienen un análisis común. plo traducir del español al inglés). Pero estrechamente relacionadas, tienen un
además, la traducción de una palabra foco distinto. La LC busca responder
Tal como argumentan Julia Hirschberg y requiere información del contexto en la preguntas fundamentales sobre el len-
Chris Manning [2], tareas actuales don- que aparece para saber el sentido en la guaje mediante el uso de la computa-
de el PLN entra en nuestras vidas son la que se está usando. Asimismo, puede ción, es decir, cómo entendemos el
traducción automática, los sistemas de ocurrir que la palabra no tenga sentido lenguaje, cómo producimos lenguaje o
pregunta-respuesta y la minería de tex- en sí misma sino que en conjunto con la cómo aprendemos lenguaje. Mientras
to en redes sociales. Ahondemos en la palabra que la acompaña (piense en las que en PLN el foco está en resolver

45
Inteligencia
Artificial

problemas específicos, tales como las ésta pueda determinar si está hablan- trar representaciones idóneas para la
transcripción automática del habla, la do con una máquina o un ser humano. tarea en cuestión, proceso al cual se
traducción automática, la extracción de A lo largo de su historia la disciplina refiere como “aprendizaje profundo”.
información de documentos y el análi- ha tenido tres grandes periodos: 1) el Estos modelos se caracterizan por
sis de opiniones en redes sociales. Es racionalismo, 2) el empirismo, y 3) el tener muchos más parámetros que
importante señalar que en PLN, el éxi- aprendizaje profundo [3] que describi- los modelos anteriores (superando la
to de una solución se mide en base a mos a continuación. barrera del millón en algunos casos) y
métricas concretas (por ejemplo: qué requerir grandes volúmenes de datos
tan similar es la traducción automática El racionalismo abarca desde 1950 a para su entrenamiento. Una gracia de
a una hecha por un humano) indepen- 1990, donde las soluciones consistían estos modelos es que pueden ser pre-
dientemente de si el modelo hace uso en diseñar reglas manuales para incor- entrenados con texto no etiquetado
de alguna teoría lingüística. porar mecanismos de conocimiento y como libros, Wikipedia, texto de redes
razonamiento. Un ejemplo emblemá- sociales y de la Web para encontrar
Comprender y producir el lenguaje tico es el agente de conversación (o representaciones iniciales de palabras
computacionalmente es extremada- chatbot) ELIZA desarrollado por Joseph y oraciones (a lo que conocemos como
mente complejo. La tecnología más Weizenbaum que simulaba un psico- word embeddings), las cuales pueden
exitosa actualmente para abordar PLN terapeuta rogeriano. Luego, a partir de ser posteriormente adaptadas para la
es el aprendizaje automático supervi- la década de los noventa, el diseño de tarea objetivo donde sí se tienen datos
sado que consiste en una familia de métodos estadísticos y de aprendizaje etiquetados (proceso conocido como
algoritmos que “aprenden” a construir automático construidos sobre corpus transfer learning). Aquí destacamos
la respuesta del problema en cuestión llevan a PLN hacia un enfoque empiris- modelos como Word2Vec [5], BERT [6]
en base a encontrar patrones en datos ta. Las reglas ya no se construyen sino y GPT-3 [7].
de entrenamiento etiquetados.1 Por que se “aprenden” a partir de datos eti-
ejemplo, si queremos tener un modelo quetados. Algunos modelos represen- Este tipo de modelos ha ido perfeccio-
que nos diga si un tweet tiene un sen- tativos de esta época son los filtros de nándose en los últimos años, llegando
timiento positivo o negativo respecto spam basados en modelos lineales, las a obtener resultados cada vez mejores
a un producto, primero necesitamos cadenas de Markov ocultas para la ex- para casi todos los problemas del área
etiquetar manualmente un conjunto de tracción de categorías sintácticas y los [8]. Sin embargo, este progreso no ha
tweets con su sentimiento asociado. modelos probabilísticos de IBM para la sido libre de controversias. El aumento
Luego debemos entrenar un algoritmo traducción automática. Estos modelos exponencial en la cantidad de paráme-
de aprendizaje sobre estos datos para se caracterizaban por ser poco profun- tros3 de cada nuevo modelo respecto
poder predecir de manera automática dos en su estructura de parámetros y a su predecesor, hace que los recursos
el sentimiento asociado a tweets des- por depender de características ma- computacionales y energéticos nece-
conocidos. Como se podrán imaginar, nualmente diseñadas para representar sarios para construirlos sólo estén al
el etiquetado de datos es una parte la entrada.2 alcance de unos pocos. Además, va-
fundamental de la solución y puede ser rios estudios han mostrado que estos
un proceso muy costoso, especialmen- A partir del año 2010, las redes neuro- modelos aprenden y reproducen los
te cuando se requiere conocimiento nales artificiales, que son una familia sesgos y prejuicios (por ejemplo: gé-
especializado para definir la etiqueta. de modelos de aprendizaje automáti- nero, religión, racial) presentes en los
co, comienzan a mostrar resultados textos a partir de los cuales se entre-
Los orígenes de PLN se remontan a los muy superiores en varias tareas em- nan. Sin ir más lejos, la investigadora
años cincuenta con el famoso test de blemáticas de PLN [4]. La idea de es- Timmnit Gebru fue despedida de Goo-
Alan Turing: una máquina será consi- tos modelos es representar la entrada gle cuando se le negó el permiso para
derada inteligente cuando sea capaz (el texto) con una jerarquía de pará- publicar un artículo que ponía de ma-
de conversar con una persona sin que metros (o capas) que permiten encon- nifiesto estos problemas [9].

1 | En PLN se le suele llamar a estos conjuntos de datos textuales (etiquetados o no etiquetados) como “corpus”.
2 | La mayor parte de algoritmos de aprendizaje operan sobre vectores numéricos, donde cada columna es una característica del objeto a modelar.
En PLN esas características pueden ser las palabras de una oración, las frases u otra propiedad (por ejemplo: el número de palabras con ma-
yúsculas, la cantidad de emojis en un tweet, etc.).
3 | Word2Vec [5] tiene del orden de cientos de parámetros, BERT [6] tiene 335 millones de parámetros y GPT-3 [7] tiene 175 mil millones de parámetros.

46
Inteligencia
Artificial

Representations for Learning and Lan- En el ámbito del texto clínico, la crea- A pesar de los grandes avances en los úl-
guage (ReLeLa)4 es un grupo de inves- ción de recursos para la extracción timos años, aún estamos lejos de respon-
tigación del Departamento de Ciencias de información relevante requiere un der todas las interrogantes de PLN. En
de la Computación (DCC) de la Univer- trabajo fuertemente interdisciplinario. problemas como el diseño de chatbots
sidad de Chile, donde también partici- Recientemente fue presentado en el las soluciones del estado del arte aún
pan académicos y estudiantes de otros workshop clínico de EMNLP6 el primer distan mucho de lo esperado y ni siquiera
departamentos y centros. Sus miem- corpus clínico chileno etiquetado y es claro cómo evaluarlas correctamente,
bros investigan varios temas en PLN: resultados preliminares para el reco- luego para muchos otros problemas del
análisis de sentimiento y emociones nocimiento automático de entidades mundo real simplemente no es posible
en redes sociales, texto clínico, educa- nombradas. obtener los recursos necesarios (datos
ción, textos legales, lenguas indígenas etiquetados, hardware) para construir
y el análisis de argumentos políticos. Finalmente, The Word Embeddings Fair- una solución adecuada. En RELELA con-
ness Evaluation Framework (WEFE)7, es fluyen visiones provenientes de la com-
Una línea de ReLeLa liderada por Jorge una herramienta de código abierto que putación, las matemáticas, la lingüística
Pérez, ha sido el desarrollo de modelos permite medir y mitigar el sesgo de los y la salud para discutir esas interrogantes
preentrenados para el idioma español. modelos preentrenados señalados an- y sobre todo para mantenernos al día con
Una contribución destacada ha sido teriormente. La principal característica los constantes avances del área. Todo
BETO5, la versión en español de BERT, de WEFE es estandarizar los esfuerzos esto ocurre en nuestros seminarios se-
que es ampliamente utilizado por inves- existentes en un marco común para ser manales donde escuchamos exposicio-
tigadores y desarrolladores del mundo libremente utilizado. nes de miembros del grupo o de algún
hispano. charlista invitado.

REFERENCIAS
[1] Eisenstein, J. (2018). Natural language processing.
[2] Hirschberg, J., & Manning, C. D. (2015). Advances in natural language processing. Science, 349(6245), 261–266.
[3] Deng, L., & Liu, Y. (Eds.). (2018). Deep learning in natural language processing. Springer.
[4] Collobert, R., Weston, J., Bottou, L., Karlen, M., Kavukcuoglu, K., and Kuksa, P. (2011). Natural language processing (almost) from
scratch. Journal of machine learning research, 12(Aug):2493–2537.
[5] Mikolov, T., Sutskever, I., Chen, K., Corrado, G., & Dean, J. (2013). Distributed representations of words and phrases and their compo-
sitionality. In Proceedings of the 26th International Conference on Neural Information Processing Systems - Volume 2 (NIPS’13).
[6] Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Unders-
tanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics:
Human Language Technologies, Volume 1 (Long and Short Papers), 4171–4186.
[7] Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., et al. (2020). Language models are few-shot learners. In Advan-
ces in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 202.
[8] NLP-progress: Repository to track the progress in Natural Language Processing (NLP), including the datasets and the current state-
of-the-art for the most common NLP tasks: http://nlpprogress.com/.
[9] Bender, Emily M., et al. (2021). “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? .” Proceedings of the 2021
ACM Conference on Fairness, Accountability, and Transparency.

4 | https://relela.com/.
5 | https://github.com/dccuchile/beto.
6 | https://www.aclweb.org/anthology/2020.clinicalnlp-1.32/.
7 | https://wefe.readthedocs.io/en/latest/.

47
Inteligencia
Artificial

Inteligencia artificial para


restauración de material
arqueológico

ALEXIS MENDOZA Estudiante de pregrado de la Escuela de Ciencia de la Computación, Universidad Nacional San Agustín, Perú.
ALEXANDER APAZA Estudiante de pregrado de la Escuela de Ciencia de la Computación, Universidad Nacional San Agustín, Perú.
IVÁN SIPIRÁN Profesor Asistente del Departamento de Ciencias de la Computación, Universidad de Chile.
CRISTIÁN LÓPEZ Profesor Asistente del Departamento de Ingeniería, Universidad de Ingeniería y Tecnología, Perú.

En 2018, el museo Josefina Ramos de fueron posteriormente removidas en solucionar el problema de la geometría
Cox en Lima - Perú inició un proceso de las superficies 3D generadas, dejando faltante desde un enfoque basado en da-
digitalización de los objetos arqueológi- grandes porciones de la base de los ob- tos y usando inteligencia artificial.
cos que albergan en su colección. El mu- jetos sin información.
seo administra más de siete mil piezas
provenientes de diferentes culturas pre- 2. El escáner de luz estructurada tiene
hispánicas, principalmente culturas de la problemas para escanear superficies Nuestra propuesta
costa central del Perú. Para el proceso de cuyo ángulo con respecto al haz de
digitalización, el museo usó un escáner luz es casi perpendicular. Por lo tan-
3D de escritorio que utiliza tecnología de to, hay bases de objetos que no fue- Nuestro método consiste de una red
luz estructurada. Sin embargo, el proceso ron correctamente escaneadas por la neuronal que recibe un objeto 3D con
de digitalización no se desarrolló de for- limitación del escáner. superficie incompleta y produce el ob-
ma satisfactoria por dos razones: jeto completo reparado. Nuestra premi-
El problema en la digitalización trajo sa es que si contamos con suficientes
1. La mayoría de los objetos eran frágiles como consecuencia que un gran número ejemplos de objetos dañados y objetos
y, al no poder sostenerse sobre la base de objetos tengan una superficie incom- completos, la red neuronal puede encon-
del escáner, se tuvo que colocar bases pleta después del escaneo (ver Figura trar una buena correspondencia entre la
artificiales. Estas bases artificiales 1). Nosotros propusimos una forma de geometría de la superficie incompleta y

48
Inteligencia
Artificial

Con respecto a la arquitectura de la red


neuronal, típicamente el problema de
“shape completion” se aborda desde
una perspectiva de un modelo tipo enco-
der-decoder, en donde el encoder procesa
la geometría de entrada y la transforma
en un vector numérico. Posteriormente, el
vector numérico es la entrada al decoder,
que finalmente reconstruye la geometría
completa [3, 4]. Sin embargo, un problema
con este tipo de arquitectura es que gene-
ran una representación transformada de
la geometría completa. En nuestro caso,
la geometría de entrada no tiene que ser
cambiada ni transformada, y más bien lo
que necesitamos es generar una buena
Figura 1. Vista frontal y superior de algunos objetos escaneados. Note la falta de representación de la superficie que falta.
geometría en la base de los objetos. Es así que nosotros presentamos una
nueva arquitectura para este problema
específico, en donde una primera red neu-
la superficie de los objetos completos. cionar el problema. Lo que requerimos ronal produce una región faltante candi-
Además, si seguimos un protocolo de de la red neuronal es que aprenda la es- data. La unión del objeto incompleto y la
entrenamiento adecuado, podemos es- tructura de objetos arqueológicos, por región candidata es posteriormente refi-
perar que la red neuronal generalice bien lo que cualquier otro conjunto de da- nada con una segunda red neuronal, la
a diferentes geometrías faltantes. tos con estructura similar podría servir cual produce el objeto completo. Ambas
para nuestro cometido. Así, logramos redes neuronales son entrenadas en con-
El problema es que la colección esca- recolectar un conjunto de 1458 objetos junto y en forma end-to-end. Para la repre-
neada del museo Josefina Ramos de desde el 3D Pottery Benchmark [1] y las sentación de los modelos 3D, escogimos
Cox no contiene muchos ejemplos de clases “Bowl” y “Jar” del dataset Sha- las nubes de puntos [5]. La arquitectura
objetos completos, como para permitir peNet [2]. Todos estos objetos tienen puede verse en la Figura 2.
hacer un entrenamiento adecuado de estructura común a objetos arqueoló-
una red neuronal. En este punto, hici- gicos y sirvieron para entrenar nuestra Para entrenar este modelo, usamos
mos una observación clave para solu- red neuronal. el conjunto de datos recolectado y

Objeto Parte Objeto


incompleto faltante predicho

Encoder Decoder Red de


refinamiento

Figura 2. Arquitectura de nuestra red neuronal. El modelo consiste en un encoder-decoder para generar la parte faltante a partir
del objeto incompleto. Ambos objetos son luego usados por la red de refinamiento para obtener el objeto reparado final.

49
Inteligencia
Artificial

Como la red procesa nubes de puntos,


implementamos un algoritmo que re-
construye la superficie de los objetos
3D. La Figura 3 muestra algunos resul-
tados de nuestro método.

Consideraciones finales

Abordamos un problema de restaura-


ción de piezas arqueológicas desde una
perspectiva de datos. Este trabajo se
pudo llevar a cabo gracias a los recien-
tes avances en análisis de formas y pro-
Figura 3. Ejemplos de objetos reparados con nuestra herramienta.
cesamiento geométrico a través del uso
de técnicas de aprendizaje automático.
Nuestros resultados muestran que las
realizamos la generación de pares de mo nunca genera dos objetos iguales redes neuronales que procesan geome-
entrenamiento (objeto incompleto, durante el entrenamiento, por lo que tría pueden extraer información de es-
objeto completo) durante el mismo esto garantiza que la red no memorice tructura de los objetos. Esta estructura
entrenamiento. Creamos un protocolo los ejemplos de entrenamiento. puede ser empleada para el diseño asis-
para generar pares aleatorios de obje- tido por computadora, y específicamen-
tos, aplicando un algoritmo que simula Una vez que la red fue entrenada, usa- te en nuestro caso fue útil para predecir
la eliminación de geometría en la base mos el conjunto de objetos arqueológi- la geometría faltante de objetos con de-
de un objeto de entrada. Este algorit- cos del museo como objetos de prueba. fectos de escaneo.

REFERENCIAS
[1] Koutsoudis A., Pavlidis G., Liami V., Tsiafakis D., Chamzas C., “3D Pottery content-based retrieval based on pose normalisation and
segmentation”. Journal of Cultural Heritage, 11(3), pp 329-338, 2010.
[2] Chang A., Funkhouser T., Guibas L., Hanrahan P., Huang Q., Li Z., Savarese S., Savva M., Song S., Su H., Xiao J., Yi L., Yu F., “ShapeNet:
An Information-Rich 3D Model Repository”. CoRR abs/1512.03012. Arxiv, 2015.
[3] Yuan W., Khot T., Held D., Mertz C., Hebert M., “PCN: Point Completion Network”. In Proc: International Conference on 3D Vision (3DV),
pp. 728-737. 2018.
[4] Tchapmi L., Kosaraju V., Rezatofighi H., Reid I., Savarese S., “TopNet: Structural Point Cloud Decoder”. In Proc: IEEE/CVF Conference on
Computer Vision and Pattern Recognition (CVPR), pp. 383-392. 2019.
[5] Qi R., Su H., Kaichun M., Guibas L., “PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation”. In Proc: IEEE Con-
ference on Computer Vision and Pattern Recognition (CVPR), pp. 77-85. 2017.

50
Inteligencia
Artificial

Neuroevolución: ¿Cómo evitar los


datos masivos de entrenamiento?

ALEXANDRE BERGEL Profesor Asociado del Departamento de Ciencias de la Computación de la Universidad de Chile.

puede expresar a través de ejemplos. Es para entrenar la red, pero en otros ca-
Contexto una idea casi opuesta a la forma en que sos, según el problema a abordar, tener
se entrena un modelo con grandes canti- ejemplos puede representar un lujo que
dades de imágenes o de texto, como se no siempre es alcanzable.
Según la teoría de Darwin, el cerebro de hace en el área de deep learning.
los mamíferos es el resultado de una La neuroevolución es una técnica alter-
larga evolución. Frente a cualquier otra nativa al backpropagation para deducir
especie, los humanos tienen el cerebro estos nueve parámetros y consiste en la
más grande en relación a su peso. Hace Ejemplo y aplicaciones aplicación de un algoritmo genético con
decenas de milenios, nuestro cerebro no redes neuronales. En vez de entrenar
tenía la sofisticación que tiene hoy. El una red usando mecanismos de aprendi-
cerebro evolucionó, en parte, para solu- Consideren la red neuronal de la Figura zaje, la neuroevolución usa un algoritmo
cionar problemas complejos como la ne- 1. Esta red describe el comportamiento evolutivo para buscar los parámetros
cesidad de los humanos de comunicarse del operador booleano XOR, usando una que generan redes de “mejor calidad”.
en forma eficiente. Siguiendo un proceso función de activación de tipo step. Tie-
de evolución similar al de nuestro cere- ne, además, nueve parámetros, tres por Un algoritmo genético es una metáfo-
bro, la neuroevolución es una técnica de cada neurona. Un algoritmo de apren- ra computacional del mecanismo de
la inteligencia artificial que combina un dizaje, como el backpropagation usado evolución natural, tal como lo describió
algoritmo genético con una red neuronal. en deep learning, tendrá que deducir Charles Darwin. En la naturaleza, los
Su idea central es producir modelos que estos nueve parámetros desde un con- individuos más fuertes tienen mayores
sean lo suficientemente desarrollados junto de ejemplos. En este caso, tener probabilidades de sobrevivir y de repro-
para solucionar un problema que no se ejemplos no representa un problema ducirse. Aplicado a nuestro ejemplo de

51
Inteligencia
Artificial

redes naturales, un individuo es una se-


rie de nueve números y la probabilidad Entradas Capa oculta Salida
de evolucionar depende de la cantidad
de errores que comete la red neuronal 1
bajo este individuo. X1 -0,5
1
En cada generación, los individuos más 1
-0,5 Y
fuertes (i.e., las redes neuronales que co-
-1
meten menos errores) se combinan usan-
1
do operaciones genéticas, tales como la
X2 -1,5
mutación y el cross-over. La población -1
inicial de individuos está compuesta por
series de nueve números aleatorios, pero
en cada generación se genera una red Figura 1. Red neuronal que simula al operador booleano XOR.
mejor, que produce menos errores que en
la generación anterior.

Algoritmos sofisticados de neuroevolu- que entrega un resultado sin dar cuenta la neuroevolución pertenece) puede supe-
ción, como NEAT y HyperNEAT, permiten del camino tomado para obtener dicho re- rar, y por mucho, a los mejores jugadores
evolucionar no solamente los paráme- sultado. Nuestras visualizaciones ayudan del mundo. AlphaGo y Dota2 demuestran
tros, sino también la topología de la red, a entender las diferentes decisiones toma- la amplia capacidad de los algoritmos evo-
algo que no se puede lograr con el deep das por el algoritmo de neuroevolución, lo lutivos para superar a los humanos.
learning clásico. que ayuda a explicar su resultado.
El artículo “Designing neural networks
En el grupo ISCLab1 del Departamento de through neuroevolution”, publicado en
Ciencias de la Computación (DCC) de la 2019 en la revista Nature Machine Intelli-
Universidad de Chile, usamos la neuroe- Beneficios gence, describe los últimos progresos en
volución para desarrollar inteligencia ar- el área de la neuroevolución. Además de
tificial de videojuego, estilo Mario Bros. presentar una retrospectiva de cómo la
La neuroevolución es particularmente La neuroevolución no tiene las limitaciones naturaleza y la evolución del cerebro han
conveniente para producir dicho tipo que imponen un uso de cantidades masi- tenido un enorme impacto en el área de la
de IA ya que, en comparación al deep vas de datos. Un modelo basado en neu- inteligencia artificial, este artículo descri-
learning, no requiere datos de jugadas. roevolución puede superar a un modelo be una extraordinaria forma de acercarse
basado en ejemplos producidos por huma- a una inteligencia artificial genérica. Aho-
Por otro lado, estamos desarrollando téc- nos. Ejemplos prominentes de esta situa- ra, es reconocido que la neuroevolución
nicas de visualización que permiten carac- ción son la robótica y los videojuegos. Si es competidora de las técnicas modernas
terizar el proceso de evolución. La neuroe- un jugador virtual tuviese que aprender de usadas en aprendizaje supervisado, al que
volución, como cualquier otro algoritmo los humanos cómo jugar, no lograría supe- pertenecen las técnicas de aprendizaje de
de machine learning, es una caja negra rarlos. Pero un algoritmo evolutivo (al que redes neuronales.

1 | https://isclab.dcc.uchile.cl/.

52
Inteligencia
Artificial

Inteligencia artificial
en la educación

JÉRÉMY BARBAY Profesor Asistente del Departamento de Ciencias de la Computación de la Universidad de Chile.

La tecnología siempre se ha incorpora- Tales tecnologías educacionales inclu-


do a la docencia de manera desigual, y Historia y definiciones yen una gran variedad de dominios de
las técnicas de Inteligencia Artificial desarrollo. Respecto al material, se consi-
(IA) no son una excepción. Con el fin deran una gran cantidad de dispositivos,
de contribuir a reducir dicha desigual- Tecnologías educacionales desde proyectores de apuntes copiados
dad, presentamos una vista superficial sobre láminas transparentes, compu-
de: 1) algunas técnicas de inteligen- El campo de “tecnologías educaciona- tadoras personales e interconectadas,
cia artificial, 2) algunos sistemas de les” corresponde al estudio y la práctica hasta tecnologías “inteligentes” como
manejo del aprendizaje, y 3) algunas ética de facilitar la educación y mejorar teléfonos, entornos virtuales, computa-
aplicaciones de técnicas de IA a lo se- el rendimiento creando, usando y mane- ción en la nube, aparatos “wearable” y
ñalado en el punto 2. Con la finalidad jando los recursos y procesos adecua- “location-aware”. Respecto del software,
de (intentar) guiar desarrollos futuros, dos. Desde la perspectiva del uso de la se considera, por un lado el software di-
presentamos una discusión corta so- tecnología en educación, tecnologías rigido a quienes aprenden, como los soft-
bre los desafíos presentes y futuros educacionales se puede entender como ware de simulación y de visualización, y
de las técnicas de inteligencia artifi- el uso de tecnologías existentes y emer- las interfaces de gamificación mejorando
cial sobre los sistemas de manejo de gentes para mejorar la experiencia de la motivación; y, por otro lado, el softwa-
aprendizaje. aprendizaje en una variedad de contex- re dirigido a la administración del apren-
tos instruccionales, como el aprendizaje dizaje, con los “Learning Management
formal, informal, no-formal, a demanda Systems” (LMS)1 y su integración vía
(on-demand) o “just-in-time” [1]. “Learning Tools Interoperability” (LTI).2

1 | https://en.wikipedia.org/wiki/Learning_management_system.
2 | https://en.wikipedia.org/wiki/Learning_Tools_Interoperability.

53
Inteligencia
Artificial

tras que las máquinas se vuelven más


capaces, tecnologías que alguna vez se
consideraban del campo de “inteligen-
cia artificial” se reevalúan.

La expresión “inteligencia artificial” fue


introducida en 1956 por John McCar-
thy, quien la definió como “la ciencia e
ingenio de hacer máquinas inteligentes,
especialmente programas de cómputo
inteligentes”. Pero el concepto existía
desde hace mucho más tiempo, lo que
hace que siga evolucionando en paralelo
con las tecnologías [3].

En 2021, los objetivos de “inteligencia


artificial” se pueden clasificar en cuatro
tipos [4]:

• Sistemas que piensan como hu-


manos. Estos sistemas tratan de
emular el pensamiento humano,
por ejemplo, las redes neuronales
artificiales. La automatización de
actividades que vinculamos con
procesos de pensamiento huma-
no, actividades como la toma de
La digitalización del material educativo, En tal desarrollo de las tecnologías edu- decisiones, resolución de proble-
una tendencia que existía pero se desarro- cacionales, era esperable ver llegar las mas y aprendizaje.
llaba relativamente lenta hasta 2019 [2], técnicas de inteligencia artificial, las
se ha acelerado con la transición súbita cuales intentamos definir en la siguien- • Sistemas que actúan como huma-
hacia la docencia online en el contexto te sección, antes de desarrollar sus in- nos. Estos sistemas tratan de ac-
de la pandemia por COVID-19. En este teracciones con el campo de “Learning tuar como humanos, es decir, imi-
contexto, se han digitalizado muchos Management Systems” en la sección tan el comportamiento humano, por
aspectos de la docencia. Por un lado, las “Aplicaciones de la IA a los LMS”. ejemplo, la robótica. El estudio de
charlas, tradicionalmente en anfiteatros y cómo lograr que los computadores
en vivo, y raramente grabadas, han sido Técnicas de inteligencia artificial realicen tareas que, por el momen-
reemplazadas en muchos casos por la to, los humanos hacen mejor.
difusión en tiempo real de tales charlas Conviene primero aclarar el concepto
en video, y en otros casos por la difusión de “inteligencia artificial”. En la vida • Sistemas que piensan racionalmen-
de cápsulas de videos cortas, grabadas diaria, el término se aplica cuando una te. Esto es, con lógica (idealmente),
y editadas con anticipación: en ambos máquina imita las funciones “cogni- tratan de imitar el pensamiento ra-
casos, los alumnos pueden mirar tales vi- tivas” que los humanos asocian con cional del ser humano, por ejemplo,
deos en momentos de su elección, desde mentes humanas, como por ejemplo: los sistemas expertos. El estudio de
su hogar, y muchas veces las ven mien- “percibir”, “razonar”, “aprender” y “resol- los cálculos que hacen posible per-
tras hacen otras actividades y/o en modo ver problemas” [4]. Una definición más cibir, razonar y actuar.
acelerado. Por otro lado, las evaluaciones formal y menos antropomórfica sería
teóricas, tradicionalmente entregadas “la capacidad de un sistema para inter- • Sistemas que actúan racionalmente.
sobre papel, en instancias de exámenes pretar correctamente datos externos, Tratan de emular de forma racional
presenciales, están siendo reemplazadas para aprender de dichos datos y emplear el comportamiento humano, por
por entregas digitales, generando sospe- esos conocimientos para lograr tareas y ejemplo los agentes inteligentes.
chas de copias y de usurpación de identi- metas concretas a través de la adapta- Está relacionado con conductas in-
dades en los cuerpos docentes. ción flexible”. En ambos casos, mien- teligentes en artefactos.

54
Inteligencia
Artificial

En la siguiente sección veremos cómo las lar aplicadas a los aspectos de la adminis- tecnologías que apuntan a acercar las
técnicas de inteligencia artificial se han re- tración de la docencia. Tales aplicaciones capacidades de las máquinas a las ca-
lacionado y siguen relacionándose con las permiten, entre otros, detectar ocurrencias pacidades de los humanos. En varias
técnicas de educación y de aprendizaje. de plagio, automatizar algunos aspectos épocas se sobreprometió lo que se
de la evaluación de trabajos, e identificar a podía lograr con dichas técnicas, y la
un alumno presente cuyo perfil sea similar época presente no es una excepción.
al perfil de alumnos anteriores que tuvie- Pero aún permiten automatizar algunas
Aplicaciones de la IA a ron problemas en fases siguientes. tareas humanas, y apoyar otras.
los LMS
Por otro lado, software como Duolingo5 El área de la educación, y en particular
usa técnicas de gamificación para man- el área de la educación en línea, tiene un
Desde muy temprano se relacionaron tener la motivación de sus alumnos, y gran potencial de mejoras vía técnicas
los temas de educación (humana) e inte- técnicas de repetición espaciada [6] digitales en general, y técnicas propias
ligencia artificial, quizás porque en am- para programar qué ejercicio darle a un de “inteligencia artificial” en particular, y
bos casos se trata de desarrollar habili- alumno en función de modelos. ha sido un poco lenta en adoptar dichas
dades “inteligentes”’, ya sea en humanos técnicas. Es esperable que con la digi-
o en máquinas. Seymour Papert, uno de En el futuro, técnicas de inteligencia talización acelerada debido a la pande-
los cofundadores del Instituto de Inte- artificial tendrán otras aplicaciones en mia por COVID-19, dicha transición se
ligencia Artificial del MIT, en 1963 (con educación. Investigadores como la Dra. vea acelerada.
Marvin Minsky, considerado uno de los Shaghayegh Sahebi están proponiendo
padres de la inteligencia artificial3, había diseñar, desarrollar y evaluar sistemas Como siempre con la tecnología, será
tenido previamente un rol mayor en la capaces de realizar recomendaciones importante no dejar el efecto de no-
evaluación y el desarrollo de técnicas de personalizadas de material docente en vedad, ni quitar el foco de problemas
educación, en colaboración con el psicó- función de varios parámetros [7]. importantes existentes (por ejemplo,
logo educativo Piaget.4 desigualdades) ignorados o amplifica-
dos por nuevas técnicas, ni de nuevos
En 2021, técnicas de inteligencia artificial problemas creados por dichas técnicas
presentan aplicaciones en varios aspectos Conclusiones (por ejemplo, sesgos en favor de mino-
de la docencia. En un survey publicado en rías producidos por técnicas de inferen-
2020, Chen et al. [5] describen varias apli- cias, impacto ecológico de las digitali-
caciones de inteligencia artificial en áreas Las técnicas descritas como “inteligen- zaciones, etc.).
relacionadas con la educación, en particu- cia artificial” no son más que nuevas

REFERENCIAS
[1] R. Huang, J. Spector y J. Yang (2019). Educational Technology: A Primer for the 21st Century. 10.1007/978-981-13-6643-7.
[2] J. Barbay y V. Peña-Araya (2019). El Académico Digital. En Revista Bits de Ciencia nº18.
[3] Historia de la inteligencia artificial. En Wikipedia. Accedido desde https://es.wikipedia.org/wiki/Historia_de_la_inteligencia_artificial,
[2021-04-19 Mon].
[4] Inteligencia artificial. En Wikipedia. Accedido desde https://es.wikipedia.org/wiki/Inteligencia_artificial, last accessed, [2021-04-19 Mon].
[5] L. Chen, P. Chen y Z. Lin. (2020). Artificial Intelligence in Education: A Review. En IEEE Access, vol. 8, pp. 75264–75278, 10.1109/
ACCESS.2020.2988510.
[6] Spaced repetition. En Wikipedia. Accedido desde https://en.wikipedia.org/wiki/Spaced_repetition, [2021-04-19 Mon].
[7] https://www.nsf.gov/awardsearch/showAward?AWD_ID=2047500, [2021-04-19 Mon].

3 | https://es.wikipedia.org/wiki/Marvin_Minsky.
4 | https://es.wikipedia.org/wiki/Seymour_Papert.
5 | https://www.duolingo.com/.

55
Inteligencia
Artificial

Aprendizaje de representaciones
en grafos y su importancia en el
análisis de redes

MARCELO MENDOZA Profesor Asociado del Departamento de Informática de la Universidad Técnica Federico Santa María e Investiga-
dor Asociado del Instituto Milenio Fundamentos de los Datos.

Una de las líneas de investigación en cuentas que siguen a personajes de alta El cambio en el régimen de interaccio-
inteligencia artificial más fructíferas de connotación pública son bots, las cuales nes es una pista que nosotros usamos
la última década es el aprendizaje de entregan soporte a sus mensajes con para detectarlos.
representaciones. Mostraremos dos likes y retweets. Cuando estos mensajes
ejemplos en los cuales el aprendizaje de muestran un inusitado nivel de reaccio- En [3], mostramos cómo extender una
representaciones de nodos en grafos ha nes, se transforman en tendencias, lo representación de nodos aprendida a
permitido abordar exitosamente tareas cual aumenta aún más su visibilidad. Al partir de la red de conexiones sociales
de análisis de redes. transformarse en tendencias, su influen- en Twitter. La estrategia de aprendizaje
cia en la red crece, produciendo un fenó- usada se denomina ComplEx [4], la cual
meno de bola de nieve. permite aprender node embeddings de
la red de conexiones para predicción de
Detección de bots La detección de bots ha sido una ta- links. Para capturar el régimen de inte-
rea difícil. Mientras que las primeras racciones entre cuentas, extendemos
generaciones de bots eran sencillas ComplEx reescalando los node embed-
Los bots tienen un nefasto efecto en la de detectar, las nuevas generaciones dings en la dirección de los vecinos con
diseminación de información engañosa de bots, conocidas como social bots, los cuales tienen más interacciones. La
o tendenciosa en redes sociales [1]. Su alternan periodos de propaganda y pe- Figura 1 muestra la estrategia de rees-
objetivo es amplificar la alcanzabilidad riodos de baja actividad [2]. En estos calamiento basada en interacciones, lo
de campañas, transformando artificial- últimos, los bots muestran un compor- cual permite recalcular los node embed-
mente mensajes en tendencias. Para tamiento cercano al de un usuario pro- dings combinando ambas redes (social
ello, las cuentas que dan soporte a cam- medio, con participación esporádica e interacción). Para aprender los node
pañas se hacen seguir por cuentas ma- en la red. En periodos de campaña, la embeddings usamos una estrategia de-
nejadas por algoritmos. Muchas de las actividad de estas cuentas aumenta. nominada retrofitting [5], que busca una

56
Inteligencia
Artificial

representación consistente entre ambas


fuentes de información.

Para detectar bots, aplicamos un algo-


ritmo de propagación de etiquetas en la
red de proximidad de node embeddings.
El método de propagación permite tra-
bajar con un número reducido de nodos
etiquetados como bots, usando una es-
trategia semisupervisada sobre la red.
La estrategia semisupervisada permite
que el método funcione sobre redes de
enorme tamaño con sólo una fracción
de sus nodos etiquetados por expertos
(app. 1% del total de la red). Mostramos
que el método de imputación de etique-
tas es análogo a una estrategia de paso
de mensajes en una red neuronal de
grafos que aborda una tarea de clasifi-
cación de nodos [6].

Figura 1. Extensión de ComplEx [4] que incorpora la red de interacciones entre usua- Nuestro método superó al estado del
rios de Twitter. arte (Botometer [7] y Holoscope [8]). Su
principal habilidad está en la detección
de botnets, lo cual le permite sacar ven-
taja de sus más directos competidores
Cluster CL1 que abordan la tarea como clasifica-
ción de nodos. El método de propaga-
ción de etiquetas tiene la ventaja de
Cluster CL3 identificar grupos de cuentas clusteri-
Cluster CL2 zadas según interacciones inusuales,
detectando patrones de coordinación
temporal. La Figura 2 muestra una red
de proximidad entre node embeddings y
tres clusters con alta presencia de bots
(nodos rojos) en Twitter. Mientras que
el cluster 1 (CL1) es una botnet que no
ha logrado interactuar con humanos
(nodos verdes), los clusters 2 (CL2) y
3 (CL3) muestran una mimetización de
los bots en las redes de humanos, con
interacción cruzada entre ambos tipos
de usuarios.

(a) Cluster CL1. (b) Cluster CL2. (c) Cluster CL3. Predictibilidad en redes
sociales offline
Figura 2. Red de proximidad entre node embeddings en Twitter, que muestra tres
clusters con presencia de bots (nodos rojos). Mientras que el cluster 1 (CL1) no logra
En [9], analizamos las relaciones filiales
interactuar con humanos (nodos verdes), los clusters 2 (CL2) y 3 (CL3) se mimetizan,
entre personas, observables a través de
promoviendo contenido propagandístico.
los vínculos de apellidos paternos-ma-

57
Inteligencia
Artificial

ternos. La red construida con los datos


del servicio electoral y cruzada con da- C3: Korean/Chinese (78%)
tos del Indice de Bienestar Territorial SES: 76.3; N: 34

nos permitió construir un mapa de las


C2: Mapuche (81.5%)
conexiones familiares de los habitan- C1: Romani (83.5%)
SES: 42.9; N: 65 C7: Aristocrats (47.3%)
tes de la Región Metropolitana. Usando SES: 79.7; N: 396
SES: 55.8; N: 9

el método de Mateos et al. [10], identi-


ficamos los vínculos cuyas ocurrencias
C4: Mapuche (96.1%)
superaban el valor esperado dado por
SES: 40.2; N: 669 C0: Palestinian (15%)
una red de conexiones aleatorias. Una
C6: Mixed SES: 82.1; N: 392
vez construida la red, visualizamos su
SES: 75.0; N: 45
estructura agrupando nodos según mo-
dularidad. Las comunidades detectadas C8: Mixed
SES: 68.7; N: 62
muestran etnias y también una fuerte C5: Jewish (13.4%)
SES: 80.4; N: 434
clusterización de apellidos de clase alta
según índice socioeconómico (ver Figu-
The three highest income
ra 3, al tope). deciles show more nodes
and hubs than the middle
and low class deciles
La misma red, ahora clusterizada según
ingreso socioeconómico (ver Figura 3,
al medio), muestra dos particiones, una The middle and low
income deciles show less
con una fuerte interacción entre apelli- nodes and hubs than the
dos poco frecuentes y muchos nodos high class deciles

articuladores (comunidad azul de los


tres deciles de ingreso más alto), y una
partición mucho más desarticulada, con
una vinculación más débil entre apelli-
dos y menos nodos articuladores (co-
munidad roja de los siete deciles más
bajos de ingreso). Estudiamos la pre-
dictibilidad de esta red, donde la tarea
Hits@{1,3,10} per decile
corresponde a predecir vínculos entre Hits per rank in each decile

familias no conectadas (link prediction).


Para hacer esto, aplicamos una técnica
de aprendizaje de representaciones de
Hits

Hits
nodos basada en factorización tensorial
denominada método de TuckER [11]. Decile
Probamos el desempeño de otros mé- Rank
todos de representación a nivel de no-
dos, como ComplEx [4], RESCAL [12] y
RotatE [13], usados en knowledge-base
Figura 3. Redes de vínculos paternos-maternos en la Región Metropolitana (al tope),
completion. TuckER mostró mejor des-
la misma red clusterizada según ingreso socioeconómico (al medio), y la predictibili-
empeño en link prediction que sus com-
dad de vínculos usando TuckeER [11] (al pie).
petidores, factor atribuible a su habilidad
de trabajar con datos sparse.

Al pie de la Figura 3 mostramos los des en tareas complejas, tanto en redes


resultados de predicción de vínculos Conclusión sociales en línea como en redes offline.
segmentados por decil de ingreso. Su habilidad para codificar caracterís-
Los deciles de mayor ingreso (d1 - d3) ticas esenciales en distintos dominios
muestran mejor predictibilidad, la cual La inteligencia artificial a través de su permite generar representaciones que
disminuye progresivamente para los de- área denominada aprendizaje de repre- mejoran las posibilidades de análisis
ciles de menor ingreso (d4 – d10). sentaciones ofrece enormes posibilida- de datos.

58
Inteligencia
Artificial

REFERENCIAS
[1] Stefano Cresci: A decade of social bot detection. Commun. ACM 63(10): 72–83 (2020).
[2] Stefano Cresci, Roberto Di Pietro, Marinella Petrocchi, Angelo Spognardi, Maurizio Tesconi: The Paradigm-Shift of Social Spambots:
Evidence, Theories, and Tools for the Arms Race. WWW (Companion Volume) 2017: 963–972.
[3] Marcelo Mendoza, Maurizio Tesconi, Stefano Cresci: Bots in Social and Interaction Networks: Detection and Impact Estimation. ACM
Trans. Inf. Syst. 39(1): 5:1–5:32 (2020).
[4] Théo Trouillon, Johannes Welbl, Sebastian Riedel, Éric Gaussier, Guillaume Bouchard: Complex Embeddings for Simple Link Predic-
tion. ICML 2016: 2071–2080.
[5] Manaal Faruqui, Jesse Dodge, Sujay Kumar Jauhar, Chris Dyer, Eduard H. Hovy, Noah A. Smith: Retrofitting Word Vectors to Semantic
Lexicons. HLT-NAACL 2015: 1606–1615.
[6] Franco Scarselli, Sweah Liang Yong, Marco Gori, Markus Hagenbuchner, Ah Chung Tsoi, Marco Maggini: Graph Neural Networks for
Ranking Web Pages. Web Intelligence 2005: 666–672.
[7] Onur Varol, Emilio Ferrara, Clayton A. Davis, Filippo Menczer, Alessandro Flammini: Online Human-Bot Interactions: Detection, Estima-
tion, and Characterization. ICWSM 2017: 280–289.
[8] Shenghua Liu, Bryan Hooi, Christos Faloutsos: HoloScope: Topology-and-Spike Aware Fraud Detection. CIKM 2017: 1539–1548.
[9] Naim Bro, Marcelo Mendoza. Surname affinity in Santiago, Chile: A network-based approach that uncovers urban segregation. PLOS
ONE, 16(1): e0244372, 2021.
[10] Pablo Mateos, Paul Longley, David O’Sullivan. Ethnicity and population structure in personal naming networks. PLOS ONE, 6(9):
e22943, 2011.
[11] Ivana Balazevic, Carl Allen, Timothy M. Hospedales: TuckER: Tensor Factorization for Knowledge Graph Completion. EMNLP/IJCNLP
(1) 2019: 5184–5193.
[12] Maximilian Nickel, Volker Tresp, Hans-Peter Kriegel: A Three-Way Model for Collective Learning on Multi-Relational Data. ICML 2011:
809–816
[13] Zhiqing Sun, Zhi-Hong Deng, Jian-Yun Nie, Jian Tang: RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space.
ICLR 2019.

59
Inteligencia
Artificial

Aprendizaje profundo en
sistemas de recomendación

DENIS PARRA Profesor Asociado del Departamento de Ciencia de la Computación de la Pontificia Universidad Católica de Chile e
Investigador Adjunto del Instituto Milenio Fundamentos de los Datos.

Corría el año 2010 y yo cursaba mi docto- Recuerdo que vimos muchas técnicas Sutskever y Hinton—, que usando una
rado enfocado en personalización y sis- que permitían aprender modelos a partir red neuronal convolucional profunda
temas de recomendación en la Universi- de datos, con especial énfasis en mo- (deep convolutional neural network) con
dad de Pittsburgh, ubicada en la ciudad delos gráficos —por ejemplo, el famoso 60 millones de parámetros y 650 mil
homónima (Pittsburgh) al oeste del esta- Latent Dirichlet Allocation [1]— así como neuronas, entrenado con dos GPUs du-
do de Pennsylvania en Estados Unidos. en métodos kernel como Support Vector rante una semana, ganaba el ImageNet
Las técnicas más avanzadas de mi tema Machines (SVM). Casi al final del curso, challenge 2012 con un error top-5 del
de investigación eran del área conocida tuvimos una clase algo tímida sobre re- 15,3% y más de 10 puntos de mejora
como Aprendizaje Automático (en inglés, des neuronales artificiales, un método en relación al segundo lugar. Las redes
Machine Learning), por lo que sentía la interesante pero que poca gente usaba. neuronales profundas tenían algunos
necesidad de tomar un curso avanzado Las redes neuronales artificiales datan antecedentes importantes de buen ren-
para completar mi formación. En el se- de los años cincuenta [2], renacieron en dimiento [4], pero el resultado del 2012
mestre de otoño finalmente me inscribí los ochenta luego del invierno de la IA en el ImageNet challenge catapultó su
en el curso de Aprendizaje Automático, [3], para luego volver a perder tracción popularidad. La arquitectura de red neu-
y gracias a un convenio académico pude en los noventa. Cuál fue mi sorpresa ronal creada empezó a ser popularmen-
cursarlo en la universidad vecina, Car- cuando el año 2012 las redes neurona- te conocida como AlexNet [5], debido al
negie Mellon University. Yo estaba real- les artificiales pasaban a ser el método nombre del primer autor, Alex Krizhev-
mente emocionado de tomar un curso que todos querían usar y del cual todos sky. A partir de ese momento, inge-
en un tema de tan creciente relevancia hablaban. El motivo fue el sorprendente nieros e investigadores de diferentes
en unas de las mejores universidades resultado del equipo SuperVision de la áreas de la inteligencia artificial que-
del mundo en el área de computación. Universidad de Toronto1 —Krizhevsky, rían escribir los términos deep learning

1 | https://www.image-net.org/challenges/LSVRC/2012/results.html.

60
Inteligencia
Artificial

Input: actual item, 1-of-N coding

Output: scores on items


Feedforward layers
Embedding layer

GRU layer
GRU layer

GRU layer

Fuente: [16]. Fuente: http://colah.github.io/posts/2015-08-Understanding-LSTMs/.

Figura 1. Arquitectura de GRU4Rec donde cada capa GRU tiene celdas GRU como la que se observa a la derecha, que pueden
recordar y olvidar, selectivamente, permitiendo el aprendizaje de secuencias.

los trabajos de Van den Oord et al. [14],


un recomendador de música que utili-
zaba representaciones de audio apren-
didas con una red neuronal profunda.
Luego, se presenta en 2015 “aprendizaje
profundo colaborativo para SisRec” [15],
un método que combina las técnicas
de filtrado colaborativo con denoising
Fuente: [17]. autoencodeers. El mismo 2015 aparece
GRU4Rec [16] que modela secuencias
Figura 2. Diagrama de VBPR que indica cómo las características visuales obtenidas con de interacciones usando redes recurren-
una red neuronal convolucional profunda son incorporadas en el predictor de preferencia. tes con celdas GRU (ver Figura 1) para
recomendar productos, y el mismo año
se publica VBPR [17], método que utili-
za la representación de imágenes que
o neural network en el título de sus preferencias individuales. Compañías tan entrega una red convolucional preen-
artículos, y es así cómo este método diversas como Amazon, Netflix, Google, trenada para mejorar recomendaciones
empieza a permear desde el campo de Booking y Spotify basan buena parte de visuales (ver Figura 2) realizadas por el
visión por computador a otras áreas sus funcionalidades y modelos de nego- modelo BPR [18].
como recuperación de información [6], cio en sistemas recomendadores. Estos
traducción automática [7], describir sistemas se han desarrollado por más de Es difícil saber por qué el área de SisRec
imágenes con texto de forma automá- treinta años, pero han evolucionado espe- demoró tanto (alrededor de tres años) en
tica [8], o incluso áreas creativas como cialmente rápido en la última década. ingresar a la ola de las redes neuronales
generación visual [9] y musical [10]. profundas, pero es posible argumentar al-
Volviendo a la aplicación de aprendizaje gunas razones en base a los pilares que
A pesar del frenesí de distintas áreas profundo aplicado a SisRec, es posible posibilitaron el crecimiento del aprendizaje
por usar aprendizaje profundo, no fue rescatar como antecedente previo a profundo: (a) gran cantidad de datos, (b)
hasta el 2015 que aparecen papers re- ImageNet el uso de restricted Boltzman algoritmos de aprendizaje más eficien-
levantes de aprendizaje profundo apli- machines [12], un tipo de red neuronal tes, y (c) hardware especializado para el
cados a Sistemas Recomendadores (de probabilística, entre los mejores méto- entrenamiento. En el área de sistemas de
aquí en adelante, SisRec). Recordemos dos que compitieron en el Netflix prize recomendación no era trivial encontrar da-
que los SisRec tienen como rol principal [13]. Sin embargo, los primeros trabajos tasets de gran tamaño, como el ImageNet,
ayudarnos a encontrar ítems relevan- utilizando aprendizaje profundo ya sea a para entrenar modelos con tantos millo-
tes dentro de una sobreabundancia de través de representaciones preentrena- nes de parámetros como una red neuronal
información [11] considerando nuestras das o para el modelo completo fueron profunda. Esto se debe a que las grandes

61
Inteligencia
Artificial

compañías han sido reticentes a compar-


tir datasets que indiquen preferencias de
usuarios por productos, ya sea por temas
de competencia como para evitar violacio-
nes de privacidad [19]. En los últimos años
la disponibilidad de grandes datasets para
entrenar modelos de recomendación ha
mejorado mucho, con datasets como el de
Spotify2, Goodreads3 o la versión 25M del
tradicional movielens dataset4. En cuanto a
algoritmos, si bien es posible adaptar mé-
todos existentes de clasificación de imáge-
nes o ranking de documentos para tareas
de recomendación, el hecho de tener que
incorporar el modelo de usuario en el mé-
todo complejiza un poco su modelamiento
e implementación. No es lo mismo usar un
modelo de ranking de imágenes dada una
imagen de entrada, que un modelo de ran-
king de imágenes personalizado, que con-
sidere tanto el historial de consumo de un
usuario [17, 20, 21] así como el contexto de
dicho consumo —día de la semana, hora,
haciendo qué actividad, etc. [22]. En rela-
ción a hardware, no es un secreto que son
grandes compañías como NVidia, Google,
Amazon, o Facebook quienes disponen
de los mejores recursos de hardware para
entrenar modelos que crecen sin cesar en
cantidad de parámetros: como muestra, el
reciente modelo de lenguaje GPT-3 tiene
175 mil millones de parámetros [23], com-
parado con los 60 millones de parámetros
de la AlexNet. Esto dificulta la investiga-
ción que provenga exclusivamente desde
la academia, donde los incentivos permi-
ten investigar temas diferentes a los que
empujan la investigación en la industria.
A pesar de estas dificultades, una propie-
dad interesante de estos modelos es la
posibilidad de hacer transfer learning [24],
es decir, entrenarlos inicialmente para una
Fuente: [26]. tarea y luego actualizar todos o parte de
sus pesos para otro dataset o para otras
tareas. Esto permite que el costo mayor
Figura 3. Las dos redes neuronales que formaban parte del sistema recomendador
de entrenamiento lo lleven a cabo grandes
de videos, de aprendizaje profundo, del portal YouTube, activo hasta el 2019.
compañías, fundaciones y universidades,

2 | https://www.aicrowd.com/challenges/spotify-million-playlist-dataset-challenge.
3 | https://sites.google.com/eng.ucsd.edu/ucsdbookgraph/home.
4 | https://grouplens.org/datasets/movielens/25m/.

62
Inteligencia
Artificial

y luego otros usuarios con menores recur- como a otras áreas de aplicación de la tando ser transparente? Los métodos de
sos de hardware tienen sólo que adaptar inteligencia artificial. Hay, sin embargo, explicabilidad para inteligencia artificial
(finetuning) los pesos para la nueva tarea o dos aspectos importantes a mencionar están en activa investigación en estos
dataset que se aborda. que generan inquietud en el área: cuánto días [34] y si deseamos que los sistemas
es el progreso real que ha traído el apren- de recomendación permeen áreas críti-
A partir del año 2016 el aprendizaje pro- dizaje profundo, y cómo estos modelos cas de toma de decisiones como medi-
fundo aterriza con fuerza en la conferen- afectan el avance en temas de temas de cina, finanzas o seguridad, se debe avan-
cia internacional ACM de sistemas reco- equidad, explicabilidad y transparencia.5 zar en esta área. En relación a asegurar
mendadores, donde se publica “Ask the que estos sistemas no están sesgados
GRU” [25], un recomendador con apren- ¿Cuánto se ha progresado? El artículo existe una inquietud similar: cómo hacer
dizaje multitarea de artículos científicos de [32] pone en entredicho el impacto que provean recomendaciones justas a
que usa una red recurrente con celdas del del aprendizaje profundo en los SisRec, diferentes grupo de usuarios finales, por
tipo Gated Recurrent Unit. Además de este mostrando que cuando métodos tradi- ejemplo de un sistema de recomenda-
paper, autores de Google [26] presentan la cionales de factorización matricial que ción de empleo, así como a creadores de
nueva versión del sistema recomendador se conocen por más de una década son contenido: que un portal de libros reco-
de videos de YouTube, basado en dos re- entrenados adecuadamente, tienen tan- miende con la misma probabilidad tanto
des neuronales profundas (ver Figura 3), to o mejor rendimiento que métodos de a escritores hombres como mujeres o
una red que selecciona cientos de candi- aprendizaje profundo. Si bien este pa- de otros grupos LGBTQ.
datos a partir de millones de opciones, y per es relevante por mostrar una crisis
una segunda red que ordena los videos de reproducibilidad en SisRec y que no Conclusión. El aprendizaje profundo
candidatos previamente filtrados. La nue- siempre el aprendizaje profundo puede tomó algunos años en permear el área
va arquitectura del portal YouTube [27] mejorar el rendimiento los métodos ya de sistemas de recomendación en
tiene algunos aspectos interesantes, por conocidos, hay un aspecto relevante a comparación con otras áreas de inte-
ejemplo que considera los likes de los considerar. La investigación de Dacre- ligencia artificial, pero se instaló con
usuarios para generar el perfil del usua- ma sólo considera tuplas usuario-ítem fuerza a partir de 2016 gracias a su
rio para recomendar, cosa que no hacía como entrada, pero no considera in- gran capacidad para encontrar repre-
el recomendador anterior [26]. formación adicional como imágenes, sentaciones de usuarios y datos para
video, metadata, contexto, etc. Justa- posteriormente ser usadas en tareas
Luego de estas publicaciones, es común mente es con esta gran cantidad y di- de filtrado de información. Con el avan-
encontrar SisRec implementados con versidad de datos donde es esperable ce de modelos de visión por computa-
métodos de aprendizaje profundo en el rendimiento mejorado de técnicas dor, modelos de lenguaje, arquitecturas
temas como recomendación de músi- de aprendizaje profundo, por lo cual se como atención y más recientemente
ca, películas, libros, pareja sentimental, recomienda revisar con cautela los re- modelos de redes neuronales para gra-
ropa de temporada, entre muchos otros. sultados de este análisis, y ponerlo en fos, el impacto de las redes neuronales
Los sistemas han evolucionado en los perspectiva sólo para el filtrado colabo- profundas en SisRec no ha dejado de
últimos años de la arquitecturas como rativo tradicional. crecer. La integración de estas técni-
Transformer [28], integrados con otras cas con otras como aprendizaje refor-
técnicas como aprendizaje reforzado FAccT. Considerar los desafíos que se zado para SisRec y el crecimiento en
profundo [29], así como explotando plantean en la inteligencia artificial en los últimos años de los sistemas de
avances en áreas como NLP [30] o mo- relación a equidad (fairness), explica- recomendación conversacionales [35]
delos generativos [31]. bilidad (accountability) y transparencia le siguen dando fuerza a esta área de
(transparency) es un gran desafío para investigación. Los desafíos en térmi-
los modelos de aprendizaje profundo nos de mostrar los avances reales en
en SisRec [33]. Considere el caso en que rendimiento de estas técnicas [32] así
Discusión y conclusión usa GPT-3, un modelo de 175 mil millo- como su adaptación para lidiar con ne-
nes de parámetros, para recomendar un cesidades de equidad, transparencia,
documento y el usuario solicita una ex- explicabilidad [33], nos harán ver sin
El aprendizaje profundo ha impactado plicación sobre dicha sugerencia ¿cómo duda mucha más investigación en este
positivamente el área de SisRec, tanto explicaría dicha recomendación inten- tema en los años venideros.

5 | FAccT 2018. ACM Conference on Fairness, Accountability, and Transparency https://facctconference.org/.

63
Inteligencia
Artificial

REFERENCIAS
[1] Blei, D. M., Ng, A. Y., & Jordan, M. I. (2003). Latent dirichlet allocation. the Journal of machine Learning research, 3, 993-1022.
[2] Rosenblatt, F. (1957). The perceptron, a perceiving and recognizing automaton Project Para. Cornell Aeronautical Laboratory.
[3] Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1985). Learning internal representations by error propagation. California Univ. San
Diego La Jolla Inst. for Cognitive Science.
[4] Ciresan, D. C., Meier, U., Masci, J., Gambardella, L. M., & Schmidhuber, J. (2011). Flexible, high performance convolutional neural ne-
tworks for image classification. In Twenty-second international joint conference on artificial intelligence.
[5] Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances in
neural information processing systems, 25, 1097-1105.
[6] Severyn, A., & Moschitti, A. (2015). Learning to rank short text pairs with convolutional deep neural networks. In Proceedings of the
38th international ACM SIGIR conference on research and development in information retrieval (pp. 373-382).
[7] Bahdanau, D., Cho, K., & Bengio, Y. (2014). Neural machine translation by jointly learning to align and translate. arXiv preprint ar-
Xiv:1409.0473.
[8] Vinyals, O., Toshev, A., Bengio, S., & Erhan, D. (2015). Show and tell: A neural image caption generator. In Proceedings of the IEEE con-
ference on computer vision and pattern recognition (pp. 3156-3164).
[9] Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., and Bengio, Y. (2014). Generative adver-
sarial networks. arXiv preprint arXiv:1406.2661.
[10] Roberts, A., Engel, J., Raffel, C., Hawthorne, C., & Eck, D. (2018). A hierarchical latent vector model for learning long-term structure in
music. In International Conference on Machine Learning (pp. 4364-4373). PMLR.
[11] McNee, S. M., Kapoor, N., & Konstan, J. A. (2006). Don’t look stupid: avoiding pitfalls when recommending research papers. In Proce-
edings of the 2006 20th anniversary conference on Computer supported cooperative work (pp. 171-180). ACM.
[12] Salakhutdinov, R., Mnih, A., & Hinton, G. (2007). Restricted Boltzmann machines for collaborative filtering. In Proceedings of the 24th
international conference on Machine learning (pp. 791-798).
[13] Bennett, J., & Lanning, S. (2007, August). The Netflix Prize. In Proceedings of KDD cup and workshop (Vol. 2007, p. 35).
[14] Van Den Oord, A., Dieleman, S., & Schrauwen, B. (2013). Deep content-based music recommendation. In Neural Information Proces-
sing Systems Conference (NIPS 2013) (Vol. 26). Neural Information Processing Systems Foundation (NIPS).
[15] Wang, H., Wang, N., & Yeung, D. Y. (2015). Collaborative deep learning for recommender systems. In Proceedings of the 21th ACM
SIGKDD international conference on knowledge discovery and data mining (pp. 1235-1244).
[16] Hidasi, B., Karatzoglou, A., Baltrunas, L., & Tikk, D. (2015). Session-based recommendations with recurrent neural networks. arXiv
preprint arXiv:1511.06939.
[17] He, R., & McAuley, J. (2016). VBPR: visual bayesian personalized ranking from implicit feedback. In Proceedings of the AAAI Confe-
rence on Artificial Intelligence (Vol. 30, No. 1).
[18] Rendle, S., Freudenthaler, C., Gantner, Z., & Schmidt-Thieme, L. (2012). BPR: Bayesian personalized ranking from implicit feedback.
arXiv preprint arXiv:1205.2618.
[19] Narayanan, A., & Shmatikov, V. (2006). How to break anonymity of the Netflix Prize dataset. arXiv preprint cs/0610105.
[20] Chen, J., Zhang, H., He, X., Nie, L., Liu, W., & Chua, T. S. (2017). Attentive collaborative filtering: Multimedia recommendation with
item-and component-level attention. In Proceedings of the 40th International ACM SIGIR conference on Research and Development
in Information Retrieval (pp. 335-344).
[21] Messina, P., Domínguez, V., Parra, D., Trattner, C., & Soto, A. (2019). Content-based artwork recommendation: integrating painting
metadata with neural and manually-engineered visual features. User Modeling and User-Adapted Interaction, 29(2), 251-290.
[22] Adomavicius, G., & Tuzhilin, A. (2011). Context-aware recommender systems. In Recommender systems handbook (pp. 217-253).
Springer, Boston, MA.
[23] Brown, T. B., Mann, B., Ryder, N., et al. (2020). Language models are few-shot learners. arXiv preprint arXiv:2005.14165
[24] Pan, S. J., & Yang, Q. (2009). A survey on transfer learning. IEEE Transactions on knowledge and data engineering, 22(10), 1345-1359.
[25] Bansal, T., Belanger, D., & McCallum, A. (2016). Ask the gru: Multi-task learning for deep text recommendations. In proceedings of the
10th ACM Conference on Recommender Systems (pp. 107-114).

64
Inteligencia
Artificial

[26] Covington, P., Adams, J., & Sargin, E. (2016). Deep neural networks for YouTube recommendations. In Proceedings of the 10th ACM
Conference on Recommender Systems (pp. 191-198). ACM.
[27] Zhao, Z., Hong, L., Wei, L. et al. (2019). Recommending what video to watch next: a multitask ranking system. In Proceedings of the
13th ACM Conference on Recommender Systems (pp. 43-51).
[28] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. arXiv
preprint arXiv:1706.03762.
[29] Zheng, G., Zhang, F., Zheng, Z., Xiang, Y., Yuan, N. J., Xie, X., & Li, Z. (2018, April). DRN: A deep reinforcement learning framework for
news recommendation. In Proceedings of the 2018 World Wide Web Conference (pp. 167-176).
[30] Penha, G., & Hauff, C. (2020). What does BERT know about books, movies and music? Probing BERT for Conversational Recommen-
dation. In Fourteenth ACM Conference on Recommender Systems (pp. 388-397).
[31] Kang, W. C., Fang, C., Wang, Z., & McAuley, J. (2017). Visually-aware fashion recommendation and design with generative image mo-
dels. In 2017 IEEE International Conference on Data Mining (ICDM) (pp. 207-216). IEEE.
[32] Dacrema, M. F., Cremonesi, P., & Jannach, D. (2019). Are we really making much progress? A worrying analysis of recent neural recom-
mendation approaches. In Proceedings of the 13th ACM Conference on Recommender Systems (pp. 101-109).
[33] Ekstrand, M. D., & Sharma, A. (2017). FATREC Workshop on Responsible Recommendation. In Proceedings of the Eleventh ACM Con-
ference on Recommender Systems (pp. 382-383).
[34] Gunning, D. (2017). Explainable artificial intelligence (xai). Defense Advanced Research Projects Agency (DARPA), nd Web, 2(2).
[35] Christakopoulou, K., Radlinski, F., & Hofmann, K. (2016). Towards conversational recommender systems. In Proceedings of the 22nd
ACM SIGKDD international conference on knowledge discovery and data mining (pp. 815-824).

65
Inteligencia
Artificial

Detección de discurso de odio

AYMÉ ARANGO Estudiante de Doctorado del Departamento de Ciencias de la Computación de la Universidad de Chile

Las redes sociales se han convertido virtual y llegar a ocasionar daños físicos en Sin embargo, algunos investigadores
en un medio importante de interacción individuos. Estudios recientes han encon- consideran categorías más específicas
entre usuarios de todo el mundo. El con- trado vínculos entre el odio en las redes y y construyen modelos capaces de pre-
tenido compartido puede ser de gran uti- los crímenes de odio [1]. Desde diversas decir el tipo específico de odio que está
lidad, como fuente de información inme- disciplinas se trabaja para entender y tratar siendo expresado, como sexismo, racis-
diata que permite el análisis de eventos, de identificar a tiempo este fenómeno. mo, xenofobia, entre otros.
estudio de fenómenos, la difusión de
arte, ciencia, entre otras. Junto con esta Revisar el contenido publicado consiste Técnicas de inteligencia artificial se han
información, también se encuentran en una ardua tarea para los proveedores venido utilizando para intentar resolver
manifestaciones de ciertos fenómenos de redes sociales. Debido al gran flujo este problema. Específicamente, los
comunicacionales como noticias falsas de datos a analizar en un red social, y modelos de aprendizaje automático han
y discurso de odio que pueden producir a su variedad, se requieren técnicas au- sido ampliamente utilizados como he-
efectos colaterales dañinos. tomatizadas para detectar este tipo de rramientas en la detección de discurso
contenido y tomar medidas necesarias a de odio [2, 3], incluyendo, en los últimos
A pesar de que hay cierta discrepancia en tiempo. Dada la complejidad de la tarea, años, modelos basados en arquitecturas
cómo definir el término “discurso de odio”, esto no ha podido lograrse satisfactoria- de redes neuronales [4]. Para que tales
una de las definiciones más usadas es: mente hasta el momento. modelos “aprendan” a diferenciar el con-
expresiones derogatorias a individuos o tenido “odioso” del contenido “normal”, se
grupos atendiendo a cierta característica Desde el punto de vista de la ciencia de necesitan datos previamente etiquetados.
como color de la piel, origen étnico, géne- datos, la detección de discurso de odio Idealmente, estos datos deberían contener
ro, orientación sexual, entre otros.1 La pro- puede ser planteada como un problema ejemplos representativos de los diferentes
pagación de este tipo de contenido en los de clasificación en el cual la entrada es tipos de expresiones de odio existentes.
medios digitales tiene como efectos la mo- un mensaje (tweet, comentario, fotogra- Obtener este tipo de datos etiquetados
lestia e intimidación de los usuarios. En ca- fía, etc.) y la salida es la clasificación es costoso y debido a la información sen-
sos extremos puede trascender el ámbito de éste como contenido odioso o no. sible que manejan y a políticas de cada

1 | https://www.encyclopedia.com/international/encyclopedias-almanacs-transcripts-and-maps/hate-speech.

66
Inteligencia
Artificial

plataforma, muy pocos conjuntos de datos pobre generalización a datos en el mismo que puedan ser extraídas del contexto del
son públicos y la mayoría son pequeños.2 idioma inglés y a datos en español. mensaje, del autor del mensaje (meta-in-
Adicionalmente, algunos de los conjuntos formación) y que por su naturaleza no es-
de datos publicados han sido reportados Siendo el odio en medios digitales un fe- tén atadas a un único idioma [7]. Además,
como sesgados [5], lo que reduce las po- nómeno del cual hay evidencia a lo largo estamos interesados en construir repre-
sibilidades de utilizar datos de calidad, y de todo el mundo, se requieren soluciones sentaciones específicas para el lenguaje
como consecuencia, de construir buenos efectivas en los distintos idiomas para de odio, siendo este un fenómeno con
detectores de discurso de odio. afrontar el problema. La idea de nuestro características especiales donde ciertas
enfoque es aprovechar los recursos exis- palabras o expresiones pueden tomar
Como parte de mi tesis doctoral, junto con tentes (mayormente en inglés) y construir connotaciones de odio, en dependencia
los profesores Bárbara Poblete y Jorge Pé- modelos generalizables a diferentes idio- del contexto. Dichas expresiones no son
rez, estamos investigando técnicas para la mas, ahorrando así el esfuerzo necesario únicas y pueden depender no sólo del
construcción de modelos que sean gene- en la creación de nuevos recursos para idioma, sino del contexto cultural en el que
ralizables a diferentes idiomas. Tal y como cada idioma separadamente. Para que los se exprese. Nos interesaría resaltar estas
sucede en otras tareas relacionadas con modelos de aprendizaje automático sean diferencias culturales en aras de construir
el Procesamiento del Lenguaje Natural, capaces de transferir conocimiento de un modelos que generalicen mejor.
la mayoría de los modelos desarrollados idioma a otro, se requieren representacio-
hasta el momento han sido principalmen- nes de los datos a través de un conjunto Este tipo de generalización presenta aún
te explotados para resolver el problema de características que puedan ser comu- varios retos debido a las diferentes ca-
en el idioma inglés. Como consecuencia, nes para diferentes idiomas. Ejemplo de racterísticas de los idiomas y a la com-
la gran parte de los recursos construidos esto pueden ser representaciones vecto- plejidad que puede tener la tarea, siendo
son de utilidad solamente para este idio- riales multilingües o información que no el odio un fenómeno no sólo lingüístico,
ma, mientras la tarea avanza más lenta- esté directamente relacionada con un idio- sino social y cultural. Definitivamente,
mente para el resto. Analizando dos de ma específico. Particularmente, nuestro todavía hay mucho que investigar en
los mejores modelos reportados en la equipo de investigación ha trabajado en esta área. Los resultados aún no son
literatura de idioma Inglés [6], encontra- encontrar dichas características que sean concluyentes respecto a qué modelo o
mos que los resultados mostrados esta- comunes al odio en diferentes idiomas representación de datos resulta mejor
ban sobreestimados debido a problemas que nos permitan construir modelos gene- para esta tarea y aunque se han logrado
experimentales, y uso de datos sesgados. ralizables. Bajo nuestro foco de atención, algunos avances, la tarea aún está por
Además, estos modelos presentan una se encuentran aquellas representaciones resolverse.

REFERENCIAS
[1] Williams ML, Burnap P, Javed A, Liu H, Ozalp S. Hate in the machine: anti-black and anti-Muslim social media posts as predictors of
offline racially and religiously aggravated crime. Br J Criminol (2020), 60(1), pp. 93–117.
[2] Anzovino, M., Fersini, E., and Rosso, P. Automatic Identification and Classification of Misogynistic Language on Twitter. In Internatio-
nal Conference on Applications of Natural Language to Information Systems (2018), Springer, pp. 57–64.
[3] Papegnies, E., Labatut, V., Dufour, R., and Linares, G. Graph-based Features for Automatic Online Abuse Detection. In International
Conference on Statistical Language and Speech Processing (2017), Springer, pp. 70–81.
[4] Gambäck, B., and Sikdar, U. K. Using Convolutional Neural Networks to Classify Hate-Speech. In Proceedings of the First Workshop
on Abusive Language Online (2017), Association for Computational Linguistics, pp. 85–90.
[5] Maarten Sap, Dallas Card, Saadia Gabriel, Yejin Choi, and Noah A. Smith. The Risk of Racial Bias in Hate Speech Detection. In Proce-
edings of the Association for Computational Linguistics (2019), pp. 1668–1678.
[6] Arango, A., Pérez, J., Poblete, B.: Hate Speech Detection is Not as Easy as You May Think: A Closer Look at Model Validation. In Procee-
dings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval (2019), ACM, pp. 45–54.
[7] Arango, A., Pérez, J., & Poblete, B. Hate Speech Detection is Not as Easy as You May Think: A Closer Look at Model Validation (exten-
ded version). Information Systems , 101584 (2020).

2 | https://github.com/aymeam/Datasets-for-Hate-Speech-Detection.

67
Inteligencia
Artificial

Conectando la visión
y el lenguaje

MUJER
UNA MUJER
UN
PA S E A N D O A
PERRO

PERRO
CAMINATA

JESÚS PÉREZ-MARTÍN Estudiante de Doctorado del Departamento de Ciencias de la Computación de la Universidad de Chile e Investi-
gador del Instituto Milenio Fundamentos de los Datos.
BENJAMÍN BUSTOS Profesor Titular del Departamento de Ciencias de la Computación de la Universidad de Chile e Investigador
Asociado del Instituto Milenio Fundamentos de los Datos.
JORGE PÉREZ Profesor Asociado del Departamento de Ciencias de la Computación de la Universidad de Chile e Investigador
Asociado del Instituto Milenio Fundamentos de los Datos.

En este minuto más de 500 horas de vi- descripciones bien redactadas con las de datos no lingüísticos. Reiter y Dale [1]
deo se están publicando en YouTube.1 palabras clave correctas pueden ayudar caracterizan Natural Language Genera-
Además, el último Digital Global Over- a mejorar las visualizaciones y el tiempo tion (NLG) como la producción de textos
view Report estima que diariamente se de reproducción, ya que ayudan a que el comprensibles a partir de una represen-
visualizan mil millones de horas de video video tenga una mayor visibilidad en los tación no lingüística subyacente de la in-
en la misma plataforma. Con los videos resultados de la búsqueda”. formación. Esta definición de NLG gene-
ganando tanta popularidad, YouTube ralmente se asocia con la de data-to-text
Creator Academy2 recomienda que las La forma de comunicación que más generation, asumiendo que la entrada
descripciones transmitan información usamos los humanos es el lenguaje exacta puede variar sustancialmente.
valiosa para ayudar a los espectadores natural. Es entonces esencial que siste-
a encontrar videos en los resultados mas interactivos de Inteligencia Artificial Hoy en día, la generación de texto a
de búsquedas y comprender lo que (IA) y robots auxiliares sean capaces de partir de una entrada perceptiva no
mirarán.3 En este sentido detalla: “Las generar texto automáticamente a partir estructurada —como una imagen sin

1 | Estadísticas de YouTube 2021 [infografía] - 10 datos fascinantes de YouTube: https://cl.oberlo.com/blog/estadisticas-youtube.


2 | Academia de creadores de YouTube, educación y cursos: https://creatoracademy.youtube.com.
3 | Consejos de YouTube para crear descripciones inteligentes: https://creatoracademy.youtube.com/page/lesson/descriptions?hl=es-419#strate-
gies-zippy-link-1.

68
Inteligencia
Artificial

procesar o un video— se ha convertido


en un desafío importante en el campo de
investigación reciente que combina Vi-
sión y Lenguaje (V+L). Específicamente,
obtener texto a partir de un video (video-
to-text) puede efectuarse, principalmen-
te, recuperando las descripciones más
significativas de un corpus o generando
una nueva descripción dado el video de
contexto. Estas dos formas representan
tareas esenciales para las comunidades
de procesamiento de lenguaje natural y
visión computacional, y son ampliamen-
te conocidas como video-to-text retrieval
y video captioning/description, respecti-
vamente. Ambas tareas son sustancial-
mente más complejas que generar o
recuperar una oración desde una única
imagen. La información espacio-tem- Figura 1. Video captioning usando un embedding visual-sintáctico. El método obtiene
poral presente en los videos introduce representaciones semánticas y sintácticas de alto nivel a partir de la representación
diversidad y complejidad respecto al visual del video. A continuación, el decodificador genera una oración a partir de ellos.
contenido visual y a la estructura de las
descripciones de lenguaje asociadas.

Con gran atención de ambas comunida- al humano. No obstante, las técnicas cación de contenidos visuales de forma
des, V+L incluye otras tareas desafiantes basadas en deep learning han logrado explícita y la intención de producir ora-
que conectan o combinan las modalida- resultados prometedores, tanto para la ciones correctas. Desarrollar técnicas
des de la visión y el lenguaje, como visual generación de descripciones como para que aborden alguno de estos aspectos
question-answering (responder pregun- los métodos basados en
​​ la recuperación. ha guiado la investigación en los últimos
tas basadas en texto sobre imágenes), años. Por un lado tenemos métodos que
caption-based image/video retrieval (da- Como una tarea de generación de texto, intentan conectar las palabras genera-
dos un texto y un grupo de imágenes, de- el proceso de describir videos requiere das a regiones específicas dentro del
bemos recuperar la imagen que mejor se predecir una secuencia de palabras se- video (visual grounding) [2] y modelar las
describe con el texto), video generation mántica y sintácticamente correcta dado relaciones entre ellas [3, 4]. Mientras que
from text (generar un video plausible y el contexto presente en el video. Los pri- por el otro tenemos métodos que consi-
diverso a partir de un texto de entrada) y meros trabajos en esta área siguieron la deran el aprendizaje de una representa-
multimodal verification (dada una o más estrategia de, primero, detectar sujeto, ción sintáctica como un componente
imágenes y un texto, debemos predecir verbo y objeto, formando un triplete SVO; esencial de los enfoques de video cap-
alguna relación semántica). y luego, generar una oración usando tioning [5, 6, 7].
un conjunto reducido de plantillas que
aseguran la correctitud gramatical. Este En el Departamento de Ciencias de la
enfoque requiere que los modelos reco- Computación (DCC) de la Universidad
Sintaxis y semántica de nozcan a los sujetos y objetos que parti- de Chile nos encontramos desarrollando
cipan en la acción que debemos descri- métodos de video captioning que extraen
un video bir, logrando sus mejores resultados en información valiosa sobre las posibles
videos cortos de entornos específicos, descripciones a partir de dimensiones
Es impresionante el progreso que los in- como deporte o cocina. En este tipo de implícitas en la información visual. Nues-
vestigadores han logrado en conjuntos videos, la cantidad de objetos y acciones tros resultados recientes muestran que
de datos específicos, pero a pesar de que se debe detectar es limitada. los videos contienen, además de la apa-
este progreso, la conversión de video a riencia y el movimiento, información se-
texto sigue siendo un problema abierto. A partir de esta idea, podemos notar que mántica y sintáctica que podemos extraer
Las técnicas del estado del arte aún es- para los modelos de video captioning directamente de la información visual
tán lejos de lograr un desempeño similar dos aspectos esenciales son la identifi- para guiar el proceso de generación de

69
Inteligencia
Artificial

con precisión entre diferentes clases de


información visual, los modelos deben
entrenarse a escala, con descripciones
diversas y de alta calidad que contengan
una amplia variedad de videos.

La creación de conjuntos de datos a gran


escala requiere un esfuerzo humano sig-
nificativo y costoso para su anotación, ya
que recopilar una gran cantidad de refe-
rencias puede llevar mucho tiempo y ser
difícil para los idiomas menos comunes.
Debido a esto —y a pesar de que la ma-
yor cantidad de datasets ha sido creada
a partir de videos de dominio general
anotados por humanos (ver Figura 2)—,
el dataset más grande a la fecha ha sido
creado a partir de la generación automá-
Figura 2. Para entrenar estos métodos, existen más de veinticinco conjuntos de da- tica de subtítulos y narraciones (dataset
tos anotados que podemos agrupar según el dominio de video y de diferentes formas HowTo100M [9]).
se obtienen las descripciones.
Con trabajos recientes como CLIP [10], el
campo se ha movido a nuevas arquitectu-
ras y modelos (transformers [11], pre-trai-
texto. Sin embargo, tener una fuerte de- tado gramatical (POS por sus siglas en ning y fine-tuning ahora se han convertido
pendencia de sólo una de ellas puede inglés)4 provenientes de las descripciones en el enfoque dominante). Básicamente,
perjudicar el rendimiento de los mode- de video, para generar representaciones estos estudios han mostrado los bene-
los, produciendo brechas semánticas u sintáctica de alto nivel directamente des- ficios de preentrenar los modelos para
oraciones sintácticamente incorrectas. de la información visual (ver Figura 1). Con tareas de V+L y luego ajustar el modelo
Por eso, para nosotros es fundamental este trabajo mostramos que prestar aten- para tareas específicas.
determinar cómo fusionar estos canales ción especial a la sintaxis puede mejorar
de información de forma adaptativa. En sustancialmente la calidad de las descrip- Por ejemplo, podemos aprender pre-
dos artículos que presentamos reciente- ciones. Además, nuestro método garanti- viamente representaciones genéricas
mente en las conferencias internacionales za la relación contextual entre las palabras a partir de tareas de V+L, como visual
ICPR 2020 [8] y WACV 2021 [7], propone- de la oración, controlando el significado question-answering o cross-modal retrie-
mos estrategias efectivas que combinan semántico y la estructura sintáctica de las val (recuperación a través de diferentes
técnicas de recuperación y generación descripciones generadas [7]. modalidades, como imagen-texto, vi-
para evitar estas brechas y aprender repre- deo-texto y audio-texto), y luego ajus-
sentaciones de forma multimodal. tar su codificación visual en la tarea de
video captioning. Esta técnica requiere
Específicamente, en nuestro trabajo Conjuntos de datos de un gran volumen de datos para apren-
propusimos un modelo llamado Vi- der dicha representación en un espacio
sual-Semantic-Syntactic Aligned Network entrenamiento común entre la información visual y tex-
(SemSynAN) [7]. Este modelo basado en tual. Por ejemplo, para entrenar CLIP se
el esquema encoder-decoder es capaz de V+L es un área de investigación reciente- usaron 400 millones de pares (imagen,
generar oraciones con semántica y sinta- mente planteada. Aunque ha recibido mu- texto) obtenidos de Internet.
xis más precisas. Una de las innovaciones cha atención en los últimos años, todavía
más importante fue proponer una técnica se necesitan más datos para entrenar y Los modelos de video captioning basa-
de recuperación de secuencias de etique- evaluar nuevos modelos. Para distinguir dos en esta estrategia, como COOT [12],

4 | Categorizar y etiquetar palabras de acuerdo a categorías léxicas: https://www.nltk.org/book/ch05.html.

70
Inteligencia
Artificial

generalmente son preentrenados sobre contenido visual de los videos y la es-


datos obtenidos de forma automática de Conclusiones tructura de sus descripciones textuales.
los subtítulos y narraciones (ver Figura 2)
que brindan las plataformas de video onli- Es muy probable que en el futuro la
ne. Sin embargo, un gran inconveniente de Hace diez años pocos hubieran imagi- cantidad de videos que los buscadores
este tipo de corpus es la gran cantidad de nado que sistemas de V+L serían capa- deberán procesar sea mayor que en la
tokens desconocidos (términos que no se ces de generar descripciones textuales actualidad. Siempre ha sido así y al día
pueden asociar a una palabra del vocabula- plausibles como las que se logran hoy. de hoy, que la pandemia nos incita a ser
rio) que se producen. Por ejemplo, en How- Los investigadores han logrado mode- más digitales, no hay ningún indicador
To100M [9] sólo el 36,64% de las palabras los que extraen, hasta cierto sentido, que señale que esta dinámica cambiará.
del vocabulario (217.361 de las 593.238 información espacio-temporal comple- Al contrario, esta tendencia aumentará
palabras únicas) aparecen en el vocabu- ja presente en los videos. No obstante, la necesidad de transformar la informa-
lario ampliamente utilizado GloVe-6B5 [13], una característica de la que carecen ción visual en descripciones textuales
que tiene 400.000 tokens. Este alto nivel de los sistemas actuales es la capacidad que la resuman, verbalicen y simplifi-
“ruido” en los subtítulos es un aspecto inte- de representar el sentido común, por lo quen de forma precisa.
resante del proceso de entrenamiento que que aún queda mucho para comprender
debemos aprender a aprovechar. y representar la diversidad en cuanto a

REFERENCIAS
[1] Reiter, E. & Dale, R. Building natural language generation systems. (Cambridge University Press, 2000).
[2] Pan, B. et al. Spatio-Temporal Graph for Video Captioning with Knowledge Distillation. In Proc. IEEE/CVF Conference on Computer
Vision and Pattern Recognition (CVPR) 10870–10879 (2020).
[3] Zhou, L., Kalantidis, Y., Chen, X., Corso, J. J. & Rohrbach, M. Grounded Video Description. In Proc. 2019 IEEE/CVF Conference on
Computer Vision and Pattern Recognition (CVPR) 6571–6580 (IEEE, 2019).
[4] Zhang, Z. et al. Object Relational Graph with Teacher-Recommended Learning for Video Captioning. In Proc. IEEE/CVF Conference on
Computer Vision and Pattern Recognition (CVPR) 13278–13288 (2020).
[5] Hou, J., Wu, X., Zhao, W., Luo, J. & Jia, Y. Joint Syntax Representation Learning and Visual Cue Translation for Video Captioning. In
Proc. IEEE International Conference on Computer Vision (ICCV) (2019).
[6] Wang, B. et al. Controllable Video Captioning with POS Sequence Guidance Based on Gated Fusion Network. In Proc. IEEE Internatio-
nal Conference on Computer Vision (ICCV) (2019).
[7] Pérez-Martín, J., Bustos, B. & Pérez, J. Improving Video Captioning with Temporal Composition of a Visual-Syntactic Embedding. In
Proc. IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) (2021).
[8] Pérez-Martín, J., Bustos, B. & Pérez, J. Attentive Visual Semantic Specialized Network for Video Captioning. In Proc. 25th International
Conference on Pattern Recognition (2020).
[9] Miech, A. et al. HowTo100M: Learning a Text-Video Embedding by Watching Hundred Million Narrated Video Clips. In Proc. IEEE/CVF
International Conference on Computer Vision (ICCV) 2630–2640 (IEEE, 2019).

[10] Radford, A. et al. Learning Transferable Visual Models From Natural Language Supervision. (2021).
[11] Vaswani, A. et al. Attention is all you need. In Proc. 31st International Conference on Neural Information Processing Systems 6000–
6010 (Curran Associates Inc., 2017).
[12] Ging, S., Zolfaghari, M., Pirsiavash, H. & Brox, T. COOT: Cooperative Hierarchical Transformer for Video-Text Representation Learning.
In Proc. Conference on Neural Information Processing Systems (2020).
[13] Pennington, J., Socher, R. & Manning, C. D. Glove: Global vectors for word representation. IN EMNLP (2014).

5 | Proyecto Stanford GloVe (vectores globales) que usa aprendizaje no supervisado para obtener vectores representativos para un gran conjunto
de palabras: https://nlp.stanford.edu/projects/glove/.

71
Inteligencia
Artificial

¿Cómo la inteligencia artificial


puede ayudar al e-commerce?

EQUIPO IMPRESEE
CAMILA ÁLVAREZ Chief Technology Officer (CTO) MAURICIO PALMA LIZANA Chief Financial Officer (CFO)
JUAN MANUEL BARRIOS Chief Executive Officer (CEO) JOSÉ M. SAAVEDRA Chief Research Officer (CRO)

El e-commerce es un mercado mundial desarrollar servicios que combinen áreas


que se ha vuelto indispensable en el últi- de inteligencia artificial, visión por compu- IA en la industria del
mo tiempo. Basa su éxito en la satisfac- tadora, procesamiento del lenguaje natural e-commerce
ción de los usuarios que necesitan com- y ciencia de datos para lograr soluciones
prar y en el consecuente incremento de las innovadoras que mejoren el e-commerce.
ventas en las tiendas. Es un contexto en el En un principio nos enfocamos princi-
que modelos de Inteligencia Artificial (IA) La investigación científica la hacemos palmente en mejorar la experiencia de
y Ciencia de Datos se vuelven cada vez en Impresee eCommerce Labs1, donde los consumidores a través de un mo-
más relevantes tanto para atraer visitan- trabajamos en conjunto con retailers y tor de búsqueda moderno, eficiente y
tes, mostrar productos relevantes, diseñar colaboradores académicos para hacer in- efectivo. Potenciamos la tradicional
campañas de marketing, etc. vestigación aplicada para el e-commerce búsqueda por texto con modelos ba-
y crear tecnología novedosa usando da- sados en visión por computadora para
Impresee es una empresa SaaS que ofrece tos reales de ambientes reales. Nos en- permitir la búsqueda de productos por
servicios de alta tecnología para el e-com- orgullece haber sido reconocidos por la medio de fotos. Además desarrolla-
merce. Tenemos clientes en diversas par- comunidad científica en el año 2015 con mos una novedosa modalidad de con-
tes del mundo como Estados Unidos, Ca- el Premio a Mejor Demo basada en Visión sulta: la búsqueda basada en dibujos
nadá, Alemania, China y Sudamérica, entre por Computadora en la IEEE International (sketch-based image retrieval), que tie-
otras. Fundamos Impresee con el deseo de Conference on Computer Vision (ICCV). ne sus raíces en la tesis de doctorado

1 | https://impresee.com/ecommerce-labs/.

72
Inteligencia
Artificial

Los sistemas de recomendación son otra


arista que estamos trabajando. En esta
línea investigamos modelos para inte-
grar recomendadores y buscadores. En
el buscador el visitante escribe lo que de-
sea comprar y, además, en nuestro caso,
Bicicleta Cross Rin Patineta cool - Rojo puede subir una foto o dibujarlo. Según
20 x 2 en Aluminio
nuestros análisis, es tres veces más pro-
Sforzo - Blanco $319.900
bable que un usuario que usa el buscador
$351.400 compre un producto comparado con uno
que solo navega por el sitio. Por tanto,
analizando la gran cantidad de imáge-
nes de un catálogo (fotos de influencers,
catálogos de temporada, etc.) junto con
las imágenes de búsqueda, es posible en-
Bicicleta Súper Cross Bicicleta Tandem
Rin 20 x 2 144 Radios Rin 26 Monoplato trenar modelos basados en redes convo-
Sforzo - Blanco Sforzo - Negro lucionales que permitan recomendar de
$470.600 $926.800
forma automática prendas de vestir, dada
una prenda de consulta. En términos téc-
nicos, se trata de modelar un espacio de
Figura 1. Resultado de búsqueda a través de dibujos. características donde las prendas com-
plementarias se acercan entre sí.

Trabajos de investigación
recientes

Trabajar en investigación en casos rea-


les nos permite detectar problemas an-
ticipadamente y desarrollar soluciones
que tienen alto impacto. Así, en los si-
guiente párrafos describiremos tres tra-
Figura 2. Ejemplo de consultas tipo sketch con color. bajos aceptados para presentación oral
en workshops de la International Confe-
rence on Computer Vision and Pattern
Recognition (CVPR) 2021.
de José M. Saavedra. Por ejemplo, la productos para apoyar las áreas de mar-
Figura 1 muestra el resultado de bús- keting y ventas.
queda de un dibujo. Color-Sketch-based Image
Nos dimos cuenta que los dashboards Retrieval
Luego observamos que la gran cantidad no son suficientes para generar valor,
de datos que capturamos de una tienda sino que debemos ir más allá, apoyan- Luego de lanzar el buscador basado en
(tráfico, visitantes, ventas) y los datos do las conclusiones y automatizando dibujos, observamos que en contextos
que generamos desde las búsquedas las acciones posteriores. Por ejemplo, como Fashion & Apparel y Home-Decor los
(consultas, fotos, dibujos, clicks) se mediante análisis de datos es posible lo- usuarios debieran poder agregar informa-
complementan para formar un conjunto calizar productos con un buen potencial ción a la consulta como color y texturas.
valioso para distintas áreas de la tien- de ventas y que tienen baja visibilidad. Así comenzamos investigar sobre cómo
da. Trabajamos en crear métodos para Luego con machine learning es posible modelar dibujos incluyendo color y textu-
analizar datos y generar información útil generar modelos para identificar las me- ras y cómo compararlos con las imágenes
para la tienda, como el comportamiento jores acciones de marketing a realizar en de productos. La Figura 2 muestra algunas
de los visitantes y su apreciación de los una tienda para aumentar sus ventas. consultas. El resultado se plasmó en el

73
Inteligencia
Artificial

(a) Stage 1 (b) Stage 2 (c) Stage 3


Unshared
weights
weights
Shared

cross cross cross cross cross cross


cross contrastive cross entropy loss entropy loss entropy loss entropy loss
entropy loss entropy loss entropy loss entropy loss
loss

triplet loss 1 triplet loss 2

Figura 3. Arquitectura Sketch-QNet.

Representaciones compactas para


Sketch-based Image Retrieval

La eficiencia de los espacios de ca-


racterísticas juegan un rol muy impor-
Figura 4. Ejemplo de resultado en un espacio de características de 8 dimensiones. tante en sistemas reales. Comúnmen-
te los vectores característicos para
la recuperación de imágenes son de
alta dimensión, variando entre 256 a
trabajo titulado “Sketch-QNet: A Quadru- basada en dibujos a consultas que in- 4096 dimensiones. Esto resulta im-
plet ConvNet for Color Sketch-based Image cluyan información de color. El objetivo práctico para soportar catálogos con
Retrieval”2, que fue aceptado recientemen- es generar un espacio de características millones de imágenes, impactando
te en el 1st Workshop on Sketch-Oriented que pueda contener sketches con color negativamente el tiempo de búsque-
Deep Learning (SketchDL) de CVPR 2021. y fotografías al mismo tiempo. El entre- da y la memoria requerida. Decidimos
namiento se realiza de modo que una investigar modelos que nos permitan
En ese trabajo proponemos una nueva consulta en forma de sketch con color crear espacios reducidos (por ejem-
arquitectura de red neuronal convolucio- quede muy cerca, en el espacio inducido, plo, menos de 10 dimensiones) sin
nal a la que llamamos Sketch-QNet para de fotos que expresen la misma infor- perder efectividad. En esta línea de-
resolver el problema de color-sketch ba- mación semántica de la consulta. Fotos sarrollamos el trabajo titulado “Com-
sed image retrieval. La Figura 3, mues- que comparten solamente el concepto pact and Effective Representations
tra la arquitectura propuesta que es pero difieren en color deben quedar un for Sketch-based Image Retrieval”3, re-
entrenada por medio de cuadrupletas poco más lejos. Finalmente, fotos con cientemente aceptado en el 1st Works-
(cuatro pares de entrada). Con esto, una semántica diferente a la consulta hop on Sketch-Oriented Deep Learning
extendemos la búsqueda de imágenes deben estar mucho más lejos de ella. (SketchDL) de CVPR 2021.

2 | https://impresee.com/sketch-qnet/.
3 | https://impresee.com/sketch-based-image-retrieval/.

74
Inteligencia
Artificial

En este trabajo, observamos que los


espacios de características actuales
forman una topología local que puede
ser aprovechada por métodos de re-
ducción de dimensión que preserven
la localidad. Nuestros experimentos
muestran que el uso de UMAP como
método de reducción permite obtener
espacios de baja dimensión (por ejem-
plo, 4 u 8) incrementando, además, la (a) Color (b) Textura (b) Color y Textura
efectividad del método original. Este
incremento en la efectividad se debe
Figura 5. Agrupación no supervisada de imágenes por atributos visuales.
a que al preservar la localidad se ex-
traen características relevantes a la
vecindad de cada punto, descartando
características ruidosas. Así, objetos
que comparten una semántica simi- Proyectos en curso ColoSketch2Photo
lar tienden a ser atraídos entre sí. La
Figura 4 muestra algunos resultados Además, mantenemos diversos trabajos Convertir una expresión abstracta como
de recuperación de imágenes usando de investigación activos con participa- lo es un dibujo a un objeto fotorrealista
sketches, en un espacio reducido a 8 ción de estudiantes de pre y postgrado, es de gran importancia en el e-commerce,
dimensiones. Estos resultados repre- y colaboradores académicos nacionales especialmente en los rubros de personali-
sentan un nuevo estado del arte en e internacionales. Aquí algunos de estos zación de productos. Los usuarios podrían
este contexto. trabajos. dibujar lo que necesitan y obtener una re-
presentación real de esa abstracción. Jun-
to a Diego Donoso, estudiante de magíster
Extracción de atributos visuales Unsupervised Learning for Sketch- del DCC, estamos trabajando en diseñar
Based Image Retrieval modelos que permitan explotar la diversi-
Los atributos visuales juegan un rol muy dad de dibujos que representan la semán-
importante en la búsqueda de produc- Muchos de los modelos exitosos de visión tica de una consulta y producir imágenes
tos. La manera tradicional de extraer por computador se basan en tener una fotorealistas guiados por atributos adicio-
estos atributos es entrenando una red gran cantidad de datos etiquetados. Sin nales como colores y texturas.
CNN que se ajusta a un conjunto deter- embargo, en ambientes reales no es prác-
minado de clases. Esta aproximación tico etiquetar tal cantidad de datos. Así,
no escala a problemas donde los atri- con Javier Morales, memorista del Depar-
butos de interés pueden cambiar con tamento de Ciencias de la Computación Invitación a colaborar
frecuencia. En nuestro trabajo titulado (DCC) de la Universidad de Chile, y Nils Mu-
“Scalable Visual Attribute Extraction rrugarra, investigador de Snap, estamos
through Hidden Layers of a Residual trabajando en métodos autosupervisados En Impresee eCommerce Labs busca-
ConvNet”4 proponemos un método para para el aprendizaje de representaciones mos producir conocimiento que per-
extraer atributos visuales de imágenes, visuales (embeddings) en el contexto mita mejorar el e-commerce tanto para
particularmente como las que pode- de recuperación de imágenes. Además, los vendedores como para los mismos
mos encontrar en un e-commerce, apro- apuntamos a crear modelos híbridos que usuarios. Nos gusta colaborar con in-
vechando la capacidad que tienen las aprendan a partir de datos etiquetados en vestigadores y formar equipos. Te invita-
capas ocultas de una red convolucional forma supervisada y que al mismo tiempo mos a formar parte de estos y otros pro-
para aprender características visuales se alimenten de datos no etiquetados para yectos que ¡siempre tendrán un alcance
(ver Figura 5). mejorar la generalización. nada menos que global!

4 | https://impresee.com/scalable-visual-attribute-extraction/.

75
Inteligencia
Artificial

Iniciativas de
Inteligencia Artificial

A continuación revisamos tres iniciativas nacionales recientes, gestadas con el objetivo de abordar la inteligencia artificial
desde diversas perspectivas. Éstas incluyen el Instituto de Datos e Inteligencia Artificial (Facultad de Ciencias Físicas y
Matemáticas, Universidad de Chile), el Núcleo Inteligencia Artificial y Sociedad (Instituto de la Comunicación e Imagen,
Universidad de Chile) y el Observatorio Público para la Transparencia e Inclusión Algorítmica (independiente).

76
Inteligencia
Artificial

Un Instituto de Datos e
Inteligencia Artificial para Chile

FRANCISCO MARTÍNEZ Decano de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile.


MARCELA MUNIZAGA Directora Académica y de Investigación de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile.

El círculo virtuoso que se crea entre la vas capacidades son las que se exploran niveles crecientes de concentración de
disponibilidad masiva de datos y las he- en la ciencia de los datos. la producción hasta llegar a la actual glo-
rramientas que provee la inteligencia ar- balización, que nos hace difícil participar
tificial ha sido identificado como la clave Se dice que los países que logren posicio- del club de los grandes productores lo
en una nueva etapa del desarrollo de la narse como líderes en estos temas serán que nos relega al grupo de proveedores
humanidad. Una etapa donde las capaci- los que definan nuestro destino. Para de recursos naturales. En el inicio de la
dades humanas se expanden en una di- algunos, los datos son lo que fueron las era digital, en cambio, se perciben nuevas
mensión totalmente nueva, generando un semillas, el oro, o luego el petróleo. Reco- oportunidades para países como el nues-
nuevo espacio para la investigación cien- nociendo la importancia de estos temas tro de insertarse en la creación y produc-
tífica y la tecnología de una magnitud difí- para el desarrollo de la ciencia y del país, ción de los bienes artificiales, cuya mate-
cil de imaginar. Desde hace algunas déca- en la Facultad de Ciencias Físicas y Ma- ria prima son los datos y cuyos productos
das venimos experimentando un cambio temáticas (FCFM) de la Universidad de que se generan utilizando un conjunto de
acelerado en todos los ámbitos de la Chile nos hemos planteado la pregunta algoritmos sofisticados muchos de ellos
sociedad traccionado por la fuerza de la de cómo abordar el desafío de contribuir basados en inteligencia artificial.
revolución tecnológica que ha instalado en esta nueva ciencia. En esta reflexión
una nueva red de infraestructura para la hemos observado que los recursos vita- En ese contexto, pensamos que nuestro
transmisión de datos a altas velocidades. les para la vida humana, como alimentos, país tiene potencial para convertirse en
Esta nueva y cambiante realidad permite minerales y la energía, los ha provisto la un actor relevante. Hemos desarrollado
automatizar muchas funciones de la vida, naturaleza a todo el planeta y la huma- experiencia en manejo de grandes volú-
almacenar gigantescas bases de datos y nidad los ha transformado en bienes úti- menes de datos, como por ejemplo en el
explorar esos datos para generar informa- les a través de la historia tras procesos ámbito de la astronomía, y también en
ción que se encuentra codificada en esas cada vez más complejos, hasta llegar a los sistemas que administran datos per-
bases abriendo acceso a conocimientos la revolución industrial. Con el tiempo sonales. Por ejemplo, el hecho de que
científicos antes inexplorados. Estas nue- esos procesos se han desarrollado con cada persona al nacer o al llegar al país

77
Inteligencia
Artificial

reciba un número único que lo identifica, monitoreo del cambio climático, el mo- tad con interés en el área de ciencia de
y que se utiliza para cualquier trámite nitoreo del comportamiento sísmico, datos y que los investigadores de los
que realice, genera un nivel de trazabili- entre otros. Un análisis nos mostró que centros puedan también integrarse. Esta
dad que no se da en otros países. Esto la Universidad de Chile es la institución doble adscripción constituye una nove-
representa una enorme oportunidad que más publicaciones ISI WoS tiene en dad en nuestra Facultad que permite que
para hacer análisis de esos datos, pero el país en las áreas temáticas de Datos e el Instituto sea efectivamente un núcleo
a su vez un desafío ético de cómo y para Inteligencia Artificial. atractor basado en la colaboración de
qué se usa esa información. todas las unidades de Beauchef.
Para abordar el cultivo de la Ciencia de
Las grandes preguntas de investigación Datos los países han hecho enormes De esta manera, el ID&IA podrá afrontar
van desde la teoría de la ciencia de los inversiones, creando centros dedicados la misión de desarrollar las funciones
datos que busca identificar sus estruc- exclusivamente a ello, y muchas univer- académicas de investigación y trans-
turas esenciales en grandes bases de in- sidades en el mundo lo están abordando ferencia de conocimiento, aportar en
formación, hasta el diseño de algoritmos ya sea desde la estructura existente, o docencia de pregrado y postgrado y de-
eficientes que se requieren para procesar bien creando una nueva. En ese contexto, sarrollar extensión en las temáticas de
y analizar los datos, pero también con las la FCFM decide crear una institucionali- datos e inteligencia artificial, atendiendo
preguntas relacionadas con la ética que dad que permita desarrollar estos temas a los valores de la excelencia y el com-
cuestionan el uso del poder asociado al de forma inter y transdisciplinar, con la promiso con la sociedad, de una ma-
control de la información. Otra obser- misión de agrupar y potenciar el trabajo nera multidisciplinar y promoviendo la
vación a considerar sobre el asunto de que se realiza relacionado con ciencia colaboración entre los departamentos y
cómo abordar el desafío de la Ciencia de de datos en las diferentes unidades y centros, otras unidades académicas de
los Datos es que en el expansivo universo constituirse en un polo de pensamiento y la Universidad de Chile, y otras institucio-
de los datos concurren todas las discipli- creación en esta materia. Esta visión nos nes tanto nacionales como internacio-
nas, como la astronomía, la biología, la obliga a concebir una nueva instituciona- nales. Dentro de los objetivos del ID&IA
sociología, la economía, la filosofía, entre lidad capaz de permear las fronteras de se destaca el desarrollar investigación
otras. Es decir, la mirada desde los datos departamentos y centros, y eventualmen- de alta calidad, apoyar la formación de
nos lleva a observar la naturaleza y la so- te también de facultades, generando un académicos y profesionales de excelen-
ciedad con ojos nuevos, de naturaleza núcleo de investigación que concentre el cia, contribuir al desarrollo nacional con
digital que nos permiten ver aquello que aporte de las unidades e investigadores soluciones innovadoras basadas en aná-
hasta hace poco estaba en la oscuridad de diversos intereses científicos. lisis de datos y en la construcción y apli-
y soñar con explorar lo que permanece cación de herramientas que utilizan in-
bajo el velo de la ignorancia. Con ese objetivo, se crea un Instituto teligencia artificial, además de construir
de Facultad en Datos e Inteligencia Ar- vínculos con otros centros nacionales e
En el caso de la FCFM, se cultivan varias tificial, o ID&IA, que se proyecta como internacionales en las áreas de datos e
disciplinas que tienen que ver con este un centro referente a nivel nacional e inteligencia artificial.
tema. Hay investigación relacionada con internacional, con especial liderazgo en
ciencia de datos en los distintos depar- el ámbito latinoamericano. Esta inicia- Pensamos que el ID&IA, concebido con
tamentos como Ciencias de la Compu- tiva fue aprobada por el Consejo de Fa- visión innovadora en su estructura y en
tación, Ingeniería Eléctrica, Ingeniería cultad en octubre de 2020 y ya ha dado la forma colaborativa de abordar las
Industrial e Ingeniería Matemática. Tam- sus primeros pasos, que consisten en la grandes preguntas, provee mejores con-
bién hay centros de excelencia que lo creación de un Comité Constituyente, li- diciones para explorar la nueva dimen-
abordan buscando conocimiento y so- derado por el decano, con participación sión del universo de los datos aunando
luciones a problemas concretos, como de 15 académicos de cinco departamen- las capacidades e intereses, fortaleci-
el Centro de Modelamiento Matemático tos, dos centros y dos institutos, y en la dos con esa integración sinérgica para
(CMM), el Instituto Milenio Fundamentos convocatoria a un concurso público para lograr enfrentar mayores desafíos y
de los Datos (IMFD), el Centro Avanzado la contratación de tres nuevos académi- hacer contribuciones de mayor relevan-
de Tecnología para la Minería (AMTC) cos con dedicación exclusiva al Institu- cia. Con esto, esperamos aportar signi-
y el Instituto Sistemas Complejos de to. Además, el ID&IA se concibe con una ficativamente al desarrollo sustentable
Ingeniería (ISCI). En general, todos los lógica colaborativa inter y transdiscipli- del país y la región. La urgencia de este
departamentos y centros de la FCFM nar, lo que se implementa permitiendo tema nos plantea un desafío que debe-
utilizan datos y modelos para observar y la doble adscripción, de manera que el mos abordar con mucho compromiso,
predecir distintos fenómenos, como por claustro lo integren todos los académi- poniendo todas nuestras capacidades al
ejemplo la astronomía, la observación y cos de los Departamentos de la Facul- servicio de la comunidad.

78
Inteligencia
Artificial

Núcleo Inteligencia Artificial y


Sociedad [IA+SIC] Instituto de la
Comunicación e Imagen

EQUIPO DIRECTIVO Ana María Castillo y Lionel Brossi, Instituto de la Comunicación e Imagen de la Universidad de Chile.

El Núcleo Inteligencia Artificial, So- cional de Inteligencia Artificial y la Estra- sobre los posibles impactos en términos
ciedad, Información y Comunicación tegia de Inteligencia Artificial propuesta de oportunidades y desafíos que implica
IA+SIC1 surge a partir de experiencias por la Comisión Desafíos del Futuro, en- el diseño, desarrollo e implementación
investigativas, de formación y de trabajo cabezada por el senador Guido Girardi. de la inteligencia artificial en las perso-
aplicado de sus integrantes, en ámbitos nas, comunidades y en la sociedad en
relacionados con el impacto que la inte- IA+SIC conforma un núcleo interdis- general, desde una mirada ética y de de-
ligencia artificial tiene y tendrá en la so- ciplinario, creador de conocimiento y rechos humanos.
ciedad, en áreas como la comunicación, reflexión crítica a través de la investiga-
la calidad de la información y el periodis- ción y desarrollo, que se ocupa además, En lo específico, IA+SIC se propone de-
mo, la educación, el futuro del trabajo, de monitorear los desarrollos tecnoló- sarrollar abordajes reflexivos y críticos
entre otros. gicos emergentes en el área de la inte- en relación con la irrupción de tecnolo-
ligencia artificial y su implementación, gías algorítmicas en la sociedad a par-
La creación del Núcleo IA+SIC, se con- con especial dedicación a los aspectos tir de instancias investigativas, de for-
cibe en un escenario regional y de país, éticos, de gobernanza y consecuencias mación, creación, de vinculación con el
donde comienzan a desarrollarse inicia- para el desarrollo social del país, desde medio e internacionalización. El Núcleo
tivas tendientes a diseñar políticas para un enfoque de respeto irrestricto a los promueve el diseño, desarrollo, imple-
la regulación, el desarrollo e implemen- derechos humanos, el pluralismo y la in- mentación y utilización de la inteligencia
tación ética de sistemas de inteligencia clusión de diversidades. artificial de manera que respete los va-
artificial, que permean diversas áreas de lores sociales de equidad, diversidad y
la sociedad. Como ejemplo se encuentra El objetivo general del Núcleo es gene- pluralismo con un enfoque de respeto a
la iniciativa gubernamental Política Na- rar conocimiento científico y divulgación los derechos humanos.

1 | http://ia-sic.org.

79
Inteligencia
Artificial

A través de sus acciones, también la implementación de talleres participa- diversas organizaciones globales para
apoya el desarrollo de iniciativas y tivos con jóvenes a lo largo de Chile, en discutir temas como la educación, los
políticas nacionales y regionales éti- las recomendaciones para generadores derechos, la ética, los datos abiertos, en-
cas sobre el diseño, desarrollo, im- de políticas públicas de la International tre otros, en su relación con el campo de
plementación y uso de sistemas de Telecommunications Union (ITU) volca- la Inteligencia Artificial.
inteligencia artificial en diversas áreas das en el reporte “Child Online Protec-
de la sociedad. Además, se propone tion for policymakers”, en las mesas de Entre los proyectos de investigación ac-
la generación y consolidación de una trabajo de las políticas de Inteligencia tualmente vinculados al Núcleo IA+SIC
comunidad local y nacional multisec- Artificial de Colombia y Perú. Para el se encuentran “Hablatam2: Jóvenes,
torial (generadores de políticas públi- caso chileno, el Núcleo ha colaborado habilidades digitales, brechas de conte-
cas, academia, sociedad civil y sector en los esfuerzos para desarrollar la Es- nido y calidad de la información en Amé-
privado) con foco en ética y gobernan- trategia Nacional de Inteligencia Artifi- rica Latina”, financiado por la Agencia
za de la inteligencia artificial. cial y es parte de la Subcomisión para la Nacional de Investigación de Uruguay y
regulación de la ciberseguridad y de las la Fundación Ceibal a través del Fondo
El objetivo específico dedicado a la in- plataformas digitales de la Comisión de Sectorial de Educación, Modalidad In-
cidencia en políticas públicas relacio- Desafíos del Futuro, Ciencia, Tecnología clusión Digital; el proyecto “Future Ways
nadas al diseño, desarrollo, implemen- e Innovación del Senado. of Working in the Digital Economy”3,
tación y utilización de la inteligencia financiado por la Agencia Nacional de
artificial ética e inclusiva, se manifiesta Desde el año 2020, el Núcleo participa Investigación de Noruega; el proyecto
a través de las diferentes acciones, des- de la Mesa para el desarrollo de la estra- “Jóvenes, medios digitales y discursos
critas a continuación. tegia nacional contra la desinformación públicos de pandemia en América La-
del Consejo para la Transparencia, es- tina”, desarrollado en conjunto con el
En el año que lleva desde su creación, pecíficamente coordinando la submesa Centro Heidelberg para América Latina
el Núcleo Inteligencia Artificial y Socie- encargada del diseño e implementación y el Núcleo Milenio IMHAY, y el proyecto
dad del Instituto de la Comunicación e del plan de formación y difusión, previs- “Desafíos éticos para la docencia de pre-
Imagen, ha participado en numerosas to para 2021. grado en el contexto del desarrollo e im-
iniciativas con impacto global, regional plementación de sistemas de inteligen-
y nacional. Entre ellas, la participación Asimismo y en conjunto con la funda- cia artificial en la educación”, financiado
para el diseño de las guías sobre inte- ción Wikimedia Chile, se lanzó el Web- por el Departamento de Pregrado de la
ligencia artificial y derechos de niñas, cast Utopías dentro y fuera de las pan- Vicerrectoría de Asuntos Académicos
niños y jóvenes de UNICEF, a partir de tallas, donde participaron líderes de de la Universidad de Chile.

2 | http://conectadosalsur.org/hablatam.
3 | https://www.bi.edu/research/centres-groups-and-other-initiatives/futurewaysofwork/.

80
Inteligencia
Artificial

OptIA: Observatorio Público para


la Transparencia e Inclusión
Algorítmica

DIRECTORIO OPTIA Ricardo Baeza-Yates, Alejandro Barros, Daniel Vak Contreras, Carol Hullin, Óscar López, Catherine Muñoz,
Claudia Negri, Luis Pizarro y Danielle Zaror.

Somos testigos de un periodo sin igual cos. Recientemente se ha comenzado mos propuesto aportar desde una mira-
en la historia de la humanidad. Gran a discutir una política nacional de inte- da profesional y multidisciplinaria sobre
parte de nuestra vida personal, nuestra ligencia artificial que omite los déficits estas temáticas.
convivencia en la sociedad y la com- anteriores y ni siquiera contempla una
prensión del mundo que nos rodea está gobernanza ni recursos para hacer fren- Nos preocupa principalmente, pero no
siendo mediada por la tecnología a ni- te a los desafíos que una tecnología exclusivamente, la implementación de
veles que las personas no imaginan. como ésa supone, y que ya es aplicada soluciones tecnológicas de inteligencia
por empresas del sector privado y, lo artificial adoptadas por el Estado. Mu-
En medio del vendaval de decisiones que resulta más preocupante aún, tam- chas de estas iniciativas se presentan
automatizadas y los procesos que és- bién en el sector público. como infalibles y prometen mejorar cier-
tas desatan, encontramos una sociedad tos procesos y tomas de decisiones sin
que apenas tiene capacidad de reacción Este escenario fue el que motivó a un mayor transparencia en su funcionamien-
y mucho menos idea sobre cómo regular conjunto de profesionales, de diversos to y su alcance. Se trata además de siste-
los fenómenos y consecuencias de esta orígenes y disciplinas, quienes durante mas que no tienen declarado un control
vorágine tecnológica. la pandemia nos convocamos de modo sobre su impacto en la sociedad, en la
virtual para conversar sobre nuestras in- privacidad ni el tratamiento de los datos
Chile no es la excepción; nuestro país quietudes, para finalmente embarcarnos que utiliza, y que pueden (ciertamente)
no cuenta con regulaciones apropiadas en la tarea de crear un Observatorio para profundizar los sesgos, la discriminación
en materia de protección de datos, de la Transparencia y la Inclusión Algorítmi- y la asimetría de poder cuando dichos
ciberseguridad ni de delitos informáti- ca. Es por esto que desde OptIA nos he- sistemas toman decisiones injustas.

81
Inteligencia
Artificial

En OptIA compartimos la preocupación • Debe existir transparencia activa, no esté justificado y sus resultados sean
sobre la afectación de grupos vulnera- a petición de parte, con mecanismos convenientes para los fines persegui-
bles, históricamente marginados y ex- como registro de algoritmos y plata- dos una vez aplicadas evaluaciones de
cluidos, compartiendo asimismo la ne- formas disponibles al público. costo versus beneficio. Un método será
cesidad de ser un agente colectivo de inocuo cuando su aplicación no genere
cambio para la generación de políticas • Evaluaciones de impacto algorítmico daños a los seres humanos, al medio
públicas justas e inclusivas en relación que analicen tanto los riesgos como ambiente y a los ecosistemas.
con estas tecnologías. los beneficios que supone tener un
determinado sistema, elaboradas por Inclusión y no-discriminación: la in-
La implementación de la estrategia terceros expertos e independientes. teligencia artificial debe ser un me-
nacional de inteligencia artificial no ha canismo que genere justicia social
sido suficientemente discutida, y por lo • Debe existir personal capacitado para de manera que sus beneficios deben
tanto creemos que la implementación la implementación, uso y mitigación buscarse procurando alcanzar al ma-
de una política pública en un tema tan de sistemas de IA. yor número de personas posible sin
relevante para los próximos años debe distinción de etnia, edad, situación
tener un proceso de discusión y de par- • Procesos de licitación competitivos y migratoria, identidad de género o ni-
ticipación amplio con todos los secto- abiertos. vel socioeconómico. Cada vez que se
res del país. produzca un resultado discriminatorio,
• La colaboración público-privada debe los administradores de la tecnología
La falta de representatividad de la ser totalmente transparente, haciendo de inteligencia artificial deben incluir
sociedad civil en las discusiones y público conflictos de intereses, con- mecanismos para apelar ese resulta-
toma de decisiones relacionadas a tratos con proveedores y cualquier in- do, debiendo revisarse las característi-
las tecnologías digitales emergentes formación relevante, cumpliendo con cas de los algoritmos utilizados y sus
y aquellas que usan algoritmos y/o in- las más altas exigencias de probidad bases de datos.
teligencia artificial, hacían urgente el y rendición de cuentas.
surgimiento de organizaciones como Transparencia y explicabilidad: las per-
la que hemos levantado. Nuestro ob- • Se debe evaluar la afectación de las sonas tienen derecho a saber cuándo se
jetivo es velar porque la práctica tec- personas más vulnerables y la posi- toma una decisión sobre la base de algo-
nológica considere la elaboración de bilidad que éstas puedan hacer sus ritmos y, en esas circunstancias, exigir o
algoritmos inclusivos, que consideren propias evaluaciones y oponerse a solicitar explicaciones e información a
la diversidad de la sociedad, y que res- determinadas implementaciones. empresas del sector privado o institucio-
pondan a requerimientos basados en nes del sector público.
los derechos humanos. • Se debe evaluar si el sistema de IA
crea las condiciones y la capacidad Privacidad y seguridad: se trata de una
Los sistemas de inteligencia artificial para supervisión humana significa- garantía fundamental que debe caute-
(IA) utilizados en políticas públicas tiva, que incluye la supervisión de larse durante todo el ciclo de vida de
han demostrado, según abundante evi- aquellos que se ven directamente los sistemas de inteligencia artificial,
dencia internacional, fallar continua- afectados por estos sistemas. debiendo establecerse marcos de pro-
mente en temas tan delicados como tección y mecanismos de gobernanza
vigilancia policial predictiva, análisis Como sabemos que lograr marcos regu- adecuados, respaldados por los siste-
predictivo de bienestar infantil, evalua- latorios en materias como éstas son de- mas judiciales en caso de infracción.
ción de riesgos y los sistemas de deci- safíos gigantescos, en OptIA trabajare-
sión de beneficios públicos, por lo que mos y promoveremos el reconocimiento Autonomía y supervisión humana: el
es necesario, en base a una política de de al menos los siguientes principios ser humano siempre debe poder auto-
riesgos, contar con prácticas vinculan- para la implementación de soluciones determinarse, de manera que conser-
tes específicas, que incluyan al menos automatizadas y de inteligencia artificial ve el poder de decidir qué decisión to-
las siguientes consideraciones: con el fin de proveer herramientas éticas mar sobre sí mismo, en lugar de que lo
para la resolución de los conflictos que haga un sistema de IA. Siempre debe
• Los organismos públicos no deben sabemos se presentarán: ser posible atribuir la responsabilidad
adquirir ni utilizar sistemas que estén ética y jurídica, en cualquier etapa del
protegidos de revisión pública, tales Proporcionalidad e inocuidad: en su ciclo de vida de los sistemas de IA, a
como secretos industriales o acuer- virtud, promoveremos que se elija un personas físicas o a entidades jurídi-
dos de confidencialidad. método de inteligencia artificial cuando cas existentes. Esta supervisión hu-

82
Inteligencia
Artificial

mana no es sólo individual, sino que las personas, especialmente aquellos


también se refiere a la supervisión Nuestras acciones y el más vulnerables, y en la importancia por
pública dentro de la que se insertan futuro cercano el respeto a la dignidad humana. Una de-
organizaciones no gubernamentales finición netamente técnica puede llevar
como OptIA. al sesgo de automatización o ignorar los
Una de nuestras primeras acciones fue impactos sociales que son un problema
Responsabilidad y rendición de cuen- participar de la consulta pública so- real a nivel global.
tas: los creadores de sistemas de in- bre la Política Nacional de Inteligencia
teligencia artificial deben asumir las Artificial de Chile. Así elaboramos un También hemos sido parte de la or-
consecuencias éticas y jurídicas de documento1 con nuestros comentarios ganización del XII Encuentro Interna-
las tecnologías que diseñen e imple- y recomendaciones en respuesta a la cional de IA en enero de 2021 junto al
menten de conformidad con el ordena- referida consulta. Algunas de nuestras Instituto Milenio Fundamentos de los
miento jurídico vigente. La obligación recomendaciones apuntaron a cambiar Datos, donde participaron nuestros
de rendir cuentas debe sustentarse la definición de IA para efectos regulato- directores Ricardo Baeza-Yates y Ca-
en mecanismos adecuados de super- rios y políticas públicas, ya que es nece- therine Muñoz, y durante abril de 2021
visión a lo largo de todas las etapas, sario que la definición se centre no sólo nuestras directoras Claudia Negri y Da-
para esto la auditabilidad y trazabi- en el componente técnico (IA estrecha), nielle Zaror fueron parte de la conver-
lidad de los procesos son una condi- sino también en las estructuras sociales sación sobre la Agenda Digital para la
ción esencial. que la rodean y en los impactos sobre nueva Constitución. .

1 | https://optia.cl/2021/01/29/respuesta-a-la-consulta-sobre-politica-nacional-de-ia/.

83
Computación
y Sociedad

A medio siglo de
mi encuentro con
la computación
en la “Escuela de
Injeniería”.
Recuerdos y reflexiones
en tiempos de pandemia

84
Computación
y Sociedad

Introducción El primer curso de


computación
Ingresé a la Escuela de Ingeniería de la
Universidad de Chile en 1971, un año La asignatura “Introducción a la Com-
especial y de mucha esperanza en el putación” tenía el código MA151 por-
país, donde se ampliaron significati- que la impartía el Departamento de
vamente las vacantes para que ingre- Matemáticas que había sido creado en
sáramos también estudiantes de los 1964 y contaba con un grupo de inves-
sectores obreros y populares, que ha- tigadores en Computación. Mi profesor
bíamos estudiado en escuelas y liceos fue Víctor Canales, un joven ingeniero
fiscales desde donde egresamos en matemático que trabajaba en ECOM, la
JUAN ÁLVAREZ RUBIO
1970 de la última generación de sexto empresa nacional y estatal de compu-
Académico del Departamento de año de la educación secundaria. Que- tación, que había sido creada en 1968
Ciencias de la Computación de la dé seleccionado tanto en la U como en para dar servicio a las instituciones
Universidad de Chile. Master of la UC, ambas gratuitas. Mi conocimien- públicas y entrenar a programadores,
Mathematics (Computer Science), to de computación se limitaba a saber analistas de sistemas y operadores que
University of Waterloo. Ingeniero de
Ejecución en Procesamiento de la
que las tarjetas que utilizamos para se necesitaban para los enormes, cos-
Información, Universidad de Chile. marcar las respuestas de las pruebas tosos y muy escasos computadores de
Junto a su labor como docente, tra- de selección eran procesadas por un la época.
baja en reconstruir la historia dela computador y que la Prueba de Aptitud
computación en Chile. Académica se había rendido por prime- En la primera parte del curso se estu-
jalvarez@dcc.uchile.cl
ra vez en enero de 1967, reemplazando diaba la estructura de los computado-
al anterior y cuestionado Bachillerato. res incluyendo la representación binaria
de instrucciones y datos utilizando los
Decidí matricularme en la Universidad apuntes de “Introducción a la Compu-
de Chile porque me sentí más cómo- tación” del profesor Víctor Sánchez. La
do por coincidir con mis compañeros segunda parte era una introducción a la
de un liceo público no emblemático programación basada en los apuntes
La motivación por escribir este artículo y de otros liceos fiscales, que desde del profesor Pablo Fritis y de los ayu-
surgió de una entrevista acerca de los entonces preferían a la Universidad de dantes de investigación Félix Aguilera
inicios de la computación en la Univer- Chile. Llegamos al imponente edificio y Fernando Gamboa. El lenguaje de
sidad de Chile que nos hizo Patricio de la “Escuela de Injeniería” ubicado programación era FORTRAN (FORmula
Aceituno, ex decano de la Facultad de en Beauchef 850. El viejo recinto, que TRANslator), el lenguaje emblemáti-
Ciencias Físicas y Matemáticas, en una ya tenía cerca de medio siglo, alberga- co para aplicaciones “científicas” y de
semana de actividades dedicadas a la ba una moderna Facultad de Ciencias “ingeniería”. Para facilitar el proceso
innovación en noviembre de 2020. Los Físicas y Matemáticas que se había de los programas se utilizaba WATFOR
temas que surgieron de la conversación reestructurado en departamentos en (WATerlooFORtran), un software cons-
junto a mi compañero del Centro de 1964 y que en 1970 había renovado su truido en la Universidad de Waterloo de
Computación, Julio Zúñiga, y el estado sistema docente anual y rígido a uno Canadá que permitía ejecutar un lote
reflexivo en que nos tiene esta intermi- semestral y flexible. El moderno siste- de varios programas en FORTRAN de
nable pandemia, me alentaron a escri- ma curricular fue mi segundo contacto una manera mucho más eficiente. Por
bir por primera vez en primera persona con la computación. A través de tarje- otra parte, una de las seis secciones
acerca de la historia de la computación tas perforadas se registraban nuestras del curso utilizaba ALGOL (ALGOrithmic
en la “Escuela de Injeniería” de la Uni- preferencias por cursos y profesores Language) y estaba a cargo del profe-
versidad de Chile. Si bien casi todos los y el sistema nos inscribía en las dis- sor Herbert Plett (ingeniero eléctrico e
temas los he desarrollado más formal- tintas secciones de las asignaturas. investigador del área de computación
mente en otros artículos, los cincuenta Elegí mis cursos de álgebra y cálculo del Departamento de Matemáticas).
años de mi llegada a la Facultad, que con el notable y legendario profesor
cumplí en marzo del año 2021, me de- Moisés Mellado, una de las secciones Entonces se programaba según el pa-
cidieron a escribir mi experiencia perso- del laboratorio de física, y un curso de radigma imperativo en que las instruc-
nal con la computación. computación. ciones de control básicas eran if (sin

85
Computación
y Sociedad

else) y goto (que saltaba o bifurcaba a A pesar de toda la burocracia para poder usar el
una instrucción que no era la siguiente computador, pero sin interactuar directamente con
en la secuencia). Los programas resul-
taban desordenados y difíciles de com- el IBM/360, algunos fuimos seducidos/abducidos
prender. De hecho, antes de programar por el entonces “arte” de programar y nos
se debía expresar el algoritmo de so- decidimos estudiar esa especialidad.
lución dibujando un diagrama de flujo,
que era una representación gráfica de
la lógica o flujo de control de la ejecu-
ción de las instrucciones para lo cual
existían unas regletas para dibujar las
formas estandarizadas de represen-
tación de las distintas instrucciones.
Una vez elaborado el diagrama de flu-
jo, sus elementos se traducían en ins-
trucciones del lenguaje y se escribían
en papel o en “hojas de codificación”
de 24 líneas de 80 caracteres (usando
sólo letras mayúsculas, dígitos y algu-
nos pocos signos especiales).

Una vez codificadas las instrucciones


del programa en FORTRAN se debían
perforar en tarjetas de 80 columnas Figura 1. Tarjeta de 80 columnas para perforar programas y datos para el computa-
(ver Figura 1), para lo cual era nece- dor IBM/360.
sario conseguir una de las pocas má-
quinas perforadoras que existían, y
entre ellas ojalá una KP-29 en lugar
de las más antiguas y básicas KP-26.
Después de esperar que se desocupa-
ra alguna máquina, estaba la tarea de
perforar las tarjetas. Y no había que
equivocarse porque las perforaciones
incorrectas inutilizaban la tarjeta y ha-
bía que reemplazarla. Y había que cui-
dar que no se “cayera el sistema”, es
decir, el mazo de tarjetas y se desorde-
naran las instrucciones.

Las tarjetas se entregaban en una ofi- Figura 2. Eduardo Frei, Efraín Friedman y un operador del computador IBM/360.
cina que prometía, en el mejor de los Año 1967.
casos, una respuesta al día siguiente.
La desilusión se producía al recibir las
tarjetas con un listado impreso seña-
lando que se habían detectado erro- etapas, que en el mejor de los casos los 360 grados de todo el espectro de
res de sintaxis. Por lo tanto, había que tardaba una semana, los estudiantes aplicaciones) y al que sólo podíamos
regresar a las máquinas perforadoras de hoy lo logran en algunas horas en contemplar extasiados detrás de una
para rehacer las tarjetas incorrectas. sus computadores personales. vidriera, asombrándonos del parpadeo
Después de un par de días, y una vez de las luces del panel de control, de los
corregidos todos los errores de sinta- En resumen, los más afortunados con- movimientos de las unidades de cintas
xis, aparecían los errores de ejecución, seguíamos los resultados correctos sin magnéticas y de la lectura vertiginosa
es decir los resultados incorrectos. De tener acceso al computador IBM/360 de las tarjetas. Era un enorme compu-
vuelta a corregir e iterar. Todas estas (llamado así porque pretendía abarcar tador, el más grande en Latinoamérica,

86
Computación
y Sociedad

una propuesta de carrera de Ingeniería


en Computación que fue rechazada
por no entenderse aún la necesidad de
esos profesionales cuando en el país
existía sólo una decena de computa-
dores. En enero de 1965 se aprobó en
cambio una carrera de Ingeniería Ma-
temática con una orientación distinta y
de cinco años de duración.

En primer lugar, inscribimos el curso de


“Estructuras y procesos de información”
con el profesor Pablo Fritis. Era un cur-
so de estructuras de datos y algoritmos
y se programaba en el lenguaje PL/I,
Figura 3. Pablo Fritis, Hugo Segovia y Víctor Sánchez, creadores de las carreras de un lenguaje diseñado por IBM para de-
Computación. Año 2009. sarrollar aplicaciones, tanto científicas
y de ingeniería, como “comerciales” o
administrativas. El lenguaje permitía la
programación estructurada, que mejoró
y tuvo un costo cercano al millón de lo personal me vino muy bien ingresar a el estilo “spaghetti” de la programación
dólares y fue inaugurado por el presi- una carrera de ocho semestres que me imperativa, al disponer de las instruccio-
dente Eduardo Frei Montalva en enero permitiría aliviar pronto la carga econó- nes if-else y while. Además, PL/I tenía fa-
de 1967 (ver Figura 2). Tenía 128Kb de mica a mi modesta familia. cilidades para manejar archivos secuen-
memoria y residía en una enorme sala ciales y de acceso directo (por posición
en el subterráneo de la torre central La IEPI fue la primera carrera de inge- relativa o por llave).
con un piso “falso” para el cableado niería en el área de computación en el
eléctrico que conectaba las distintas país y fue la sucesora de la carrera de Paralelamente, cursamos “Programa-
unidades (unidad central de proceso, Programación de Computadores de ción de Computadores I” con el profesor
consola de operación, lectora de tarje- tres años de duración creada en 1968. Víctor Sánchez, único curso de 13 Unida-
tas, impresora, 4 unidades de cinta y 2 Los planes de estudios fueron diseña- des Docentes, con 3 clases semanales
unidades de disco) y un techo “falso” dos, sin disponer entonces de referen- y una clase auxiliar de 2 horas. Se pro-
con los equipos de aire acondicionado tes internacionales, por tres investi- gramaba en el lenguaje Assembler/360,
para mantener la temperatura adecua- gadores del área de Computación del notación simbólica del lenguaje binario
da para su funcionamiento. Departamento de Matemáticas: Héctor de máquina del computador IBM/360
Hugo Segovia, ingeniero industrial; Pa- siguiendo el “Manual de Assembler” del
blo Fritis, ingeniero civil; y, Víctor Sán- profesor Sánchez. Junto con el curso si-
chez, ingeniero industrial mecánico de guiente, “Programación de Computado-
La carrera de la Universidad Técnica del Estado (ver res II” (que cursé con el profesor Sergio
Figura 3). En los primeros años de los Gamboa), con énfasis en uso y cons-
Computación setenta, Segovia y Fritis asumieron res- trucción de macroinstrucciones, las dos
ponsabilidades directivas en ECOM y asignaturas proporcionaban una intro-
Sánchez se trasladó a la Universidad ducción a la programación de sistemas,
A pesar de toda la burocracia para poder Técnica, asumió la dirección de su Cen- es decir, al desarrollo de programas “uti-
usar el computador, pero sin interactuar tro de Computación y creó la carrera de litarios” complementarios del sistema
directamente con el IBM/360, algunos Ingeniería de Ejecución en Computa- operativo o de aplicaciones críticas que
fuimos seducidos/abducidos por el en- ción e Informática y sus alumnos pro- requerían un uso eficiente de los esca-
tonces “arte” de programar y nos deci- cesaban sus trabajos en el IBM/360 de sos recursos disponibles de memoria y
dimos estudiar esa especialidad. Des- la Universidad de Chile. tiempo de procesador. Más adelante, el
pués de dos semestres de Plan Común, curso de “Sistemas Operativos” también
se podía ingresar a la recién creada ca- Cabe señalar que en diciembre de se orientó al sistema operativo del com-
rrera de Ingeniería de Ejecución en Pro- 1964 el decano Enrique D’Etigny había putador IBM/360, y el profesor fue un
cesamiento de la Información (IEPI). En presentado en el Consejo Universitario ingeniero de la IBM.

87
Computación
y Sociedad

El resto de los cursos obligatorios de


especialidad incluía asignaturas de:
Tecnología de Equipos (sobre las má-
quinas Hollerith o Unit-Record, equipos
especializados en diferentes procesos
off-line con las tarjetas), Programas de
Aplicación (especialmente para control
de proyectos y programación lineal e
investigación operativa), Técnicas de
Procesamiento de Datos (orientadas al
desarrollo de sistemas de información
administrativos y de su programación en
el lenguaje COBOL) y un Taller de Proce-
samiento de Datos (con el desarrollo de
un proyecto de mayor envergadura du-
rante todo un semestre).

Mención especial merece el curso de Figura 4. De izquierda a derecha, de pie: Alfredo Piquer, Eugenio Bravo, Víctor Salas,
“Lenguajes y Compiladores” con los J. Ricardo Giadach, Martín Borack, Julio Zúñiga, Pedro Vergara. Sentados: Claudio
jóvenes profesores Fernando Gamboa Vergara, Jaime De Mayo, Rafael Hernández, Marcelo Energici, Osvaldo Schaerer,
y su auxiliar Patricio Poblete, ambos Juan Álvarez. Conmemoración 40 años de contrato en CEC. Año 2013.
del grupo de computación del Depar-
tamento de Matemáticas. Después
de la introducción sobre autómatas
y lenguajes formales, desarrollamos Departamento de Industrias, los cursos colectivo que podríamos hacer al país
analizadores léxicos y compiladores. de Introducción a la Economía y de Ad- como parte de las primeras generacio-
El curso me fascinó, al punto que al ministración de Empresas. Y del des- nes de una nueva y pujante disciplina
año siguiente fui profesor auxiliar del aparecido Departamento de Estudios de ingeniería.
recién asumido profesor de cátedra Humanísticos, los cursos obligatorios
Patricio Poblete. de Filosofía, Ciencias Sociales e Inglés
(general y especializado para computa-
Entre los cursos electivos recuerdo ción). Por mi cuenta inscribí los cursos El Centro de
especialmente el de Sistemas de Infor- libres de Ciencia Política (con el profe-
mación con el profesor Hugo Segovia y sor Jaime Castillo Velasco), Sociología Computación
el de Simulación con el joven ingeniero (con el profesor Cumsille) e Historia de
Hernán Avilés. Ambos trabajaban en Chile (con la joven historiadora María
ECOM y estuvieron involucrados en Angélica Illanes). En 1972, cursando el segundo año de
el desarrollo del emblemático proyec- mi carrera, apareció en un fichero un
to Synco o Cybersyn, que se desarro- Mi educación formal terminó en los aviso para concursar a cargos de ayu-
lló entre los años 1971 y 1973 y cuyo cuatro años de duración de la carrera. dantes de investigación para el Centro
propósito fue coordinar y planificar la Mis profesores fueron ingenieros de de Computación (CEC). El concurso
producción en las empresas del área otras especialidades que fueron parte estaba abierto a todos los estudiantes
de propiedad social. Simulamos sis- de los pioneros de la computación en de la Facultad y el único requisito era
temas usando GPSS y Dynamo, la he- Chile. Trabajaban en empresas e ins- tener aprobado el curso de Introducción
rramienta que se estaba usando para tituciones del Estado (ECOM, Endesa, a la Computación. Recuerdo que se pre-
simulación dinámica en la componen- U, UTE, etc.) y, por lo tanto, además sentaron muchos postulantes y quedé
te CHECO, del sistema Synco, cuyo pro- de los conocimientos técnicos, nos seleccionado junto a Margarita Sprove-
pósito era el desarrollo y planificación transmitieron una profunda vocación ra, Marcelo Energici, Rafael Hernández,
del aparato industrial. de servicio público. El agitado contex- Miguel Pérez, Jaime De Mayo, Claudio
to sociopolítico de esos años fueron el Vergara, Juan Carlos Rojas y Osvaldo
Los cursos obligatorios incluyeron tam- telón de fondo de nuestra formación Schaerer. Sólo yo era estudiante de
bién Cálculo Numérico, Estadística, y que nos estimuló y nos hizo tomar aún IEPI, pero finalmente seis de nosotros
Complementos de Matemáticas. Del más conciencia del aporte individual y nos titulamos de esa carrera.

88
Computación
y Sociedad

y cursos de capacitación y difusión.


Paralelamente, en la medida que nues-
tros tutores fueron haciéndose cargo
de los cursos de IEPI como profesores,
nosotros trabajamos primero como
ayudantes, después como profesores
auxiliares, y, a nuestro egreso, como
profesores. Adicionalmente, colabora-
mos como profesor ad honorem en la
Universidad Técnica del Estado (hoy
USACH) en la carrera de Ingeniería de
Ejecución en Computación e Informá-
tica y en el Instituto Politécnico de la
Universidad de Chile (hoy UTEM) en la
carrera de Programación.

A fines del año 1974 se decretó una re-


baja temporal y sustancial de las tasas
de importación de computadores. Con-
Figura 5. Fernando Silva, Patricio Poblete, Alfredo Piquer, Nancy Hitschfeld. Conme- secuentemente, se produjo un ingreso
moración 35 años del DCC. Año 2010. masivo de máquinas para las cuales
no existían entonces suficientes es-
pecialistas. Para aminorar el déficit, el
CEC, junto con ECOM y la Asociación
Fuimos contratados en octubre de 1972 y trícula y administración docente. Por de Centros Universitarios de Computa-
recibidos por Fernando Silva, Director del otra parte, el grupo de sistemas desarro- ción, organizaron un Plan Nacional de
CEC y Carlos Pérez, encargado del grupo llaba software incrustado o complemen- Capacitación Intensiva en Computación
de Extensión. Inicialmente fuimos ayu- tario a los sistemas operativos. Tuve la (PLANACAP) para capacitar analistas,
dantes de nuestros tutores Julio Zúñiga, oportunidad de trabajar en proyectos de programadores y operadores. Participé
Alfredo Piquer, Ricardo Giadach, Pedro los dos grupos: sistema de selección de en cursos para formar analistas y pro-
Vergara, Víctor Salas y Gerardo Kahn, que alumnos y programación de sistemas. Y gramadores, y, en mi calidad de progra-
eran también estudiantes de ingeniería en este nuevo trabajo pude por fin tener mador de sistemas del CEC, dicté cur-
matemática y eléctrica que habían ingre- acceso directo al computador IBM/360 sos de Assembler/360 para CODELCO
sado al CEC un par de años antes que y financiar todos mis gastos, logrando en Antofagasta y en Rancagua.
nosotros (ver Figura 4). Nos asignaron este objetivo desde abril de 1973, fecha
una oficina común con “sillas calientes” de mi primer sueldo.
que ocupábamos entre nuestras clases.
El despacho estaba en el subterráneo El año 1973 fue muy especial. Permane- El Departamento
del edificio de Química, donde vivía sus cía todo el día en la Escuela y fui testigo
últimos días el “Lorenzo” (el Standard directo de lo bueno y lo malo que suce- de Ciencias de la
Electrik Lorenz ER-56), un computador día. El día 11 de septiembre como siem- Computación
transistorizado que llegó en junio de 1962 pre llegué muy temprano, entonces vivía
y que fue el primer computador universi- en Renca y los que viven lejos siempre
tario en Chile y el tercero en el país. llegábamos antes. Me enteré del golpe El Departamento de Ciencias de la
porque me extrañó que no llegara ningu- Computación (DCC) fue creado el 1 de
Prontamente fuimos incorporados a los no de mis compañeros de oficina. Per- enero de 1975. Su primer director fue
distintos proyectos de los dos grupos manecí “defendiendo” la Escuela hasta Fernando Silva (que además era direc-
del CEC. El grupo de Extensión desarro- el mediodía y regresé a trabajar el primer tor del CEC) y sus académicos funda-
llaba principalmente sistemas compu- día que se reabrió. Este episodio es más dores fueron los ingenieros matemáti-
tacionales para usuarios universitarios: largo y merecería otro artículo. cos José Pino, Alfredo Piquer y Patricio
proyectos para distintas facultades y Poblete (ver Figura 5), el ingeniero civil
sedes de la universidad y los sistemas Parte importante del trabajo en el CEC electricista Miguel Guzmán, el quími-
centrales de selección de alumnos, ma- era participar y desarrollar actividades co y magíster en Ingeniería Eléctrica

89
Computación
y Sociedad

Francisco Oyarzún, y los ayudantes de El agitado contexto sociopolítico de esos años


investigación Rafael Hernández y Patri- fueron el telón de fondo de nuestra formación que
cio Zúñiga, ambos estudiantes de com-
putación. A diferencia del CEC, que era nos estimuló y nos hizo tomar aún más conciencia
un centro de servicio para toda la Uni- del aporte individual y colectivo que podríamos
versidad, el DCC era un departamento hacer al país como parte de las primeras
académico de la Facultad de Ciencias
Físicas y Matemáticas con funciones generaciones de una nueva y pujante disciplina
de docencia, investigación y extensión. de ingeniería.
En su primer año, el DCC propuso in-
fructuosamente crear una carrera de
Ingeniería Civil en Computación. Sí
logró que la Facultad aprobara un Ba-
chiller (de 4 años) y un Magíster (de
6 años) en Ciencias con mención en
Computación. Por otra parte, heredó
la carrera de IEPI que entonces tenía
alrededor de 100 estudiantes y que fue
creciendo año a año hasta alcanzar
400 alumnos en 1983 (llegando a ser
la segunda en cantidad de alumnos en
la Facultad), año en que se creó la Li-
cenciatura en Ciencias de la Ingeniería Figura 6. Izquierda: Edificio Blanco Encalada 2120. Derecha: Julio Zúñiga, José M.
(de 4 años) y la carrera de Ingeniería Montecinos, Claudio Vergara en computador IBM/370.
Civil en Computación (de 6 años).

En lo personal continué haciendo cla-


ses en los cursos de Computación en el En 1975 la Universidad adquirió un ción de las pantallas y los terminales
Plan Común donde impulsamos, junto a computador IBM/370 que se instaló en distribuidos, un lustro antes de la apari-
otros colegas, cambios metodológicos el segundo piso del recién inaugurado ción y rápida difusión de los computado-
y de paradigmas de programación y de edificio “de Computación” ubicado en res personales.
lenguajes (ALGOL-W, RATFOR, Pascal, Blanco Encalada 2120 (ver Figura 6).
Turing, Java y Python). Por otra parte, El IBM/370 modelo 145, que costó un En julio de 1979 fui contratado como
y dada mi experiencia como programa- millón y medio de dólares, tenía 1 Mega académico de jornada completa del
dor de sistemas en el CEC, fui profesor de Memoria, 3 discos 3330 de 100Mb y DCC, lo que paradojalmente me signi-
durante muchos años del curso de “Pro- 3 discos 3340 de 70Mb, 6 unidades de ficó bajar algunos grados en la escala
gramación de Computadores I” de IEPI cinta, 2 impresoras, 2 lectoras de tarje- única de sueldos, justo el mes en que
y comencé a dictar el nuevo curso de tas, 16 terminales 2741 y 4 estaciones contraje matrimonio. Además del au-
“Programación en Lenguajes orientados de despliegue 3277. El sistema operati- mento en mis responsabilidades do-
a la Máquina” (PLOM) del Bachiller y de vo VM/370 simulaba máquinas virtua- centes, tuve a mi cargo un computador
la Licenciatura. En este último, además les que podían correr los sistemas ope- Burroughs 1900 que fue cedido al DCC
de Assembler, se programó en PL360, rativos CMS, OS/VS1 o DOS/VS. Como y participé en el proyecto de desarrollo
un lenguaje estructurado para escribir programador de sistemas del CEC me de un software de recuperación de in-
programas para el IBM/360, y posterior- correspondió programar extensiones al formación (BIRDS) bajo la guía de José
mente en C, un lenguaje para programa- sistema operativo OS/VS1 para contro- Pino, director del DCC, y que diseñó el
ción de sistemas independiente de la lar y medir el uso de los recursos com- sistema junto a Alfredo Piquer y Patri-
arquitectura del computador. Algunos putacionales. cio Poblete. Adicionalmente, en 1979
semestres se utilizó también el lenguaje José Pino creó y fue director de la re-
Assembler de la arquitectura de un com- El IBM/370 representó un salto tecnoló- vista Informática, donde tuvimos opor-
putador VAX, que fue prestado por la gico cualitativo que facilitó la docencia tunidad de escribir varios artículos de
empresa SONDA, representante en Chile y la investigación en la disciplina y se le difusión especialmente dirigidos a los
del fabricante Digital. recuerda especialmente por la introduc- programadores de la industria.

90
Computación
y Sociedad

“Profesor” por vocación,


“historiador” por opción

En el balance retrospectivo aparece cla-


ramente mi vocación docente. Desde los
primeros años en el CEC, en que tuve el
privilegio de trabajar junto a un entraña-
ble grupo de personas, sentí la necesi-
dad de comunicar lo aprendido siguien-
do el ejemplo de mis propios profesores
en la tarea de contribuir a formar profe-
sionales para esta nueva disciplina. Si
bien el Departamento de Matemáticas
tenía la tuición formal de la primera ca-
rrera de ingeniería en el área, en la prác-
tica fue el CEC quien tomó el relevo del
Figura 7. Miguel Johnatan (UFRJ), José Pino, M. Cecilia Rivara, Ignacio Casas (UC), grupo de computación de matemáticas
Juan Álvarez. I Congreso Iberoamericano de Educación Superior en Computación. y asumió gradual e informalmente la res-
Año 1991. ponsabilidad por la docencia.

Con la creación del DCC, con el mismo


director del CEC, la docencia para la
IEPI tuvo continuidad y la carrera llegó
a tener 400 alumnos. En ese contexto,
mi llegada al DCC en 1979 fue la con-
clusión natural de mi vocación de “pro-
fesor” que continuó con la docencia
en Plan Común, en IEPI, en el Bachi-
ller en Computación y, a partir de los
ochenta, en Ingeniería Civil en Compu-
tación. Y durante muchos años tuve la
responsabilidad de la Coordinación Do-
cente del DCC. Y en ese cargo, trabaja-
mos en las reformas y renovaciones de
los planes de estudios para sincronizar-
los con los avances de la disciplina y
con los estándares internacionales.

La preocupación y dedicación a la do-


Figura 8. Claudio Gutiérrez, Aldo Migliaro. José Acle, Isaquino Benadof, Guillermo
cencia, que no tenía el suficiente reco-
González, Víctor Sánchez, Wolfgang Riesenkönig, Juan Álvarez. I Taller de Historia de
nocimiento en la carrera académica,
la Computación en Chile. Año 2009.
me llevaron a convertirlo en un tema
de investigación. Las innovaciones do-
centes, especialmente en los cursos
A fines de los setenta y comienzos de con la ayuda de ingenieros del CEC y básicos de computación orientadas a
los ochenta éramos muy pocos acadé- de empresas y algunos de los primeros centrar la docencia en el estudiante y
micos de tiempo completo. Recuerdo al- egresados de IEPI. Mi primera etapa en su aprendizaje, dieron origen a publi-
gunos años en que habíamos sólo tres o el DCC culmina en 1983 con mi viaje a la caciones en congresos nacionales e
cuatro en el DCC, mientras otros estaban Universidad de Waterloo en Canadá y mi internacionales en las áreas de Educa-
en sus posgrados. Nos correspondió por obtención del grado de Máster en Cien- ción en Ingeniería y Educación en Com-
tanto dictar diversos cursos contando cia de la Computación en 1984. putación. Por otra parte, y en los años

91
Computación
y Sociedad

En el balance retrospectivo aparece claramente mi al comprobar que no había registro de


vocación docente. Desde los primeros años en el la evolución de la disciplina en el país,
sentí la obligación moral de investi-
Centro de Computación [...] sentí la necesidad de garla y divulgarla. El trabajo ha dado
comunicar lo aprendido siguiendo el ejemplo de origen a publicaciones nacionales e
mis propios profesores en la tarea de contribuir a internacionales y a la organización de
dos ediciones del “Taller de Historia
formar profesionales para esta nueva disciplina. de la Computación en Chile” (ver Figu-
ra 8) y a eventos conmemorativos de
los principales hitos nacionales. Y, en
recientes, contribuimos en la docencia fícil contexto político y económico de asociación con investigadores latinoa-
de algunas de las nuevas universidades la época. La dictadura intervino la Uni- mericanos, hemos publicado y partici-
regionales públicas (de Talca, de O’Hi- versidad y nombró rectores militares y pado en los comités de organización y
ggins y de Aysén) y en escuelas de ve- redujo drásticamente el presupuesto de programa del “Simposio de Historia
rano para estudiantes y profesores de con consecuencias en todos los ámbi- de la Informática en América Latina y
Educación Media. tos, tanto en la libertad de pensamien- el Caribe” (SHIALC).
to y organización, como en los recur-
Con el patrocinio de la Sociedad Chilena sos para todas las actividades. Para En síntesis, ingeniero de profesión, aca-
de Ciencia de la Computación (SCCC) defender la Facultad y la Universidad démico por ocupación, “profesor” por
que fue creada en 1984, en 1991 orga- nos organizamos en la Asociación de vocación e “historiador” por opción, in-
nizamos el “I Congreso Iberoamericano Académicos, y, junto a académicos de terpretan mi involucramiento en el área
de Educación Superior en Computación” otras universidades, en la Asociación de computación. Y en estas cuatro di-
(CIESC) que prontamente fue acogido Universitaria y Cultural Andrés Bello. mensiones formé parte de una red de
por el Comité que agrupa a las socieda- Y en el ámbito profesional, desarrolla- colaboración con profesores, colegas,
des de computación latinoamericanas mos proyectos informáticos de apoyo compañeros(as) de estudio y trabajo,
(CLEI) y hasta hoy se mantiene como a la defensa de los derechos humanos incluyendo a las y los funcionarios del
uno de los eventos del congreso anual y contribuimos a organizar la especia- DCC y del CEC. El desarrollo de la dis-
del CLEI (ver Figura 7). Posteriormente, lidad de Computación en el Colegio de ciplina fue y es un trabajo colectivo, de
y considerando el creciente interés por Ingenieros de Ejecución en 1982 para continuidades y cambios, y he tenido el
el tema, en 1998 creamos el “Congreso defender, tanto a la carrera y a la profe- privilegio de estar presente y contribuir
Chileno de Educación Superior en Com- sión, como a las empresas y universi- en los saltos cuantitativos y cualitati-
putación” que es uno de los eventos de dades del Estado. vos que explican el estado de la cien-
las jornadas anuales de la SCCC. cia de la computación, y de su docen-
En otro ámbito, y como egresado de cia en la universidad y en el país, y que
En el recuento de mis primeros años, una de las primeras generaciones de ha permitido formar a generaciones de
no se puede dejar de mencionar el di- la primera carrera del área en Chile, y profesionales.

92
Doctorados
del DCC

Doctorados

93
Doctorados
del DCC

Miguel Campusano
Título tesis: Mapping State Machines to Developers’ Mental Model: Fast Understanding of Robotic Behaviors in the
Real World
Profesores guías: Alexandre Bergel - Johan Fabry

Cuando hice mi pregrado nunca realicé ningún una disciplina netamente ligada a computación
tipo de investigación ni se me pasó por la (programación en vivo) con la robótica fue
mente hacer un doctorado. Sin embargo, algo novedoso en su tiempo y que, afor-
al tiempo de trabajar en un empren- tunadamente, he visto como va aumen-
dimiento, me terminé aburriendo ya tando en popularidad, con workshops
que los temas que abordábamos y conferencias dedicadas sólo a unir
me parecían poco motivantes. Mi la computación y la robótica. Me ale-
plan era volver donde hice mi pre- gra ver que un tema tan importante
grado, al Departamento de Cien- como éste, que muchas veces es
cias de la Computación (DCC) de dejado de lado, esté siendo tomado
la Universidad de Chile, pero para en cuenta y mucha gente le esté de-
hacer un magíster. Hablé con el pro- dicando el tiempo que merece.
fesor Johan Fabry, el mismo que me
guió en mi pregrado, y, debido a diver- Aunque mi trabajo con este lenguaje de
sos problemas que tenía en ese momen- programación me enseñó mucho sobre el
to, me recomendó hacer un doctorado con proceso de programar robots, al evaluarlo no
un tema que era increíble para mí en ese enton- pudimos comprobar nuestra hipótesis, no pode-
ces: robótica. Debo admitir que mi mente se iluminó mos afirmar que el lenguaje facilita, de alguna forma,
de inmediato, en el DCC nunca tuve contactos con robots. el desarrollo de comportamientos robóticos. Aun así creo que
vamos en la dirección correcta, programar un robot requiere la
Mi paso por el doctorado fue, por decirlo de alguna forma, integración de diferentes disciplinas, todas sumamente com-
complejo. Al comienzo todo era emocionante, eso es lo que plejas. No sólo se van a producir robots más complejos a tra-
pasa cuando uno aprende algo totalmente nuevo y fascinan- vés de mejorar la inteligencia artificial, algoritmos de control,
te (recordemos que nunca tuve un paso por investigación visión computacional, etc., sino también es importante ayudar
antes de eso). Luego, el camino se volvió bastante tortuo- a que los programas robóticos sean más fáciles de escribir y
so, no fue fácil para mi encarar el mundo de la academia e de integrar al robot mismo, y con más capacidades. Todo esto
investigación, y mi salud mental se vio afectada bastante para hacer comportamientos robóticos cada vez más comple-
(al parecer un tema más que conocido en este mundo y, por jos y útiles para la sociedad.
alguna razón, tabú). Sin embargo, aprendí a golpes a cómo
llevar este proceso y, finalmente, supe llevar mi proyecto de El tema de la robótica me lleva hoy en día a investigar y dise-
investigación. Además, justo en medio de mi doctorado Jo- ñar arquitecturas para drones, haciendo un postdoctorado en
han tuvo que dejar la Universidad y ahí Alexandre Bergel me la Universidad del Sur de Dinamarca (SDU), en el marco del
tomó bajo su tutela. No fue un proceso fácil, pero le agradez- proyecto HealthDrone. En este proyecto queremos transportar
co enormemente a Johan y Alex el ayudarme en esta carrera medicinas y otros artículos médicos entre diferentes hospita-
y darme la confianza que necesitaba para llevar el doctorado. les y centros médicos que pueden estar ubicados en zonas de
Claramente, como estudiantes, nos faltan grupos de ayuda difícil acceso, incluyendo islas donde sólo se puede llegar en
para que podamos llevar esta carrera de forma saludable. barco. La idea es usar drones para reducir el costo y el tiempo
de traslado de estos artículos médicos.
Mi tema de doctorado consistió en desarrollar un lenguaje de
programación para comportamientos robóticos con una carac- Aunque estoy en Dinamarca no me he desligado del mundo
terística en particular, el robot se mueve al mismo tiempo que de la robótica en Chile. Hemos iniciado (con otras personas
se está programando. A esto se le conoce como programación ligadas a la robótica) una corporación sin fines de lucro llama-
en vivo. El objetivo de este lenguaje es hacer más fácil el desa- da Cuac. Con esta corporación trabajamos para potenciar la
rrollo de comportamientos robóticos. Este tipo de unión entre robótica y su educación en Chile.

94
Doctorados
del DCC

Matías Toro
Título tesis: Abstracting Gradual Typing: Metatheory and Applications
Profesor guía: Éric Tanter

Egresé de ingeniero civil en computación de la por lo que se tenía que ir modificando ciertas
Universidad de Chile el año 2007, y luego me abstracciones y reglas de evaluación, para
dediqué a trabajar en la industria aeronáuti- que pudiera cumplir con la propiedad, sin
ca por siete años. El trabajo, a pesar de no perder otras propiedades intrínsecas a
ser trivial, resultaba monótono y a veces los lenguajes graduales. Estas itera-
tedioso. No me imaginaba todo el res- ciones conllevaron muchas demos-
to de mi vida haciendo lo mismo. Bus- traciones matemáticas distintas, las
cando nuevos desafíos, y dado que que consumieron la mayor parte del
por temas familiares me complica tiempo de mi doctorado.
salir al extranjero, el año 2013 volví al
Departamento de Ciencias de la Com- Toda esta experiencia fue una monta-
putación (DCC) para realizar el Magís- ña rusa de emociones, donde uno se
ter en Ciencias, mención Computación. esperanzaba de tener una nueva idea o
Es ahí donde conocí a mi profesor guía solución que luego se derrumbaba al en-
Éric Tanter, el cual me reintrodujo al área contrar algún problema en alguna demos-
de lenguajes de programación. Me gradué del tración de algún lema. Trabajar por meses en
magíster en el 2013, y en el 2014 se hizo natural una demostración matemática para luego ver que
extender mi trabajo hacia un doctorado. había un error (a veces a días antes del deadline de una
conferencia), sumada a la presión de terminar a tiempo el docto-
Mi tesis de doctorado se llama “Abstracting Gradual Typing: rado fue muy estresante. Llegué a soñar con demostraciones (y
Metatheory and Applications”, y la investigación se centró en hasta encontré algunos errores en demostraciones así).
los lenguajes de programación graduales, los cuales buscan
integrar sistemas de tipos estáticos (como el de Java) con sis- La otra parte difícil fue la de escribir papers, ya que para hacer
temas de tipos dinámicos (como el de Python). Con sistemas investigación no sólo sirve ser bueno técnicamente, sino que
de tipos graduales el programador puede escoger qué expresio- también se debe saber transmitir las ideas. Aprendí que escri-
nes anotar con información de tipos estática, y cuáles dejar sin bir un paper puede ser muy parecido a desarrollar un software:
especificar. El sistema de tipos gradual chequea en tiempo de no es recomendable partir ciegamente, sino que hay que darle
ejecución lo que no puede verificar durante la etapa de compila- estructura a las ideas y planificar cómo se van a presentar las
ción, asegurando así que no se violen las anotaciones estáticas. cosas de manera de que todo fluya. También aprendí a usar
otro tipo de inglés empleado en artículos científicos, que es
El enfoque clásico para diseñar lenguajes graduales es usual- distinto al que uno podría estar acostumbrado a leer.
mente ad-hoc, pero existen metodologías que sistematizan
este proceso. Una de ellas es Abstracting Gradual Typing (AGT), Cuando hice el doctorado no había un curso que te enseñara
que ayuda a construir sistemáticamente lenguajes graduales a todo esto y lo que aprendí, lo aprendí de Éric. Sigo sintiendo
partir de lenguajes estáticamente tipados usando interpreta- que es mi punto débil y que me falta mucho por aprender aún.
ción abstracta. Mi trabajo de investigación exploró esta (casi Relacionado con esto, también tuve que aprender a presentar
nueva en ese entonces) metodología, aplicando AGT a distin- artículos científicos. Muchas veces gastaba semanas prepa-
tas disciplinas de tipo y mecanismos de lenguajes complejos. rando e iterando una presentación. A pesar de todas las dificul-
tades, es muy gratificante finalmente llegar a publicar un paper
La mayor parte de mi investigación fue teórica y se puede resu- y presentarlo. ¡Vale la pena el esfuerzo!
mir en lo siguiente. Se partía de un sistema de tipos complejo
existente, que satisfacía cierta propiedad formal, se aplicaba Actualmente me encuentro haciendo un postdoctorado en
sistemáticamente AGT, y luego se observaba si el lenguaje el DCC continuando mis temas de investigación pero en te-
gradual resultante también cumplía o no con dicha propie- mas relacionados con privacidad diferencial en lenguajes
dad. Éste no fue el caso de todos los lenguajes estudiados, de programación.

95
Doctorados
del DCC

Mauricio Quezada
Título tesis: Knowledge Discovery from News Events on Twitter
Profesora guía: Bárbara Poblete

Estudié Ingeniería Civil en Computación en el Una de las cosas más complicadas que en-
Departamento de Ciencias de la Computa- frentamos durante el desarrollo de mi tesis
ción (DCC) de la Universidad de Chile. Mi fue la falta de conjuntos de datos “co-
gusto por los distintos temas que vi en rrectos” sobre los cuales hubiéramos
los cursos que tuve durante la inge- podido evaluar nuestros modelos.
niería, más la buena relación que he Debido a la gran variabilidad de la
tenido con algunos profesores del información (una misma noticia no
Departamento me llevaron a conti- ocurre dos veces) y la naturaleza
nuar con un magíster, y luego, con de los modelos que propusimos
el doctorado. (orientados a resolver nuevas ta-
reas en la minería de datos) nos exi-
Mi tesis de doctorado consistió en gió pensar en formas novedosas y
una exploración de distintas formas válidas de evaluar la metodología. En
de extraer conocimiento desde la in- pocas palabras, la evaluación consis-
formación que comparten los usuarios tió en identificar que nuestros modelos
de Twitter sobre eventos noticiosos. Estas hacían resaltar patrones interesantes en
formas de extracción se basan en la suposi- otros aspectos de los datos.
ción de que el contexto en que se publica esta infor-
mación es muy importante para agrupar contenido similar. Lo más desafiante del doctorado fue poder gestionar mi
Por ejemplo, uno de los trabajos consistió en representar los tiempo y definir bien los objetivos de cada etapa. Siempre
tuits que expresan algún comentario relacionado a un evento aparecían nuevas ideas o cosas interesantes en las que tra-
noticioso en particular, como la muerte de Nelson Mandela bajar, por lo que definir bien el plan —y uno no sabe qué va a
en 2013, como la diferencia de tiempo en que fueron publica- encontrar al final— fue complicado. Por otro lado, creo que
dos dos mensajes consecutivos. Esta simple representación lo más interesante ha sido poder desarrollar distintas habili-
nos permitió observar que cierto tipo de noticias generan ma- dades con el tiempo; simplemente el tener la experiencia de
yor actividad de los usuarios, y que los mensajes que publi- trabajar en investigación va generando nuevas capacidades
can en este tipo de noticias son muy distintos a los mensajes que uno empieza a notar hacia el final del doctorado. Tam-
que publican sobre noticias con menores niveles de activi- bién el poder hacer clases en distintas instancias fue muy
dad. Otro aspecto importante es que un mensaje individual gratificante, aunque estresante, ya que tuve la oportunidad de
no dice mucho sobre la noticia, pero el considerar una gran transmitir lo que he ido aprendiendo.
cantidad de ellos nos permite observar patrones interesan-
tes. Este trabajo lo realicé durante mi tesis de magíster —y Decidí no seguir una carrera académica por varios motivos.
luego profundizado durante el doctorado—, en conjunto con Actualmente soy cofundador y CTO de Cero.ai, una empresa
Janani Kalyanam y Gert Lanckriet, en ese entonces de la Uni- que automatiza procesos de comunicación entre empresas
versidad de California, San Diego. y personas.

96
Doctorados
del DCC

Daniel Hernández
Título tesis: The Problem of Incomplete Data in SPARQL
Profesor guía: Claudio Gutiérrez

Cuando estaba el colegio, aún sin decidir que lado, va un poco contra la motivación inicial
estudiaría, mi interés era estudiar algo de comprender el mundo. Esto produce
que me permitiera poder entender el la sensación de que uno cada vez sabe
mundo, y por ello pensaba que cual- menos. Por suerte, a lo largo del doc-
quier carrera que tuviera que ver con torado me hice consciente de este
ciencias me podría gustar. Escogí fenómeno, lo que ahora me ayuda
entrar a la Escuela de Ingeniería a lidiar con ello.
de la Universidad de Chile porque
tenía un Plan Común que condu- Mi relación con Claudio fue siem-
cía a muchas carreras, lo que me pre muy buena y puedo decir que
permitiría más tarde decidir qué aprender de su mirada general fue
estudiar. Al final me decanté por una de las cosas más positivas del
computación, pues me gustaba y a doctorado. También tengo que agra-
la vez sentía que era una ciencia bas- decer a Aidan Hogan y Renzo Angles,
tante general. Luego de hacer un magís- de quienes también aprendí sus dife-
ter y un año de trabajar haciendo clases en rentes miradas cuando trabajábamos en
la Universidad de Talca, volví al Departamento algún paper. El ambiente del DCC es muy bue-
de Ciencias de la Computación (DCC) donde había no para hacer un doctorado, porque tiene una co-
estudiado, esta vez para hacer un doctorado. Me decidí a munidad amable con la cual compartir y reflexionar, y gente
ello porque disfruté el año que trabajé haciendo clases y muy admirable.
también por la recomendación de Claudio Gutiérrez (mi pro-
fesor guía). Mi tesis de doctorado “The Problem of Incomplete Data in
SPARQL”, estudia cómo las nociones de la información in-
Lo más complejo de mi doctorado fue sin duda el proceso de completa se manifiestan en el lenguaje de consulta SPARQL.
maduración que se produce cuando uno pasa de intentar re- Este lenguaje fue definido por el World Wide Web Consortium
solver un problema a entender cuál es el problema que uno (W3C) para los datos de la Web, en particular, para lo que se
está resolviendo, y el impacto que puede tener lo que uno está conoce como Web Semántica. El modelo de datos de SPARQL,
haciendo. Este proceso va acompañado con lo difícil que re- llamado RDF, fue diseñado teniendo en consideración que la
sulta comunicar los resultados de la investigación, escribirlo Web es un espacio en el cual múltiples actores publican de
de manera clara y siguiendo las prácticas de otros investiga- manera independiente, con diferentes creencias y maneras de
dores. Como he terminado mi doctorado hace poco tiempo, modelar (o entender) el mundo. Esto nos lleva a que todos los
puedo recordar el camino que he seguido y percibir el cambio conjuntos de datos en la Web sean considerados incomple-
que se produce en este proceso de maduración. Lo que hoy tos. Por el contrario, SPARQL es un lenguaje que surge (varios
me resulta evidente, antes no lo era. años después de RDF) de la necesidad de explorar un conjunto
acotado de datos RDF, es decir, de la manera tradicional. Esta
Lo otro que requiere esfuerzo es mantenerse focalizado. diferencia entre RDF y SPARQL produce incompatibilidades en-
Para investigar uno tiene que simplificar al máximo el pro- tre ambos lenguajes.
blema abordado. Quitarle todos sus aspectos no esenciales
hasta que el problema sea lo suficientemente claro como Para entender mi trabajo creo que es necesario revisar la no-
para poder enfrentarlo y luego poder comunicarlo. Hacer ción filosófica que tenemos de la noción de “entender”. Des-
esto no es fácil. Al simplificar un problema uno termina ge- de el punto de vista científico creo que el concepto de “en-
nerando una larga lista de variantes y preguntas sin resolver, tender” está relacionado con aquello que ocurre cuando uno
para retomar algún día. También resulta un poco desalenta- analiza un conocimiento bajo una formulación o teoría dife-
dor estar enfocado en un problema que se hace cada vez rente de la original. En mi tesis, yo tomo las definiciones del
más pequeño al lado de la larga lista que voy dejando al lenguaje SPARQL y las analizo bajo la teoría de información

97
Doctorados
del DCC

incompleta para bases de datos. La formulación de SPARQL esta noción de variable: los “nodos blancos”. Usando esta
consiste en una serie de reglas definidas de forma semifor- simplificación podemos formular la pregunta: ¿Produce
mal que describen una función que toma una base de datos SPARQL soluciones que no sean seguras? La respuesta es
en lenguaje RDF y una consulta en lenguaje SPARQL y entrega afirmativa. Una solución que no es segura se produce, por
un conjunto de soluciones. Por otra parte, la semántica del ejemplo, si la base de datos dice que “Juan tomó el bus de
lenguaje RDF consiste en asociar cada base de datos con un Santiago a x” y la respuesta a la consulta “¿a qué lugar Juan
conjunto de posibles modelos del mundo representado. Bajo no tomó el bus?” incluye a Curicó como respuesta. Esta res-
la teoría de información incompleta de las bases de datos, la puesta es insegura porque en un mundo posible la variable x
pregunta natural es si la semántica de SPARQL es consisten- puede tomar el valor Curicó.
te con la semántica de RDF. Una definición concreta de esto
es, por ejemplo, saber si las soluciones que se entregan para La pregunta que sigue es cómo podemos modificar la se-
una consulta y una base de datos dadas son aún válidas para mántica de SPARQL para obtener sólo respuestas seguras.
todos los modelos del mundo que la base de datos represen- Una semántica de dichas características debe considerar que
ta. A las soluciones que poseen tales características se las el problema de si una solución es segura está en la clase de
conoce como certain answers o soluciones seguras. complejidad coNP (muy complejo), mientras que el fragmen-
to SPARQL de nuestra formulación se puede computar de una
Para analizar el problema de las soluciones seguras en forma muy eficiente (AC°). Entonces, una parte de mi tesis
SPARQL tomé en consideración un fragmento de SPARQL consistió en proponer y evaluar experimentalmente la factibili-
con una semántica bien definida y una simplificación de la dad práctica de un método aproximado para la evaluación de
semántica de RDF que considera a los datos como senten- SPARQL, que entrega sólo respuestas seguras, pero que algu-
cias con variables (y por ende incompletas). Por ejemplo, nas veces no las entrega todas.
una sentencia como “Juan tomó el bus desde Santiago a x”
es incompleta porque, si bien sabemos que el bus que Juan Actualmente, estoy trabajando en la Universidad de Aalborg,
tomó tenía un lugar de destino, no sabemos cuál era. El len- en Dinamarca, como postdoc en DAISY - Center of Data Inten-
guaje RDF tiene un elemento que coincide exactamente con sive Systems.

Juan Reutter Claudio Gutiérrez Pablo Barceló

Andreas Pieris Gonzalo Navarro Daniel Hernández

98
Podcast del Departamento de
Ciencias de la Computación de
la Universidad de Chile

Disponible en: DCC UChile Nano Break

También podría gustarte