Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INTELIGENCIA ARTIFICIAL
Hacia una política Sistemas de toma de decisiones Aplicaciones de la IA:
chilena de inteligencia automatizadas: ¿De qué hablamos Colección de artículos
independientes abordando
artificial, nacida en cuando hablamos de transparencia y
distintas aplicaciones de la
contexto de pandemia del derecho a una explicación? inteligencia artificial
/ Andrea Rodríguez / Catherine Muñoz, Jeanna Matthews y Jorge Pérez / Varios autores
Contenidos
COMITÉ EDITORIAL
María Cecilia Bastarrica
Claudio Gutiérrez
Alejandro Hevia
Ana Gabriela Martínez
Editorial Jorge Pérez
1 / Federico Olmedo
Jocelyn Simmonds
EDITOR GENERAL
Federico Olmedo
Una dicotomía engañosa y una paradoja ética Revista Bits de Ciencia Nº21
37 / Ricardo Baeza-Yates
ISSN 0718-8005 (versión impresa)
www.dcc.uchile.cl/revista
ISSN 0717-8013 (versión en línea)
56 22 9780652
A medio siglo de mi encuentro con la computación
84
revista@dcc.uchile.cl
en la “Escuela de Injeniería”
/ Juan Álvarez Rubio
dccuchile
Impulsada principalmente por los avan- sus aplicaciones, y discutimos los desa-
1
Investigación
destacada
Prediciendo
indicadores en
el retail
2
Investigación
destacada
Profesor Asociado del Departamento Profesor Titular del Departamento Ingeniero Civil en Computación y
de Ciencias de la Computación de la de Ciencias de la Computación de Magíster en Ciencias mención Com-
Universidad de Chile, y profesor visi- la Universidad de Chile. Cofundador putación de la Universidad de Chile.
tante regular en las universidades de del DCC, ha servido como Presidente Líneas de trabajo: aprendizaje au-
Waseda, Japón, y de Duisburg-Essen, de la Sociedad Chilena de Ciencias tomático. En Twitter lo encuentras
Alemania. PhD en Ciencias por la Uni- de la Computación y Presidente de como @belisariops.
versidad de Duisburg, Alemania. Sus CLEI. Sus áreas de interés actuales
áreas de interés de investigación han son aprendizaje de máquina y admi- bpanay@dcc.uchile.cl
sido los sistemas de apoyo compu- nistración de procesos de negocio.
tacionales para el aprendizaje, siste- Su investigación se ha publicado en
mas distribuidos y machine learning. journals, incluyendo Expert Systems
Ha sido autor de más de 30 artículos with Applications, Information Sys-
en revistas indexadas y más de 100 tems Frontiers y ACM Computing
en conferencias internacionales. Surveys.
nbaloian@dcc.uchile.cl jpino@dcc.uchile.cl
Las tiendas no-online en nuestro país de la eficacia. Pero podría darse que dicción de indicadores para tiendas del
han sufrido fuerte con la pandemia del muchas personas visiten la tienda, pero retail llevado a cabo por nuestro grupo
COVID-19. Como han debido permane- pocas compren, así es que la proporción MARAL (Machine learning Research
cer cerradas durante largos periodos, de personas que compran con respecto Applied Lab) con financiamiento de Cor-
en éstos no han recibido ingresos, pero al total de visitantes (conversion rate) fo Innova y apoyo de la empresa Follow
sí han debido afrontar sus gastos fijos. es un segundo indicador apropiado. Un Up. El grupo está compuesto, además
En consecuencia, es importante para tercer indicador es el total de ventas en de los autores del artículo, por Sergio
ellas optimizar su operación cuando las dinero realizadas por unidad de tiempo. Peñafiel (estudiante de Magíster, ya gra-
condiciones mejoren. ¿Cómo podría un duado), Jonathan Frez (candidato a Doc-
administrador conocer su situación en Estos indicadores no sólo pueden ser- torado) y Cristóbal Fuenzalida (estudian-
cuanto a ventas? vir para conocer la situación pasada, te de Ingeniería Civil en Computación).
sino que pueden usarse para predecir
Un primer indicador de la eficacia de las el desempeño futuro. En la medida
ventas es averiguar la cantidad de per- que eso sea posible, el administrador
sonas que visita la tienda por unidad de puede prepararse para esa futura de- El problema
tiempo. En caso de que nadie entre a la manda. Así, puede preparar el número
tienda, mal puede haber ventas. Por el suficiente de vendedores y cajeros, el
contrario, si muchas personas van a la stock de productos a vender y el flujo Un enfoque al tema de la predicción de
tienda, hay mayor probabilidad de que de caja esperado. indicadores es usar información previa
compren. Entonces, el número de per- sobre estos mismos indicadores, pero
sonas que entra a la tienda por unidad En este artículo presentamos un pro- ¿cómo obtenerla? Aquí viene el aporte
de tiempo (foot traffic) es un indicador yecto de desarrollo de software de pre- de la empresa Follow Up. Esta compañía
3
Investigación
destacada
Visitantes
se pueden obtener del software de ven- 1000
tas de las tiendas mismas.
750
4
Investigación
destacada
5
Investigación
destacada
(1)
250
200
Con esto se puede calcular un límite su-
perior e inferior de esta predicción como
se muestra en las Ecuaciones 2 y 3.
150
Visitantes
(2)
100
50
(3)
0
05 / 07 09 / 07 13 / 07 17 / 07 21 / 07 25 / 07 29 / 07 01 / 08
2019 2019 2019 2019 2019 2019 2019 2019
Fecha
Además de entregar una predicción y su
Conjunto de validación Predicción Incertidumbre intervalo de incertidumbre, el método es
capaz de entregar una medida que repre-
Figura 4. Predicción del foot traffic. senta la importancia de cada una de las
variables de la entrada que es usada para
predecir. En la Figura 5 se puede observar
la importancia de cada una de estas varia-
Vector Machine (SVM), Gaussian Process predicción de nuestro modelo. Como se bles. Como se puede ver, para esta tienda
(GP) y Seasonal Autoregressive Integrated puede ver, se ajusta bastante a los datos en particular el valor más importante para
Moving Average (SARIMA). En la Figura reales y además entrega un intervalo de la predicción es la secuencia de valores
3 pueden observarse los resultados. El variación el cual es la incertidumbre de la anteriores, en especial, los valores del foot
error medido fue el Root Mean Squared respuesta. Las predicciones son calcula- traffic registrados hace 1 mes y 6 meses
Error (RMSE), mientras menor es este das como un valor esperado, cuando se antes del día que se quiere predecir.
error mejor es el método. De todos los predice una nueva observación, por ejem-
métodos puestos a prueba el RF fue el plo la del día 5 de julio, se calculan las ma-
que obtuvo los mejores resultados, pero sas (o importancias) de cada uno de sus
fue seguido de cerca por nuestro método k vecinos. Para llegar a una predicción se Conclusiones
propuesto, el cual obtuvo el segundo lu- multiplican estas masas por los valores de
gar para nuestro conjunto de datos. salida de sus vecinos y, además, se agre-
ga el término de incertidumbre el cual se Del análisis de los resultados presentados
En la Figura 4 podemos observar la pre- calcula como la masa de la incertidumbre en la sección anterior podemos ver que
dicción del foot traffic para una tienda en por el valor medio del intervalo en que se nuestro enfoque logra predecir correcta-
particular. En color azul se ve la curva real mueven los vecinos de la nueva observa- mente los indicadores claves del retail. En
(determinada a partir de las observacio- ción. Esto se muestra en la Ecuación (1), efecto, en la Figura 4, podemos ver que
nes de las cámaras) y en naranjo se ve la donde N es la cantidad total de vecinos, en general las predicciones están bien
6
Investigación
destacada
month_sin
week_sin
week_cos
quarter_sin
seq_2
seq_3
seq_4
seq_5
seq_6
dom_cos
dow_sin
dow_cos
month_cos
quarter_cos
year
woy_sin
woy_cos
seq_1
doy_sin
REFERENCIAS
[1] S. Petit-Renaud, T. Denœux: Nonparametric regression analysis of uncertain and imprecise data using belief functions. Int. J. Approx.
Reason. 35, 2004, 1–28.
[2] G. Shafer: Dempster’s rule of combination. Int. J. Approx. Reason. 79, 2016, 26–40.
[3] B. Panay, N. Baloian, J.A. Pino, S. Peñafiel, H. Sanson, N. Bersano: Feature selection for health care costs prediction using Weighted
Evidential Regression. Sensors 20(16), 2020, 4392.
[4] B. Panay, N. Baloian, J.A. Pino, S. Peñafiel, J. Frez, C. Fuenzalida, H. Sanson: Forecasting key retail performance indicators using
interpretable regression. Sensors 21(5), 2021, 1874.
[5] S. Abrishami, P. Kumar, W. Nienaber: Smart stores: A scalable foot traffic collection and prediction system. In Industrial Conference
on Data Mining; Springer: Cham, Switzerland, 2017, 107–121.
7
8
Turing
Premio
3D por
Premio Turing 2019:
computadora
La revolución
de la animación
Ed Catmull
Ganadores del Premio Turing 2019.
Patrick M. Hanrahan
Fuente: Ed Catmull https://awards.acm.org/award-winners/catmull_1244219 | Patrick Hanrahan: https://news.stanford.edu/2020/03/18/pat-hanrahan-wins-turing-award/
Premio
Turing
9
Premio
Turing
Figura 1. Cuarta parte de la saga Toy Story, cuyas películas de animación 3D fueron Figura 2. Ejemplo de objeto 3D represen-
totalmente producidas por computadora (CGI). tado como malla de polígonos.
el usar mallas de polígonos es que inclu- junto a Parke midieron y calcularon ma- el grado de Bachelor of Science en Físi-
so con pocos polígonos se pueden mo- nualmente una triangulación 3D del mo- ca y Ciencias de la Computación (1970)
delar objetos complejos, lo que permite delo de yeso, usando un par de cientos y el PhD en Ciencias de la Computación
tener una representación simple del ob- de triángulos. Finalmente, introdujeron (1974) en la Universidad de Utah. Du-
jeto y que no ocupa mucha memoria en toda esta información en un computa- rante su carrera fue vicepresidente de la
el computador. En caso que se requiera dor, con lo que produjeron una visuali- División de Computación en Lucasfilm
mayor precisión o nivel de resolución, zación en 3D de su mano. En el video Ltd., donde dirigió el desarrollo en áreas
siempre es posible refinar las mallas y titulado “A Computer Animated Hand” de computación gráfica, edición de vi-
agregar más polígonos para definir la se observa el modelo 3D de la mano, deos, videojuegos y audio digital.
superficie del objeto con mayor nivel de que puede rotar y flexionar los dedos.1
detalle. La Figura 2 muestra un ejemplo Este video ha sido descrito como “revo- Su motivación por crear películas na-
de una malla de polígonos que repre- lucionario” para su época, y fundó las ció desde muy pequeño inspirado por
senta un objeto 3D. bases para todo el desarrollo posterior las películas de Walt Disney como Pe-
de la CGI [1]. ter Pan y Pinocho. Él creó animaciones
Las primeras animaciones generadas armando cuadernillos de imágenes, en
usando CGI utilizaron mallas de trián- que página a página contenían dibujos
gulos para representar objetos simples. que varían gradualmente. Al mostrar
Un ejemplo notable es una animación Edwin E. Catmull rápidamente las páginas consecutivas,
computarizada en 3D de una mano las imágenes parecían animarse simu-
creada por Edwin E. Catmull y Fred Par- lando un movimiento.
ke en 1972 en la Universidad de Utah. Edwin Catmull fue cofundador de Pixar
Para este proyecto, Catmull creó un mo- Animation Studios y presidente de Pixar Durante su años en la universidad, rea-
delo de yeso de su propia mano. Luego, y Walt Disney Animation Studios. Obtuvo lizó dos aportes fundamentales a la
1 | https://vimeo.com/59434349.
10
Premio
Turing
11
Premio
Turing
El impacto de los algoritmos sobre los parches bicúbi- Brook motivó y condujo al desarrollo de
algoritmos, fundamentos cos introducidos por Edwin Catmull. Cuda, un lenguaje de programación de
RenderMan es considerado el modelo propósito general para las tarjetas gráfi-
teóricos y software que estándar para generar efectos visuales cas NVidia.
desarrollaron Catmull y en CGI.
Hanrahan [...] no sólo se
La contribuciones de Hanrahan son
mide en citas o cantidad casi innumerables; ha creado nuevos Epílogo
de artículos [...], sino conceptos, modelos, algoritmos tanto
también [...] en Premios secuenciales como paralelos, lengua-
jes de programación gráficos y para El Premio Turing 2019 fue otorgado a
Óscar. las GPU's, y software para rendering Edwin Catmull y Patrick Hanrahan por
realístico de objetos, entre otras. Es di- sus contribuciones en CGI y en anima-
fícil decidir cuales son sus aportes más ción computarizada 3D. El impacto de
fundacionales entre las cuales están importantes, pero sin duda entre estos los algoritmos, fundamentos teóricos y
composición de imágenes, motion blur, se encuentran: (i) la creación de un nue- software que desarrollaron Catmull y
y simulación de ropa, entre otras. vo método, light field rendering, que da Hanrahan durante sus carreras no sólo
al usuario la sensación de volar a tra- se mide en citas o en cantidad de artícu-
vés de las escenas, generando nuevas los científicos destacados, sino que tam-
vistas desde puntos de visión arbitra- bién se mide en Premios Óscar. Todos
Patrick M. Hanrahan rios sin información de profundidad ni en nuestra vida cotidiana podemos ver
geométrica, sino muestreando pedazos ejemplos en donde sus contribuciones
(slices) en grandes arreglos de imáge- fueron fundamentales, por ejemplo al
Pat Hanrahan es actualmente Profesor nes previamente digitalizadas o pinta- sentarnos al ver una película con anima-
de Ciencias de la Computación e Inge- das [4]; (ii) técnicas para representar la ciones o al jugar a nuestro videojuego fa-
niería Eléctrica en el Computer Graphics piel y el pelo usando subsurface scat- vorito. Pero, sus contribuciones no sólo
Laboratory de la Universidad de Stan- tering [5]; (iii) algoritmos para modelar se limitan a la industria del entreteni-
ford. Obtuvo su grado de Bachelor of efectos complejos de la interacción miento. El desarrollo del lenguaje Brook
Science en Ingeniería Nuclear (1977) y entre distintas fuentes de luz y los ob- permitió que los procesadores gráficos
un PhD en Biofísica (1985) de la Univer- jetos de la escena (iluminación global) conocidos como GPU’s, actualmente
sidad de Wisconsin-Madison. Él fue una usando Monte Carlo ray tracing [6]; y (iv) con miles de procesadores y disponibles
de las primeras personas contratadas lenguajes para programar GPU’s. a un precio razonable en notebooks y
en Pixar por Edwin Catmull. Como cientí- computadores de escritorio, pudieran ser
fico senior permaneció allí desde el año Los lenguajes para programar las GPU’s usados como unidades de cálculo multi-
1986 hasta el año 1989. Entre los años (unidades de procesamiento gráfico) propósito y no sólo en el proceso de ren-
1991 y 1994 fue Profesor Asociado en la han sido un aporte revolucionario pues dering gráfico. Es así como hoy en día se
Universidad de Princeton y desde el año permitieron que animaciones y video- usan para para correr algoritmos inclui-
1994 hasta ahora está en la Universidad juegos tridimensionales complejos se dos en aplicaciones computacionales
de Stanford. puedan realizar en tiempo real. En este de alto desempeño, tales como simula-
ámbito, apenas aparecieron las GPU’s en ciones numéricas, análisis de imágenes
Durante su estadía en Pixar, Hanrahan los años noventa, Hanrahan y sus estu- en biología y medicina, entrenamiento
lideró el desarrollo del nuevo sistema diantes extendieron el lenguaje de sha- de algoritmos de machine learning sobre
gráfico RenderMan, software que per- ding incluido en RenderMan para usar la datos masivos para aplicaciones de in-
mite que formas curvas puedan ser GPU, motivando más tarde el desarrollo teligencia artificial, entre otras. Muchos
pintadas de manera realista conside- de versiones comerciales y el lenguaje descubrimientos y avances aún por venir
rando iluminación y las propiedades de de shading GLSL de OpenGL, la librería en el futuro se los debemos en parte al
los materiales (shaders). La idea clave gráfica abierta más usada en el mundo. trabajo de Catmull y Hanrahan.
fue separar el comportamiento de re- Más aún, en los años 2000, nuevamente
flexión de la luz de la geometría del ob- junto a sus estudiantes, desarrollaron el Agradecimientos
jeto y calcular el color, transparencia, lenguaje Brook [7], un lenguaje que per- Nuestros agradecimientos a Iván Sipirán,
y textura sobre puntos de la superficie mitió comenzar a usar las GPU's como quien amablemente contribuyó con las
del objeto [3]. RenderMan también in- poder de cálculo de propósito general imágenes para las Figuras 2 y 3 de este
cluyó el concepto de z-buffering y los y no sólo para aplicaciones gráficas. artículo.
12
Premio
Turing
REFERENCIAS
[1] Andrew Utterson. A Computer Generated Hand. Ensayo para el National Film Registry. https://www.loc.gov/static/programs/natio-
nal-film-preservation-board/documents/computer_hand2.pdf (último acceso: 14 de abril de 2021).
[2] E. Catmull, AR Smith. 3-D transformations of images in scanline order. ACM SIGGRAPH Computer Graphics 14 (3):279-285. 1980.
[3] RA Drebin, L Carpenter, P Hanrahan. Volume rendering. ACM SIGGRAPH Computer Graphics, 22 (4):65-74. 1988.
[4] Marc Levoy, Pat Hanrahan. Light field rendering. Proceedings of the 23rd Annual Conference on Computer Graphics and Interactive
Techniques, pages 31-42. 1996.
[5] SR Marschner, HW Jensen, M Cammarano, S Worley, P Hanrahan. Light scattering from human hair fibers. ACM Transactions on
Graphics (TOG) 22 (3):780-791. 2003.
[6] State of the Art in Monte Carlo Ray Tracing for Realistic Image Synthesis. SIGGRAPH 2001 Course 29. 2001. Available from: https://
www.researchgate.net/publication/2872516_State_of_the_Art_in_Monte_Carlo_Ray_Tracing_for_Realistic_Image_Synthesis#full-
TextFileContent (último acceso: 20 de mayo de 2021).
[7] Ian Buck, Tim Foley, Daniel Horn, Jeremy Sugerman, Kayvon Fatahalian, Mike Houston, Pat Hanrahan. Brook for GPUs: stream com-
puting on graphics hardware. ACM Transactions on Graphics (TOG) 23 (3):777-786. 2004.
13
Inteligencia
Artificial
Historia y
evolución de
la inteligencia
artificial
14
Inteligencia
Artificial
15
Inteligencia
Artificial
en “sistemas expertos” el razonamiento mana como si fuese una computadora son atribuidos a una malinterpretada ex-
humano en dominios de conocimiento procesadora de símbolos, existe otra posición de las limitaciones y fortalezas
específico. Un ejemplo son los siste- escuela de pensamiento que se basa en del perceptrón en un libro por pioneros
mas de apoyo de diagnóstico médico a modelar la biología del cerebro que está de la IA simbólica, Marvin Minsky y Sey-
través de motores de inferencia y bases compuesto por redes neuronales bioló- mour Papert en 1969 [5]. No fue hasta
de conocimientos que resumen el cono- gicas. Frank Rosenblatt (psicólogo) en comienzos de 1980, que Geoffrey Hin-
cimiento médico basado en evidencia. 1958 propuso el perceptrón, una gene- ton (Premio Turing en 2018) y colegas
Uno de los logros más populares de la ralización de la neurona McCulloch-Pitts redescubren y popularizan el método lla-
IA simbólica culmina con la derrota del que podía “aprender” a través de coefi- mado retropropagación [6]; el algoritmo
campeón mundial de ajedrez en 1997, cientes de ponderación para cada en- central detrás de la búsqueda heurística
Garry Kasparov, por el computador Deep trada de la neurona. Hasta el día de hoy, (estilo IA simbólica) que logra encontrar
Blue de IBM [4] (ver infografía de línea de el perceptrón es la unidad fundamental los parámetros del modelo que minimi-
tiempo en la Figura 1). para muchas de las redes neuronales zan su error, así permitiendo que una red
artificiales e impulsa el paradigma co- neuronal de múltiples capas aprenda a
nocido como IA conexionista. A pesar partir de datos. Este avance resuelve
IA conexionista de su promesa, la investigación en re- las limitaciones de los perceptrones de
des neuronales se detuvo por falta de Rosenblatt y crea un resurgimiento en la
Paralelamente con la emergencia de la financiamiento y una sobreexpectación investigación del aprendizaje profundo
IA simbólica, que modela la mente hu- no cumplida. Hechos que parcialmente (ver Figura 1).
Las neuronas
De los números a se vuelven
Se introduce la palabra “Robot” Turing Test La “IA” nace
la poesía artificiales
La matemática Ada Lo- Karel Čapek, un dramaturgo checo, lanzó su obra de El primer modelo ma- Alan Turing propone un El término “inteligencia
velace fue la primera en ciencia ficción “Rossum’s Universal Robots”, donde temático de la neuro- test para saber si una artificial” es acuñado
ver el potencial de las exploró el concepto de personas artificiales a las na fue propuesto por máquina exhibe un com- en una conferencia en
computadoras más allá que llamó robots, que proviene de la palabra “robo- Warren McCulloch y portamiento inteligente. la Universidad de Dart-
de las matemáticas. ta” (esclavo). Walter Pitts. mouth organizada por
John McCarthy.
Aprendiendo a
El primer El problema del aprender con
Unimate Eliza Invierno IA
programa de IA XOR retropropagación
Allen Newell, Herbert El robot industrial, Uni- Joseph Weizenbaum, Marvin Minsky y Sey- Muchos comienzos en En un artículo muy influ-
Simon y Cliff Shaw fue- mate, inventado por científico informático mour Papert exploran falso y callejones sin yente, Rumelhart, Hin-
ron coautores de Logic George Devol, se con- de MIT, desarrolló ELI- en un libro las fortale- salida dejan a la investi- ton, y Williams, popu-
Theorist, el primer pro- virtió en el primero en ZA, el primer chatbot zas y limitaciones de gación en IA sin fondos larizan el algoritmo de
grama informático de trabajar en una línea que podía conversar los perceptrones, la y con poco interés. retropropagación para
inteligencia artificial. de montaje de General funcionalmente en in- más importante sien- entrenar redes neurona-
Motors. glés con una persona. do la incapacidad de les multicapa.
implementar la función
lógica XOR.
16
Inteligencia
Artificial
Segundo Invierno
RNNs Deep Blue Roomba ImageNet democratiza los datos
IA
Michael Jordan intro- El interés y la financia- Deep Blue, una com- El primer robot de éxito Fei-Fei Li lanzó ImageNet, una base de datos gratui-
duce una arquitectura ción de la investigación putadora que juega comercial para el hogar: ta de 14 millones de imágenes. Los investigadores
para el aprendizaje su- en inteligencia artificial al ajedrez derrota al una aspiradora autóno- de IA comenzaron a usar ImageNet para entrenar
pervisado en secuen- nuevamente disminuyen. campeón mundial, Ga- ma llamada Roomba. redes neuronales para catalogar fotos e identificar
cias de datos. rry Kasparov. objetos.
Enseñando a Aprendizaje
Visión las máquinas a profundo al BERT, un modelo
Alexa AlphaGo
sobrehumana inventar alcance de todos de lenguaje
Una red neuronal convo- Ian Goodfellow introdu- Amazon lanza Alexa, Se lanzan dos librerías La IA de Google, Alpha- Google desarrolló BERT,
lucional se utiliza para ce las redes generativas un asistente virtual in- de código abierto Ten- Go, vence al campeón la primera “representa-
ganar el concurso de re- adversarias (GAN) que teligente con interfaz sorFlow y PyTorch, que mundial Ke Jie en el ción de lenguaje bidi-
conocimiento de imáge- utilizan dos redes neuro- de voz. rápidamente se popula- complejo juego de mesa reccional y sin super-
nes sobre ImageNet, con nales enfrentándose una rizan como el software de Go. visión” que se puede
un rendimiento sobrehu- contra la otra para ge- por defecto para de- utilizar en una variedad
mano por primera vez. nerar nuevas instancias sarrollar proyectos de de tareas de lenguaje
sintéticas de datos. Se aprendizaje automático. natural, como respon-
utilizan ampliamente en der preguntas.
la generación de imáge-
nes, video y voz.
impulsan el desarrollo de la IA. La Figu- rizar imágenes con una mayor precisión
La revolución del ra 2 muestra cómo los conceptos de IA, que el humano promedio [7]. Al siguien-
aprendizaje profundo aprendizaje automático (machine lear- te año, el sistema AlphaGo de DeepMind
ning) y aprendizaje profundo (deep lear- se corona maestro de Go tras vencer al
ning) se relacionan el uno con el otro. campeón mundial, Lee Sedol [8]. Este
En la década del 2010, dos cosas harían suceso es impactante ya que en el Go
posible la revolución de aplicaciones de Como consecuencia de estos avances, hay en promedio alrededor de 300 mo-
redes neuronales y algoritmos de apren- se desarrollaron aplicaciones basadas vimientos posibles que se pueden hacer
dizaje profundo. Primero, los avances en las redes neuronales donde la IA en cada turno, mientras que en el ajedrez
de hardware especializado han acele- simbólica no tuvo éxito. Por ejemplo en es cercano a 30 movimientos. En otras
rado drásticamente el entrenamiento y aplicaciones de visión, como reconoci- palabras, el árbol de búsqueda del Go
el rendimiento de las redes neuronales miento facial y detección de cáncer, y en tiene un factor de ramificación de un or-
y reducido su consumo de energía. Se- aplicaciones de lenguaje, como la traduc- den de magnitud mayor al ajedrez, razón
gundo, el aumento de datos abiertos dis- ción de idiomas y asistentes virtuales. principal por la cual la IA simbólica, por
ponibles online y servicios de bajo costo En 2015, Microsoft Research utiliza una sí sola, falló en desarrollar un programa
para etiquetar datos vía crowdsourcing arquitectura de red neuronal para catego- para jugar Go.
17
Inteligencia
Artificial
Limitaciones de la IA
Un aspecto clave y poderoso de las re-
des neuronales es que no requieren que
se especifiquen las reglas del dominio a
modelar; las reglas se aprenden a partir
de los datos de entrenamiento. La falta
de conocimiento de alto nivel embebido
en el sistema por expertos humanos,
como es el caso de la IA simbólica, se
contrarresta con la capacidad de inferir
estadísticamente un modelo del domi-
nio a partir de suficientes datos. Sin em-
bargo, una desventaja importante de las
redes neuronales es que requieren gran-
des recursos computacionales y canti-
dades enormes de datos. Por ejemplo,
se estima que replicar los experimentos
de AlphaGo costaría alrededor de 35 mi-
llones de dólares sólo en poder compu-
tacional [9]. Por otro lado, los datos de-
ben ser cuidadosamente “curados” para
ser representativos y así poder genera-
lizar correctamente y no producir resul-
tados sesgados, como ha sido el caso
en textos sexistas y racistas generados
a partir de modelos de lenguaje [10]. Por
otro lado, mientras que programas de
software basados en reglas explícitas
son fáciles de rastrear y comprender
cómo llegaron a tomar ciertas decisio- Figura 2. Diagrama de Venn que muestra la relación entre distintas subáreas de la
nes, no se puede decir lo mismo de los inteligencia artificial.
algoritmos de aprendizaje profundo que
debido a su alta complejidad son difíci-
les de interpretar y comunicar por huma-
nos. Estas limitaciones son uno de los creadas por equipos académicos, Caffe experimentar la construcción de mode-
grandes desafíos en la IA y hay mucha y Theano, hasta las actuales dominan- los de IA y a la vez contribuir a expandir
investigación activa en estas direccio- tes, PyTorch y TensorFlow, respaldadas las bases de datos públicas y poner a
nes [11,12]. por Facebook y Google, respectivamen- disposición nuevas soluciones.
te, el acceso a estos softwares de códi-
go abierto han facilitado el cambio hacia Como ejemplo del poder de democrati-
la innovación tecnológica impulsada por zar datos, en el 2009 el proyecto Image-
Democratizando la IA el aprendizaje automático. Tanto en la Net, liderado por la investigadora Fei-Fei
investigación de vanguardia como en la Li, puso a disposición del público una
creación de aplicaciones por la indus- gran base de datos visual que ayudó a
Desde que el aprendizaje profundo recu- tria, la democratización de la IA reduce investigadores a crear modelos más
peró prominencia alrededor del 2010, los las barreras de entrada para que las per- rápidos y precisos de reconocimiento
softwares gratuitos y de código abier- sonas y organizaciones puedan ingresar visual de objetos. Esta colección de imá-
to especializados para el aprendizaje al apasionante mundo de la IA con poca genes se convirtió rápidamente en una
profundo han sido enormemente res- o nada de inversión financiera. Pueden competencia anual (ahora organizada
ponsables de impulsar el campo hacia aprovechar los datos y algoritmos dis- en Kaggle) para ver qué algoritmos po-
adelante. Desde las primeras librerías ponibles públicamente para comenzar a dían identificar objetos en las imágenes
18
Inteligencia
Artificial
19
Inteligencia
Artificial
Un aspecto clave [...] de las redes neuronales es les van por el lado del marco ético para
que no requieren que se especifiquen las reglas del los desarrollos en esta disciplina. Men-
cionaremos algunos de los principales:
dominio a modelar; las reglas se aprenden a partir
de los datos de entrenamiento. 1. La IA y la economía [16]. Aquí apare-
cen temas como los usos de la IA en
el mundo del trabajo: por ejemplo,
forma pasiva y a bajo costo. El tercer solos o con colegas de otras institu- ¿dónde están los límites de los flu-
ejemplo es CornerShop que usa tec- ciones en diversas universidades a lo jos de trabajo automatizado donde
nologías de datos y analítica para su largo del país. hay personas involucradas? Y la pre-
diseño de operaciones. Finalmente, un gunta fundamental del área: ¿cómo
ejemplo de una empresa más pequeña Respecto de la enseñanza, han prolife- distribuiremos la riqueza creada por
es Zippedi, orientada a robótica de al- rado los cursos de IA, así como diplo- las máquinas?
macenes para optimizar digitalmente mados y magíster en el área dictados
las estanterías. Hay también muchas por diferentes universidades y organi- 2. La IA y la sociedad [17]. ¿Cómo afec-
otras empresas tipo startup que están zaciones. Esto muestra que la IA se ha tan las máquinas inteligentes la
haciendo cosas tipo chatbots, aplica- convertido en un boom en Chile, con los relación entre los seres humanos?
ciones de procesamiento de imágenes, claros y oscuros propios de un boom. ¿Quiénes decidirán los usos de las
bioinformática, etc., la mayoría apli- En este marco diferentes organizacio- máquinas inteligentes? ¿Quién y
cando investigación ya consolidada nes e instituciones discuten sobre los cómo controlar los sesgos (introdu-
(no desarrollando). usos de IA en diferentes áreas, entre cidos intencional o no intencional-
ellos, la Comisión Desafíos del Futuro mente) a las máquinas? ¿Cuáles son
Respecto de la investigación dedicada del Senado, las universidades, las Fuer- los límites (o no existen) al desarrollo
a la IA propiamente tal (esto es, publi- zas Armadas, el Ministerio de Ciencia de ese tipo de proyectos?
cando regularmente en revistas o con- y Tecnología, etc. Se han elaborado di-
ferencias de IA) son pocos los grupos versos documentos. Algunos ejemplos 3. La IA y los humanos. ¿Cómo afecta-
a lo largo del país. Destacamos IALab son: “Inteligencia Artificial para Chile. rán las máquinas inteligentes nuestro
de la Pontificia Universidad Católica La urgencia de desarrollar una estrate- comportamiento? ¿Hasta qué nivel es
de Chile, que tiene varios años y bue- gia”, del Senado de la República; “Ejér- permisible “ensamblar” esas máqui-
na infraestructura (particularmente su cito Virtual” de la Academia Politécnica nas con nuestra biología?
cluster de GPUs para IA). Su fuerte es Militar, y “Política Nacional de Inteligen-
visión computacional y robótica. Otro cia Artificial” del Ministerio de Ciencia. 4. La IA y el medio ambiente. ¿Cuáles
grupo es el de Inteligencia Computa- son los límites razonables de uso de
cional del Departamento de Ingeniería recursos para estos proyectos?
Eléctrica (UChile) que está centrado en
robótica y visión, y procesamiento de Ética, alcances y 5. Seguridad, usos militares [18]. ¿Qué es
señales y aprendizaje en este campo. necesario y cómo regular este ámbito,
En el DCC (UChile) hay un grupo (Re- limitaciones de la IA tradicionalmente complejo de regular?
LeLa) centrado en IA y NLP. La Univer-
sidad de Concepción recientemente Como toda tecnología, la IA trae apare- 6. Superinteligencia [19]. ¿Qué dere-
creó un grupo de IA enfocado a Siste- jada dilemas éticos. En el caso de la IA chos y deberes tendrán estos robots?
mas Multiagente y Robótica. Por otra esto se agranda por el poder transfor- ¿Quién es responsable por sus desa-
parte, hay muchos grupos en diversas mador de la realidad que puede traer rrollos y usos? ¿Qué nivel de decisio-
universidades dedicados más bien a aparejado esta tecnología. Así es que nes se les permitirá tomar en asun-
aplicaciones de AI en diferentes áreas, hoy, al igual que la investigación biomé- tos humanos?
como empresarial, comercial, cien- dica desde siempre, el test de la ética
tífica, social, etc. y luego publican en debe ser aplicado a los desarrollos de Hay miles de otras preguntas. Uno po-
esas disciplinas. Por ejemplo, el Insti- IA. Esto se refiere particularmente a dría replicar todas las de la ética clási-
tuto Data Science de la Universidad del funcionalidades donde existen máqui- ca, pues en definitiva lo que está ocu-
Desarrollo (UDD) aplica técnicas de IA nas y aparatos con “inteligencia” o ha- rriendo con la IA débil al menos, es la
en proyectos asociados a la minería y bilidades de simulación de lo humano realización de gran parte de los proyec-
agricultura. Finalmente, hay muchxs que sobrepasan con creces las de los tos clásicos de simulación de facetas
investigadores que trabajan más bien humanos. Y las preguntas fundamenta- de lo humano.
20
Inteligencia
Artificial
REFERENCIAS
[1] James Moor. “The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years”. AI Magazine 27(4), 2006. https://doi.
org/10.1609/aimag.v27i4.1911.
[2] A. Newell y H. Simon. “The Logic Theory Machine – A Complex Information Processing System”. IRE Transactions on Information
Theory 2, 1956.
[3] Wheeler, Gregory. “Bounded Rationality”. The Stanford Encyclopedia of Philosophy, 2020. https://plato.stanford.edu/archives/
fall2020/entries/bounded-rationality/.
[4] Hansen Hsu. AI and Play, part 1: How Games Have Driven two Schools of AI Research, Computer History Museum, 2020. https://
computerhistory.org/blog/ai-and-play-part-1-how-games-have-driven-two-schools-of-ai-research/.
[5] Minsky, Marvin, y Seymour A. Papert. Perceptrons: An Introduction to Computational Geometry. MIT press, 2017.
[6] Rumelhart, D. E., Hinton, G. E., y Williams, R. J. Learning Representations by Back-Propagating Errors. Nature, 1986.
[7] He, Kaiming, et al. “Delving Deep into Rectifiers: Surpassing Human-Level Performance on Imagenet Classification”. Proceedings of
the IEEE international conference on computer vision, 2015.
[8] Silver, D., Huang, A., Maddison, C. et al. Mastering the Game of Go with Deep Neural Networks and Tree Search. Nature 529, 2016.
[9] DeepMind’s Losses and the Future of Artificial Intelligence. WIRED, 2019. https://www.wired.com/story/deepminds-losses-future-ar-
tificial-intelligence/.
[10] Zou, J. y Schiebinger, L. AI can be Sexist and Racist – It’s Time to Make it Fair. Nature 559, 324–326, 2018.
[11] Xie, Ning, et al. “Explainable Deep Learning: A Field Guide for the Uninitiated”. arXiv preprint, 2020.
[12] Mehrabi, Ninareh, et al. “A Survey on Bias and Fairness in Machine Learning”. arXiv preprint, 2019.
[13] Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. “Imagenet Classification with Deep Convolutional Neural Networks”. Advan-
ces in neural information processing systems 25, 2012.
[14] Mikolov, Tomáš, et al. “Recurrent Neural Network based Language Model”. Eleventh annual conference of the international speech
communication association, 2010.
[15] Cañete, José, Gabriel Chaperon, Rodrigo Fuentes, y Jorge Pérez. “Spanish pre-trained Bert Model and Evaluation Data”. PML4DC at
ICLR 2020, 2020.
[16] Egana-delSol, Pablo. “The Future of Work in Developing Economies: What can we learn from the South?”. Available at SSRN 3497197, 2019.
[17] Tomašev, N., Cornebise, J., Hutter, F. et al. AI for Social Good: Unlocking the Opportunity for Positive Impact. Nat Commun 11, 2468, 2020.
[18] Toby Walsh A.I. Expert, Is Racing to Stop the Killer Robots. The New York Times, 2019. https://www.nytimes.com/2019/07/30/scien-
ce/autonomous-weapons-artificial-intelligence.html.
[19] Alfonseca, M., Cebrián, M., Anta, A. F., Coviello, L., Abeliuk, A., y Rahwan, I. Superintelligence cannot be Contained: Lessons from
Computability Theory. Journal of Artificial Intelligence Research, 2021.
21
Inteligencia
Artificial
Hacia una
política chilena
de inteligencia
artificial, nacida
en contexto de
pandemia
22
Inteligencia
Artificial
23
Inteligencia
Artificial
24
Inteligencia
Artificial
25
Inteligencia
Artificial
estar totalmente claras aún, y varias de cusión deberá ser abordada desde una Que la política nacional de inteligen-
las iniciativas apuntan a generar indica- perspectiva global, reconociendo el avan- cia artificial tenga impacto dependerá
dores que permitan hacer seguimiento ce en estas temáticas de otros países y no sólo de los recursos que el sector
de la adopción y el impacto de la inteli- su eventual adaptación en nuestro país. público y privado puedan aportar, sino
gencia artificial en el país. Chile, al igual del compromiso y convicción transver-
que otros países de la región, tiene un Existen muchas miradas que avizoran sal que vaya más allá de un gobierno
nivel de digitalización heterogéneo, con escenarios futuros donde la inteligencia para impulsar esta tecnología como
un claro mayor desarrollo en tecnolo- provoca cambios mayores en la socie- agente de desarrollo económico, so-
gías de información y de comunicación dad y en la forma en que interactuamos. cial y cultural del país. Esto se ve más
en torno a las grandes urbes. Si en algo La inteligencia artificial permite abordar importante de resolver dada la con-
la pandemia nos ha hecho avanzar, es tareas donde distintos tipos de restric- tingencia de la pandemia, la que ha
en forzar una mayor cobertura para la ciones físicas no permiten su realiza- incentivado la transformación digital,
conectividad, y hacer evidente la nece- ción por seres humanos. Esto abre las pero que también ha tenido un fuerte
sidad de calidad de esta cobertura. Así posibilidades a nuevas funcionalidades impacto económico que hace prever la
la tecnología 5G se plantea como una aún desconocidas, pero además abre falta de recursos desde el sector públi-
alternativa para superar estas brechas. la posibilidad de que aumenten las bre- co. Acorde a la trayectoria del aporte
chas e inequidades entre aquellos que del Estado a la investigación en Chile,
Tema interesante a resolver será como tengan o no tengan el poder de esta uno puede pronosticar que las priori-
se articula el potenciar el desarrollo de tecnología. Enfrentar estos desafíos dades no irán por apostar al desarrollo
inteligencia artificial a través de acceso requiere como paso inicial conocerla, científico del área con financiamiento
a datos y código abierto, con los temas eliminar los mitos y verla como una tec- público, sino más bien a la formación
de privacidad y de propiedad intelectual nología que ha sido creada por la inteli- de capital humano y al fomento de la
que se quieran asociar a bases de datos gencia humana y que debe estar al ser- innovación con la participación del
y métodos. Parte importante de esta dis- vicio de la sociedad. sector privado.
26
Inteligencia
Artificial
27
Inteligencia
Artificial
Abogada, Magíster en Derecho In- Profesora de informática en Clarkson Profesor Asociado del Departamento
ternacional, Inversiones y Comercio University (EE.UU.), copresidenta fun- de Ciencias de la Computación de la
por la Universidad de Chile y Master dadora del Subcomité de Políticas de Universidad de Chile e Investigador
of Laws in International Law (LL.M.) Tecnología de la ACM sobre Inteligen- Asociado del Instituto Milenio Funda-
por la Universidad de Heidelberg, cia Artificial y Responsabilidad Algorít- mentos de los Datos. Doctor en Cien-
especializada en propiedad intelec- mica, vicepresidenta del Instituto de cias de la Ingeniería por la Pontificia
tual y regulación de tecnologías, en Ingenieros Eléctricos y Electrónicos Universidad Católica de Chile. Sus in-
particular, regulación de inteligencia (IEEE) - Comité de Política de IA de EE. tereses incluyen: datos Web, teoría de
artificial. UU. y miembro del Comité de Políticas redes neuronales profundas, y el análi-
de Tecnología de la ACM (ACM TPC). sis de texto en medicina y política. En
cmunozgut@gmail.com Twitter lo encuentras como @perez.
jnm@clarkson.edu
28
Inteligencia
Artificial
meta a corto plazo, la modernización las personas involucradas en su diseño das. Y esto no es así. Las decisiones
de sus funciones y prestaciones de e implementación, sin necesitar infor- automatizadas se toman de dos formas
servicios [8], incorporando las referi- mación detallada del funcionamiento principales: 1) según las instrucciones
das toma de decisiones automatizadas interno de los sistemas involucrados. escritas por programadores humanos,
potenciadas con Inteligencia Artificial Lo que se busca probar, en estos casos o 2) según las reglas aprendidas auto-
(IA). Lo anterior, bajo la consigna de efi- evidentes, es generalmente una discri- máticamente a partir de datos del pa-
ciencia pública, administración efectiva minación indirecta, la cual ocurre cuan- sado. Algunas personas pueden pensar
y con la promesa de minimizar pérdidas do una norma, en este caso un sistema, que el problema principal proviene de
de gastos fiscales, contribuyendo a po- aparentemente neutro, es aplicado a las instrucciones escritas directamen-
líticas de austeridad [9]. una población, perjudicando despro- te por programadores humanos, pero
porcionadamente a grupos vulnerables de hecho, el aprendizaje automático
Desde el punto de vista técnico, los de ésta [13]. En consecuencia, la reco- sobre datos pasados suele crear pro-
sistemas de tomas de decisiones auto- pilación de este tipo de información, en blemas aún mayores. Aprender auto-
matizadas pueden ser, o bien sistemas general, es suficiente para probar dicho máticamente desde datos del pasado
que apoyan determinadas decisiones te- “perjuicio dzesproporcionado”. Éste es es equivalente a considerar al pasado
niendo la última palabra un ser humano, un tipo de “transparencia”, pero no cual- como el oráculo del futuro que quere-
o sistemas que toman decisiones sin la quiera, sino aquella estratégicamente mos. En cierto sentido, aprendemos del
intervención de personas [10]. Esta dife- obtenida para construir un caso judicial pasado porque es todo lo que tenemos
rencia que pareciese ser trascendental, donde existe una evidente vulneración para aprender. Pero el pasado está lle-
no es tal y en ambos casos existen si- de derechos sobre las personas [14]. no de prejuicios de muchos tipos. Si,
milares niveles de riesgos en relación por ejemplo, miramos quién ha sido un
con la afectación de grupos protegidos. Ahora bien, ¿qué ocurre en aquellos ca- buen gerente en el pasado para definir
Por ejemplo, en el primer caso, también sos donde la falta, error o injusticia son quién será un buen gerente en el futuro,
llamado “semiautomatizado”, existe una sutiles y no evidentes? Pensemos en o quién ha sido un buen enfermero en el
tendencia comprobada; las personas un sistema de contratación de personal pasado para definir quién será un buen
confían más en el juicio de un algoritmo que ha rechazado una solicitud de em- enfermero en el futuro, es posible que
que en el propio cuando estos juicios es- pleo de una persona que cumplía todos descartemos personas calificadas que
tán en contradicción [3]. los requisitos o un sistema de toma de no coinciden con el perfil más típico del
decisiones que rechaza el ingreso de pasado. Si codificamos estos datos del
Llama la atención que el entusiasmo un joven a una universidad cumpliendo, pasado en sistemas informáticos sin
por este tipo de tecnología no ha mer- asimismo, todos los requisitos para ello. exigir una explicación de sus decisio-
mado a pesar de la abundante evidencia Estas personas pueden albergar razo- nes, entonces permitiremos que el pa-
que alerta sobre el riesgo de aplicarlos nables dudas sobre si han sido injusta- sado defina el futuro sin cuestionarlo.
a problemáticas sociales [11]. El deno- mente excluidas o discriminadas, pero a Estaríamos tomando la IA, que conside-
minador común en su aplicación es la diferencia de los casos anteriores, no es ramos una fuerza progresista y futuris-
naturaleza punitiva, lo que convierte a algo manifiesto. Incluso más, es posible ta, para usarla como un oráculo y ejecu-
estos sistemas en una amenaza poten- que estos sistemas ya cuenten con au- tor conservador de prejuicios pasados.
cial de amplificación y perpetuación de ditorías que demuestren que su funcio-
injusticias sociales sobre grupos históri- namiento está supuestamente libre de Los conceptos clásicos de transparen-
camente oprimidos y marginalizados, ta- sesgos de acuerdo con parámetros ma- cia y participación social en la toma de
les como pueblos originarios, afroame- temáticos de equidad [15]. Lamentable- decisiones, pilares fundamentales para
ricanos, latinos, asiáticos, comunidades mente es común que estos parámetros prevenir y combatir la arbitrariedad y
LGBTIQ+, musulmanes, personas de es- obedezcan a una visión exclusivamente la discriminación, parecen quedarse
casos recursos, entre otros [12]. tecnocrática del problema y tengan poco cortos en el contexto actual. En parti-
sustento comparado con parámetros cular, la transparencia puede tener di-
Muchos de estos casos son evidentes sociales de equidad [16, 17]. versas conceptualizaciones y se hace
e incuestionables discriminaciones, las imprescindible distinguir en palabras
que legalmente pueden ser acreditadas Los ejemplos más sutiles de sesgo son sencillas transparencia, explicabilidad
en un juicio. La información para docu- muy comunes, lo que va en contra de e interpretabilidad que son términos
mentar este tipo de casos toma como la creencia de muchas personas de que relacionados mas no sinónimos. ¿Qué
referencia los resultados de salida del las decisiones tomadas por computa- exigimos entonces cuando exigimos
sistema, junto con pruebas estadísti- doras o sistemas automatizados son transparencia y explicabilidad en las
cas y antecedentes relacionados con fundamentalmente lógicas e insesga- decisiones de un sistema automático?
29
Inteligencia
Artificial
Aprender automáticamente desde datos del pasado En efecto, desde orígenes coloniales las
es equivalente a considerar al pasado como el personas de escasos recursos no han
tenido control sobre su privacidad ni de-
oráculo del futuro que queremos. cisiones, en comparación con personas
de clases de mayores ingresos. A lo an-
terior, se agrega el hecho que, debido a
No pretendemos responder cabalmen- considerado como una explicación o evi- segregaciones y desigualdades, existe
te a la pregunta sino más bien aportar dencia clara para un grupo (p.ej., código una brecha de conocimiento en las per-
a la discusión desde una visión legal fuente de un sistema para un desarrolla- sonas sobre cómo funcionan las herra-
y computacional. Éste es el punto de dor de software), puede resultar opaco mientas tecnológicas y la forma en que
partida de este artículo y nuestra moti- para otro grupo o simples detalles téc- pueden proteger sus derechos. Adicio-
vación de escribirlo. nicos para un tercer grupo. A pesar de nalmente en muchos casos, la mayoría
esto, diversos grupos de investigación de las personas no son conscientes que
están actualmente trabajando en propo- están siendo parte de sistemas tecnoló-
ner mecanismos para una transparencia gicos ni de los riesgos asociados [22].
El concepto clásico de efectiva y con sentido. Éste es un aspecto crítico que debe ser
transparencia democratizado mediante mecanismos
de inclusión y en consideración a la dig-
La transparencia no es sinónimo de nidad de todos los ciudadanos. Como
Durante la última década se ha discuti- igualdad hemos mencionado, una transparencia
do sobre el nivel de transparencia que suficiente para una persona puede no
debe existir en el desarrollo y uso de sis- Comúnmente, el análisis de transparen- serlo para otra, por lo que deben existir
temas de IA, en particular, en aquellos cia es ex-ante (antes de que el sistema estándares de acceso a la información
que toman decisiones automatizadas se implemente), y no ex-post (después que consideren el entendimiento de to-
y que potencialmente pueden tener un de que el sistema ya esté implementado dos los ciudadanos.
impacto negativo sobre las personas. La y tenga un impacto en la vida de las per-
transparencia ha sido instaurada como sonas). En ese sentido, se entiende que La obtención de información se com-
uno de los principios esenciales en esta la transparencia y exigencia de informa- plejiza, tomando en consideración que
materia y guarda relación con la capa- ción pertinente, es un requisito para la existen diferentes definiciones contra-
cidad de proporcionar información que construcción de la confianza entre los puestas sobre conceptos relevantes
permita comprender cómo se desarrolla ciudadanos y entidades públicas o priva- como igualdad, discriminación y fair-
y despliega un sistema de IA [18, 19]. Al das y los sistemas que éstos proveen de ness [23]. Por ejemplo, dar prioridad a
respecto, la Iniciativa Global de IEEE so- forma previa a su uso, de manera que las los derechos de los individuos, priorizar
bre Ética de Sistemas Autónomos e Inte- personas puedan contar con anteceden- el bienestar de la sociedad en su conjun-
ligentes ha establecido cuatro condicio- tes necesarios para tomar la decisión de to, proteger a los grupos marginados,
nes para guiar la confianza informada de aceptar con cierta confianza el uso de un incluso proteger a todas las especies
los sistemas autónomos e inteligentes: modelo algorítmico que puede impactar- del planeta. Fairness es un concepto
1) efectividad, 2) competencia, 3) rendi- lo directamente. Pero esto es cierto sólo esencial en países de Europa o en Es-
ción de cuentas y siendo la 4) precisa- respecto de una parte de la población, tados Unidos, que se opone al concep-
mente la transparencia [20]. generalmente de clases acomodadas, to legal de discriminación, y que posee
ya que respecto de personas vulnerables distintas interpretaciones, dependiendo
La necesidad de transparencia es con- o de escasos recursos, el uso de siste- si se usa en el área computacional, so-
trastada con el hecho de que los siste- mas tecnológicos en temáticas que les cial o legal [24]. Este concepto no po-
mas de IA, particularmente los modelos impactan no les es consultado y menos see un equivalente exacto en Chile ni
de deep learning que tienen una estruc- explicado. Hasta cierto punto, exigir y en Latinoamérica, siendo interpretado
tura compleja, no permiten transparen- obtener transparencia es un “privilegio”, indistintamente como imparcialidad,
tar completamente su funcionamiento, un elemento más que suma e incremen- equidad o justicia [25] razón por la cual,
siendo en muchos casos imposible ex- ta la desigualdad estructural de nuestra en este artículo no le daremos una tra-
plicar la construcción y decisiones de sociedad. En síntesis, a las personas po- ducción e interpretación determinada.
éstos, incluso para sus propios desarro- bres simplemente les imponen sistemas
lladores, la famosa caja negra. Más aún, cuyas decisiones pueden afectar sus Dado que las definiciones de fairness y
una explicación satisfactoria [21] depen- vidas a largo plazo independientemente ética pueden variar, es especialmente
derá de la audiencia; algo que pueda ser de la transparencia. importante que todos los actores que
30
Inteligencia
Artificial
tienen interés en un sistema, y no sólo datos, características, modelos, qué Hasta cierto punto,
los desarrolladores o usuarios contratan- tipo de patrones busca, por qué a unas exigir y obtener
tes, reciban información que les permita personas sí y otras no, o por qué se di-
discutir sus prioridades en procesos de- rige a determinado grupo o ámbito geo- transparencia es
cisorios. En ese sentido, la transparencia gráfico, etc. En definitiva, información un "privilegio", un
es necesaria para que todas las partes sobre las decisiones políticas detrás de elemento más que
interesadas puedan debatir en un proce- las decisiones técnicas.
so decisorio en torno a la definición de suma e incrementa la
fairness que les parezca adecuada y no Para el cumplimiento del estándar an- desigualdad estructural
ceder esta decisión a los creadores, dise- terior, esta transparencia lleva implícita de nuestra sociedad.
ñadores y programadores de estos siste- la condición que organismos públicos
mas. En Grasso et al [21] se ha argumen- no adquieran sistemas de IA que estén
tado que el proceso de automatización a protegidos por secretos comerciales siones al momento de su construcción
menudo desplaza las grandes decisiones o acuerdos de confidencialidad. En el y despliegue.
de expertos en un dominio determinado mismo sentido, es necesario que exista
hacia programadores sin experiencia en una transparencia activa del Estado, con En ese sentido, si bien la transparencia
esta área y se discute cómo integrar los mecanismos como registros y platafor- es algo deseable, en la práctica necesi-
marcos de responsabilidad algorítmica mas públicas, además de procesos de tamos también ser capaces de auditar el
con herramientas como “fichas técnicas licitación abiertos. La colaboración pú- funcionamiento de los sistemas de ma-
para datasets” [26] y “Tarjetas modelo blico-privada debe ser totalmente trans- nera dinámica, mientras están tomando
para informes de modelos” [27] con los parente, haciendo público conflictos de las decisiones. Es aquí donde surgen
códigos de ética específicos de esta ma- intereses, contratos con proveedores y dos conceptos que hemos mencionado
teria [21]. cualquier información relevante, cum- tangencialmente pero que son de vital
pliendo con las más altas exigencias de importancia: la interpretabilidad y la ex-
probidad y rendición de cuentas. plicabilidad de un sistema de toma de
La transparencia no es sólo decisiones automatizada.
técnica, sino también social Asimismo, en el caso de software de uso
público, los gobiernos tienen la oportu- Para una conceptualización útil de ex-
No se debe perder de vista que estamos nidad de establecer requisitos técnicos plicabilidad, podemos centrarnos en
en presencia de sistemas sociotécnicos. adicionales tanto para su propio desa- la decisión de un sistema en un caso
En ese sentido, no pueden ser entendi- rrollo como para la compra de software específico, por ejemplo “una solicitud
dos sólo desde la técnica, ya que junto a desarrollados por terceros. Así por ejem- de crédito que fue rechazada”. Lo que
ésta, toman relevancia motivaciones e in- plo, en la fase de diseño o adquisición buscamos entonces, es que un humano
tereses de las personas que poseen una se podrían establecer requerimientos de sea capaz de entender la razón de esa
relación directa en la creación e imple- factores pro transparencia, como dispo- decisión particular (“¿por qué fue recha-
mentación de un determinado sistema. ner de software de código abierto, acce- zada la solicitud?”). Usualmente a esto
La suma de factores técnicos y sociales, so a artefactos de ingeniería de softwa- se le llama explicación post-hoc y local.
inciden directamente en los impactos re, incluidos documentos de requisitos y Post-hoc se refiere a que la explicación
del despliegue de este tipo de tecnolo- diseño, seguimiento de errores y bitáco- se hace considerando los veredictos del
gía. Como dice Shoshana Zhuboff en su ras de cambios en el código, planes de sistema después de que el sistema ya
libro The Age of Surveillance Capitalism, prueba y resultados [21]. está desplegado y en funcionamiento,
debemos preguntarnos: ¿quién sabe? mientras que local se refiere a explicar
¿quién decide quién sabe? y ¿quién deci- una decisión particular (en oposición a
de quién decide? [28]. explicar el sistema como un todo). Que
Explicabilidad e una decisión sea explicable en un siste-
En particular, respecto de sistemas de interpretabilidad ma, no significa que el funcionamiento
IA utilizados en políticas públicas, la en general (para todas las posibles de-
transparencia desde el punto de vista cisiones) sea explicable también. A esta
social se traduce en parte en contar Hasta ahora nos hemos concentrado explicación global le llamamos interpre-
además de información técnica, con principalmente en el concepto de trans- tabilidad; un sistema sería interpretable
información política y social sobre los parencia de los sistemas automáticos entonces, si un humano es capaz de en-
diseñadores y tomadores de decisio- desde una perspectiva general y sobre tender la manera en que el sistema toma
nes, sobre la elección de determinados la necesidad de contar con distintas vi- todas sus decisiones.
31
Inteligencia
Artificial
De la misma manera, se debe tener pre- tación) o que proporcionen una orienta- manera formal independiente de las
sente que cualquier explicación es una ción predictiva (por ejemplo, si tuviera características del sistema en cues-
simplificación del sistema completo. La- más experiencia en la categoría X, ten- tión. Más precisamente, supongamos
rraraju et al. [29] establecen claras mé- dría más probabilidades de ser contra- que un sistema M toma cierto veredicto
tricas para determinar la calidad de las tado para este trabajo en el futuro). En cuando es presentado con un conjunto
explicaciones, que incluyen la fidelidad, definitiva, en la comunidad científica se A de antecedentes, y consideremos la
es decir, el grado en que la explicación sigue trabajando en las características siguiente pregunta: ¿cuál es el mínimo
coincide con el sistema completo, la fal- de las buenas explicaciones y existe una grupo de antecedentes que es necesa-
ta de ambigüedad o el grado en que la tensión natural entre diferentes carac- rio cambiar en A para cambiar también
explicación aísla un único resultado para terísticas como la interpretabilidad y la el veredicto de M? Podríamos definir
cada caso, y la interpretabilidad, es de- fidelidad, aún no resuelta. entonces que un sistema automático
cir, el grado en que las personas pueden es interpretable, si para cada posible
entender la explicación. La fidelidad pue- conjunto de antecedentes, la anterior
de medirse minimizando la cantidad de Un intento de formalización y la pregunta se puede responder en un
desacuerdo entre la explicación y el sis- esperanza de auditabilidad tiempo prudente (“tiempo polinomial”
tema completo. La falta de ambigüedad en jerga computacional). Esta defini-
puede medirse minimizando la cantidad La anterior discusión se basa en que “un ción aseguraría que, por ejemplo, cada
de solapamiento entre las reglas de la humano sea capaz de entender” algo, lo persona a la que se le haya rechazado
explicación y maximizando el número que es sumamente difícil de formalizar una solicitud de crédito, podría obtener
de casos cubiertos por la explicación. y definir de una única forma. Una mane- en un tiempo prudente una explicación
La interpretabilidad puede medirse mini- ra de concretizar el problema es llevarlo del tipo “si cambia este grupo de ante-
mizando el número de reglas, el número a un tipo particular de explicación. Una cedentes, el crédito sería aprobado”.
de predicados utilizados en esas reglas muy usada es la del tipo contrafactual;
y la amplitud del número de casos con- en vez de preguntarnos el porqué de Sin perjuicio de lo anterior, debemos no-
siderados por cada nivel en el árbol de la decisión, nos preguntamos cómo tar que esta definición de interpretabili-
decisiones (por ejemplo, si X1 entonces cambiaría la decisión en presencia de dad es sumamente acotada y posible-
Y1, si X2 entonces Y2, si X3 entonces Y3, antecedentes distintos (“¿hubiese sido mente sea útil sólo en ciertos contextos.
sería de amplitud 3). Otras propiedades rechazada la solicitud si el postulante Si bien esta perspectiva es acotada, es
deseables de las explicaciones pueden hubiera sido una persona casada?”). formal, y una de las consecuencias de
ser que no utilicen características in- Este tipo de preguntas se han usado definir formalmente un problema de in-
aceptables (por ejemplo, utilizar la raza recientemente para comparar la inter- terpretabilidad, es que podemos poner a
o el género en las decisiones de contra- pretabilidad de distintos sistemas de prueba de manera precisa y comparativa
32
Inteligencia
Artificial
33
Inteligencia
Artificial
la lógica involucrada” en las decisio- Parlamento Europeo y del Consejo Euro- sistemas de IA por parte de los usua-
nes automáticas. Selbst y Powles [36] peo que establece normas armonizadas rios; entre otros.
consideran que esto traza un funda- sobre la inteligencia artificial (Ley de In-
mento claro hacia el “derecho a la ex- teligencia Artificial, publicada con fecha b. Deben contener documentación técni-
plicación”, que son complementadas 21 de abril de 2021 [EU Council 2021]), es ca sobre finalidad prevista, desarrolla-
con los artículos 22° y 35° del mismo un excelente ejemplo del contenido míni- dores, la interacción del sistema con
cuerpo legal. Chile tiene una oportuni- mo que debieran tener estas futuras nor- hardware o software que no forma
dad histórica de consagrar de manera mas legales, además de las ya referidas parte del mismo, los métodos y pasos
no ambigua en su nueva Constitución al GDPR, para el debido ejercicio de este realizados para el desarrollo del siste-
el “derecho a la explicación” respecto nuevo derecho constitucional. ma, incluido, el uso de sistemas pre-
de sistemas de IA, en particular, de entrenados o de herramientas propor-
toma de decisiones automatizadas. La Propuesta de Reglamento del Par- cionadas por terceros, lógica general
lamento Europeo sobre la inteligencia del sistema y de los algoritmos, las
Considerando lo descrito en puntos ante- artificial establece estándares de trans- opciones clave de diseño, las perso-
riores, específicamente sobre los límites parencia, registro y explicabilidad, res- nas o grupos de personas con los que
y riesgos de explicaciones descontextua- pecto de sistemas considerados por se pretende utilizar el sistema, opcio-
lizadas o no entendidas, creemos que to- este cuerpo legal como de alto riesgo, nes de clasificación, entre otras.
mando todas las prevenciones del caso, y que pueden ser resumidos en los si-
es fundamental el establecimiento de un guientes puntos: c. Información detallada sobre el segui-
“Derecho a la transparencia y suministro miento, el funcionamiento y el control
de información sobre sistemas de toma a. Deben contener instrucciones de uso de sistemas de IA, en particular, res-
de decisiones automatizadas”, consa- con información concisa, pertinen- pecto a sus capacidades y limitacio-
grados en la nueva Constitución dentro te, accesible y comprensible, sobre nes, incluidos los grados de precisión
de un “Derecho a la transparencia e in- datos de proveedor, características, para grupos de personas específicos
formación” de carácter más general, el capacidades y limitaciones de fun- en los que se prevé utilizar y el nivel ge-
cual para garantizarlo, debe ser comple- cionamiento, finalidad prevista, rendi- neral de precisión esperado en relación
mentado con la promulgación de normas miento, especificaciones de los datos con su finalidad prevista. A este último
de rango legal en donde se detallen los de entrada, las medidas de supervi- punto se debe complementar el requi-
mecanismos y estándares para su cum- sión humana, incluidas las medidas sito que el nivel de precisión debe estar
plimiento. Al respecto, la reciente publica- técnicas establecidas para facilitar la avalado por metodologías con bases
ción de la Propuesta de Reglamento del interpretación de los resultados de los científicas robustas e independientes.
34
Inteligencia
Artificial
A lo anterior, se debiese agregar la obli- sadas y posiblemente afectadas puedan IA, es el determinar qué rol esperamos
gación de efectuar una evaluación de entender y responder a ellas. que no cumpla y para ello el análisis en
impacto en relación con la afectación de el uso de sistema de toma de decisiones
derechos humanos. Las evaluaciones En particular, consideramos que se automatizadas no puede ser abordado
dejan documentado el proceso de acuer- debe promover un acceso equitativo so- netamente desde una perspectiva eco-
do con la letra (b) precedente y permiten bre transparencia social y aspectos téc- nómica de costos versus beneficios,
prever riesgos antes de su implementa- nicos, teniendo presente que estamos sino que se debe considerar si corres-
ción y posibles mejoras o derechamente frente a sistemas sociotécnicos, así ponde desplegar este tipo de sistemas
decidir sobre su no uso. como promover el acceso a informa- en consideración a los derechos y digni-
ción interpretable que pueda ser usada dad de las personas. Para asegurarnos
por profesionales especializados. Para de que esto se cumpla, requerimos, nue-
ello nos encontramos en una oportuni- vamente, transparencia e información.
Conclusiones dad histórica de plasmarlo en nuestra
nueva Constitución como un derecho Como profesionales del área legal y de
consagrado para todos los chilenos. las ciencias de la computación, sabe-
La transparencia y el acceso a la infor- mos que los sistemas computaciona-
mación es una idea que ha ocupado un Lo anterior en ningún caso se debe in- les complejos cometen errores, y a ve-
lugar destacado en la agenda política terpretar como que estas propuestas ces muchos errores. Por eso estamos
de las sociedades democráticas occi- conllevan una carga sobre las personas en contra de un mundo regido por el
dentales durante muchos años. Ha sido respecto de la decisión de determinar si principio de que “el computador sabe
cultivada, propagada y, a veces, mal uti- un sistema de IA es confiable o no. Sería más que nadie” o la creencia de que,
lizada por los medios de comunicación una carga injusta para lo cual no estamos a diferencia de los humanos, los sis-
en forma interesada. capacitados, por lo que siempre será una temas automáticos “pueden tomar de-
obligación del Estado asegurar que estos cisiones sin sesgos”. Soluciones sim-
En este artículo intentamos contribuir a la sistemas sean confiables y cumplan con plistas, o que sólo vengan del mundo
discusión, considerando la importancia todos los estándares necesarios para la técnico podrían, más que ayudar, crear
de distinguir las distintas funciones de la protección de los ciudadanos y en parti- más daño. Éste es uno de esos pro-
transparencia y de contar con explicacio- cular de aquellos más vulnerables. blemas en donde basados en ciencia
nes e interpretaciones sobre las decisio- y evidencia, pero sobre todo basados
nes que toman los sistemas automáticos Finalmente, tanto o más importante que en el bien común, debemos buscar una
de manera que todas las partes intere- decidir qué rol esperamos que cumpla la solución como sociedad.
REFERENCIAS
[1] G. Geiger, «How a Discriminatory Algorithm Wrongly Accused Thousands of Families of Fraud», ene. 01, 2021. https://www.vice.com/
en/article/jgq35d/how-a-discriminatory-algorithm-wrongly-accused-thousands-of-families-of-fraud (accedido abr. 28, 2021).
[2] T. K. der Staten-Generaal, «Parlementaire ondervraging kinderopvangtoeslag; Brief Presidium; Brief van het Presidium over een voors-
tel voor een parlementaire ondervraging kinderopvangtoeslag», jul. 01, 2020. https://zoek.officielebekendmakingen.nl/kst-35510-1
(accedido abr. 28, 2021).
[3] V. Eubanks, Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press, 2018.
[4] H. Fry, Hello world: Being human in the age of algorithms. WW Norton & Company, 2018.
[5] J. N. Matthews et al., «When Trusted Black Boxes Don’t Agree: Incentivizing Iterative Improvement and Accountability in Critical Sof-
tware Systems», 2020, pp. 102-108.
[6] K. Hill, «What Happens When Our Faces Are Tracked Everywhere We Go?», The New York Times, mar. 18, 2021.
[7] S. Engelmann, M. Chen, F. Fischer, C.-Y. Kao, y J. Grossklags, «Clear Sanctions, Vague Rewards: How China’s Social Credit System
Currently Defines “Good” and “Bad” Behavior», ene. 2019, pp. 69-78, doi: 10.1145/3287560.3287585.
[8] https://digital.gob.cl, «Ley de Transformación Digital», Ley de Transformación Digital. http://digital.gob.cl/transformacion-digital/
ley-de-transformacion-digital/ (accedido abr. 28, 2021).
35
Inteligencia
Artificial
[9] J. Hughes, «Algorithms and posthuman governance», J. Posthuman Stud., vol. 1, n.o 2, pp. 166-184, 2018.
[10] C. Orwat, «Risks of Discrimination through the Use of Algorithms. A study compiled with a grant from the Federal Anti-Discrimination
Agency», 2020.
[11] F. Chiusi et al., «Automating Society Report 2020», Automating Society Report 2020. https://automatingsociety.algorithmwatch.org
(accedido abr. 28, 2021).
[12] R. Benjamin, «Race after technology: Abolitionist tools for the new jim code», Soc. Forces, 2019.
[13] T. Khaitan, A theory of discrimination law. OUP Oxford, 2015.
[14] S. Wachter, B. Mittelstadt, y C. Russell, «Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and
AI», ArXiv Prepr. ArXiv200505906, 2020.
[15] K. Creel y D. Hellman, «The Algorithmic Leviathan: Arbitrariness, Fairness, and Opportunity in Algorithmic Decision Making Systems»,
Va. Public Law Leg. Theory Res. Pap., n.o 2021-13, 2021.
[16] A. D. Selbst, D. Boyd, S. A. Friedler, S. Venkatasubramanian, y J. Vertesi, «Fairness and abstraction in sociotechnical systems», 2019,
pp. 59-68.
[17] M. Srivastava, H. Heidari, y A. Krause, «Mathematical notions vs. human perception of fairness: A descriptive approach to fairness for
machine learning», 2019, pp. 2459-2468.
[18] S. Garfinkel, J. Matthews, S. S. Shapiro, y J. M. Smith, «Toward algorithmic transparency and accountability», 2017.
[19] A. Now, «The Toronto Declaration: Protecting the rights to equality and non-discrimination in machine learning systems», https://www.
accessnow.org/the-toronto-declaration-protecting-the-rights-to-equality-and-non-discrimination-in-machine-learning-systems/, 2018.
[20] K. Shahriari y M. Shahriari, «IEEE standard review—Ethically aligned design: A vision for prioritizing human wellbeing with artificial
intelligence and autonomous systems», 2017, pp. 197-201.
[21] I. Grasso, D. Russell, A. Matthews, J. Matthews, y N. R. Record, «Applying Algorithmic Accountability Frameworks with Domain-speci-
fic Codes of Ethics: A Case Study in Ecosystem Forecasting for Shellfish Toxicity in the Gulf of Maine», 2020, pp. 83-91.
[22] M. Madden, M. Gilman, K. Levy, y A. Marwick, «Privacy, poverty, and big data: A matrix of vulnerabilities for poor Americans», Wash UL
Rev, vol. 95, p. 53, 2017.
[23] A. Narayanan, «Translation tutorial: 21 fairness definitions and their politics», 2018, vol. 2, n.o 3, pp. 6-2.
[24] A. Xiang y I. D. Raji, «On the legal compatibility of fairness definitions», ArXiv Prepr. ArXiv191200761, 2019.
[25] J. Rawls, «Justice as fairness», Philos. Rev., vol. 67, n.o 2, pp. 164-194, 1958.
[26] T. Gebru et al., «Datasheets for datasets», ArXiv Prepr. ArXiv180309010, 2018.
[27] M. Mitchell et al., «Model cards for model reporting», 2019, pp. 220-229.
[28] S. Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power: Barack Obama’s Books of
2019. Profile Books, 2019.
[29] H. Lakkaraju, E. Kamar, R. Caruana, y J. Leskovec, «Faithful and customizable explanations of black box models», 2019, pp. 131-138.
[30] P. Barceló, M. Monet, J. Pérez, y B. Subercaseaux, «Model Interpretability through the lens of Computational Complexity», Adv. Neural
Inf. Process. Syst., vol. 33, pp. 15487-15498, 2020.
[31] Z. C. Lipton, «The Mythos of Model Interpretability: In machine learning, the concept of interpretability is both important and slippery.»,
Queue, vol. 16, n.o 3, pp. 31-57, jun. 2018, doi: 10.1145/3236386.3241340.
[32] P. Barceló, J. Pérez, y B. Subercaseaux, «Foundations of Languages for Interpretability and Bias Detection». Algorithmic Fairness
through the Lens of Causality and Interpretability Workshop at NeurIPS 2020
[33] M. M. Malik, «A Hierarchy of Limitations in Machine Learning», ArXiv Prepr. ArXiv200205193, 2020.
[34] R. Moraffah, M. Karami, R. Guo, A. Raglin, y H. Liu, «Causal interpretability for machine learning-problems, methods and evaluation»,
ACM SIGKDD Explor. Newsl., vol. 22, n.o 1, pp. 18-33, 2020.
[35] R. B. Siegel, «Equality talk: Antisubordination and anticlassification values in constitutional struggles over Brown», Harv Rev, vol. 117,
p. 1470, 2003.
[36] A. D. Selbst y J. Powles, «Meaningful Information and the Right to Explanation», Social Science Research Network, Rochester,
NY, SSRN Scholarly Paper ID 3039125, nov. 2017. Accedido: abr. 28, 2021. [En línea]. Disponible en: https://papers.ssrn.com/abs-
tract=3039125.
36
Inteligencia
Artificial
Una dicotomía
engañosa y una
paradoja ética
37
Inteligencia
Artificial
38
Inteligencia
Artificial
Para tener mejores robots médicos para todos, ron al cirujano de IA no son tan detalla-
debemos correr más riesgos con algunos pacientes, dos y cuando le pregunta al fabricante, le
dice que los datos son privados (según
lo que tiene varias facetas éticas [...]. las regulaciones legales que el fabrican-
te de cirujanos de IA debe cumplir, no
porque no quiera que nadie lo audite,
particularmente con respecto al sesgo
Precisión
de diversidad).
Robot médico
39
Inteligencia
Artificial
¿Podemos responder ahora si el ciru- sión arterial alta, alergias, etc.). Si ese complejos, por lo que ésta es una razón
jano de IA debería ser ilegal? Proba- es su caso, ni siquiera tendrá que elegir, social para preferir cirujanos humanos
blemente debería ser legal pero no es el médico humano le dirá directamente en los casos más arriesgados. Pero
una pregunta sencilla. Una ley de este que es un caso de riesgo para el robot para llegar a este punto, los médicos
tipo implica temas éticos, empatía y médico. Sí, quiero este tipo de explica- humanos deben adquirir experiencia
otros rasgos humanos. Por supuesto, ciones, ¡y mejor si vienen de un doctor en casos estándares, lo que implica
si los robots médicos no son ilegales, empático! (muy probablemente una que también deben realizar cirugías
al menos necesitan una regulación es- mujer, un sesgo positivo). cuando el cirujano de IA sería una me-
tricta con respecto a los datos de en- jor opción. Ésta es la paradoja, para
trenamiento, pruebas estándar contra Pareciera estar todo claro, sin embar- tener mejores robots médicos para to-
resultados sesgados y algún nivel de ex- go, hay una paradoja ética escondida dos, debemos correr más riesgos con
plicación, incluso si necesitan inventar en nuestra discusión anterior. Para algunos pacientes, lo que tiene varias
historias. También deben advertirnos mejorar el cirujano basado en IA, ellos facetas éticas que como objetivo final
cuándo no utilizarlos, ya que tomar la necesitan aprender y para eso nece- tienen el bienestar común de todos. Lo
decisión correcta, como hemos visto, sitamos tener grandes maestros hu- más justo sería hacerlo al azar, pero no
no es trivial. Esto es hoy estándar en manos que puedan generar datos de es tan sencillo en un mundo capitalis-
los medicamentos (por ejemplo, mu- entrenamiento asombrosos. Para ello, ta lleno de sesgos. Éste ya es un tema
jeres embarazadas, personas con pre- necesitan practicar en los casos más para filósofos y economistas.
REFERENCIAS
[1] Geoff Hinton, https://twitter.com/geoffreyhinton/status/1230592238490615816, 2/2020.
[2] Daniel Kahneman, Andrew M. Rosenfield, Linnea Gandhi, and Tom Blaser Noise: How to Overcome the High, Hidden Cost of Inconsis-
tent Decision Making, Harvard Business Review, https://hbr.org/2016/10/noise, 10/2016.
[3] Daniel Kahneman, Olivier Sibony, Cass R. Sunstein. Noise: A Flaw in Human Judgment. Little, Brown Spark, 5/2021.
[4] Tom Simonite: Google’s AI Guru Wants Computers to Think More Like Brains, Wired, https://www.wired.com/story/googles-ai-guru-
computers-think-more-like-brains/, 12/2018.
[5] Hessie Jones: Geoff Hinton Dismissed the Need for Explainable AI: 8 Experts Explain Why He’s Wrong, Forbes, https://www.for-
bes.com/sites/cognitiveworld/2018/12/20/geoff-hinton-dismissed-the-need-for-explainable-ai-8-experts-explain-why-hes-wrong/,
12/2018.
40
Inteligencia
Artificial
Aplicaciones de la
inteligencia artificial
MUJER
UNA MUJ ER
UN
PAS EAN DO A
PER RO
PERRO
CAMINATA
A través de una serie de miniartículos independientes, ilustramos cómo la inteligencia artificial y sus diferentes métodos
permiten abordar problemas en una amplia y creciente diversidad de dominios. Por cuestiones de extensión, la enumera-
ción no pretende ser exhaustiva y muchas áreas quedarán pendientes para una futura edición de la Revista.
41
Inteligencia
Artificial
JAVIER CARRASCO Ingeniero Civil en Computación de la Universidad de Chile y egresado del Instituto Milenio Fundamentos de los Datos.
AIDAN HOGAN Profesor Asociado del Departamento de Ciencias de la Computación de la Universidad de Chile e Investigador Aso-
ciado del Instituto Milenio Fundamentos de los Datos.
JORGE PÉREZ Profesor Asociado del Departamento de Ciencias de la Computación de la Universidad de Chile e Investigador Aso-
ciado del Instituto Milenio Fundamentos de los Datos.
La última década ha sido testigo de perto humano puede lograr una tasa humanos necesitan más o menos in-
avances extraordinarios en el área de de error (top-5) de 5,1% en un sub- formación para poder clasificar una
la inteligencia artificial, impulsados, en conjunto de 1.500 imágenes de Ima- imagen correctamente en compara-
particular, por el concepto de redes neu- geNet. En la misma tarea, una red ción con las máquinas? ¿Qué tipo de
ronales profundas, combinado con la neuronal profunda del estado del arte información les importa más?
disponibilidad de enormes cantidades (SeNetResNet50 [2]) puede lograr una
de datos para entrenar estas redes. En- tasa de error (top-5) de 2,3%, es decir
tre las subáreas de la computación que que tiene mejor rendimiento que un
se han beneficiado con esta tecnología, humano experto en esta tarea. ¿Este Imágenes mínimas
podemos destacar, por ejemplo, la vi- resultado significa que las máquinas,
sión computacional, y la tarea específi- ahora, pueden “ver” mejor que los hu- positivas
ca de reconocimiento de imágenes. En manos? No necesariamente, pues es
esta tarea, la máquina recibe una ima- una pregunta multifacética. En esta Para poder entender y comparar la de-
gen de un objeto y tiene que devolver la tarea, las clases son muy finas, e in- pendencia que las máquinas y los hu-
clase de ese objeto, diciendo, por ejem- cluyen ejemplos como un cucal, un manos tienen para poder clasificar bien
plo, que la imagen representa un perro, Sealyham terrier, etc., que pueden ser una imagen, definimos el concepto de
una flor, una taza, etc. difíciles de recordar y distinguir para una imagen mínima positiva [3]: dada
un humano. También, la tarea siempre una imagen etiquetada con su clase, y
El conjunto de datos más usado para considera imágenes de calidad total. un clasificador de imágenes, la imagen
entrenar y evaluar métodos de recono- Entonces surge una duda: si las imá- mínima positiva es la versión de la ima-
cimiento de imágenes se llama Ima- genes tuvieran menos calidad que las gen con la peor calidad tal que el cla-
geNet; contiene millones de imágenes vistas en los ejemplos de entrenamien- sificador siga dando la clase correcta.
etiquetadas según mil clases distintas. to, ¿cómo afectaría el rendimiento de Con respecto a la calidad de la imagen,
Según Russakovsky et al. [1], un ex- las máquinas y de los humanos? ¿Los hablamos más específicamente de
42
Inteligencia
Artificial
43
Inteligencia
Artificial
Conclusiones
SqueezeNet
SqueezeNet GoogLeNet
GoogLeNet ResNet50
ResNet50 SeNetResNet50
SeNetResNet50 Humano
Humano
reducción
1
de reducción
0.4
Imágenes, nuestros resultados han in-
0.2 dicado que los humanos proveen resul-
0 tados más robustos frente a la pérdida
Color
Color Resoluciónón
Resoluci Zona
Zona Combinación
Combinaci ón de información. En la práctica, esto im-
plica que los resultados dados por las
Figura 2. Proporción de reducción para las imágenes mínimas positivas. redes neuronales profundas entrenadas
y evaluadas en el contexto de conjuntos
de imágenes completas pueden no apli-
carse a condiciones reales, en las cuales
Finalmente, hicimos un experimento pectivamente, de SqueezeNet (más un objeto (por ejemplo, una cara) está
usando cada clasificador para clasi- fáciles), GoogLeNet, ResNet50, y Se- parcialmente oculto, o está a distancia,
ficar las imágenes mínimas positivas NetResNet50 (más difíciles). Al revés, o iluminado parcialmente, etc.
de los otros clasificadores. Se pueden clasificando las imágenes mínimas
encontrar los resultados completos positivas de los humanos, los mode- Una pregunta que nos interesa ahora,
en nuestro artículo [3]. En resumen, los de máquina lograron una precisión entonces, es la siguiente: ¿se puede
observamos que los humanos pueden de 0,14-0,42 para color, 0,03-0,29 para mejorar la robustez de los clasificado-
clasificar mejor las imágenes mínimas resolución, 0,11-0,42 para zona, y 0,07- res de máquinas frente a la pérdida de
positivas de las máquinas que al revés, 0,35 para combinación; los mejores información? Los modelos que usamos
logrando una precisión de 0,89-0,92 modelos fueron, respectivamente, Se- en este trabajo fueron entrenados sobre
para color, 0,86-0,93 para resolución, NetResNet50 (mayor precisión), Res- imágenes completas. Quizás se puedan
0,76-0,87 para zona, y 0,74-0,85 para Net50, GoogLeNet y SqueezeNet (me- entrenar las redes con imágenes reduci-
combinación, con mejor precisión para nor precisión). das o mínimas, para mejorar su robustez
las imágenes mínimas positivas, res- en situaciones de información parcial.
REFERENCIAS
[1] Olga Russakovsky, Jia Deng, Hao Su, Jonathan Krause, Sanjeev Satheesh, Sean Ma, Zhiheng Huang, Andrej Karpathy, Aditya Khosla,
Michael S. Bernstein, Alexander C. Berg, y Fei-Fei Li. 2015. ImageNet Large Scale Visual Recognition Challenge. International Journal
of Computer Vision 115, 3 (2015), 211–252.
[2] Jie Hu, Li Shen, Samuel Albanie, Gang Sun, y Enhua Wu. 2019. Squeeze-andExcitation Networks. arXiV:1709.01507v4.
[3] Javier Carrasco, Aidan Hogan y Jorge Pérez. 2020. Laconic Image Classification: Human vs. Machine Performance. En el acta de la
International Conference on Information and Knowledge Management (CIKM), Galway, Ireland, [Online], October 19–23, 2020.
[4] Robert Geirhos, Patricia Rubisch, Claudio Michaelis, Matthias Bethge, Felix A. Wichmann, y Wieland Brendel. 2019. ImageNet-trained
CNNs are biased towards texture; increasing shape bias improves accuracy and robustness. En el acta de la International Conference
on Learning Representations (ICLR). OpenReview.net.
44
Inteligencia
Artificial
Procesamiento de Lenguaje
Natural: dónde estamos y qué
estamos haciendo
FELIPE BRAVO-MÁRQUEZ Profesor Asistente del Departamento de Ciencias de la Computación de la Universidad de Chile e Investiga-
dor Joven del Instituto Milenio Fundamentos de los Datos.
JOCELYN DUNSTAN Profesora Asistente de la Iniciativa de Datos e Inteligencia Artificial de la Facultad de Ciencias Físicas y
Matemáticas de la Universidad de Chile e Investigadora del Centro de Modelamiento Matemático.
El Procesamiento de Lenguaje Natu- primera de ellas: la Web está en su ma- phrasal verbs del inglés). Actualmente
ral (PLN) es una rama de la Inteligencia yoría en inglés, y el poder traducir pági- los traductores automáticos usados por
Artificial (IA) centrada en el diseño de nas en forma casi instantánea es algo Google o DeepL están basados en sofis-
métodos y algoritmos que toman como extraordinario. Traducir un texto no es ticadas redes neuronales.
entrada o producen como salida datos fácil pues no hay una biyección entre pa-
en la forma de lenguaje humano [1]. Esto labras en ambos lenguajes, sino que una PLN suele confundirse con otra discipli-
puede venir en forma de texto o audio, y frase puede requerir menos palabras en na hermana llamada Lingüística Com-
una vez que el audio es transcrito, ambos un idioma que en otro (pensar por ejem- putacional (LC). Si bien ambas están
tipos de datos tienen un análisis común. plo traducir del español al inglés). Pero estrechamente relacionadas, tienen un
además, la traducción de una palabra foco distinto. La LC busca responder
Tal como argumentan Julia Hirschberg y requiere información del contexto en la preguntas fundamentales sobre el len-
Chris Manning [2], tareas actuales don- que aparece para saber el sentido en la guaje mediante el uso de la computa-
de el PLN entra en nuestras vidas son la que se está usando. Asimismo, puede ción, es decir, cómo entendemos el
traducción automática, los sistemas de ocurrir que la palabra no tenga sentido lenguaje, cómo producimos lenguaje o
pregunta-respuesta y la minería de tex- en sí misma sino que en conjunto con la cómo aprendemos lenguaje. Mientras
to en redes sociales. Ahondemos en la palabra que la acompaña (piense en las que en PLN el foco está en resolver
45
Inteligencia
Artificial
problemas específicos, tales como las ésta pueda determinar si está hablan- trar representaciones idóneas para la
transcripción automática del habla, la do con una máquina o un ser humano. tarea en cuestión, proceso al cual se
traducción automática, la extracción de A lo largo de su historia la disciplina refiere como “aprendizaje profundo”.
información de documentos y el análi- ha tenido tres grandes periodos: 1) el Estos modelos se caracterizan por
sis de opiniones en redes sociales. Es racionalismo, 2) el empirismo, y 3) el tener muchos más parámetros que
importante señalar que en PLN, el éxi- aprendizaje profundo [3] que describi- los modelos anteriores (superando la
to de una solución se mide en base a mos a continuación. barrera del millón en algunos casos) y
métricas concretas (por ejemplo: qué requerir grandes volúmenes de datos
tan similar es la traducción automática El racionalismo abarca desde 1950 a para su entrenamiento. Una gracia de
a una hecha por un humano) indepen- 1990, donde las soluciones consistían estos modelos es que pueden ser pre-
dientemente de si el modelo hace uso en diseñar reglas manuales para incor- entrenados con texto no etiquetado
de alguna teoría lingüística. porar mecanismos de conocimiento y como libros, Wikipedia, texto de redes
razonamiento. Un ejemplo emblemá- sociales y de la Web para encontrar
Comprender y producir el lenguaje tico es el agente de conversación (o representaciones iniciales de palabras
computacionalmente es extremada- chatbot) ELIZA desarrollado por Joseph y oraciones (a lo que conocemos como
mente complejo. La tecnología más Weizenbaum que simulaba un psico- word embeddings), las cuales pueden
exitosa actualmente para abordar PLN terapeuta rogeriano. Luego, a partir de ser posteriormente adaptadas para la
es el aprendizaje automático supervi- la década de los noventa, el diseño de tarea objetivo donde sí se tienen datos
sado que consiste en una familia de métodos estadísticos y de aprendizaje etiquetados (proceso conocido como
algoritmos que “aprenden” a construir automático construidos sobre corpus transfer learning). Aquí destacamos
la respuesta del problema en cuestión llevan a PLN hacia un enfoque empiris- modelos como Word2Vec [5], BERT [6]
en base a encontrar patrones en datos ta. Las reglas ya no se construyen sino y GPT-3 [7].
de entrenamiento etiquetados.1 Por que se “aprenden” a partir de datos eti-
ejemplo, si queremos tener un modelo quetados. Algunos modelos represen- Este tipo de modelos ha ido perfeccio-
que nos diga si un tweet tiene un sen- tativos de esta época son los filtros de nándose en los últimos años, llegando
timiento positivo o negativo respecto spam basados en modelos lineales, las a obtener resultados cada vez mejores
a un producto, primero necesitamos cadenas de Markov ocultas para la ex- para casi todos los problemas del área
etiquetar manualmente un conjunto de tracción de categorías sintácticas y los [8]. Sin embargo, este progreso no ha
tweets con su sentimiento asociado. modelos probabilísticos de IBM para la sido libre de controversias. El aumento
Luego debemos entrenar un algoritmo traducción automática. Estos modelos exponencial en la cantidad de paráme-
de aprendizaje sobre estos datos para se caracterizaban por ser poco profun- tros3 de cada nuevo modelo respecto
poder predecir de manera automática dos en su estructura de parámetros y a su predecesor, hace que los recursos
el sentimiento asociado a tweets des- por depender de características ma- computacionales y energéticos nece-
conocidos. Como se podrán imaginar, nualmente diseñadas para representar sarios para construirlos sólo estén al
el etiquetado de datos es una parte la entrada.2 alcance de unos pocos. Además, va-
fundamental de la solución y puede ser rios estudios han mostrado que estos
un proceso muy costoso, especialmen- A partir del año 2010, las redes neuro- modelos aprenden y reproducen los
te cuando se requiere conocimiento nales artificiales, que son una familia sesgos y prejuicios (por ejemplo: gé-
especializado para definir la etiqueta. de modelos de aprendizaje automáti- nero, religión, racial) presentes en los
co, comienzan a mostrar resultados textos a partir de los cuales se entre-
Los orígenes de PLN se remontan a los muy superiores en varias tareas em- nan. Sin ir más lejos, la investigadora
años cincuenta con el famoso test de blemáticas de PLN [4]. La idea de es- Timmnit Gebru fue despedida de Goo-
Alan Turing: una máquina será consi- tos modelos es representar la entrada gle cuando se le negó el permiso para
derada inteligente cuando sea capaz (el texto) con una jerarquía de pará- publicar un artículo que ponía de ma-
de conversar con una persona sin que metros (o capas) que permiten encon- nifiesto estos problemas [9].
1 | En PLN se le suele llamar a estos conjuntos de datos textuales (etiquetados o no etiquetados) como “corpus”.
2 | La mayor parte de algoritmos de aprendizaje operan sobre vectores numéricos, donde cada columna es una característica del objeto a modelar.
En PLN esas características pueden ser las palabras de una oración, las frases u otra propiedad (por ejemplo: el número de palabras con ma-
yúsculas, la cantidad de emojis en un tweet, etc.).
3 | Word2Vec [5] tiene del orden de cientos de parámetros, BERT [6] tiene 335 millones de parámetros y GPT-3 [7] tiene 175 mil millones de parámetros.
46
Inteligencia
Artificial
Representations for Learning and Lan- En el ámbito del texto clínico, la crea- A pesar de los grandes avances en los úl-
guage (ReLeLa)4 es un grupo de inves- ción de recursos para la extracción timos años, aún estamos lejos de respon-
tigación del Departamento de Ciencias de información relevante requiere un der todas las interrogantes de PLN. En
de la Computación (DCC) de la Univer- trabajo fuertemente interdisciplinario. problemas como el diseño de chatbots
sidad de Chile, donde también partici- Recientemente fue presentado en el las soluciones del estado del arte aún
pan académicos y estudiantes de otros workshop clínico de EMNLP6 el primer distan mucho de lo esperado y ni siquiera
departamentos y centros. Sus miem- corpus clínico chileno etiquetado y es claro cómo evaluarlas correctamente,
bros investigan varios temas en PLN: resultados preliminares para el reco- luego para muchos otros problemas del
análisis de sentimiento y emociones nocimiento automático de entidades mundo real simplemente no es posible
en redes sociales, texto clínico, educa- nombradas. obtener los recursos necesarios (datos
ción, textos legales, lenguas indígenas etiquetados, hardware) para construir
y el análisis de argumentos políticos. Finalmente, The Word Embeddings Fair- una solución adecuada. En RELELA con-
ness Evaluation Framework (WEFE)7, es fluyen visiones provenientes de la com-
Una línea de ReLeLa liderada por Jorge una herramienta de código abierto que putación, las matemáticas, la lingüística
Pérez, ha sido el desarrollo de modelos permite medir y mitigar el sesgo de los y la salud para discutir esas interrogantes
preentrenados para el idioma español. modelos preentrenados señalados an- y sobre todo para mantenernos al día con
Una contribución destacada ha sido teriormente. La principal característica los constantes avances del área. Todo
BETO5, la versión en español de BERT, de WEFE es estandarizar los esfuerzos esto ocurre en nuestros seminarios se-
que es ampliamente utilizado por inves- existentes en un marco común para ser manales donde escuchamos exposicio-
tigadores y desarrolladores del mundo libremente utilizado. nes de miembros del grupo o de algún
hispano. charlista invitado.
REFERENCIAS
[1] Eisenstein, J. (2018). Natural language processing.
[2] Hirschberg, J., & Manning, C. D. (2015). Advances in natural language processing. Science, 349(6245), 261–266.
[3] Deng, L., & Liu, Y. (Eds.). (2018). Deep learning in natural language processing. Springer.
[4] Collobert, R., Weston, J., Bottou, L., Karlen, M., Kavukcuoglu, K., and Kuksa, P. (2011). Natural language processing (almost) from
scratch. Journal of machine learning research, 12(Aug):2493–2537.
[5] Mikolov, T., Sutskever, I., Chen, K., Corrado, G., & Dean, J. (2013). Distributed representations of words and phrases and their compo-
sitionality. In Proceedings of the 26th International Conference on Neural Information Processing Systems - Volume 2 (NIPS’13).
[6] Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Unders-
tanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics:
Human Language Technologies, Volume 1 (Long and Short Papers), 4171–4186.
[7] Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., et al. (2020). Language models are few-shot learners. In Advan-
ces in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 202.
[8] NLP-progress: Repository to track the progress in Natural Language Processing (NLP), including the datasets and the current state-
of-the-art for the most common NLP tasks: http://nlpprogress.com/.
[9] Bender, Emily M., et al. (2021). “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? .” Proceedings of the 2021
ACM Conference on Fairness, Accountability, and Transparency.
4 | https://relela.com/.
5 | https://github.com/dccuchile/beto.
6 | https://www.aclweb.org/anthology/2020.clinicalnlp-1.32/.
7 | https://wefe.readthedocs.io/en/latest/.
47
Inteligencia
Artificial
ALEXIS MENDOZA Estudiante de pregrado de la Escuela de Ciencia de la Computación, Universidad Nacional San Agustín, Perú.
ALEXANDER APAZA Estudiante de pregrado de la Escuela de Ciencia de la Computación, Universidad Nacional San Agustín, Perú.
IVÁN SIPIRÁN Profesor Asistente del Departamento de Ciencias de la Computación, Universidad de Chile.
CRISTIÁN LÓPEZ Profesor Asistente del Departamento de Ingeniería, Universidad de Ingeniería y Tecnología, Perú.
En 2018, el museo Josefina Ramos de fueron posteriormente removidas en solucionar el problema de la geometría
Cox en Lima - Perú inició un proceso de las superficies 3D generadas, dejando faltante desde un enfoque basado en da-
digitalización de los objetos arqueológi- grandes porciones de la base de los ob- tos y usando inteligencia artificial.
cos que albergan en su colección. El mu- jetos sin información.
seo administra más de siete mil piezas
provenientes de diferentes culturas pre- 2. El escáner de luz estructurada tiene
hispánicas, principalmente culturas de la problemas para escanear superficies Nuestra propuesta
costa central del Perú. Para el proceso de cuyo ángulo con respecto al haz de
digitalización, el museo usó un escáner luz es casi perpendicular. Por lo tan-
3D de escritorio que utiliza tecnología de to, hay bases de objetos que no fue- Nuestro método consiste de una red
luz estructurada. Sin embargo, el proceso ron correctamente escaneadas por la neuronal que recibe un objeto 3D con
de digitalización no se desarrolló de for- limitación del escáner. superficie incompleta y produce el ob-
ma satisfactoria por dos razones: jeto completo reparado. Nuestra premi-
El problema en la digitalización trajo sa es que si contamos con suficientes
1. La mayoría de los objetos eran frágiles como consecuencia que un gran número ejemplos de objetos dañados y objetos
y, al no poder sostenerse sobre la base de objetos tengan una superficie incom- completos, la red neuronal puede encon-
del escáner, se tuvo que colocar bases pleta después del escaneo (ver Figura trar una buena correspondencia entre la
artificiales. Estas bases artificiales 1). Nosotros propusimos una forma de geometría de la superficie incompleta y
48
Inteligencia
Artificial
Figura 2. Arquitectura de nuestra red neuronal. El modelo consiste en un encoder-decoder para generar la parte faltante a partir
del objeto incompleto. Ambos objetos son luego usados por la red de refinamiento para obtener el objeto reparado final.
49
Inteligencia
Artificial
Consideraciones finales
REFERENCIAS
[1] Koutsoudis A., Pavlidis G., Liami V., Tsiafakis D., Chamzas C., “3D Pottery content-based retrieval based on pose normalisation and
segmentation”. Journal of Cultural Heritage, 11(3), pp 329-338, 2010.
[2] Chang A., Funkhouser T., Guibas L., Hanrahan P., Huang Q., Li Z., Savarese S., Savva M., Song S., Su H., Xiao J., Yi L., Yu F., “ShapeNet:
An Information-Rich 3D Model Repository”. CoRR abs/1512.03012. Arxiv, 2015.
[3] Yuan W., Khot T., Held D., Mertz C., Hebert M., “PCN: Point Completion Network”. In Proc: International Conference on 3D Vision (3DV),
pp. 728-737. 2018.
[4] Tchapmi L., Kosaraju V., Rezatofighi H., Reid I., Savarese S., “TopNet: Structural Point Cloud Decoder”. In Proc: IEEE/CVF Conference on
Computer Vision and Pattern Recognition (CVPR), pp. 383-392. 2019.
[5] Qi R., Su H., Kaichun M., Guibas L., “PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation”. In Proc: IEEE Con-
ference on Computer Vision and Pattern Recognition (CVPR), pp. 77-85. 2017.
50
Inteligencia
Artificial
ALEXANDRE BERGEL Profesor Asociado del Departamento de Ciencias de la Computación de la Universidad de Chile.
puede expresar a través de ejemplos. Es para entrenar la red, pero en otros ca-
Contexto una idea casi opuesta a la forma en que sos, según el problema a abordar, tener
se entrena un modelo con grandes canti- ejemplos puede representar un lujo que
dades de imágenes o de texto, como se no siempre es alcanzable.
Según la teoría de Darwin, el cerebro de hace en el área de deep learning.
los mamíferos es el resultado de una La neuroevolución es una técnica alter-
larga evolución. Frente a cualquier otra nativa al backpropagation para deducir
especie, los humanos tienen el cerebro estos nueve parámetros y consiste en la
más grande en relación a su peso. Hace Ejemplo y aplicaciones aplicación de un algoritmo genético con
decenas de milenios, nuestro cerebro no redes neuronales. En vez de entrenar
tenía la sofisticación que tiene hoy. El una red usando mecanismos de aprendi-
cerebro evolucionó, en parte, para solu- Consideren la red neuronal de la Figura zaje, la neuroevolución usa un algoritmo
cionar problemas complejos como la ne- 1. Esta red describe el comportamiento evolutivo para buscar los parámetros
cesidad de los humanos de comunicarse del operador booleano XOR, usando una que generan redes de “mejor calidad”.
en forma eficiente. Siguiendo un proceso función de activación de tipo step. Tie-
de evolución similar al de nuestro cere- ne, además, nueve parámetros, tres por Un algoritmo genético es una metáfo-
bro, la neuroevolución es una técnica de cada neurona. Un algoritmo de apren- ra computacional del mecanismo de
la inteligencia artificial que combina un dizaje, como el backpropagation usado evolución natural, tal como lo describió
algoritmo genético con una red neuronal. en deep learning, tendrá que deducir Charles Darwin. En la naturaleza, los
Su idea central es producir modelos que estos nueve parámetros desde un con- individuos más fuertes tienen mayores
sean lo suficientemente desarrollados junto de ejemplos. En este caso, tener probabilidades de sobrevivir y de repro-
para solucionar un problema que no se ejemplos no representa un problema ducirse. Aplicado a nuestro ejemplo de
51
Inteligencia
Artificial
Algoritmos sofisticados de neuroevolu- que entrega un resultado sin dar cuenta la neuroevolución pertenece) puede supe-
ción, como NEAT y HyperNEAT, permiten del camino tomado para obtener dicho re- rar, y por mucho, a los mejores jugadores
evolucionar no solamente los paráme- sultado. Nuestras visualizaciones ayudan del mundo. AlphaGo y Dota2 demuestran
tros, sino también la topología de la red, a entender las diferentes decisiones toma- la amplia capacidad de los algoritmos evo-
algo que no se puede lograr con el deep das por el algoritmo de neuroevolución, lo lutivos para superar a los humanos.
learning clásico. que ayuda a explicar su resultado.
El artículo “Designing neural networks
En el grupo ISCLab1 del Departamento de through neuroevolution”, publicado en
Ciencias de la Computación (DCC) de la 2019 en la revista Nature Machine Intelli-
Universidad de Chile, usamos la neuroe- Beneficios gence, describe los últimos progresos en
volución para desarrollar inteligencia ar- el área de la neuroevolución. Además de
tificial de videojuego, estilo Mario Bros. presentar una retrospectiva de cómo la
La neuroevolución es particularmente La neuroevolución no tiene las limitaciones naturaleza y la evolución del cerebro han
conveniente para producir dicho tipo que imponen un uso de cantidades masi- tenido un enorme impacto en el área de la
de IA ya que, en comparación al deep vas de datos. Un modelo basado en neu- inteligencia artificial, este artículo descri-
learning, no requiere datos de jugadas. roevolución puede superar a un modelo be una extraordinaria forma de acercarse
basado en ejemplos producidos por huma- a una inteligencia artificial genérica. Aho-
Por otro lado, estamos desarrollando téc- nos. Ejemplos prominentes de esta situa- ra, es reconocido que la neuroevolución
nicas de visualización que permiten carac- ción son la robótica y los videojuegos. Si es competidora de las técnicas modernas
terizar el proceso de evolución. La neuroe- un jugador virtual tuviese que aprender de usadas en aprendizaje supervisado, al que
volución, como cualquier otro algoritmo los humanos cómo jugar, no lograría supe- pertenecen las técnicas de aprendizaje de
de machine learning, es una caja negra rarlos. Pero un algoritmo evolutivo (al que redes neuronales.
1 | https://isclab.dcc.uchile.cl/.
52
Inteligencia
Artificial
Inteligencia artificial
en la educación
JÉRÉMY BARBAY Profesor Asistente del Departamento de Ciencias de la Computación de la Universidad de Chile.
1 | https://en.wikipedia.org/wiki/Learning_management_system.
2 | https://en.wikipedia.org/wiki/Learning_Tools_Interoperability.
53
Inteligencia
Artificial
54
Inteligencia
Artificial
En la siguiente sección veremos cómo las lar aplicadas a los aspectos de la adminis- tecnologías que apuntan a acercar las
técnicas de inteligencia artificial se han re- tración de la docencia. Tales aplicaciones capacidades de las máquinas a las ca-
lacionado y siguen relacionándose con las permiten, entre otros, detectar ocurrencias pacidades de los humanos. En varias
técnicas de educación y de aprendizaje. de plagio, automatizar algunos aspectos épocas se sobreprometió lo que se
de la evaluación de trabajos, e identificar a podía lograr con dichas técnicas, y la
un alumno presente cuyo perfil sea similar época presente no es una excepción.
al perfil de alumnos anteriores que tuvie- Pero aún permiten automatizar algunas
Aplicaciones de la IA a ron problemas en fases siguientes. tareas humanas, y apoyar otras.
los LMS
Por otro lado, software como Duolingo5 El área de la educación, y en particular
usa técnicas de gamificación para man- el área de la educación en línea, tiene un
Desde muy temprano se relacionaron tener la motivación de sus alumnos, y gran potencial de mejoras vía técnicas
los temas de educación (humana) e inte- técnicas de repetición espaciada [6] digitales en general, y técnicas propias
ligencia artificial, quizás porque en am- para programar qué ejercicio darle a un de “inteligencia artificial” en particular, y
bos casos se trata de desarrollar habili- alumno en función de modelos. ha sido un poco lenta en adoptar dichas
dades “inteligentes”’, ya sea en humanos técnicas. Es esperable que con la digi-
o en máquinas. Seymour Papert, uno de En el futuro, técnicas de inteligencia talización acelerada debido a la pande-
los cofundadores del Instituto de Inte- artificial tendrán otras aplicaciones en mia por COVID-19, dicha transición se
ligencia Artificial del MIT, en 1963 (con educación. Investigadores como la Dra. vea acelerada.
Marvin Minsky, considerado uno de los Shaghayegh Sahebi están proponiendo
padres de la inteligencia artificial3, había diseñar, desarrollar y evaluar sistemas Como siempre con la tecnología, será
tenido previamente un rol mayor en la capaces de realizar recomendaciones importante no dejar el efecto de no-
evaluación y el desarrollo de técnicas de personalizadas de material docente en vedad, ni quitar el foco de problemas
educación, en colaboración con el psicó- función de varios parámetros [7]. importantes existentes (por ejemplo,
logo educativo Piaget.4 desigualdades) ignorados o amplifica-
dos por nuevas técnicas, ni de nuevos
En 2021, técnicas de inteligencia artificial problemas creados por dichas técnicas
presentan aplicaciones en varios aspectos Conclusiones (por ejemplo, sesgos en favor de mino-
de la docencia. En un survey publicado en rías producidos por técnicas de inferen-
2020, Chen et al. [5] describen varias apli- cias, impacto ecológico de las digitali-
caciones de inteligencia artificial en áreas Las técnicas descritas como “inteligen- zaciones, etc.).
relacionadas con la educación, en particu- cia artificial” no son más que nuevas
REFERENCIAS
[1] R. Huang, J. Spector y J. Yang (2019). Educational Technology: A Primer for the 21st Century. 10.1007/978-981-13-6643-7.
[2] J. Barbay y V. Peña-Araya (2019). El Académico Digital. En Revista Bits de Ciencia nº18.
[3] Historia de la inteligencia artificial. En Wikipedia. Accedido desde https://es.wikipedia.org/wiki/Historia_de_la_inteligencia_artificial,
[2021-04-19 Mon].
[4] Inteligencia artificial. En Wikipedia. Accedido desde https://es.wikipedia.org/wiki/Inteligencia_artificial, last accessed, [2021-04-19 Mon].
[5] L. Chen, P. Chen y Z. Lin. (2020). Artificial Intelligence in Education: A Review. En IEEE Access, vol. 8, pp. 75264–75278, 10.1109/
ACCESS.2020.2988510.
[6] Spaced repetition. En Wikipedia. Accedido desde https://en.wikipedia.org/wiki/Spaced_repetition, [2021-04-19 Mon].
[7] https://www.nsf.gov/awardsearch/showAward?AWD_ID=2047500, [2021-04-19 Mon].
3 | https://es.wikipedia.org/wiki/Marvin_Minsky.
4 | https://es.wikipedia.org/wiki/Seymour_Papert.
5 | https://www.duolingo.com/.
55
Inteligencia
Artificial
Aprendizaje de representaciones
en grafos y su importancia en el
análisis de redes
MARCELO MENDOZA Profesor Asociado del Departamento de Informática de la Universidad Técnica Federico Santa María e Investiga-
dor Asociado del Instituto Milenio Fundamentos de los Datos.
Una de las líneas de investigación en cuentas que siguen a personajes de alta El cambio en el régimen de interaccio-
inteligencia artificial más fructíferas de connotación pública son bots, las cuales nes es una pista que nosotros usamos
la última década es el aprendizaje de entregan soporte a sus mensajes con para detectarlos.
representaciones. Mostraremos dos likes y retweets. Cuando estos mensajes
ejemplos en los cuales el aprendizaje de muestran un inusitado nivel de reaccio- En [3], mostramos cómo extender una
representaciones de nodos en grafos ha nes, se transforman en tendencias, lo representación de nodos aprendida a
permitido abordar exitosamente tareas cual aumenta aún más su visibilidad. Al partir de la red de conexiones sociales
de análisis de redes. transformarse en tendencias, su influen- en Twitter. La estrategia de aprendizaje
cia en la red crece, produciendo un fenó- usada se denomina ComplEx [4], la cual
meno de bola de nieve. permite aprender node embeddings de
la red de conexiones para predicción de
Detección de bots La detección de bots ha sido una ta- links. Para capturar el régimen de inte-
rea difícil. Mientras que las primeras racciones entre cuentas, extendemos
generaciones de bots eran sencillas ComplEx reescalando los node embed-
Los bots tienen un nefasto efecto en la de detectar, las nuevas generaciones dings en la dirección de los vecinos con
diseminación de información engañosa de bots, conocidas como social bots, los cuales tienen más interacciones. La
o tendenciosa en redes sociales [1]. Su alternan periodos de propaganda y pe- Figura 1 muestra la estrategia de rees-
objetivo es amplificar la alcanzabilidad riodos de baja actividad [2]. En estos calamiento basada en interacciones, lo
de campañas, transformando artificial- últimos, los bots muestran un compor- cual permite recalcular los node embed-
mente mensajes en tendencias. Para tamiento cercano al de un usuario pro- dings combinando ambas redes (social
ello, las cuentas que dan soporte a cam- medio, con participación esporádica e interacción). Para aprender los node
pañas se hacen seguir por cuentas ma- en la red. En periodos de campaña, la embeddings usamos una estrategia de-
nejadas por algoritmos. Muchas de las actividad de estas cuentas aumenta. nominada retrofitting [5], que busca una
56
Inteligencia
Artificial
Figura 1. Extensión de ComplEx [4] que incorpora la red de interacciones entre usua- Nuestro método superó al estado del
rios de Twitter. arte (Botometer [7] y Holoscope [8]). Su
principal habilidad está en la detección
de botnets, lo cual le permite sacar ven-
taja de sus más directos competidores
Cluster CL1 que abordan la tarea como clasifica-
ción de nodos. El método de propaga-
ción de etiquetas tiene la ventaja de
Cluster CL3 identificar grupos de cuentas clusteri-
Cluster CL2 zadas según interacciones inusuales,
detectando patrones de coordinación
temporal. La Figura 2 muestra una red
de proximidad entre node embeddings y
tres clusters con alta presencia de bots
(nodos rojos) en Twitter. Mientras que
el cluster 1 (CL1) es una botnet que no
ha logrado interactuar con humanos
(nodos verdes), los clusters 2 (CL2) y
3 (CL3) muestran una mimetización de
los bots en las redes de humanos, con
interacción cruzada entre ambos tipos
de usuarios.
(a) Cluster CL1. (b) Cluster CL2. (c) Cluster CL3. Predictibilidad en redes
sociales offline
Figura 2. Red de proximidad entre node embeddings en Twitter, que muestra tres
clusters con presencia de bots (nodos rojos). Mientras que el cluster 1 (CL1) no logra
En [9], analizamos las relaciones filiales
interactuar con humanos (nodos verdes), los clusters 2 (CL2) y 3 (CL3) se mimetizan,
entre personas, observables a través de
promoviendo contenido propagandístico.
los vínculos de apellidos paternos-ma-
57
Inteligencia
Artificial
Hits
nodos basada en factorización tensorial
denominada método de TuckER [11]. Decile
Probamos el desempeño de otros mé- Rank
todos de representación a nivel de no-
dos, como ComplEx [4], RESCAL [12] y
RotatE [13], usados en knowledge-base
Figura 3. Redes de vínculos paternos-maternos en la Región Metropolitana (al tope),
completion. TuckER mostró mejor des-
la misma red clusterizada según ingreso socioeconómico (al medio), y la predictibili-
empeño en link prediction que sus com-
dad de vínculos usando TuckeER [11] (al pie).
petidores, factor atribuible a su habilidad
de trabajar con datos sparse.
58
Inteligencia
Artificial
REFERENCIAS
[1] Stefano Cresci: A decade of social bot detection. Commun. ACM 63(10): 72–83 (2020).
[2] Stefano Cresci, Roberto Di Pietro, Marinella Petrocchi, Angelo Spognardi, Maurizio Tesconi: The Paradigm-Shift of Social Spambots:
Evidence, Theories, and Tools for the Arms Race. WWW (Companion Volume) 2017: 963–972.
[3] Marcelo Mendoza, Maurizio Tesconi, Stefano Cresci: Bots in Social and Interaction Networks: Detection and Impact Estimation. ACM
Trans. Inf. Syst. 39(1): 5:1–5:32 (2020).
[4] Théo Trouillon, Johannes Welbl, Sebastian Riedel, Éric Gaussier, Guillaume Bouchard: Complex Embeddings for Simple Link Predic-
tion. ICML 2016: 2071–2080.
[5] Manaal Faruqui, Jesse Dodge, Sujay Kumar Jauhar, Chris Dyer, Eduard H. Hovy, Noah A. Smith: Retrofitting Word Vectors to Semantic
Lexicons. HLT-NAACL 2015: 1606–1615.
[6] Franco Scarselli, Sweah Liang Yong, Marco Gori, Markus Hagenbuchner, Ah Chung Tsoi, Marco Maggini: Graph Neural Networks for
Ranking Web Pages. Web Intelligence 2005: 666–672.
[7] Onur Varol, Emilio Ferrara, Clayton A. Davis, Filippo Menczer, Alessandro Flammini: Online Human-Bot Interactions: Detection, Estima-
tion, and Characterization. ICWSM 2017: 280–289.
[8] Shenghua Liu, Bryan Hooi, Christos Faloutsos: HoloScope: Topology-and-Spike Aware Fraud Detection. CIKM 2017: 1539–1548.
[9] Naim Bro, Marcelo Mendoza. Surname affinity in Santiago, Chile: A network-based approach that uncovers urban segregation. PLOS
ONE, 16(1): e0244372, 2021.
[10] Pablo Mateos, Paul Longley, David O’Sullivan. Ethnicity and population structure in personal naming networks. PLOS ONE, 6(9):
e22943, 2011.
[11] Ivana Balazevic, Carl Allen, Timothy M. Hospedales: TuckER: Tensor Factorization for Knowledge Graph Completion. EMNLP/IJCNLP
(1) 2019: 5184–5193.
[12] Maximilian Nickel, Volker Tresp, Hans-Peter Kriegel: A Three-Way Model for Collective Learning on Multi-Relational Data. ICML 2011:
809–816
[13] Zhiqing Sun, Zhi-Hong Deng, Jian-Yun Nie, Jian Tang: RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space.
ICLR 2019.
59
Inteligencia
Artificial
Aprendizaje profundo en
sistemas de recomendación
DENIS PARRA Profesor Asociado del Departamento de Ciencia de la Computación de la Pontificia Universidad Católica de Chile e
Investigador Adjunto del Instituto Milenio Fundamentos de los Datos.
Corría el año 2010 y yo cursaba mi docto- Recuerdo que vimos muchas técnicas Sutskever y Hinton—, que usando una
rado enfocado en personalización y sis- que permitían aprender modelos a partir red neuronal convolucional profunda
temas de recomendación en la Universi- de datos, con especial énfasis en mo- (deep convolutional neural network) con
dad de Pittsburgh, ubicada en la ciudad delos gráficos —por ejemplo, el famoso 60 millones de parámetros y 650 mil
homónima (Pittsburgh) al oeste del esta- Latent Dirichlet Allocation [1]— así como neuronas, entrenado con dos GPUs du-
do de Pennsylvania en Estados Unidos. en métodos kernel como Support Vector rante una semana, ganaba el ImageNet
Las técnicas más avanzadas de mi tema Machines (SVM). Casi al final del curso, challenge 2012 con un error top-5 del
de investigación eran del área conocida tuvimos una clase algo tímida sobre re- 15,3% y más de 10 puntos de mejora
como Aprendizaje Automático (en inglés, des neuronales artificiales, un método en relación al segundo lugar. Las redes
Machine Learning), por lo que sentía la interesante pero que poca gente usaba. neuronales profundas tenían algunos
necesidad de tomar un curso avanzado Las redes neuronales artificiales datan antecedentes importantes de buen ren-
para completar mi formación. En el se- de los años cincuenta [2], renacieron en dimiento [4], pero el resultado del 2012
mestre de otoño finalmente me inscribí los ochenta luego del invierno de la IA en el ImageNet challenge catapultó su
en el curso de Aprendizaje Automático, [3], para luego volver a perder tracción popularidad. La arquitectura de red neu-
y gracias a un convenio académico pude en los noventa. Cuál fue mi sorpresa ronal creada empezó a ser popularmen-
cursarlo en la universidad vecina, Car- cuando el año 2012 las redes neurona- te conocida como AlexNet [5], debido al
negie Mellon University. Yo estaba real- les artificiales pasaban a ser el método nombre del primer autor, Alex Krizhev-
mente emocionado de tomar un curso que todos querían usar y del cual todos sky. A partir de ese momento, inge-
en un tema de tan creciente relevancia hablaban. El motivo fue el sorprendente nieros e investigadores de diferentes
en unas de las mejores universidades resultado del equipo SuperVision de la áreas de la inteligencia artificial que-
del mundo en el área de computación. Universidad de Toronto1 —Krizhevsky, rían escribir los términos deep learning
1 | https://www.image-net.org/challenges/LSVRC/2012/results.html.
60
Inteligencia
Artificial
GRU layer
GRU layer
GRU layer
Figura 1. Arquitectura de GRU4Rec donde cada capa GRU tiene celdas GRU como la que se observa a la derecha, que pueden
recordar y olvidar, selectivamente, permitiendo el aprendizaje de secuencias.
61
Inteligencia
Artificial
2 | https://www.aicrowd.com/challenges/spotify-million-playlist-dataset-challenge.
3 | https://sites.google.com/eng.ucsd.edu/ucsdbookgraph/home.
4 | https://grouplens.org/datasets/movielens/25m/.
62
Inteligencia
Artificial
y luego otros usuarios con menores recur- como a otras áreas de aplicación de la tando ser transparente? Los métodos de
sos de hardware tienen sólo que adaptar inteligencia artificial. Hay, sin embargo, explicabilidad para inteligencia artificial
(finetuning) los pesos para la nueva tarea o dos aspectos importantes a mencionar están en activa investigación en estos
dataset que se aborda. que generan inquietud en el área: cuánto días [34] y si deseamos que los sistemas
es el progreso real que ha traído el apren- de recomendación permeen áreas críti-
A partir del año 2016 el aprendizaje pro- dizaje profundo, y cómo estos modelos cas de toma de decisiones como medi-
fundo aterriza con fuerza en la conferen- afectan el avance en temas de temas de cina, finanzas o seguridad, se debe avan-
cia internacional ACM de sistemas reco- equidad, explicabilidad y transparencia.5 zar en esta área. En relación a asegurar
mendadores, donde se publica “Ask the que estos sistemas no están sesgados
GRU” [25], un recomendador con apren- ¿Cuánto se ha progresado? El artículo existe una inquietud similar: cómo hacer
dizaje multitarea de artículos científicos de [32] pone en entredicho el impacto que provean recomendaciones justas a
que usa una red recurrente con celdas del del aprendizaje profundo en los SisRec, diferentes grupo de usuarios finales, por
tipo Gated Recurrent Unit. Además de este mostrando que cuando métodos tradi- ejemplo de un sistema de recomenda-
paper, autores de Google [26] presentan la cionales de factorización matricial que ción de empleo, así como a creadores de
nueva versión del sistema recomendador se conocen por más de una década son contenido: que un portal de libros reco-
de videos de YouTube, basado en dos re- entrenados adecuadamente, tienen tan- miende con la misma probabilidad tanto
des neuronales profundas (ver Figura 3), to o mejor rendimiento que métodos de a escritores hombres como mujeres o
una red que selecciona cientos de candi- aprendizaje profundo. Si bien este pa- de otros grupos LGBTQ.
datos a partir de millones de opciones, y per es relevante por mostrar una crisis
una segunda red que ordena los videos de reproducibilidad en SisRec y que no Conclusión. El aprendizaje profundo
candidatos previamente filtrados. La nue- siempre el aprendizaje profundo puede tomó algunos años en permear el área
va arquitectura del portal YouTube [27] mejorar el rendimiento los métodos ya de sistemas de recomendación en
tiene algunos aspectos interesantes, por conocidos, hay un aspecto relevante a comparación con otras áreas de inte-
ejemplo que considera los likes de los considerar. La investigación de Dacre- ligencia artificial, pero se instaló con
usuarios para generar el perfil del usua- ma sólo considera tuplas usuario-ítem fuerza a partir de 2016 gracias a su
rio para recomendar, cosa que no hacía como entrada, pero no considera in- gran capacidad para encontrar repre-
el recomendador anterior [26]. formación adicional como imágenes, sentaciones de usuarios y datos para
video, metadata, contexto, etc. Justa- posteriormente ser usadas en tareas
Luego de estas publicaciones, es común mente es con esta gran cantidad y di- de filtrado de información. Con el avan-
encontrar SisRec implementados con versidad de datos donde es esperable ce de modelos de visión por computa-
métodos de aprendizaje profundo en el rendimiento mejorado de técnicas dor, modelos de lenguaje, arquitecturas
temas como recomendación de músi- de aprendizaje profundo, por lo cual se como atención y más recientemente
ca, películas, libros, pareja sentimental, recomienda revisar con cautela los re- modelos de redes neuronales para gra-
ropa de temporada, entre muchos otros. sultados de este análisis, y ponerlo en fos, el impacto de las redes neuronales
Los sistemas han evolucionado en los perspectiva sólo para el filtrado colabo- profundas en SisRec no ha dejado de
últimos años de la arquitecturas como rativo tradicional. crecer. La integración de estas técni-
Transformer [28], integrados con otras cas con otras como aprendizaje refor-
técnicas como aprendizaje reforzado FAccT. Considerar los desafíos que se zado para SisRec y el crecimiento en
profundo [29], así como explotando plantean en la inteligencia artificial en los últimos años de los sistemas de
avances en áreas como NLP [30] o mo- relación a equidad (fairness), explica- recomendación conversacionales [35]
delos generativos [31]. bilidad (accountability) y transparencia le siguen dando fuerza a esta área de
(transparency) es un gran desafío para investigación. Los desafíos en térmi-
los modelos de aprendizaje profundo nos de mostrar los avances reales en
en SisRec [33]. Considere el caso en que rendimiento de estas técnicas [32] así
Discusión y conclusión usa GPT-3, un modelo de 175 mil millo- como su adaptación para lidiar con ne-
nes de parámetros, para recomendar un cesidades de equidad, transparencia,
documento y el usuario solicita una ex- explicabilidad [33], nos harán ver sin
El aprendizaje profundo ha impactado plicación sobre dicha sugerencia ¿cómo duda mucha más investigación en este
positivamente el área de SisRec, tanto explicaría dicha recomendación inten- tema en los años venideros.
63
Inteligencia
Artificial
REFERENCIAS
[1] Blei, D. M., Ng, A. Y., & Jordan, M. I. (2003). Latent dirichlet allocation. the Journal of machine Learning research, 3, 993-1022.
[2] Rosenblatt, F. (1957). The perceptron, a perceiving and recognizing automaton Project Para. Cornell Aeronautical Laboratory.
[3] Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1985). Learning internal representations by error propagation. California Univ. San
Diego La Jolla Inst. for Cognitive Science.
[4] Ciresan, D. C., Meier, U., Masci, J., Gambardella, L. M., & Schmidhuber, J. (2011). Flexible, high performance convolutional neural ne-
tworks for image classification. In Twenty-second international joint conference on artificial intelligence.
[5] Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances in
neural information processing systems, 25, 1097-1105.
[6] Severyn, A., & Moschitti, A. (2015). Learning to rank short text pairs with convolutional deep neural networks. In Proceedings of the
38th international ACM SIGIR conference on research and development in information retrieval (pp. 373-382).
[7] Bahdanau, D., Cho, K., & Bengio, Y. (2014). Neural machine translation by jointly learning to align and translate. arXiv preprint ar-
Xiv:1409.0473.
[8] Vinyals, O., Toshev, A., Bengio, S., & Erhan, D. (2015). Show and tell: A neural image caption generator. In Proceedings of the IEEE con-
ference on computer vision and pattern recognition (pp. 3156-3164).
[9] Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., and Bengio, Y. (2014). Generative adver-
sarial networks. arXiv preprint arXiv:1406.2661.
[10] Roberts, A., Engel, J., Raffel, C., Hawthorne, C., & Eck, D. (2018). A hierarchical latent vector model for learning long-term structure in
music. In International Conference on Machine Learning (pp. 4364-4373). PMLR.
[11] McNee, S. M., Kapoor, N., & Konstan, J. A. (2006). Don’t look stupid: avoiding pitfalls when recommending research papers. In Proce-
edings of the 2006 20th anniversary conference on Computer supported cooperative work (pp. 171-180). ACM.
[12] Salakhutdinov, R., Mnih, A., & Hinton, G. (2007). Restricted Boltzmann machines for collaborative filtering. In Proceedings of the 24th
international conference on Machine learning (pp. 791-798).
[13] Bennett, J., & Lanning, S. (2007, August). The Netflix Prize. In Proceedings of KDD cup and workshop (Vol. 2007, p. 35).
[14] Van Den Oord, A., Dieleman, S., & Schrauwen, B. (2013). Deep content-based music recommendation. In Neural Information Proces-
sing Systems Conference (NIPS 2013) (Vol. 26). Neural Information Processing Systems Foundation (NIPS).
[15] Wang, H., Wang, N., & Yeung, D. Y. (2015). Collaborative deep learning for recommender systems. In Proceedings of the 21th ACM
SIGKDD international conference on knowledge discovery and data mining (pp. 1235-1244).
[16] Hidasi, B., Karatzoglou, A., Baltrunas, L., & Tikk, D. (2015). Session-based recommendations with recurrent neural networks. arXiv
preprint arXiv:1511.06939.
[17] He, R., & McAuley, J. (2016). VBPR: visual bayesian personalized ranking from implicit feedback. In Proceedings of the AAAI Confe-
rence on Artificial Intelligence (Vol. 30, No. 1).
[18] Rendle, S., Freudenthaler, C., Gantner, Z., & Schmidt-Thieme, L. (2012). BPR: Bayesian personalized ranking from implicit feedback.
arXiv preprint arXiv:1205.2618.
[19] Narayanan, A., & Shmatikov, V. (2006). How to break anonymity of the Netflix Prize dataset. arXiv preprint cs/0610105.
[20] Chen, J., Zhang, H., He, X., Nie, L., Liu, W., & Chua, T. S. (2017). Attentive collaborative filtering: Multimedia recommendation with
item-and component-level attention. In Proceedings of the 40th International ACM SIGIR conference on Research and Development
in Information Retrieval (pp. 335-344).
[21] Messina, P., Domínguez, V., Parra, D., Trattner, C., & Soto, A. (2019). Content-based artwork recommendation: integrating painting
metadata with neural and manually-engineered visual features. User Modeling and User-Adapted Interaction, 29(2), 251-290.
[22] Adomavicius, G., & Tuzhilin, A. (2011). Context-aware recommender systems. In Recommender systems handbook (pp. 217-253).
Springer, Boston, MA.
[23] Brown, T. B., Mann, B., Ryder, N., et al. (2020). Language models are few-shot learners. arXiv preprint arXiv:2005.14165
[24] Pan, S. J., & Yang, Q. (2009). A survey on transfer learning. IEEE Transactions on knowledge and data engineering, 22(10), 1345-1359.
[25] Bansal, T., Belanger, D., & McCallum, A. (2016). Ask the gru: Multi-task learning for deep text recommendations. In proceedings of the
10th ACM Conference on Recommender Systems (pp. 107-114).
64
Inteligencia
Artificial
[26] Covington, P., Adams, J., & Sargin, E. (2016). Deep neural networks for YouTube recommendations. In Proceedings of the 10th ACM
Conference on Recommender Systems (pp. 191-198). ACM.
[27] Zhao, Z., Hong, L., Wei, L. et al. (2019). Recommending what video to watch next: a multitask ranking system. In Proceedings of the
13th ACM Conference on Recommender Systems (pp. 43-51).
[28] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. arXiv
preprint arXiv:1706.03762.
[29] Zheng, G., Zhang, F., Zheng, Z., Xiang, Y., Yuan, N. J., Xie, X., & Li, Z. (2018, April). DRN: A deep reinforcement learning framework for
news recommendation. In Proceedings of the 2018 World Wide Web Conference (pp. 167-176).
[30] Penha, G., & Hauff, C. (2020). What does BERT know about books, movies and music? Probing BERT for Conversational Recommen-
dation. In Fourteenth ACM Conference on Recommender Systems (pp. 388-397).
[31] Kang, W. C., Fang, C., Wang, Z., & McAuley, J. (2017). Visually-aware fashion recommendation and design with generative image mo-
dels. In 2017 IEEE International Conference on Data Mining (ICDM) (pp. 207-216). IEEE.
[32] Dacrema, M. F., Cremonesi, P., & Jannach, D. (2019). Are we really making much progress? A worrying analysis of recent neural recom-
mendation approaches. In Proceedings of the 13th ACM Conference on Recommender Systems (pp. 101-109).
[33] Ekstrand, M. D., & Sharma, A. (2017). FATREC Workshop on Responsible Recommendation. In Proceedings of the Eleventh ACM Con-
ference on Recommender Systems (pp. 382-383).
[34] Gunning, D. (2017). Explainable artificial intelligence (xai). Defense Advanced Research Projects Agency (DARPA), nd Web, 2(2).
[35] Christakopoulou, K., Radlinski, F., & Hofmann, K. (2016). Towards conversational recommender systems. In Proceedings of the 22nd
ACM SIGKDD international conference on knowledge discovery and data mining (pp. 815-824).
65
Inteligencia
Artificial
AYMÉ ARANGO Estudiante de Doctorado del Departamento de Ciencias de la Computación de la Universidad de Chile
Las redes sociales se han convertido virtual y llegar a ocasionar daños físicos en Sin embargo, algunos investigadores
en un medio importante de interacción individuos. Estudios recientes han encon- consideran categorías más específicas
entre usuarios de todo el mundo. El con- trado vínculos entre el odio en las redes y y construyen modelos capaces de pre-
tenido compartido puede ser de gran uti- los crímenes de odio [1]. Desde diversas decir el tipo específico de odio que está
lidad, como fuente de información inme- disciplinas se trabaja para entender y tratar siendo expresado, como sexismo, racis-
diata que permite el análisis de eventos, de identificar a tiempo este fenómeno. mo, xenofobia, entre otros.
estudio de fenómenos, la difusión de
arte, ciencia, entre otras. Junto con esta Revisar el contenido publicado consiste Técnicas de inteligencia artificial se han
información, también se encuentran en una ardua tarea para los proveedores venido utilizando para intentar resolver
manifestaciones de ciertos fenómenos de redes sociales. Debido al gran flujo este problema. Específicamente, los
comunicacionales como noticias falsas de datos a analizar en un red social, y modelos de aprendizaje automático han
y discurso de odio que pueden producir a su variedad, se requieren técnicas au- sido ampliamente utilizados como he-
efectos colaterales dañinos. tomatizadas para detectar este tipo de rramientas en la detección de discurso
contenido y tomar medidas necesarias a de odio [2, 3], incluyendo, en los últimos
A pesar de que hay cierta discrepancia en tiempo. Dada la complejidad de la tarea, años, modelos basados en arquitecturas
cómo definir el término “discurso de odio”, esto no ha podido lograrse satisfactoria- de redes neuronales [4]. Para que tales
una de las definiciones más usadas es: mente hasta el momento. modelos “aprendan” a diferenciar el con-
expresiones derogatorias a individuos o tenido “odioso” del contenido “normal”, se
grupos atendiendo a cierta característica Desde el punto de vista de la ciencia de necesitan datos previamente etiquetados.
como color de la piel, origen étnico, géne- datos, la detección de discurso de odio Idealmente, estos datos deberían contener
ro, orientación sexual, entre otros.1 La pro- puede ser planteada como un problema ejemplos representativos de los diferentes
pagación de este tipo de contenido en los de clasificación en el cual la entrada es tipos de expresiones de odio existentes.
medios digitales tiene como efectos la mo- un mensaje (tweet, comentario, fotogra- Obtener este tipo de datos etiquetados
lestia e intimidación de los usuarios. En ca- fía, etc.) y la salida es la clasificación es costoso y debido a la información sen-
sos extremos puede trascender el ámbito de éste como contenido odioso o no. sible que manejan y a políticas de cada
1 | https://www.encyclopedia.com/international/encyclopedias-almanacs-transcripts-and-maps/hate-speech.
66
Inteligencia
Artificial
plataforma, muy pocos conjuntos de datos pobre generalización a datos en el mismo que puedan ser extraídas del contexto del
son públicos y la mayoría son pequeños.2 idioma inglés y a datos en español. mensaje, del autor del mensaje (meta-in-
Adicionalmente, algunos de los conjuntos formación) y que por su naturaleza no es-
de datos publicados han sido reportados Siendo el odio en medios digitales un fe- tén atadas a un único idioma [7]. Además,
como sesgados [5], lo que reduce las po- nómeno del cual hay evidencia a lo largo estamos interesados en construir repre-
sibilidades de utilizar datos de calidad, y de todo el mundo, se requieren soluciones sentaciones específicas para el lenguaje
como consecuencia, de construir buenos efectivas en los distintos idiomas para de odio, siendo este un fenómeno con
detectores de discurso de odio. afrontar el problema. La idea de nuestro características especiales donde ciertas
enfoque es aprovechar los recursos exis- palabras o expresiones pueden tomar
Como parte de mi tesis doctoral, junto con tentes (mayormente en inglés) y construir connotaciones de odio, en dependencia
los profesores Bárbara Poblete y Jorge Pé- modelos generalizables a diferentes idio- del contexto. Dichas expresiones no son
rez, estamos investigando técnicas para la mas, ahorrando así el esfuerzo necesario únicas y pueden depender no sólo del
construcción de modelos que sean gene- en la creación de nuevos recursos para idioma, sino del contexto cultural en el que
ralizables a diferentes idiomas. Tal y como cada idioma separadamente. Para que los se exprese. Nos interesaría resaltar estas
sucede en otras tareas relacionadas con modelos de aprendizaje automático sean diferencias culturales en aras de construir
el Procesamiento del Lenguaje Natural, capaces de transferir conocimiento de un modelos que generalicen mejor.
la mayoría de los modelos desarrollados idioma a otro, se requieren representacio-
hasta el momento han sido principalmen- nes de los datos a través de un conjunto Este tipo de generalización presenta aún
te explotados para resolver el problema de características que puedan ser comu- varios retos debido a las diferentes ca-
en el idioma inglés. Como consecuencia, nes para diferentes idiomas. Ejemplo de racterísticas de los idiomas y a la com-
la gran parte de los recursos construidos esto pueden ser representaciones vecto- plejidad que puede tener la tarea, siendo
son de utilidad solamente para este idio- riales multilingües o información que no el odio un fenómeno no sólo lingüístico,
ma, mientras la tarea avanza más lenta- esté directamente relacionada con un idio- sino social y cultural. Definitivamente,
mente para el resto. Analizando dos de ma específico. Particularmente, nuestro todavía hay mucho que investigar en
los mejores modelos reportados en la equipo de investigación ha trabajado en esta área. Los resultados aún no son
literatura de idioma Inglés [6], encontra- encontrar dichas características que sean concluyentes respecto a qué modelo o
mos que los resultados mostrados esta- comunes al odio en diferentes idiomas representación de datos resulta mejor
ban sobreestimados debido a problemas que nos permitan construir modelos gene- para esta tarea y aunque se han logrado
experimentales, y uso de datos sesgados. ralizables. Bajo nuestro foco de atención, algunos avances, la tarea aún está por
Además, estos modelos presentan una se encuentran aquellas representaciones resolverse.
REFERENCIAS
[1] Williams ML, Burnap P, Javed A, Liu H, Ozalp S. Hate in the machine: anti-black and anti-Muslim social media posts as predictors of
offline racially and religiously aggravated crime. Br J Criminol (2020), 60(1), pp. 93–117.
[2] Anzovino, M., Fersini, E., and Rosso, P. Automatic Identification and Classification of Misogynistic Language on Twitter. In Internatio-
nal Conference on Applications of Natural Language to Information Systems (2018), Springer, pp. 57–64.
[3] Papegnies, E., Labatut, V., Dufour, R., and Linares, G. Graph-based Features for Automatic Online Abuse Detection. In International
Conference on Statistical Language and Speech Processing (2017), Springer, pp. 70–81.
[4] Gambäck, B., and Sikdar, U. K. Using Convolutional Neural Networks to Classify Hate-Speech. In Proceedings of the First Workshop
on Abusive Language Online (2017), Association for Computational Linguistics, pp. 85–90.
[5] Maarten Sap, Dallas Card, Saadia Gabriel, Yejin Choi, and Noah A. Smith. The Risk of Racial Bias in Hate Speech Detection. In Proce-
edings of the Association for Computational Linguistics (2019), pp. 1668–1678.
[6] Arango, A., Pérez, J., Poblete, B.: Hate Speech Detection is Not as Easy as You May Think: A Closer Look at Model Validation. In Procee-
dings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval (2019), ACM, pp. 45–54.
[7] Arango, A., Pérez, J., & Poblete, B. Hate Speech Detection is Not as Easy as You May Think: A Closer Look at Model Validation (exten-
ded version). Information Systems , 101584 (2020).
2 | https://github.com/aymeam/Datasets-for-Hate-Speech-Detection.
67
Inteligencia
Artificial
Conectando la visión
y el lenguaje
MUJER
UNA MUJER
UN
PA S E A N D O A
PERRO
PERRO
CAMINATA
JESÚS PÉREZ-MARTÍN Estudiante de Doctorado del Departamento de Ciencias de la Computación de la Universidad de Chile e Investi-
gador del Instituto Milenio Fundamentos de los Datos.
BENJAMÍN BUSTOS Profesor Titular del Departamento de Ciencias de la Computación de la Universidad de Chile e Investigador
Asociado del Instituto Milenio Fundamentos de los Datos.
JORGE PÉREZ Profesor Asociado del Departamento de Ciencias de la Computación de la Universidad de Chile e Investigador
Asociado del Instituto Milenio Fundamentos de los Datos.
En este minuto más de 500 horas de vi- descripciones bien redactadas con las de datos no lingüísticos. Reiter y Dale [1]
deo se están publicando en YouTube.1 palabras clave correctas pueden ayudar caracterizan Natural Language Genera-
Además, el último Digital Global Over- a mejorar las visualizaciones y el tiempo tion (NLG) como la producción de textos
view Report estima que diariamente se de reproducción, ya que ayudan a que el comprensibles a partir de una represen-
visualizan mil millones de horas de video video tenga una mayor visibilidad en los tación no lingüística subyacente de la in-
en la misma plataforma. Con los videos resultados de la búsqueda”. formación. Esta definición de NLG gene-
ganando tanta popularidad, YouTube ralmente se asocia con la de data-to-text
Creator Academy2 recomienda que las La forma de comunicación que más generation, asumiendo que la entrada
descripciones transmitan información usamos los humanos es el lenguaje exacta puede variar sustancialmente.
valiosa para ayudar a los espectadores natural. Es entonces esencial que siste-
a encontrar videos en los resultados mas interactivos de Inteligencia Artificial Hoy en día, la generación de texto a
de búsquedas y comprender lo que (IA) y robots auxiliares sean capaces de partir de una entrada perceptiva no
mirarán.3 En este sentido detalla: “Las generar texto automáticamente a partir estructurada —como una imagen sin
68
Inteligencia
Artificial
Con gran atención de ambas comunida- al humano. No obstante, las técnicas cación de contenidos visuales de forma
des, V+L incluye otras tareas desafiantes basadas en deep learning han logrado explícita y la intención de producir ora-
que conectan o combinan las modalida- resultados prometedores, tanto para la ciones correctas. Desarrollar técnicas
des de la visión y el lenguaje, como visual generación de descripciones como para que aborden alguno de estos aspectos
question-answering (responder pregun- los métodos basados en
la recuperación. ha guiado la investigación en los últimos
tas basadas en texto sobre imágenes), años. Por un lado tenemos métodos que
caption-based image/video retrieval (da- Como una tarea de generación de texto, intentan conectar las palabras genera-
dos un texto y un grupo de imágenes, de- el proceso de describir videos requiere das a regiones específicas dentro del
bemos recuperar la imagen que mejor se predecir una secuencia de palabras se- video (visual grounding) [2] y modelar las
describe con el texto), video generation mántica y sintácticamente correcta dado relaciones entre ellas [3, 4]. Mientras que
from text (generar un video plausible y el contexto presente en el video. Los pri- por el otro tenemos métodos que consi-
diverso a partir de un texto de entrada) y meros trabajos en esta área siguieron la deran el aprendizaje de una representa-
multimodal verification (dada una o más estrategia de, primero, detectar sujeto, ción sintáctica como un componente
imágenes y un texto, debemos predecir verbo y objeto, formando un triplete SVO; esencial de los enfoques de video cap-
alguna relación semántica). y luego, generar una oración usando tioning [5, 6, 7].
un conjunto reducido de plantillas que
aseguran la correctitud gramatical. Este En el Departamento de Ciencias de la
enfoque requiere que los modelos reco- Computación (DCC) de la Universidad
Sintaxis y semántica de nozcan a los sujetos y objetos que parti- de Chile nos encontramos desarrollando
cipan en la acción que debemos descri- métodos de video captioning que extraen
un video bir, logrando sus mejores resultados en información valiosa sobre las posibles
videos cortos de entornos específicos, descripciones a partir de dimensiones
Es impresionante el progreso que los in- como deporte o cocina. En este tipo de implícitas en la información visual. Nues-
vestigadores han logrado en conjuntos videos, la cantidad de objetos y acciones tros resultados recientes muestran que
de datos específicos, pero a pesar de que se debe detectar es limitada. los videos contienen, además de la apa-
este progreso, la conversión de video a riencia y el movimiento, información se-
texto sigue siendo un problema abierto. A partir de esta idea, podemos notar que mántica y sintáctica que podemos extraer
Las técnicas del estado del arte aún es- para los modelos de video captioning directamente de la información visual
tán lejos de lograr un desempeño similar dos aspectos esenciales son la identifi- para guiar el proceso de generación de
69
Inteligencia
Artificial
70
Inteligencia
Artificial
REFERENCIAS
[1] Reiter, E. & Dale, R. Building natural language generation systems. (Cambridge University Press, 2000).
[2] Pan, B. et al. Spatio-Temporal Graph for Video Captioning with Knowledge Distillation. In Proc. IEEE/CVF Conference on Computer
Vision and Pattern Recognition (CVPR) 10870–10879 (2020).
[3] Zhou, L., Kalantidis, Y., Chen, X., Corso, J. J. & Rohrbach, M. Grounded Video Description. In Proc. 2019 IEEE/CVF Conference on
Computer Vision and Pattern Recognition (CVPR) 6571–6580 (IEEE, 2019).
[4] Zhang, Z. et al. Object Relational Graph with Teacher-Recommended Learning for Video Captioning. In Proc. IEEE/CVF Conference on
Computer Vision and Pattern Recognition (CVPR) 13278–13288 (2020).
[5] Hou, J., Wu, X., Zhao, W., Luo, J. & Jia, Y. Joint Syntax Representation Learning and Visual Cue Translation for Video Captioning. In
Proc. IEEE International Conference on Computer Vision (ICCV) (2019).
[6] Wang, B. et al. Controllable Video Captioning with POS Sequence Guidance Based on Gated Fusion Network. In Proc. IEEE Internatio-
nal Conference on Computer Vision (ICCV) (2019).
[7] Pérez-Martín, J., Bustos, B. & Pérez, J. Improving Video Captioning with Temporal Composition of a Visual-Syntactic Embedding. In
Proc. IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) (2021).
[8] Pérez-Martín, J., Bustos, B. & Pérez, J. Attentive Visual Semantic Specialized Network for Video Captioning. In Proc. 25th International
Conference on Pattern Recognition (2020).
[9] Miech, A. et al. HowTo100M: Learning a Text-Video Embedding by Watching Hundred Million Narrated Video Clips. In Proc. IEEE/CVF
International Conference on Computer Vision (ICCV) 2630–2640 (IEEE, 2019).
[10] Radford, A. et al. Learning Transferable Visual Models From Natural Language Supervision. (2021).
[11] Vaswani, A. et al. Attention is all you need. In Proc. 31st International Conference on Neural Information Processing Systems 6000–
6010 (Curran Associates Inc., 2017).
[12] Ging, S., Zolfaghari, M., Pirsiavash, H. & Brox, T. COOT: Cooperative Hierarchical Transformer for Video-Text Representation Learning.
In Proc. Conference on Neural Information Processing Systems (2020).
[13] Pennington, J., Socher, R. & Manning, C. D. Glove: Global vectors for word representation. IN EMNLP (2014).
5 | Proyecto Stanford GloVe (vectores globales) que usa aprendizaje no supervisado para obtener vectores representativos para un gran conjunto
de palabras: https://nlp.stanford.edu/projects/glove/.
71
Inteligencia
Artificial
EQUIPO IMPRESEE
CAMILA ÁLVAREZ Chief Technology Officer (CTO) MAURICIO PALMA LIZANA Chief Financial Officer (CFO)
JUAN MANUEL BARRIOS Chief Executive Officer (CEO) JOSÉ M. SAAVEDRA Chief Research Officer (CRO)
1 | https://impresee.com/ecommerce-labs/.
72
Inteligencia
Artificial
Trabajos de investigación
recientes
73
Inteligencia
Artificial
2 | https://impresee.com/sketch-qnet/.
3 | https://impresee.com/sketch-based-image-retrieval/.
74
Inteligencia
Artificial
4 | https://impresee.com/scalable-visual-attribute-extraction/.
75
Inteligencia
Artificial
Iniciativas de
Inteligencia Artificial
A continuación revisamos tres iniciativas nacionales recientes, gestadas con el objetivo de abordar la inteligencia artificial
desde diversas perspectivas. Éstas incluyen el Instituto de Datos e Inteligencia Artificial (Facultad de Ciencias Físicas y
Matemáticas, Universidad de Chile), el Núcleo Inteligencia Artificial y Sociedad (Instituto de la Comunicación e Imagen,
Universidad de Chile) y el Observatorio Público para la Transparencia e Inclusión Algorítmica (independiente).
76
Inteligencia
Artificial
Un Instituto de Datos e
Inteligencia Artificial para Chile
El círculo virtuoso que se crea entre la vas capacidades son las que se exploran niveles crecientes de concentración de
disponibilidad masiva de datos y las he- en la ciencia de los datos. la producción hasta llegar a la actual glo-
rramientas que provee la inteligencia ar- balización, que nos hace difícil participar
tificial ha sido identificado como la clave Se dice que los países que logren posicio- del club de los grandes productores lo
en una nueva etapa del desarrollo de la narse como líderes en estos temas serán que nos relega al grupo de proveedores
humanidad. Una etapa donde las capaci- los que definan nuestro destino. Para de recursos naturales. En el inicio de la
dades humanas se expanden en una di- algunos, los datos son lo que fueron las era digital, en cambio, se perciben nuevas
mensión totalmente nueva, generando un semillas, el oro, o luego el petróleo. Reco- oportunidades para países como el nues-
nuevo espacio para la investigación cien- nociendo la importancia de estos temas tro de insertarse en la creación y produc-
tífica y la tecnología de una magnitud difí- para el desarrollo de la ciencia y del país, ción de los bienes artificiales, cuya mate-
cil de imaginar. Desde hace algunas déca- en la Facultad de Ciencias Físicas y Ma- ria prima son los datos y cuyos productos
das venimos experimentando un cambio temáticas (FCFM) de la Universidad de que se generan utilizando un conjunto de
acelerado en todos los ámbitos de la Chile nos hemos planteado la pregunta algoritmos sofisticados muchos de ellos
sociedad traccionado por la fuerza de la de cómo abordar el desafío de contribuir basados en inteligencia artificial.
revolución tecnológica que ha instalado en esta nueva ciencia. En esta reflexión
una nueva red de infraestructura para la hemos observado que los recursos vita- En ese contexto, pensamos que nuestro
transmisión de datos a altas velocidades. les para la vida humana, como alimentos, país tiene potencial para convertirse en
Esta nueva y cambiante realidad permite minerales y la energía, los ha provisto la un actor relevante. Hemos desarrollado
automatizar muchas funciones de la vida, naturaleza a todo el planeta y la huma- experiencia en manejo de grandes volú-
almacenar gigantescas bases de datos y nidad los ha transformado en bienes úti- menes de datos, como por ejemplo en el
explorar esos datos para generar informa- les a través de la historia tras procesos ámbito de la astronomía, y también en
ción que se encuentra codificada en esas cada vez más complejos, hasta llegar a los sistemas que administran datos per-
bases abriendo acceso a conocimientos la revolución industrial. Con el tiempo sonales. Por ejemplo, el hecho de que
científicos antes inexplorados. Estas nue- esos procesos se han desarrollado con cada persona al nacer o al llegar al país
77
Inteligencia
Artificial
reciba un número único que lo identifica, monitoreo del cambio climático, el mo- tad con interés en el área de ciencia de
y que se utiliza para cualquier trámite nitoreo del comportamiento sísmico, datos y que los investigadores de los
que realice, genera un nivel de trazabili- entre otros. Un análisis nos mostró que centros puedan también integrarse. Esta
dad que no se da en otros países. Esto la Universidad de Chile es la institución doble adscripción constituye una nove-
representa una enorme oportunidad que más publicaciones ISI WoS tiene en dad en nuestra Facultad que permite que
para hacer análisis de esos datos, pero el país en las áreas temáticas de Datos e el Instituto sea efectivamente un núcleo
a su vez un desafío ético de cómo y para Inteligencia Artificial. atractor basado en la colaboración de
qué se usa esa información. todas las unidades de Beauchef.
Para abordar el cultivo de la Ciencia de
Las grandes preguntas de investigación Datos los países han hecho enormes De esta manera, el ID&IA podrá afrontar
van desde la teoría de la ciencia de los inversiones, creando centros dedicados la misión de desarrollar las funciones
datos que busca identificar sus estruc- exclusivamente a ello, y muchas univer- académicas de investigación y trans-
turas esenciales en grandes bases de in- sidades en el mundo lo están abordando ferencia de conocimiento, aportar en
formación, hasta el diseño de algoritmos ya sea desde la estructura existente, o docencia de pregrado y postgrado y de-
eficientes que se requieren para procesar bien creando una nueva. En ese contexto, sarrollar extensión en las temáticas de
y analizar los datos, pero también con las la FCFM decide crear una institucionali- datos e inteligencia artificial, atendiendo
preguntas relacionadas con la ética que dad que permita desarrollar estos temas a los valores de la excelencia y el com-
cuestionan el uso del poder asociado al de forma inter y transdisciplinar, con la promiso con la sociedad, de una ma-
control de la información. Otra obser- misión de agrupar y potenciar el trabajo nera multidisciplinar y promoviendo la
vación a considerar sobre el asunto de que se realiza relacionado con ciencia colaboración entre los departamentos y
cómo abordar el desafío de la Ciencia de de datos en las diferentes unidades y centros, otras unidades académicas de
los Datos es que en el expansivo universo constituirse en un polo de pensamiento y la Universidad de Chile, y otras institucio-
de los datos concurren todas las discipli- creación en esta materia. Esta visión nos nes tanto nacionales como internacio-
nas, como la astronomía, la biología, la obliga a concebir una nueva instituciona- nales. Dentro de los objetivos del ID&IA
sociología, la economía, la filosofía, entre lidad capaz de permear las fronteras de se destaca el desarrollar investigación
otras. Es decir, la mirada desde los datos departamentos y centros, y eventualmen- de alta calidad, apoyar la formación de
nos lleva a observar la naturaleza y la so- te también de facultades, generando un académicos y profesionales de excelen-
ciedad con ojos nuevos, de naturaleza núcleo de investigación que concentre el cia, contribuir al desarrollo nacional con
digital que nos permiten ver aquello que aporte de las unidades e investigadores soluciones innovadoras basadas en aná-
hasta hace poco estaba en la oscuridad de diversos intereses científicos. lisis de datos y en la construcción y apli-
y soñar con explorar lo que permanece cación de herramientas que utilizan in-
bajo el velo de la ignorancia. Con ese objetivo, se crea un Instituto teligencia artificial, además de construir
de Facultad en Datos e Inteligencia Ar- vínculos con otros centros nacionales e
En el caso de la FCFM, se cultivan varias tificial, o ID&IA, que se proyecta como internacionales en las áreas de datos e
disciplinas que tienen que ver con este un centro referente a nivel nacional e inteligencia artificial.
tema. Hay investigación relacionada con internacional, con especial liderazgo en
ciencia de datos en los distintos depar- el ámbito latinoamericano. Esta inicia- Pensamos que el ID&IA, concebido con
tamentos como Ciencias de la Compu- tiva fue aprobada por el Consejo de Fa- visión innovadora en su estructura y en
tación, Ingeniería Eléctrica, Ingeniería cultad en octubre de 2020 y ya ha dado la forma colaborativa de abordar las
Industrial e Ingeniería Matemática. Tam- sus primeros pasos, que consisten en la grandes preguntas, provee mejores con-
bién hay centros de excelencia que lo creación de un Comité Constituyente, li- diciones para explorar la nueva dimen-
abordan buscando conocimiento y so- derado por el decano, con participación sión del universo de los datos aunando
luciones a problemas concretos, como de 15 académicos de cinco departamen- las capacidades e intereses, fortaleci-
el Centro de Modelamiento Matemático tos, dos centros y dos institutos, y en la dos con esa integración sinérgica para
(CMM), el Instituto Milenio Fundamentos convocatoria a un concurso público para lograr enfrentar mayores desafíos y
de los Datos (IMFD), el Centro Avanzado la contratación de tres nuevos académi- hacer contribuciones de mayor relevan-
de Tecnología para la Minería (AMTC) cos con dedicación exclusiva al Institu- cia. Con esto, esperamos aportar signi-
y el Instituto Sistemas Complejos de to. Además, el ID&IA se concibe con una ficativamente al desarrollo sustentable
Ingeniería (ISCI). En general, todos los lógica colaborativa inter y transdiscipli- del país y la región. La urgencia de este
departamentos y centros de la FCFM nar, lo que se implementa permitiendo tema nos plantea un desafío que debe-
utilizan datos y modelos para observar y la doble adscripción, de manera que el mos abordar con mucho compromiso,
predecir distintos fenómenos, como por claustro lo integren todos los académi- poniendo todas nuestras capacidades al
ejemplo la astronomía, la observación y cos de los Departamentos de la Facul- servicio de la comunidad.
78
Inteligencia
Artificial
EQUIPO DIRECTIVO Ana María Castillo y Lionel Brossi, Instituto de la Comunicación e Imagen de la Universidad de Chile.
El Núcleo Inteligencia Artificial, So- cional de Inteligencia Artificial y la Estra- sobre los posibles impactos en términos
ciedad, Información y Comunicación tegia de Inteligencia Artificial propuesta de oportunidades y desafíos que implica
IA+SIC1 surge a partir de experiencias por la Comisión Desafíos del Futuro, en- el diseño, desarrollo e implementación
investigativas, de formación y de trabajo cabezada por el senador Guido Girardi. de la inteligencia artificial en las perso-
aplicado de sus integrantes, en ámbitos nas, comunidades y en la sociedad en
relacionados con el impacto que la inte- IA+SIC conforma un núcleo interdis- general, desde una mirada ética y de de-
ligencia artificial tiene y tendrá en la so- ciplinario, creador de conocimiento y rechos humanos.
ciedad, en áreas como la comunicación, reflexión crítica a través de la investiga-
la calidad de la información y el periodis- ción y desarrollo, que se ocupa además, En lo específico, IA+SIC se propone de-
mo, la educación, el futuro del trabajo, de monitorear los desarrollos tecnoló- sarrollar abordajes reflexivos y críticos
entre otros. gicos emergentes en el área de la inte- en relación con la irrupción de tecnolo-
ligencia artificial y su implementación, gías algorítmicas en la sociedad a par-
La creación del Núcleo IA+SIC, se con- con especial dedicación a los aspectos tir de instancias investigativas, de for-
cibe en un escenario regional y de país, éticos, de gobernanza y consecuencias mación, creación, de vinculación con el
donde comienzan a desarrollarse inicia- para el desarrollo social del país, desde medio e internacionalización. El Núcleo
tivas tendientes a diseñar políticas para un enfoque de respeto irrestricto a los promueve el diseño, desarrollo, imple-
la regulación, el desarrollo e implemen- derechos humanos, el pluralismo y la in- mentación y utilización de la inteligencia
tación ética de sistemas de inteligencia clusión de diversidades. artificial de manera que respete los va-
artificial, que permean diversas áreas de lores sociales de equidad, diversidad y
la sociedad. Como ejemplo se encuentra El objetivo general del Núcleo es gene- pluralismo con un enfoque de respeto a
la iniciativa gubernamental Política Na- rar conocimiento científico y divulgación los derechos humanos.
1 | http://ia-sic.org.
79
Inteligencia
Artificial
A través de sus acciones, también la implementación de talleres participa- diversas organizaciones globales para
apoya el desarrollo de iniciativas y tivos con jóvenes a lo largo de Chile, en discutir temas como la educación, los
políticas nacionales y regionales éti- las recomendaciones para generadores derechos, la ética, los datos abiertos, en-
cas sobre el diseño, desarrollo, im- de políticas públicas de la International tre otros, en su relación con el campo de
plementación y uso de sistemas de Telecommunications Union (ITU) volca- la Inteligencia Artificial.
inteligencia artificial en diversas áreas das en el reporte “Child Online Protec-
de la sociedad. Además, se propone tion for policymakers”, en las mesas de Entre los proyectos de investigación ac-
la generación y consolidación de una trabajo de las políticas de Inteligencia tualmente vinculados al Núcleo IA+SIC
comunidad local y nacional multisec- Artificial de Colombia y Perú. Para el se encuentran “Hablatam2: Jóvenes,
torial (generadores de políticas públi- caso chileno, el Núcleo ha colaborado habilidades digitales, brechas de conte-
cas, academia, sociedad civil y sector en los esfuerzos para desarrollar la Es- nido y calidad de la información en Amé-
privado) con foco en ética y gobernan- trategia Nacional de Inteligencia Artifi- rica Latina”, financiado por la Agencia
za de la inteligencia artificial. cial y es parte de la Subcomisión para la Nacional de Investigación de Uruguay y
regulación de la ciberseguridad y de las la Fundación Ceibal a través del Fondo
El objetivo específico dedicado a la in- plataformas digitales de la Comisión de Sectorial de Educación, Modalidad In-
cidencia en políticas públicas relacio- Desafíos del Futuro, Ciencia, Tecnología clusión Digital; el proyecto “Future Ways
nadas al diseño, desarrollo, implemen- e Innovación del Senado. of Working in the Digital Economy”3,
tación y utilización de la inteligencia financiado por la Agencia Nacional de
artificial ética e inclusiva, se manifiesta Desde el año 2020, el Núcleo participa Investigación de Noruega; el proyecto
a través de las diferentes acciones, des- de la Mesa para el desarrollo de la estra- “Jóvenes, medios digitales y discursos
critas a continuación. tegia nacional contra la desinformación públicos de pandemia en América La-
del Consejo para la Transparencia, es- tina”, desarrollado en conjunto con el
En el año que lleva desde su creación, pecíficamente coordinando la submesa Centro Heidelberg para América Latina
el Núcleo Inteligencia Artificial y Socie- encargada del diseño e implementación y el Núcleo Milenio IMHAY, y el proyecto
dad del Instituto de la Comunicación e del plan de formación y difusión, previs- “Desafíos éticos para la docencia de pre-
Imagen, ha participado en numerosas to para 2021. grado en el contexto del desarrollo e im-
iniciativas con impacto global, regional plementación de sistemas de inteligen-
y nacional. Entre ellas, la participación Asimismo y en conjunto con la funda- cia artificial en la educación”, financiado
para el diseño de las guías sobre inte- ción Wikimedia Chile, se lanzó el Web- por el Departamento de Pregrado de la
ligencia artificial y derechos de niñas, cast Utopías dentro y fuera de las pan- Vicerrectoría de Asuntos Académicos
niños y jóvenes de UNICEF, a partir de tallas, donde participaron líderes de de la Universidad de Chile.
2 | http://conectadosalsur.org/hablatam.
3 | https://www.bi.edu/research/centres-groups-and-other-initiatives/futurewaysofwork/.
80
Inteligencia
Artificial
DIRECTORIO OPTIA Ricardo Baeza-Yates, Alejandro Barros, Daniel Vak Contreras, Carol Hullin, Óscar López, Catherine Muñoz,
Claudia Negri, Luis Pizarro y Danielle Zaror.
Somos testigos de un periodo sin igual cos. Recientemente se ha comenzado mos propuesto aportar desde una mira-
en la historia de la humanidad. Gran a discutir una política nacional de inte- da profesional y multidisciplinaria sobre
parte de nuestra vida personal, nuestra ligencia artificial que omite los déficits estas temáticas.
convivencia en la sociedad y la com- anteriores y ni siquiera contempla una
prensión del mundo que nos rodea está gobernanza ni recursos para hacer fren- Nos preocupa principalmente, pero no
siendo mediada por la tecnología a ni- te a los desafíos que una tecnología exclusivamente, la implementación de
veles que las personas no imaginan. como ésa supone, y que ya es aplicada soluciones tecnológicas de inteligencia
por empresas del sector privado y, lo artificial adoptadas por el Estado. Mu-
En medio del vendaval de decisiones que resulta más preocupante aún, tam- chas de estas iniciativas se presentan
automatizadas y los procesos que és- bién en el sector público. como infalibles y prometen mejorar cier-
tas desatan, encontramos una sociedad tos procesos y tomas de decisiones sin
que apenas tiene capacidad de reacción Este escenario fue el que motivó a un mayor transparencia en su funcionamien-
y mucho menos idea sobre cómo regular conjunto de profesionales, de diversos to y su alcance. Se trata además de siste-
los fenómenos y consecuencias de esta orígenes y disciplinas, quienes durante mas que no tienen declarado un control
vorágine tecnológica. la pandemia nos convocamos de modo sobre su impacto en la sociedad, en la
virtual para conversar sobre nuestras in- privacidad ni el tratamiento de los datos
Chile no es la excepción; nuestro país quietudes, para finalmente embarcarnos que utiliza, y que pueden (ciertamente)
no cuenta con regulaciones apropiadas en la tarea de crear un Observatorio para profundizar los sesgos, la discriminación
en materia de protección de datos, de la Transparencia y la Inclusión Algorítmi- y la asimetría de poder cuando dichos
ciberseguridad ni de delitos informáti- ca. Es por esto que desde OptIA nos he- sistemas toman decisiones injustas.
81
Inteligencia
Artificial
En OptIA compartimos la preocupación • Debe existir transparencia activa, no esté justificado y sus resultados sean
sobre la afectación de grupos vulnera- a petición de parte, con mecanismos convenientes para los fines persegui-
bles, históricamente marginados y ex- como registro de algoritmos y plata- dos una vez aplicadas evaluaciones de
cluidos, compartiendo asimismo la ne- formas disponibles al público. costo versus beneficio. Un método será
cesidad de ser un agente colectivo de inocuo cuando su aplicación no genere
cambio para la generación de políticas • Evaluaciones de impacto algorítmico daños a los seres humanos, al medio
públicas justas e inclusivas en relación que analicen tanto los riesgos como ambiente y a los ecosistemas.
con estas tecnologías. los beneficios que supone tener un
determinado sistema, elaboradas por Inclusión y no-discriminación: la in-
La implementación de la estrategia terceros expertos e independientes. teligencia artificial debe ser un me-
nacional de inteligencia artificial no ha canismo que genere justicia social
sido suficientemente discutida, y por lo • Debe existir personal capacitado para de manera que sus beneficios deben
tanto creemos que la implementación la implementación, uso y mitigación buscarse procurando alcanzar al ma-
de una política pública en un tema tan de sistemas de IA. yor número de personas posible sin
relevante para los próximos años debe distinción de etnia, edad, situación
tener un proceso de discusión y de par- • Procesos de licitación competitivos y migratoria, identidad de género o ni-
ticipación amplio con todos los secto- abiertos. vel socioeconómico. Cada vez que se
res del país. produzca un resultado discriminatorio,
• La colaboración público-privada debe los administradores de la tecnología
La falta de representatividad de la ser totalmente transparente, haciendo de inteligencia artificial deben incluir
sociedad civil en las discusiones y público conflictos de intereses, con- mecanismos para apelar ese resulta-
toma de decisiones relacionadas a tratos con proveedores y cualquier in- do, debiendo revisarse las característi-
las tecnologías digitales emergentes formación relevante, cumpliendo con cas de los algoritmos utilizados y sus
y aquellas que usan algoritmos y/o in- las más altas exigencias de probidad bases de datos.
teligencia artificial, hacían urgente el y rendición de cuentas.
surgimiento de organizaciones como Transparencia y explicabilidad: las per-
la que hemos levantado. Nuestro ob- • Se debe evaluar la afectación de las sonas tienen derecho a saber cuándo se
jetivo es velar porque la práctica tec- personas más vulnerables y la posi- toma una decisión sobre la base de algo-
nológica considere la elaboración de bilidad que éstas puedan hacer sus ritmos y, en esas circunstancias, exigir o
algoritmos inclusivos, que consideren propias evaluaciones y oponerse a solicitar explicaciones e información a
la diversidad de la sociedad, y que res- determinadas implementaciones. empresas del sector privado o institucio-
pondan a requerimientos basados en nes del sector público.
los derechos humanos. • Se debe evaluar si el sistema de IA
crea las condiciones y la capacidad Privacidad y seguridad: se trata de una
Los sistemas de inteligencia artificial para supervisión humana significa- garantía fundamental que debe caute-
(IA) utilizados en políticas públicas tiva, que incluye la supervisión de larse durante todo el ciclo de vida de
han demostrado, según abundante evi- aquellos que se ven directamente los sistemas de inteligencia artificial,
dencia internacional, fallar continua- afectados por estos sistemas. debiendo establecerse marcos de pro-
mente en temas tan delicados como tección y mecanismos de gobernanza
vigilancia policial predictiva, análisis Como sabemos que lograr marcos regu- adecuados, respaldados por los siste-
predictivo de bienestar infantil, evalua- latorios en materias como éstas son de- mas judiciales en caso de infracción.
ción de riesgos y los sistemas de deci- safíos gigantescos, en OptIA trabajare-
sión de beneficios públicos, por lo que mos y promoveremos el reconocimiento Autonomía y supervisión humana: el
es necesario, en base a una política de de al menos los siguientes principios ser humano siempre debe poder auto-
riesgos, contar con prácticas vinculan- para la implementación de soluciones determinarse, de manera que conser-
tes específicas, que incluyan al menos automatizadas y de inteligencia artificial ve el poder de decidir qué decisión to-
las siguientes consideraciones: con el fin de proveer herramientas éticas mar sobre sí mismo, en lugar de que lo
para la resolución de los conflictos que haga un sistema de IA. Siempre debe
• Los organismos públicos no deben sabemos se presentarán: ser posible atribuir la responsabilidad
adquirir ni utilizar sistemas que estén ética y jurídica, en cualquier etapa del
protegidos de revisión pública, tales Proporcionalidad e inocuidad: en su ciclo de vida de los sistemas de IA, a
como secretos industriales o acuer- virtud, promoveremos que se elija un personas físicas o a entidades jurídi-
dos de confidencialidad. método de inteligencia artificial cuando cas existentes. Esta supervisión hu-
82
Inteligencia
Artificial
1 | https://optia.cl/2021/01/29/respuesta-a-la-consulta-sobre-politica-nacional-de-ia/.
83
Computación
y Sociedad
A medio siglo de
mi encuentro con
la computación
en la “Escuela de
Injeniería”.
Recuerdos y reflexiones
en tiempos de pandemia
84
Computación
y Sociedad
85
Computación
y Sociedad
else) y goto (que saltaba o bifurcaba a A pesar de toda la burocracia para poder usar el
una instrucción que no era la siguiente computador, pero sin interactuar directamente con
en la secuencia). Los programas resul-
taban desordenados y difíciles de com- el IBM/360, algunos fuimos seducidos/abducidos
prender. De hecho, antes de programar por el entonces “arte” de programar y nos
se debía expresar el algoritmo de so- decidimos estudiar esa especialidad.
lución dibujando un diagrama de flujo,
que era una representación gráfica de
la lógica o flujo de control de la ejecu-
ción de las instrucciones para lo cual
existían unas regletas para dibujar las
formas estandarizadas de represen-
tación de las distintas instrucciones.
Una vez elaborado el diagrama de flu-
jo, sus elementos se traducían en ins-
trucciones del lenguaje y se escribían
en papel o en “hojas de codificación”
de 24 líneas de 80 caracteres (usando
sólo letras mayúsculas, dígitos y algu-
nos pocos signos especiales).
Las tarjetas se entregaban en una ofi- Figura 2. Eduardo Frei, Efraín Friedman y un operador del computador IBM/360.
cina que prometía, en el mejor de los Año 1967.
casos, una respuesta al día siguiente.
La desilusión se producía al recibir las
tarjetas con un listado impreso seña-
lando que se habían detectado erro- etapas, que en el mejor de los casos los 360 grados de todo el espectro de
res de sintaxis. Por lo tanto, había que tardaba una semana, los estudiantes aplicaciones) y al que sólo podíamos
regresar a las máquinas perforadoras de hoy lo logran en algunas horas en contemplar extasiados detrás de una
para rehacer las tarjetas incorrectas. sus computadores personales. vidriera, asombrándonos del parpadeo
Después de un par de días, y una vez de las luces del panel de control, de los
corregidos todos los errores de sinta- En resumen, los más afortunados con- movimientos de las unidades de cintas
xis, aparecían los errores de ejecución, seguíamos los resultados correctos sin magnéticas y de la lectura vertiginosa
es decir los resultados incorrectos. De tener acceso al computador IBM/360 de las tarjetas. Era un enorme compu-
vuelta a corregir e iterar. Todas estas (llamado así porque pretendía abarcar tador, el más grande en Latinoamérica,
86
Computación
y Sociedad
87
Computación
y Sociedad
Mención especial merece el curso de Figura 4. De izquierda a derecha, de pie: Alfredo Piquer, Eugenio Bravo, Víctor Salas,
“Lenguajes y Compiladores” con los J. Ricardo Giadach, Martín Borack, Julio Zúñiga, Pedro Vergara. Sentados: Claudio
jóvenes profesores Fernando Gamboa Vergara, Jaime De Mayo, Rafael Hernández, Marcelo Energici, Osvaldo Schaerer,
y su auxiliar Patricio Poblete, ambos Juan Álvarez. Conmemoración 40 años de contrato en CEC. Año 2013.
del grupo de computación del Depar-
tamento de Matemáticas. Después
de la introducción sobre autómatas
y lenguajes formales, desarrollamos Departamento de Industrias, los cursos colectivo que podríamos hacer al país
analizadores léxicos y compiladores. de Introducción a la Economía y de Ad- como parte de las primeras generacio-
El curso me fascinó, al punto que al ministración de Empresas. Y del des- nes de una nueva y pujante disciplina
año siguiente fui profesor auxiliar del aparecido Departamento de Estudios de ingeniería.
recién asumido profesor de cátedra Humanísticos, los cursos obligatorios
Patricio Poblete. de Filosofía, Ciencias Sociales e Inglés
(general y especializado para computa-
Entre los cursos electivos recuerdo ción). Por mi cuenta inscribí los cursos El Centro de
especialmente el de Sistemas de Infor- libres de Ciencia Política (con el profe-
mación con el profesor Hugo Segovia y sor Jaime Castillo Velasco), Sociología Computación
el de Simulación con el joven ingeniero (con el profesor Cumsille) e Historia de
Hernán Avilés. Ambos trabajaban en Chile (con la joven historiadora María
ECOM y estuvieron involucrados en Angélica Illanes). En 1972, cursando el segundo año de
el desarrollo del emblemático proyec- mi carrera, apareció en un fichero un
to Synco o Cybersyn, que se desarro- Mi educación formal terminó en los aviso para concursar a cargos de ayu-
lló entre los años 1971 y 1973 y cuyo cuatro años de duración de la carrera. dantes de investigación para el Centro
propósito fue coordinar y planificar la Mis profesores fueron ingenieros de de Computación (CEC). El concurso
producción en las empresas del área otras especialidades que fueron parte estaba abierto a todos los estudiantes
de propiedad social. Simulamos sis- de los pioneros de la computación en de la Facultad y el único requisito era
temas usando GPSS y Dynamo, la he- Chile. Trabajaban en empresas e ins- tener aprobado el curso de Introducción
rramienta que se estaba usando para tituciones del Estado (ECOM, Endesa, a la Computación. Recuerdo que se pre-
simulación dinámica en la componen- U, UTE, etc.) y, por lo tanto, además sentaron muchos postulantes y quedé
te CHECO, del sistema Synco, cuyo pro- de los conocimientos técnicos, nos seleccionado junto a Margarita Sprove-
pósito era el desarrollo y planificación transmitieron una profunda vocación ra, Marcelo Energici, Rafael Hernández,
del aparato industrial. de servicio público. El agitado contex- Miguel Pérez, Jaime De Mayo, Claudio
to sociopolítico de esos años fueron el Vergara, Juan Carlos Rojas y Osvaldo
Los cursos obligatorios incluyeron tam- telón de fondo de nuestra formación Schaerer. Sólo yo era estudiante de
bién Cálculo Numérico, Estadística, y que nos estimuló y nos hizo tomar aún IEPI, pero finalmente seis de nosotros
Complementos de Matemáticas. Del más conciencia del aporte individual y nos titulamos de esa carrera.
88
Computación
y Sociedad
89
Computación
y Sociedad
90
Computación
y Sociedad
91
Computación
y Sociedad
92
Doctorados
del DCC
Doctorados
93
Doctorados
del DCC
Miguel Campusano
Título tesis: Mapping State Machines to Developers’ Mental Model: Fast Understanding of Robotic Behaviors in the
Real World
Profesores guías: Alexandre Bergel - Johan Fabry
Cuando hice mi pregrado nunca realicé ningún una disciplina netamente ligada a computación
tipo de investigación ni se me pasó por la (programación en vivo) con la robótica fue
mente hacer un doctorado. Sin embargo, algo novedoso en su tiempo y que, afor-
al tiempo de trabajar en un empren- tunadamente, he visto como va aumen-
dimiento, me terminé aburriendo ya tando en popularidad, con workshops
que los temas que abordábamos y conferencias dedicadas sólo a unir
me parecían poco motivantes. Mi la computación y la robótica. Me ale-
plan era volver donde hice mi pre- gra ver que un tema tan importante
grado, al Departamento de Cien- como éste, que muchas veces es
cias de la Computación (DCC) de dejado de lado, esté siendo tomado
la Universidad de Chile, pero para en cuenta y mucha gente le esté de-
hacer un magíster. Hablé con el pro- dicando el tiempo que merece.
fesor Johan Fabry, el mismo que me
guió en mi pregrado, y, debido a diver- Aunque mi trabajo con este lenguaje de
sos problemas que tenía en ese momen- programación me enseñó mucho sobre el
to, me recomendó hacer un doctorado con proceso de programar robots, al evaluarlo no
un tema que era increíble para mí en ese enton- pudimos comprobar nuestra hipótesis, no pode-
ces: robótica. Debo admitir que mi mente se iluminó mos afirmar que el lenguaje facilita, de alguna forma,
de inmediato, en el DCC nunca tuve contactos con robots. el desarrollo de comportamientos robóticos. Aun así creo que
vamos en la dirección correcta, programar un robot requiere la
Mi paso por el doctorado fue, por decirlo de alguna forma, integración de diferentes disciplinas, todas sumamente com-
complejo. Al comienzo todo era emocionante, eso es lo que plejas. No sólo se van a producir robots más complejos a tra-
pasa cuando uno aprende algo totalmente nuevo y fascinan- vés de mejorar la inteligencia artificial, algoritmos de control,
te (recordemos que nunca tuve un paso por investigación visión computacional, etc., sino también es importante ayudar
antes de eso). Luego, el camino se volvió bastante tortuo- a que los programas robóticos sean más fáciles de escribir y
so, no fue fácil para mi encarar el mundo de la academia e de integrar al robot mismo, y con más capacidades. Todo esto
investigación, y mi salud mental se vio afectada bastante para hacer comportamientos robóticos cada vez más comple-
(al parecer un tema más que conocido en este mundo y, por jos y útiles para la sociedad.
alguna razón, tabú). Sin embargo, aprendí a golpes a cómo
llevar este proceso y, finalmente, supe llevar mi proyecto de El tema de la robótica me lleva hoy en día a investigar y dise-
investigación. Además, justo en medio de mi doctorado Jo- ñar arquitecturas para drones, haciendo un postdoctorado en
han tuvo que dejar la Universidad y ahí Alexandre Bergel me la Universidad del Sur de Dinamarca (SDU), en el marco del
tomó bajo su tutela. No fue un proceso fácil, pero le agradez- proyecto HealthDrone. En este proyecto queremos transportar
co enormemente a Johan y Alex el ayudarme en esta carrera medicinas y otros artículos médicos entre diferentes hospita-
y darme la confianza que necesitaba para llevar el doctorado. les y centros médicos que pueden estar ubicados en zonas de
Claramente, como estudiantes, nos faltan grupos de ayuda difícil acceso, incluyendo islas donde sólo se puede llegar en
para que podamos llevar esta carrera de forma saludable. barco. La idea es usar drones para reducir el costo y el tiempo
de traslado de estos artículos médicos.
Mi tema de doctorado consistió en desarrollar un lenguaje de
programación para comportamientos robóticos con una carac- Aunque estoy en Dinamarca no me he desligado del mundo
terística en particular, el robot se mueve al mismo tiempo que de la robótica en Chile. Hemos iniciado (con otras personas
se está programando. A esto se le conoce como programación ligadas a la robótica) una corporación sin fines de lucro llama-
en vivo. El objetivo de este lenguaje es hacer más fácil el desa- da Cuac. Con esta corporación trabajamos para potenciar la
rrollo de comportamientos robóticos. Este tipo de unión entre robótica y su educación en Chile.
94
Doctorados
del DCC
Matías Toro
Título tesis: Abstracting Gradual Typing: Metatheory and Applications
Profesor guía: Éric Tanter
Egresé de ingeniero civil en computación de la por lo que se tenía que ir modificando ciertas
Universidad de Chile el año 2007, y luego me abstracciones y reglas de evaluación, para
dediqué a trabajar en la industria aeronáuti- que pudiera cumplir con la propiedad, sin
ca por siete años. El trabajo, a pesar de no perder otras propiedades intrínsecas a
ser trivial, resultaba monótono y a veces los lenguajes graduales. Estas itera-
tedioso. No me imaginaba todo el res- ciones conllevaron muchas demos-
to de mi vida haciendo lo mismo. Bus- traciones matemáticas distintas, las
cando nuevos desafíos, y dado que que consumieron la mayor parte del
por temas familiares me complica tiempo de mi doctorado.
salir al extranjero, el año 2013 volví al
Departamento de Ciencias de la Com- Toda esta experiencia fue una monta-
putación (DCC) para realizar el Magís- ña rusa de emociones, donde uno se
ter en Ciencias, mención Computación. esperanzaba de tener una nueva idea o
Es ahí donde conocí a mi profesor guía solución que luego se derrumbaba al en-
Éric Tanter, el cual me reintrodujo al área contrar algún problema en alguna demos-
de lenguajes de programación. Me gradué del tración de algún lema. Trabajar por meses en
magíster en el 2013, y en el 2014 se hizo natural una demostración matemática para luego ver que
extender mi trabajo hacia un doctorado. había un error (a veces a días antes del deadline de una
conferencia), sumada a la presión de terminar a tiempo el docto-
Mi tesis de doctorado se llama “Abstracting Gradual Typing: rado fue muy estresante. Llegué a soñar con demostraciones (y
Metatheory and Applications”, y la investigación se centró en hasta encontré algunos errores en demostraciones así).
los lenguajes de programación graduales, los cuales buscan
integrar sistemas de tipos estáticos (como el de Java) con sis- La otra parte difícil fue la de escribir papers, ya que para hacer
temas de tipos dinámicos (como el de Python). Con sistemas investigación no sólo sirve ser bueno técnicamente, sino que
de tipos graduales el programador puede escoger qué expresio- también se debe saber transmitir las ideas. Aprendí que escri-
nes anotar con información de tipos estática, y cuáles dejar sin bir un paper puede ser muy parecido a desarrollar un software:
especificar. El sistema de tipos gradual chequea en tiempo de no es recomendable partir ciegamente, sino que hay que darle
ejecución lo que no puede verificar durante la etapa de compila- estructura a las ideas y planificar cómo se van a presentar las
ción, asegurando así que no se violen las anotaciones estáticas. cosas de manera de que todo fluya. También aprendí a usar
otro tipo de inglés empleado en artículos científicos, que es
El enfoque clásico para diseñar lenguajes graduales es usual- distinto al que uno podría estar acostumbrado a leer.
mente ad-hoc, pero existen metodologías que sistematizan
este proceso. Una de ellas es Abstracting Gradual Typing (AGT), Cuando hice el doctorado no había un curso que te enseñara
que ayuda a construir sistemáticamente lenguajes graduales a todo esto y lo que aprendí, lo aprendí de Éric. Sigo sintiendo
partir de lenguajes estáticamente tipados usando interpreta- que es mi punto débil y que me falta mucho por aprender aún.
ción abstracta. Mi trabajo de investigación exploró esta (casi Relacionado con esto, también tuve que aprender a presentar
nueva en ese entonces) metodología, aplicando AGT a distin- artículos científicos. Muchas veces gastaba semanas prepa-
tas disciplinas de tipo y mecanismos de lenguajes complejos. rando e iterando una presentación. A pesar de todas las dificul-
tades, es muy gratificante finalmente llegar a publicar un paper
La mayor parte de mi investigación fue teórica y se puede resu- y presentarlo. ¡Vale la pena el esfuerzo!
mir en lo siguiente. Se partía de un sistema de tipos complejo
existente, que satisfacía cierta propiedad formal, se aplicaba Actualmente me encuentro haciendo un postdoctorado en
sistemáticamente AGT, y luego se observaba si el lenguaje el DCC continuando mis temas de investigación pero en te-
gradual resultante también cumplía o no con dicha propie- mas relacionados con privacidad diferencial en lenguajes
dad. Éste no fue el caso de todos los lenguajes estudiados, de programación.
95
Doctorados
del DCC
Mauricio Quezada
Título tesis: Knowledge Discovery from News Events on Twitter
Profesora guía: Bárbara Poblete
Estudié Ingeniería Civil en Computación en el Una de las cosas más complicadas que en-
Departamento de Ciencias de la Computa- frentamos durante el desarrollo de mi tesis
ción (DCC) de la Universidad de Chile. Mi fue la falta de conjuntos de datos “co-
gusto por los distintos temas que vi en rrectos” sobre los cuales hubiéramos
los cursos que tuve durante la inge- podido evaluar nuestros modelos.
niería, más la buena relación que he Debido a la gran variabilidad de la
tenido con algunos profesores del información (una misma noticia no
Departamento me llevaron a conti- ocurre dos veces) y la naturaleza
nuar con un magíster, y luego, con de los modelos que propusimos
el doctorado. (orientados a resolver nuevas ta-
reas en la minería de datos) nos exi-
Mi tesis de doctorado consistió en gió pensar en formas novedosas y
una exploración de distintas formas válidas de evaluar la metodología. En
de extraer conocimiento desde la in- pocas palabras, la evaluación consis-
formación que comparten los usuarios tió en identificar que nuestros modelos
de Twitter sobre eventos noticiosos. Estas hacían resaltar patrones interesantes en
formas de extracción se basan en la suposi- otros aspectos de los datos.
ción de que el contexto en que se publica esta infor-
mación es muy importante para agrupar contenido similar. Lo más desafiante del doctorado fue poder gestionar mi
Por ejemplo, uno de los trabajos consistió en representar los tiempo y definir bien los objetivos de cada etapa. Siempre
tuits que expresan algún comentario relacionado a un evento aparecían nuevas ideas o cosas interesantes en las que tra-
noticioso en particular, como la muerte de Nelson Mandela bajar, por lo que definir bien el plan —y uno no sabe qué va a
en 2013, como la diferencia de tiempo en que fueron publica- encontrar al final— fue complicado. Por otro lado, creo que
dos dos mensajes consecutivos. Esta simple representación lo más interesante ha sido poder desarrollar distintas habili-
nos permitió observar que cierto tipo de noticias generan ma- dades con el tiempo; simplemente el tener la experiencia de
yor actividad de los usuarios, y que los mensajes que publi- trabajar en investigación va generando nuevas capacidades
can en este tipo de noticias son muy distintos a los mensajes que uno empieza a notar hacia el final del doctorado. Tam-
que publican sobre noticias con menores niveles de activi- bién el poder hacer clases en distintas instancias fue muy
dad. Otro aspecto importante es que un mensaje individual gratificante, aunque estresante, ya que tuve la oportunidad de
no dice mucho sobre la noticia, pero el considerar una gran transmitir lo que he ido aprendiendo.
cantidad de ellos nos permite observar patrones interesan-
tes. Este trabajo lo realicé durante mi tesis de magíster —y Decidí no seguir una carrera académica por varios motivos.
luego profundizado durante el doctorado—, en conjunto con Actualmente soy cofundador y CTO de Cero.ai, una empresa
Janani Kalyanam y Gert Lanckriet, en ese entonces de la Uni- que automatiza procesos de comunicación entre empresas
versidad de California, San Diego. y personas.
96
Doctorados
del DCC
Daniel Hernández
Título tesis: The Problem of Incomplete Data in SPARQL
Profesor guía: Claudio Gutiérrez
Cuando estaba el colegio, aún sin decidir que lado, va un poco contra la motivación inicial
estudiaría, mi interés era estudiar algo de comprender el mundo. Esto produce
que me permitiera poder entender el la sensación de que uno cada vez sabe
mundo, y por ello pensaba que cual- menos. Por suerte, a lo largo del doc-
quier carrera que tuviera que ver con torado me hice consciente de este
ciencias me podría gustar. Escogí fenómeno, lo que ahora me ayuda
entrar a la Escuela de Ingeniería a lidiar con ello.
de la Universidad de Chile porque
tenía un Plan Común que condu- Mi relación con Claudio fue siem-
cía a muchas carreras, lo que me pre muy buena y puedo decir que
permitiría más tarde decidir qué aprender de su mirada general fue
estudiar. Al final me decanté por una de las cosas más positivas del
computación, pues me gustaba y a doctorado. También tengo que agra-
la vez sentía que era una ciencia bas- decer a Aidan Hogan y Renzo Angles,
tante general. Luego de hacer un magís- de quienes también aprendí sus dife-
ter y un año de trabajar haciendo clases en rentes miradas cuando trabajábamos en
la Universidad de Talca, volví al Departamento algún paper. El ambiente del DCC es muy bue-
de Ciencias de la Computación (DCC) donde había no para hacer un doctorado, porque tiene una co-
estudiado, esta vez para hacer un doctorado. Me decidí a munidad amable con la cual compartir y reflexionar, y gente
ello porque disfruté el año que trabajé haciendo clases y muy admirable.
también por la recomendación de Claudio Gutiérrez (mi pro-
fesor guía). Mi tesis de doctorado “The Problem of Incomplete Data in
SPARQL”, estudia cómo las nociones de la información in-
Lo más complejo de mi doctorado fue sin duda el proceso de completa se manifiestan en el lenguaje de consulta SPARQL.
maduración que se produce cuando uno pasa de intentar re- Este lenguaje fue definido por el World Wide Web Consortium
solver un problema a entender cuál es el problema que uno (W3C) para los datos de la Web, en particular, para lo que se
está resolviendo, y el impacto que puede tener lo que uno está conoce como Web Semántica. El modelo de datos de SPARQL,
haciendo. Este proceso va acompañado con lo difícil que re- llamado RDF, fue diseñado teniendo en consideración que la
sulta comunicar los resultados de la investigación, escribirlo Web es un espacio en el cual múltiples actores publican de
de manera clara y siguiendo las prácticas de otros investiga- manera independiente, con diferentes creencias y maneras de
dores. Como he terminado mi doctorado hace poco tiempo, modelar (o entender) el mundo. Esto nos lleva a que todos los
puedo recordar el camino que he seguido y percibir el cambio conjuntos de datos en la Web sean considerados incomple-
que se produce en este proceso de maduración. Lo que hoy tos. Por el contrario, SPARQL es un lenguaje que surge (varios
me resulta evidente, antes no lo era. años después de RDF) de la necesidad de explorar un conjunto
acotado de datos RDF, es decir, de la manera tradicional. Esta
Lo otro que requiere esfuerzo es mantenerse focalizado. diferencia entre RDF y SPARQL produce incompatibilidades en-
Para investigar uno tiene que simplificar al máximo el pro- tre ambos lenguajes.
blema abordado. Quitarle todos sus aspectos no esenciales
hasta que el problema sea lo suficientemente claro como Para entender mi trabajo creo que es necesario revisar la no-
para poder enfrentarlo y luego poder comunicarlo. Hacer ción filosófica que tenemos de la noción de “entender”. Des-
esto no es fácil. Al simplificar un problema uno termina ge- de el punto de vista científico creo que el concepto de “en-
nerando una larga lista de variantes y preguntas sin resolver, tender” está relacionado con aquello que ocurre cuando uno
para retomar algún día. También resulta un poco desalenta- analiza un conocimiento bajo una formulación o teoría dife-
dor estar enfocado en un problema que se hace cada vez rente de la original. En mi tesis, yo tomo las definiciones del
más pequeño al lado de la larga lista que voy dejando al lenguaje SPARQL y las analizo bajo la teoría de información
97
Doctorados
del DCC
incompleta para bases de datos. La formulación de SPARQL esta noción de variable: los “nodos blancos”. Usando esta
consiste en una serie de reglas definidas de forma semifor- simplificación podemos formular la pregunta: ¿Produce
mal que describen una función que toma una base de datos SPARQL soluciones que no sean seguras? La respuesta es
en lenguaje RDF y una consulta en lenguaje SPARQL y entrega afirmativa. Una solución que no es segura se produce, por
un conjunto de soluciones. Por otra parte, la semántica del ejemplo, si la base de datos dice que “Juan tomó el bus de
lenguaje RDF consiste en asociar cada base de datos con un Santiago a x” y la respuesta a la consulta “¿a qué lugar Juan
conjunto de posibles modelos del mundo representado. Bajo no tomó el bus?” incluye a Curicó como respuesta. Esta res-
la teoría de información incompleta de las bases de datos, la puesta es insegura porque en un mundo posible la variable x
pregunta natural es si la semántica de SPARQL es consisten- puede tomar el valor Curicó.
te con la semántica de RDF. Una definición concreta de esto
es, por ejemplo, saber si las soluciones que se entregan para La pregunta que sigue es cómo podemos modificar la se-
una consulta y una base de datos dadas son aún válidas para mántica de SPARQL para obtener sólo respuestas seguras.
todos los modelos del mundo que la base de datos represen- Una semántica de dichas características debe considerar que
ta. A las soluciones que poseen tales características se las el problema de si una solución es segura está en la clase de
conoce como certain answers o soluciones seguras. complejidad coNP (muy complejo), mientras que el fragmen-
to SPARQL de nuestra formulación se puede computar de una
Para analizar el problema de las soluciones seguras en forma muy eficiente (AC°). Entonces, una parte de mi tesis
SPARQL tomé en consideración un fragmento de SPARQL consistió en proponer y evaluar experimentalmente la factibili-
con una semántica bien definida y una simplificación de la dad práctica de un método aproximado para la evaluación de
semántica de RDF que considera a los datos como senten- SPARQL, que entrega sólo respuestas seguras, pero que algu-
cias con variables (y por ende incompletas). Por ejemplo, nas veces no las entrega todas.
una sentencia como “Juan tomó el bus desde Santiago a x”
es incompleta porque, si bien sabemos que el bus que Juan Actualmente, estoy trabajando en la Universidad de Aalborg,
tomó tenía un lugar de destino, no sabemos cuál era. El len- en Dinamarca, como postdoc en DAISY - Center of Data Inten-
guaje RDF tiene un elemento que coincide exactamente con sive Systems.
98
Podcast del Departamento de
Ciencias de la Computación de
la Universidad de Chile