Está en la página 1de 2

Inteligencia artificial: ¿para qué sirve el aprendizaje automático?

Los humanos entrenan computadoras para que realicen actividades de manera


automatizada. Sin embargo, ¿cómo aprenden las máquinas? Las aplicaciones biomédicas
que podrían revolucionar el campo de la salud.
Por Agencia de noticias científicas de la UNQ

Gracias al avance de la informática, la inteligencia artificial y el aprendizaje


automático llegaron para quedarse. ¿Cuáles son las ventajas y las aplicaciones
actuales? Lo que comúnmente se conoce como “deep learning” o “aprendizaje
automático” remiten a un conjunto de técnicas, una familia de algoritmos que
enseñan a las computadoras a hacer una tarea determinada. “Es un aprendizaje
diferente al que realizan los seres humanos: si yo le digo a un niño ‘esto es
amarillo’ tres o cuatro veces, ya lo entiende y lo aprende. En cambio, la
computadora es probable que necesite unos cientos de miles de ejemplos, es un
aprendizaje estadístico”, explica a la Agencia de noticias científicas de la UNQ,
Emmanuel Iarussi, ingeniero en informática, Investigador del Conicet del
Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella.

Resulta que si hay una gran base de datos, la computadora aprende a ver patrones o
tendencias. Hay diferencias respecto de lo que se conoce como programación clásica.
El científico explica que cuando se programa, es necesario aclarar metódicamente
cada paso para que se termine realizando la tarea necesaria. “En aprendizaje
automático se da vuelta eso: se le muestra al algoritmo diferentes etiquetas y se
le pide que lo aprenda”, amplía. Un ejemplo sería indicar como etiquetas imágenes
de perros y gatos: luego de escanear millones de imágenes, la computadora puede
reconocer estos rótulos en otras fotografías que nunca antes vio. Iarussi aclara
que computacionalmente es muy caro porque hay que repetirlo numerosas veces.

El aprendizaje automático utiliza algunas técnicas que se conocen desde hace tiempo
pero que explotaron en el presente por dos cuestiones fundamentales. Por un lado,
existe un gran número de datos; internet y las computadoras incrementaron
notablemente esta disponibilidad, algo que en los años 90 era impensado. Por otro,
en la actualidad se cuenta con el hardware para manejar toda esta información ya
que los algoritmos de aprendizaje automático son muy demandantes.

Algoritmos por todos lados: tontos y poderosos


Hoy en día los algoritmos de aprendizaje automático ya forman parte de la vida
cotidiana. Un ejemplo de esto son los sistemas de recomendación de las plataformas
de entretenimiento: el algoritmo aprende de miles y miles de usuarios con
determinadas características hasta que finalmente sabe qué películas o series
prefiere y puede sugerir a los demás consumidores. Esto es algo relativamente
simple, se pueden realizar tareas más complejas, por ejemplo, lo que se conoce como
“deep fake”. En este tipo de tarea se predice cómo va a ser un video de una persona
diciendo algo. Iarussi aclara, entre risas, que el problema es que “¡funciona muy
bien!”. Existen millones de videos de personas hablándole a una cámara: si se
separa el audio y se entrena al algoritmo para que diga una frase determinada, el
resultado es un video muy real de una persona diciendo algo que no ocurrió en la
realidad. Las implicancias de esto son inimaginables, se puede poner en boca de
personas frases que nunca dijeron y esto es sumamente creíble.

Los algoritmos de aprendizaje automático están incluidos dentro de lo que se conoce


como inteligencia artificial. Para Iarussi, “la inteligencia artificial es
aspiracional, suena como una entidad casi humana y la realidad es que estamos muy
lejos de eso. Vemos cosas sorprendentes, pero no tienen la capacidad de hacer cosas
que hacemos los seres humanos”. Y brinda un ejemplo: “Una red neuronal que yo
entreno para una determinada tarea no suele ser buena para otra. En cambio, las
personas tenemos la capacidad de realizar múltiples trabajos”. Incluso, el
investigador del Conicet explica que, a veces, los algoritmos suelen ser “tontos”,
ya que cuando los datos no se presentan de manera similar a la aprendida, no pueden
realizar la labor solicitada. “Una verdadera inteligencia artificial debería hacer
muchas cosas a la vez con la misma estructura”, remata.

Todas estas aplicaciones vienen en “cajas negras” y se les otorga un poder, por
momentos, excesivo. Incluso, a veces se usan algoritmos para efectuar descartes en
búsquedas laborales. “Si llegan dos mil curriculum vitae, para realizar la
selección más rápida se descartan varios mediante un algoritmo que se entrena con
los datos de los empleados que ya se que les fue bien dentro de la empresa. Ahorra
trabajo, pero es bastante oscuro el rechazo que se produce. Hay características más
allá de los datos que un algoritmo no puede censar y toda esa dimensión queda por
fuera”, detalla.

“A mi me gusta pensar a estas técnicas como una herramienta que aumente las
capacidades, no como un reemplazo. Estas metodologías empoderan, generan una
revolución similar a la que en su momento habrá generado la fotografía”,
reflexiona.

La revolución biomédica
Usualmente las moléculas interaccionan entre sí y reaccionan gracias a su
estructura; es una especie de juego de encastre a nivel submicroscópico. Se sabe
que el comportamiento de las proteínas está determinado por su forma y es por ello
que la empresa “DeepMInd”, propiedad de Google, desarrolló “Alphafold”. Este
programa es un conjunto de algoritmos que realiza predicciones de la geometría
espacial de las proteínas gracias al aprendizaje automático. “Es una gran base de
datos de proteínas que puede predecir estructuras con mucha precisión. No se puede
escribir algoritmos infinitamente complejos, pero gracias a las bases de datos se
puede hacer que se aprendan tareas automáticas”, cuenta Iarussi.

El científico se entusiasma al momento de compartir algunas de sus investigaciones:


“Nos contactaron especialistas que precisaban contar y diferenciar rápidamente
células muertas y vivas en cultivos de cáncer de mama”. Para ello, consiguieron
entrenar un algoritmo para volverlo capaz de diferenciar en imágenes de
microscopías: “Ayudamos a resolver esa tarea y les pudimos dar alguna herramienta a
los especialistas”.

El equipo de Iarussi también estudia la aplicación de algoritmos de generación de


geometría. Un ejemplo de ello es la tomografía ósea computada, que reconstruye la
geometría de los huesos, pero a muy baja resolución. “No alcanza para generar
modelo 3D del hueso”, explica. Lo que se hace es entrenar un algoritmo mediante
huesos escaneados a muy alta resolución. Esto no se puede realizar en personas ya
que es una técnica que precisa de mucha energía y ocasionaría un daño muy grande.
Sin embargo, se pueden realizar escaneos de huesos ex vivo para entrenar al
algoritmo y comparar con la tomografía de baja resolución. “Si bien estamos aún muy
lejos de la aplicación directa, las herramientas están mejorando a pasos
agigantados”, comenta.

También podría gustarte