Documentos de Académico
Documentos de Profesional
Documentos de Cultura
automatización
Explorando las posibles implicancias de la inteligencia artificial
en el mercado laboral
Contacto: juanmanuelbf@gmail.com
Esta capacidad de ejecutar cualquier instrucción que pueda ser definida con
claridad tiene grandes potencialidades pero también encuentra sus límites. Y es que no
necesariamente el desarrollador conocerá el algoritmo que le permite llevar a cabo una
tarea, aún cuando él mismo u otro ser humano sea capaz de realizarla. Esto es lo que
el científico y filósofo austríaco Michael Polanyi (1966) resumió con la frase “sabemos
más de lo que podemos decir” (p.4).
“Conocemos el rostro de una persona y podemos reconocerlo entre miles, incluso entre
un millón. Sin embargo, por lo general no podemos decir cómo reconocemos una cara
que conocemos. Así que la mayor parte de este conocimiento no se puede poner en
palabras. Pero la policía ha introducido recientemente un método mediante el cual
podemos comunicar gran parte de este conocimiento. Han hecho una gran colección de
imágenes que muestran una variedad de narices, bocas y otras características. De
estos, el testigo selecciona los detalles del rostro que conoce, y las piezas se pueden
unir para formar una semejanza razonablemente buena del rostro. Esto puede sugerir
que podemos comunicar, después de todo, nuestro conocimiento de una fisonomía,
siempre que se nos proporcionen los medios adecuados para expresarnos. Pero la
aplicación del método policial no cambia el hecho de que antes sabíamos más de lo que
podíamos decir en ese momento. Además, podemos usar el método policial solo si
sabemos cómo hacer coincidir las características que recordamos con las de la
colección, y no podemos saber cómo lo hacemos. Este mismo acto de comunicación
muestra un conocimiento que no podemos decir.”
Polanyi nos indica que existe una parte de nuestro conocimiento que no
podemos exteriorizar, pero sí sabemos que está presente porque se manifiesta en
nuestra conciencia y a través de nuestras habilidades, sean innatas o aprendidas. Nos
referimos a un rango de habilidades cognitivas, tales como el reconocimiento de
objetos, la producción e interpretación del lenguaje, la creatividad, la persuasión, la
capacidad de adaptarse a escenarios no previstos, entre otras. A este problema Autor
(2014) lo va a llamar “la paradoja de Polanyi”.
Sin embargo, los datos aportados por el Banco Mundial (2016), indican que
también en los países subdesarrollados se experimentó una debacle similar en los
empleos de ingreso/calificación media, en sintonía con la tesis de la sustitución
tecnológica propuesta por Autor (2014).
Esta tesis a su vez nos permite entender por que sí se mantienen e incluso
crece la demanda de empleos en los extremos del mercado laboral: Es en estas
ocupaciones donde más se ponen en juego las habilidades que hacen uso de
conocimientos tácitos.
¿Por qué querríamos que una máquina aprenda? ¿Por qué no programarla de la
manera correcta desde el principio? Hay dos razones principales. En primer lugar, los
diseñadores no pueden anticipar todas las situaciones futuras posibles (...) En segundo
lugar, a veces los diseñadores no tienen idea de cómo programar una solución ellos
mismos. La mayoría de las personas son buenas reconociendo los rostros de los
miembros de su familia, pero lo hacen de manera inconsciente, por lo que incluso los
mejores programadores no saben cómo programar una computadora para lograr esa
tarea, excepto usando algoritmos de aprendizaje automático.”
Este cambio de paradigma es el que pone en duda los límites que plantea la
paradoja de Polanyi. Ya no es necesario poder explicitar los conocimientos para poder
desarrollar un software que imite habilidades humanas, consiguiendo de esta forma
esquivar el límite planteado por Autor.
Para entender el potencial de esta tecnología es necesario ver el estado del arte
y sobre todo observar las tendencias en su desarrollo.
Los grandes modelos de lenguaje (LLMs por sus siglas en inglés) son sistemas
de inteligencia artificial especializados en procesar y generar texto de manera natural y
coherente. Estos modelos se basan en la arquitectura Transformer, que permite captar
y analizar secuencias de texto extensas, comprendiendo las relaciones y dependencias
entre las palabras. Los LLMs son entrenados en enormes conjuntos de datos de texto,
lo que les permite aprender patrones y estructuras lingüísticas, así como adquirir
conocimientos sobre diversos temas. A medida que procesan texto, estos modelos son
capaces de generar texto original. Con simplemente imaginar todo lo que puede ser
expresado a través del lenguaje escrito nos daremos una idea de la vastedad de sus
aplicaciones. Modelos de este tipo han demostrado tener un rendimiento cercano o
incluso superior al de los humanos en campos como las matemáticas, la traducción, el
desarrollo de software, el diagnóstico médico o incluso la comprensión y redacción de
texto, por nombrar solo algunos.
Desde el lanzamiento del primer GPT con 117 millones de parámetros en 2018,
OpenAI ha seguido su estrategia de "cuando más grande mejor", con GPT-2
alcanzando 1.500 millones de parámetros y GPT-3 llegando a 175 mil millones. Con la
introducción de GPT-4, la cantidad de parámetros ha aumentado aún más,
demostrando cómo la hipótesis de escala puede resultar en mejoras significativas en el
rendimiento y la capacidad de los modelos de arquitectura Transformer para abordar
tareas complejas y diversificar sus aplicaciones.
Cantidad de parámetros 1
1
Fuente: https://ourworldindata.org/grapher/artificial-intelligence-parameter-count
Tamaño de dataset 2
2
Fuente: https://ourworldindata.org/grapher/artificial-intelligence-number-training-datapoints
Sevilla et. al. 2023
Gráfico ilustrativo
3
Se utiliza la información del Cuadro 1, clasificando a los sectores siguientes sectores como de servicios: Servicio
doméstico, enseñanza, comercio, servicios comunitarios, hotelería, servicios sociales y de salud, administración
pública, transporte, restaurantes, inmobiliarias y servicios empresariales, correo y comunicaciones e intermediación
financiera.
vanguardia en el desarrollo de IA emplean a pocos cientos de personas mientras que
los puestos afectados podrían contarse de a miles.
El trabajo ya no es la clave
Nun (1999) introduce el concepto de "masa marginal" a partir de las ideas de
Marx sobre la superpoblación relativa al capital, definida como la fracción de
trabajadores no empleados, no por falta de voluntad, sino por falta de demanda de su
fuerza laboral, quedando así excluidos del mercado laboral. Sin embargo, a diferencia
de Marx, quien veía a esta población como un ejército industrial de reserva funcional
para el capitalismo, Nun enfatiza su naturaleza a-funcional o incluso disfuncional.
Mientras que el ejército de reserva proporciona mano de obra y controla los salarios, la
masa marginal es en gran medida indiferente, incluso problemática para los
capitalistas. Grabois y Pérsico (2019) identifican a la economía popular como un
emergente de esta masa marginal.
Estos ejes apuntan a proporcionar derechos básicos para los excluidos y mitigar
los impactos recesivos del desempleo. Sin embargo, si la participación salarial en los
ingresos tiende a cero, el mercado no podría asignar recursos eficazmente. Ya se
debate cuán cerca estamos de una IA capaz de realizar cualquier tarea humana, lo que
intensifica la necesidad de reflexionar sobre qué proyecto civilizatorio guiará la
tecnología que nos liberará del trabajo forzado.
Referencias
Agostinelli, A., Denk, T. I., Borsos, Z., Engel, J., Verzetti, M., Caillon, A., Huang, Q.,
Jansen, A., Roberts, A., Tagliasacchi, M., Sharifi, M., Zeghidour, N.,& Frank, C. (2023).
MusicLM: Generating music from text. arXiv.org.
https://doi.org/10.48550/arXiv.2301.11325 Página web relacionada:
https://google-research.github.io/seanet/musiclm/examples/
Autor, D. H. (2014). Polanyi’s paradox and the shape of employment growth. National
Bureau of Economic Research. http://www.nber.org/papers/w20485
Banco Mundial. (2016). Informe sobre el desarrollo mundial 2016: Dividendos digitales.
https://doi.org/10.1596/978-1-4648-0671-1
Bárcia de Mattos, F., Dasgupta, S., Jiang, X., Kucera, D., & Schiavone, A. F. (2020).
Robotics and reshoring - employment implications for developing countries.
https://www.ilo.org/emppolicy/pubs/WCMS_751599/lang--en/index.htm
Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P.,
Lee, Y. T., Li, Y., Lundberg, S., Nori, H., Palangi, H., Ribeiro, M. T., & Zhang, Y. (2023).
Sparks of artificial general intelligence: Early experiments with GPT-4. arXiv.org.
https://arxiv.org/abs/2303.12712
Borsos, Z., Marinier, R., Vincent, D., Kharitonov, E., Pietquin, O., Sharifi, M., Teboul, O.,
Grangier, D., Tagliasacchi, M., & Zeghidour, N. (2022). AudioLM: A language modeling
approach to audio generation. arXiv.org. https://doi.org/10.48550/arXiv.2209.03143
Página web relacionada: https://google-research.github.io/seanet/audiolm/examples/
Fawzi, A., Balog, M., Huang, A., Hubert, T., Romera-Paredes, B., Barekatain, M.,
Novikov, A., R. Ruiz, F. J., Schrittwieser, J., Swirszcz, G., Silver, D., Hassabis, D., &
Kohli, P. (2022). Discovering faster matrix multiplication algorithms with reinforcement
learning. Nature. https://www.nature.com/articles/s41586-022-05172-4
Grabois, J., & Pérsico, E. (2014). Organización y economía popular. CTEP - Asociación
Civil de los Trabajadores de la Economía Popular.
https://ctepargentina.org/descargas/1.pdf
Huang, W., Xia, F., Xiao, T., Chan, H., Liang, J., Florence, P., Zeng, A., Tompson, J.,
Mordatch, I., Chebotar, Y., Sermanet, P., Brown, N., Jackson, T., Luu, L., Levine, S.,
Hausman, K., & Ichter, B. (2022). Inner Monologue: Embodied Reasoning through
Planning with Language Models. ArXiv. https://doi.org/10.48550/arXiv.2207.05608
Página web asociada: Inner Monologue. https://innermonologue.github.io/
Jumper, J., Evans, R., Pritzel, A., Green, T., Figurnov, M., Ronneberger, O.,
Tunyasuvunakool, K., Bates, R., Žídek, A., Potapenko, A., Bridgland, A., Meyer, C.,
Kohl, S. A. A., Ballard, A. J., Cowie, A., Romera-Paredes, B., Nikolov, S., Jain, R., Adler,
J., & Hassabis, D. (2021). Highly accurate protein structure prediction with AlphaFold.
Nature. https://doi.org/10.1038/s41586-021-03819-2
Kaplan, J., McCandlish, S., Henighan, T., Brown, T. B., Chess, B., Child, R., Gray, S.,
Radford, A., Wu, J., & Amodei, D. (2020). Scaling laws for neural language models.
arXiv.org. https://arxiv.org/abs/2001.08361
Kirillov, A., Mintun, E., Ravi, N., Mao, H., Rolland, C., Gustafson, L., Xiao, T.,
Whitehead, S., Berg, A. C., Lo, W.-Y., Dollár, P. & Girshick, R. (2023). Segment
anything. arXiv.org. https://doi.org/10.48550/arXiv.2304.02643 Página web asociada:
https://segment-anything.com/
Li, Y., Choi, D., Chung, J., Kushman, N., Schrittwieser, J., Leblond, R., Eccles, T.,
Keeling, J., Gimeno, F., Dal Lago, A., Hubert, T., Choy, P., de Masson d’Autume, C.,
Babuschkin, I., Chen, X., Huang, P.-S., Welbl, J., Gowal, S., Cherepanov, A., Molloy, J.,
Mankowitz, D. J., Robson, E. S., Kohli, P., de Freitas, N., Kavukcuoglu, K., & Vinyals, O.
(2022). Competition-level code generation with AlphaCode. Science, 378(6624),
1092-1097. https://doi.org/10.1126/science.abq1158
Russell, S.,& Norvig, P. (2022). Artificial intelligence: A modern approach (4t ed.).
Pearson.
Sevilla, J., Heim, L., Ho, A., Besiroglu, T., Hobbhahn, M., & Villalobos, P. (2022).
Compute Trends across three eras of machine learning. arXiv.org.
https://doi.org/10.48550/arXiv.2202.05924
Schteingart, D., Molina, M., & Fernández Massi, M. (2021). La densidad de la estructura
productiva y el empleo (Documento de Trabajo CEP XXI N° 9). Centro de Estudios para
la Producción XXI - Ministerio de Desarrollo Productivo de la Nación.
https://www.argentina.gob.ar/sites/default/files/2021/03/dt_9_-_la_densidad_de_la_estr
uctura_productiva_y_el_empleo_2.pdf
Shen, Y., Song, K., Tan, X., Li, D., Lu, W.,& Zhuang, Y. (2023). Hugginggpt: Solving AI
tasks with Chatgpt and its friends in Huggingface. arXiv.org.
https://doi.org/10.48550/arXiv.2303.17580