Está en la página 1de 24

Las nuevas fronteras de la

automatización
Explorando las posibles implicancias de la inteligencia artificial
en el mercado laboral

Autor: Juan Manuel Barreda Fafasuli

Resumen: El proceso de automatización del trabajo humano por parte de la


maquinaria se viene desarrollando por lo menos desde la revolución industrial. La
automatización sin embargo, adquiere en los años recientes una característica
novedosa en la historia humana: Las tecnologías de la información, tal como su nombre
lo indica, se caracterizan por su capacidad de manipular ya no el mundo físico sino la
información, permitiendo automatizar tareas cognitivas que históricamente habían sido
de dominio exclusivo de la mente humana. En este trabajo nos proponemos estudiar lo
que consideramos será un nuevo capítulo en la historia de la automatización marcado
por el desarrollo de machine learning basado en redes neuronales, pensar sus posibles
consecuencias en el mercado laboral especialmente para un país dependiente como
Argentina y las respuestas que pueden darse desde la política.

Contacto: juanmanuelbf@gmail.com

La paradoja de Polanyi y el caracter de la automatización


Autor (2014) en un estudio para el NBER se propone analizar el efecto de las
nuevas tecnologías en el mercado laboral. Sostiene que la automatización en la era de
las computadoras se ha caracterizado por sustituir el trabajo humano en tareas para las
cuales es necesario seguir una serie precisa de instrucciones bien definidas y esto ha
tenido como efecto la polarización del mercado laboral.
Para entender este fenómeno es necesario preguntarnos de qué manera
funciona el software ejecutado en las computadoras. Lo que hacen es recibir una
entrada (input) que es ejecutada por un algoritmo escrito por el desarrollador y que
devuelve un resultado (output), similar a una función matemática.

Esta capacidad de ejecutar cualquier instrucción que pueda ser definida con
claridad tiene grandes potencialidades pero también encuentra sus límites. Y es que no
necesariamente el desarrollador conocerá el algoritmo que le permite llevar a cabo una
tarea, aún cuando él mismo u otro ser humano sea capaz de realizarla. Esto es lo que
el científico y filósofo austríaco Michael Polanyi (1966) resumió con la frase “sabemos
más de lo que podemos decir” (p.4).

En sus obras Polanyi propone diferenciar entre el conocimiento explícito, aquel


que puede ser expresado acabadamente a través del lenguaje, y el conocimiento tácito,
inefable en última instancia.

Consideremos el ejemplo que propone en “The Tacit Dimension” (1966, p.4-5)

“Conocemos el rostro de una persona y podemos reconocerlo entre miles, incluso entre
un millón. Sin embargo, por lo general no podemos decir cómo reconocemos una cara
que conocemos. Así que la mayor parte de este conocimiento no se puede poner en
palabras. Pero la policía ha introducido recientemente un método mediante el cual
podemos comunicar gran parte de este conocimiento. Han hecho una gran colección de
imágenes que muestran una variedad de narices, bocas y otras características. De
estos, el testigo selecciona los detalles del rostro que conoce, y las piezas se pueden
unir para formar una semejanza razonablemente buena del rostro. Esto puede sugerir
que podemos comunicar, después de todo, nuestro conocimiento de una fisonomía,
siempre que se nos proporcionen los medios adecuados para expresarnos. Pero la
aplicación del método policial no cambia el hecho de que antes sabíamos más de lo que
podíamos decir en ese momento. Además, podemos usar el método policial solo si
sabemos cómo hacer coincidir las características que recordamos con las de la
colección, y no podemos saber cómo lo hacemos. Este mismo acto de comunicación
muestra un conocimiento que no podemos decir.”

Polanyi nos indica que existe una parte de nuestro conocimiento que no
podemos exteriorizar, pero sí sabemos que está presente porque se manifiesta en
nuestra conciencia y a través de nuestras habilidades, sean innatas o aprendidas. Nos
referimos a un rango de habilidades cognitivas, tales como el reconocimiento de
objetos, la producción e interpretación del lenguaje, la creatividad, la persuasión, la
capacidad de adaptarse a escenarios no previstos, entre otras. A este problema Autor
(2014) lo va a llamar “la paradoja de Polanyi”.

La paradoja de Polanyi hace que se vuelva imposible para los desarrolladores


escribir el código de un algoritmo que no es conocido a priori por tratarse de un
conocimiento tácito, lo cual le pone límites a la automatización de tareas.

La consecuencia natural es que una la primera oleada de automatización


habilitada por las computadoras el trabajo humano fue sustituido sólo en aquellas
tareas rutinarias que siguen una serie exhaustiva de reglas bien definidas y
explicitadas, plausibles de ser volcadas a código. Estas tareas son características de
muchas actividades de calificación media y salario medio, desde tareas manuales
como las que se realizan en producción automotriz, hasta tareas cognitivas vinculadas
a la contabilidad u otros trabajos “de oficina”.
En la siguiente figura, presentada en el trabajo de Autor (2014), se puede
observar cómo entre 1993 y 2010 en 16 países de la Unión Europea se produce una
caída significativa de los empleos de ingresos medios, mientras que los de altos y bajos
ingresos aumentan su participación.

La información presentada corresponde a países desarrollados en los cuales


podríamos encontrar otras causas para la reducción de los empleos “de clase media”,
tales como la relocalización productiva hacia países de menores salarios y derechos
laborales.

Sin embargo, los datos aportados por el Banco Mundial (2016), indican que
también en los países subdesarrollados se experimentó una debacle similar en los
empleos de ingreso/calificación media, en sintonía con la tesis de la sustitución
tecnológica propuesta por Autor (2014).
Esta tesis a su vez nos permite entender por que sí se mantienen e incluso
crece la demanda de empleos en los extremos del mercado laboral: Es en estas
ocupaciones donde más se ponen en juego las habilidades que hacen uso de
conocimientos tácitos.

La automatización de tareas "explicitables' lleva a la debacle de los puestos de


trabajo con calificación y salario medio. El mercado laboral se polariza y aumenta la
prima por calificación. Crece la participación de los de empleos de baja calificación y
bajos salarios (por la abundancia de las habilidades requeridas) y de alta calificación y
salarios (por el motivo opuesto).

Creemos que los avances recientes en inteligencia artificial están poniendo en


duda el muro aparentemente infranqueable determinado por la paradoja de Polanyi.

Machine Learning: saber y saber aprender


El machine learning (ML) o aprendizaje automático es un campo de las ciencias
de la computación que tiene por objetivo lograr que las computadoras aprendan a partir
de datos de entrenamiento. En su libro Inteligencia Artificial: Un enfoque moderno
Russell y Norvig (2022, p. 669) lo definen de la siguiente manera:
“Un agente está aprendiendo si mejora su rendimiento después de hacer observaciones
sobre el mundo. (...) Cuando el agente es una computadora, lo llamamos aprendizaje
automático: una computadora observa algunos datos, construye un modelo basado en
los datos y utiliza el modelo tanto como una hipótesis sobre el mundo como una pieza
de software que puede resolver problemas.

¿Por qué querríamos que una máquina aprenda? ¿Por qué no programarla de la
manera correcta desde el principio? Hay dos razones principales. En primer lugar, los
diseñadores no pueden anticipar todas las situaciones futuras posibles (...) En segundo
lugar, a veces los diseñadores no tienen idea de cómo programar una solución ellos
mismos. La mayoría de las personas son buenas reconociendo los rostros de los
miembros de su familia, pero lo hacen de manera inconsciente, por lo que incluso los
mejores programadores no saben cómo programar una computadora para lograr esa
tarea, excepto usando algoritmos de aprendizaje automático.”

En el desarrollo de software tradicional todas las funcionalidades deben ser


definidas explícitamente utilizando un lenguaje de programación por el programador,
chocándose inevitablemente con la paradoja de Polanyi. Si no se comprende de
manera exhaustiva el algoritmo que debe utilizarse para convertir las entradas en
salidas resultará imposible plasmarlo en código.

El aprendizaje automático es un cambio de paradigma en el desarrollo de


sistemas informáticos, permitiendo que estos aprendan y se adapten a través de la
experiencia (Russell y Norvig, 2022). A diferencia de la programación convencional que
requiere la definición explícita de algoritmos, el aprendizaje automático se basa en el
entrenamiento con conjuntos de datos para inferir patrones y tomar decisiones. En
lugar de un conocimiento exhaustivo del algoritmo, estos sistemas optimizan
parámetros dentro del modelo, ajustándolos para mejorar la precisión de las
predicciones sin necesidad de programación específica.

La tecnología de vanguardia que impulsa la actual revolución de la IA se llama


deep learning. Esta es una especialización del aprendizaje automático que utiliza redes
neuronales con múltiples capas, o "profundas", para modelar y entender estructuras de
datos complejas. Los parámetros que determinan la configuración de estas redes,
conocidos como pesos y sesgos, se ajustan durante el proceso de entrenamiento, de
una forma comparable al ajuste de la pendiente y la ordenada al origen en una
regresión lineal. Este método de ajuste y aprendizaje permite al deep learning manejar
tareas extremadamente complejas que parecerían imposibles para un software
convencional.

Este cambio de paradigma es el que pone en duda los límites que plantea la
paradoja de Polanyi. Ya no es necesario poder explicitar los conocimientos para poder
desarrollar un software que imite habilidades humanas, consiguiendo de esta forma
esquivar el límite planteado por Autor.

Para entender el potencial de esta tecnología es necesario ver el estado del arte
y sobre todo observar las tendencias en su desarrollo.

Redes neuronales como tecnología de propósito general


Bresnahan y Trajtenberg (1992) proponen organizar a las tecnologías de un
momento histórico dado en un patrón jerárquico, en la punta del cual estarían aquellas
que desempeñan alguna función genérica que es vital para el funcionamiento de un
gran segmento de los sistemas de producción. Se las denomina tecnologías de
propósito general. En este grupo se han ubicado algunas tan fundamentales como la
máquina de vapor, el uso de energía eléctrica y los circuitos integrados.

Las Tecnologías de Propósito General (TPG), como la electricidad en EE. UU., a


menudo no se adoptan inmediatamente. Esta última se generalizó en las fábricas
treinta años después de la instalación de la corriente alterna, ya que su adopción
requería grandes inversiones para reconfigurar los procesos productivos, reemplazar
maquinaria y modificar la disposición de las fábricas. Esto necesariamente genera
cambios a nivel laboral. Habitualmente es difícil percibir ex-ante a muchas tareas como
potencialmente automatizables pero a medida que la relación precio/rendimiento hace
viable adoptar nuevas tecnologías, algunas tareas y ocupaciones pueden volverse
redundantes o cambiar, mientras surgen nuevas.
Bresnahan y Trajtenberg (1992) definen tres características que son necesarias
para considerar a una tecnología como una TPG: tener presencia generalizada en
diferentes sectores, habilitar innovaciones complementarias al vincularse con otras
tecnologías nuevas o existentes y ser capaces de mejorar sostenidamente con el paso
del tiempo. A la luz de los avances experimentados en el campo de IA en los últimos
años, creemos correcto afirmar que está camino a entrar a este selecto club de
innovaciones y así redefinir las características de los procesos productivos en una
amplia gama de sectores económicos.

El deep learning tiene el potencial de ser la próxima tecnología de propósito


general debido a su capacidad para automatizar una gama increíblemente amplia de
tareas que antes requerían de la inteligencia humana. Las líneas de investigación son
de lo más diversas. Podemos nombrar por ejemplo la visión (Kirillov et al, 2023), la
generación de contenido multimedia como imágenes (Stable Diffusion, Dall-E 2,
Midjourney), audio (Borsos et al, 2022) o música (Agostinelli et al, 2023) o la
generación de lenguaje natural que ha permitido por ejemplo superar competiciones de
programación (Li et al, 2022).

La lista de aplicaciones es inmensa y se encuentra en expansión. Algunas se


han dado en ámbito científico. Tal es el caso del modelo AlphaFold que ha permitido
resolver el problema del plegamiento de proteínas (Jumper et al, 2021), de gran
importancia para la biotecnología o el modelo AlphaTensor que descubre métodos con
los cuales multiplicar matrices realizando una menor cantidad de operaciones (Fawzi et
al, 2022), potenciando así el desarrollo de nuevos modelos de DL.

Al ser un software, la IA tiene la capacidad de integrarse con hardware, logrando


así la interacción con el mundo físico, tal como ocurre en los almacenes de Amazon.
Aquí, la IA es fundamental para optimizar la gestión de inventario y las operaciones
logísticas. Amazon emplea robots Kiva, pequeños vehículos que se mueven por el
almacén transportando estanterías y llevando productos desde el almacenamiento
hasta las estaciones de empaque. Estos robots, a pesar de su aparente autonomía,
están controlados por una IA que les asigna tareas específicas, traza las rutas más
eficientes y los coordina para evitar colisiones. Este sistema redefine el proceso
productivo, minimizando la necesidad de mano de obra humana que queda relegada al
empaquetado. Sin embargo, Amazon ya está desarrollando maquinaria para
automatizar incluso esta tarea.

Otro caso de integración de IA con hardware es el proyecto Inner Monologue de


Google Robotics (Huang ed al. 2020). Este equipo de Alphabet se encuentra
trabajando en una serie de robots autónomos que tengan la capacidad de recibir
instrucciones en lenguaje natural que es el medio de comunicación que utilizamos los
humanos en nuestra vida cotidiana. El agente establecerá una estrategia para lograr el
objetivo y podrá interactuar con el mundo físico para llevarla adelante. No es un dato
menor notar que los objetivos que se le pueden requerir a esta suerte de asistentes no
están limitados. Es una muestra de una tendencia clara en el campo de la IA. Las
aplicaciones mencionadas hasta el momento son específicas. En los últimos años, por
el contrario, hemos visto el surgimiento de modelos capaces de generalizar cada vez
más sus aplicaciones. La visión y la generación de imágenes son ejemplos de esta
tendencia, pero sin dudas el más interesante es en el que se encuentra en el corazón
Inner Monologue: Los grandes modelos de lenguaje.

Los grandes modelos de lenguaje (LLMs por sus siglas en inglés) son sistemas
de inteligencia artificial especializados en procesar y generar texto de manera natural y
coherente. Estos modelos se basan en la arquitectura Transformer, que permite captar
y analizar secuencias de texto extensas, comprendiendo las relaciones y dependencias
entre las palabras. Los LLMs son entrenados en enormes conjuntos de datos de texto,
lo que les permite aprender patrones y estructuras lingüísticas, así como adquirir
conocimientos sobre diversos temas. A medida que procesan texto, estos modelos son
capaces de generar texto original. Con simplemente imaginar todo lo que puede ser
expresado a través del lenguaje escrito nos daremos una idea de la vastedad de sus
aplicaciones. Modelos de este tipo han demostrado tener un rendimiento cercano o
incluso superior al de los humanos en campos como las matemáticas, la traducción, el
desarrollo de software, el diagnóstico médico o incluso la comprensión y redacción de
texto, por nombrar solo algunos.

La estrella de estos modelos es sin duda ChatGPT, desarrollado por OpenAI. Se


trata del más famoso de una familia de modelos que ilustra el tercer aspecto
mencionado de las tecnologías de propósito general: la capacidad de mejorar con el
tiempo. En el caso de los grandes modelos de lenguaje, esto se vincula directamente
con la escala del modelo.

Como explicamos en el apartado exterior, las redes neuronales son modelos


matemáticos cuyos parámetros se ajustan durante el proceso de aprendizaje, a medida
que la red va optimizando su rendimiento en función de los datos de entrenamiento.
Las propiedades de estos sistemas, en lugar de ser definidas explícitamente, emergen
como consecuencia del proceso de entrenamiento. La hipótesis de escala (Branwen
2020), basada en la observación (Kaplan et al, 2020), sugiere que a medida que
aumenta el tamaño de una red neuronal (en términos de número de capas, neuronas y
parámetros), su capacidad para aprender y generalizar también mejora, permitiendo
que emerjan nuevas propiedades. A su vez, para aprovechar al máximo el potencial de
una red neuronal más grande, también incrementa la cantidad de datos en el conjunto
de entrenamiento y el poder de cómputo utilizado.
Kaplan et al (2020)

Desde el lanzamiento del primer GPT con 117 millones de parámetros en 2018,
OpenAI ha seguido su estrategia de "cuando más grande mejor", con GPT-2
alcanzando 1.500 millones de parámetros y GPT-3 llegando a 175 mil millones. Con la
introducción de GPT-4, la cantidad de parámetros ha aumentado aún más,
demostrando cómo la hipótesis de escala puede resultar en mejoras significativas en el
rendimiento y la capacidad de los modelos de arquitectura Transformer para abordar
tareas complejas y diversificar sus aplicaciones.

Los avances en GPT-4 han llevado a investigadores como los de Microsoft


Research a sugerir que podríamos estar ante los primeros atisbos de una Inteligencia
Artificial General (AGI) (Bubeck et al, 2023). GPT-4 puede recibir una instrucción y
determinar los pasos necesarios para ejecutarla, una capacidad que ha sido explotada
en varios proyectos (Shen et al, 2023 y Plugins de ChatGPT). Estos proyectos han
integrado GPT-4 con diversas herramientas y servicios de IA, permitiendo que los
Modelos de Lenguaje Grande (LLM) funcionen como directores de orquesta de otras
IAs. Sin embargo, el rápido progreso de los LLM ha suscitado preocupaciones, como
se refleja en la carta abierta "Pause Giant AI Experiments: An Open Letter".
Los datos disponibles nos muestran que es una tendencia generalizada la
escala de los modelos de manera exponencial a lo largo de la historia del machine
learning, sobre todo a partir de lo que Sevilla (2023), ha dado en llamar la “era del Deep
Learning”.

Cantidad de parámetros 1

1
Fuente: https://ourworldindata.org/grapher/artificial-intelligence-parameter-count
Tamaño de dataset 2

2
Fuente: https://ourworldindata.org/grapher/artificial-intelligence-number-training-datapoints
Sevilla et. al. 2023

Desde los orígenes de la IA hasta el presente la necesidad de poder de cómputo


requirió del cumplimiento de la Ley de Moore y la oferta de GPUs, mientras que la
masificación de las computadoras personales y las conexiones a internet generó una
abundancia de datos sin precedentes en la historia de la humanidad. Estas condiciones
han permitido el desarrollo de modelos de DL de gran escala y capacidades generales.

En resumen, creemos correcto afirmar que el deep learning tiene el potencial de


convertirse en la próxima TPG. Se observa una amplia gama de aplicaciones en los
más diversos sectores de la economía. Su desarrollo permite impulsar el avances
científico y habilita la integración con otras tecnologías - hardware existente, entre otras
-. A su vez está en un momento de constantes avances, marcado por la escala y el
desarrollo de modelos con aplicaciones generales, con el protagonismo de los LLMs.

Como decíamos en la primera sección, la paradoja de Polanyi levanta un muro


aparentemente infranqueable. Y sin embargo luego de lo expuesto estamos en
condiciones de afirmar que se encontró en el desarrollo de modelos de DL un camino
alternativo que nos hace esquivar el problema. Si la primera oleada de tecnologías de
la información había sacrificado en la hoguera de la automatización a los trabajos de
calificación/salario medio, hoy el fantasma de la IA viene a poner en cuestión también a
los extremos de los mercados laborales. El peligro del desempleo tecnológico es más
real que nunca.

La posibilidad del desempleo tecnológico


En la actualidad nos estamos acostumbrando a que los avances en materia de
IA nos sorprendan constantemente. Los nuevos modelos que vemos publicarse todos
los meses sobrepasan las barreras que los escépticos plantean como insuperables. En
un contexto de avance acelerado es fácil caer en la tentación de la futurología. Sin
entrar en predicciones catastróficas –tristemente común en tiempos de pocas utopías–
creemos que el desempleo tecnológico es una posibilidad que merece ser tomada en
serio, sobre todo dada la realidad laboral de la Argentina. Se suele hablar del
desempleo como si fuera una amenaza del futuro. La realidad actual, sin embargo, nos
demuestra que el pleno empleo con derechos ya es cosa del pasado y no hay
garantías de que vaya a volver.

En la segunda mitad del siglo XX, el capitalismo transitó hacia un nuevo


paradigma, el neoliberalismo. En Argentina, esta transformación comenzó con las
políticas de apertura comercial impuestas por la última dictadura militar, lo que llevó a
una desindustrialización y una expansión del sector de servicios. Estos cambios
resultaron en la precarización del trabajo y la expulsión de muchos trabajadores del
mercado laboral formal, teniendo que crear sus propios medios de subsistencia.

A pesar de los períodos de crecimiento y de políticas de redistribución de


ingresos, no se logró integrar a toda la población trabajadora al empleo, ya sea en el
sector privado o público, formal o informal. De acuerdo con el OCEPP en 2022, el
grupo de trabajadores sin un empleador, compuesto por trabajadores por cuenta propia
y trabajadores familiares no remunerados con calificación técnica "no profesional", solo
se redujo en un 2,2% entre 2003 y 2011, pasando del 17,5% al 15,3% de la Población
Económicamente Activa. Este segmento representó a 3,8 millones de personas en el
primer trimestre de 2022.

Las estadísticas nacionales suelen tener limitaciones para medir la exclusión y la


precariedad. Podemos tomar como referencia el número de beneficiarios del Ingreso
Familiar de Emergencia (IFE) durante la pandemia. Unos 8,9 millones de personas en
edad laboral sin ingresos registrados, sin patrimonios significativos y sin un conviviente
con ingresos o patrimonio recibieron esta ayuda, evidenciando la profundidad del
problema.

La expulsión del mercado laboral no se trata entonces de un problema nuevo,


sino más bien de larga data y que se ha tornado estructural en nuestro país. En este
contexto, el fantasma del desempleo tecnológico amenaza con profundizar una
situación de por sí precaria.

Es innegable que la tecnología puede reemplazar trabajos, tal como lo evidencia


la historia de múltiples profesiones que fueron transformadas o incluso desaparecieron
debido a los avances tecnológicos. Pensemos en el tractor que reemplazó al arado
manual, el cajero automático que sustituyó al cajero bancario, y el email que disminuyó
la necesidad de carteros. Sin embargo, esto no ha llevado al desempleo masivo:
nuevas oportunidades laborales han surgido y a menudo han compensado las pérdidas
producidas por el reemplazo tecnológico. Ante la ansiedad por la automatización
impulsada por la inteligencia artificial, es común argumentar que la tecnología pasada
no ha generado desempleo estructural, y que los trabajadores desplazados siempre
han encontrado nuevos roles. Pero es un error suponer que esto es simplemente un
proceso cíclico sin fin.

Si observamos el pasado es cierto que en muchas economías los avances


tecnológicos generaron una demanda de mano de obra en nuevas industrias que
compensó con creces las pérdidas laborales que producía. Con la Revolución
Industrial, si bien el proceso no fue inmediato, a la larga la pérdida de trabajo que se
produjo en el campo (sector primario) fue compensada por una demanda muy superior
en la industria manufacturera (sector secundario). Posteriormente, cuando los avances
técnicos en las líneas de producción las hicieron menos intensivas en mano de obra, el
aumento del ingreso disponible permitió el crecimiento de la industria de servicios, tanto
en actividades rutinarias (sector terciario) como de alta calificación (sector cuaternario).
Este es el proceso que fue conceptualizado por los economistas Jean Fourastié, Allan
Fisher y Colin Clark quienes desarrollaron el modelo de los tres sectores al que
posteriormente se propuso incorporar un cuarto sector para diferenciar los servicios por
su nivel de calificación.

Gráfico ilustrativo

Efectivamente los avances tecnológicos produjeron tanto la desaparición de


empleos como la creación de otros nuevos. Ahora bien, lo que nos permite entender el
modelo de los tres sectores es que no se trata de un proceso cíclico, sino más bien
evolutivo. La demanda de empleo no aumenta y disminuye por igual en toda la
economía sino que las transformaciones en los procesos productivos de un sector
reducen la demanda de un tipo de empleo mientras que los que se crean tienen
características diferentes y están en otro sector.

Y es que es en la industria de servicios donde posiblemente impacte con más


fuerza la automatización basada en IA, dado que es en este sector donde más se
ponen en juego las habilidades tácitas que esta tecnología se caracteriza por poder
automatizar. Si esto fuera así, los efectos en nuestro mercado laboral serían
significativos. Según Schteingart, Molina y Fernandez Massi (2021) la participación en
el empleo de los servicios es del 72,8% dentro del cual el 25,5% corresponde a
asalariados no registrados 3.

Si las redes neuronales continúan desarrollándose en la tendencia observada y


se transforman en una tecnología de uso general que redefina procesos productivos
para hacerlos menos intensivos en mano de obra ¿Cuál sería el nuevo sector donde la
automatización no tenga incidencia? ¿Qué tipo de habilidades requeriría? No parece
estar a la vista algo de estas características. No podemos afirmar que todas las tareas
realizadas por seres humanos puedan ser automatizadas, pero la frontera parece
correrse diariamente. Asumir que este nuevo tipo de actividad necesariamente surgirá
sería creer en la magia del mercado.

En el pasado, en las economías desarrolladas, la revolución técnica en las


líneas de montaje permitió aumentar el ingreso disponible, parte del cual se volcaría al
consumo privado, especialmente de servicios. De esta manera el aumento de la
demanda generó una expansión de la oferta que trajo aparejado un mayor nivel de
empleo, permitiendo que se compensaran incluso con creces los puestos de trabajo
perdidos en el sector secundario. Esta vez, sin embargo, la historia podría ser otra. Los
beneficiarios de la automatización podrían ser un grupo muy reducido compuesto por
los sectores del capital y los pocos trabajadores remanentes. Las empresas de

3
Se utiliza la información del Cuadro 1, clasificando a los sectores siguientes sectores como de servicios: Servicio
doméstico, enseñanza, comercio, servicios comunitarios, hotelería, servicios sociales y de salud, administración
pública, transporte, restaurantes, inmobiliarias y servicios empresariales, correo y comunicaciones e intermediación
financiera.
vanguardia en el desarrollo de IA emplean a pocos cientos de personas mientras que
los puestos afectados podrían contarse de a miles.

Bárcia de Mattos (2020) estudia la industria de los call centers en India y


Filipinas, donde se está implementando una automatización basada en IA. A pesar de
encontrarse con una tecnología rudimentaria y resistencia por parte de los usuarios
hacia la interacción con IA, los avances en modelos de lenguaje y síntesis de voz
(Radford et al, 2022) indican que estas barreras podrían ser superadas en un futuro
próximo. La posibilidad de tener un software capaz de manejar todas las consultas de
un cliente plantea preguntas sobre el futuro de los 350.000 empleados en call centers
en India, los 500.000 en Filipinas y los 50.000 en Argentina. Y si consideramos que
estas empresas son en gran medida multinacionales con sede en Estados Unidos y la
UE, la amenaza de la automatización adquiere una dimensión global. Si los costos
laborales ya no son una consideración, ¿cuál sería el incentivo para mantener las
operaciones en estos países?

El Banco Mundial (2016) preveía que la automatización podría impactar primero


a los países subdesarrollados. La industria manufacturera, que se trasladó a estos
países a finales del siglo XX aprovechando bajos salarios y derechos laborales
limitados, podría perder esta ventaja con la automatización. Si resulta viable
automatizar muchas tareas, podrían iniciarse procesos de reshoring o nearshoring,
reubicando trabajos a las áreas de origen o cerca de los mercados finales. Aunque se
creen tantos empleos como los automatizados, podrían ubicarse en otras latitudes.

En definitiva, es un escenario posible que la automatización basada en IA


genere una reducción significativa de la demanda de trabajo en muchas industrias que
no pueda ser compensada por nuevos empleos en la provisión de bienes de capital –en
este caso software– ni por un nuevo sector económico. A su vez podría habilitar una
nueva reconfiguración de la división internacional del trabajo en la que los países
desarrollados pierdan a la mano de obra barata como ventaja comparativa,
produciendo que los pocos puestos de trabajo que se crean o mantienen se desplacen
a otras latitudes.

El trabajo ya no es la clave
Nun (1999) introduce el concepto de "masa marginal" a partir de las ideas de
Marx sobre la superpoblación relativa al capital, definida como la fracción de
trabajadores no empleados, no por falta de voluntad, sino por falta de demanda de su
fuerza laboral, quedando así excluidos del mercado laboral. Sin embargo, a diferencia
de Marx, quien veía a esta población como un ejército industrial de reserva funcional
para el capitalismo, Nun enfatiza su naturaleza a-funcional o incluso disfuncional.
Mientras que el ejército de reserva proporciona mano de obra y controla los salarios, la
masa marginal es en gran medida indiferente, incluso problemática para los
capitalistas. Grabois y Pérsico (2019) identifican a la economía popular como un
emergente de esta masa marginal.

Frente a la ruptura de la relación patrón-empleado como relación laboral


profundizada por la automatización, el horizonte del pleno empleo deja de ser viable.
Proponemos pensar soluciones con la premisa de desligar el acceso a los derechos al
ámbito laboral a partir de tres ejes:

● Ingreso: Consideramos relevantes propuestas como el Salario Básico Universal


para mitigar los shocks de desempleo. Si la automatización desplaza
trabajadores y acumula ganancias, un salario básico financiado con impuestos
redistribuiría riqueza y garantizaría acceso a necesidades básicas.

● Vivienda: Con abundantes tierras en desuso en nuestro país, con planificación


se podría asegurar la propiedad de un lote con servicios básicos a quienes no
tienen vivienda.
● Servicios comunes: Aunque la salud y educación ya son gratuitas en Argentina,
la automatización podría extender esta gratuidad a otros servicios como agua,
luz, gas, internet y transporte, si el Estado controla su producción.

Estos ejes apuntan a proporcionar derechos básicos para los excluidos y mitigar
los impactos recesivos del desempleo. Sin embargo, si la participación salarial en los
ingresos tiende a cero, el mercado no podría asignar recursos eficazmente. Ya se
debate cuán cerca estamos de una IA capaz de realizar cualquier tarea humana, lo que
intensifica la necesidad de reflexionar sobre qué proyecto civilizatorio guiará la
tecnología que nos liberará del trabajo forzado.

Referencias
Agostinelli, A., Denk, T. I., Borsos, Z., Engel, J., Verzetti, M., Caillon, A., Huang, Q.,
Jansen, A., Roberts, A., Tagliasacchi, M., Sharifi, M., Zeghidour, N.,& Frank, C. (2023).
MusicLM: Generating music from text. arXiv.org.
https://doi.org/10.48550/arXiv.2301.11325 Página web relacionada:
https://google-research.github.io/seanet/musiclm/examples/

Autor, D. H. (2014). Polanyi’s paradox and the shape of employment growth. National
Bureau of Economic Research. http://www.nber.org/papers/w20485

Banco Mundial. (2016). Informe sobre el desarrollo mundial 2016: Dividendos digitales.
https://doi.org/10.1596/978-1-4648-0671-1

Bárcia de Mattos, F., Dasgupta, S., Jiang, X., Kucera, D., & Schiavone, A. F. (2020).
Robotics and reshoring - employment implications for developing countries.
https://www.ilo.org/emppolicy/pubs/WCMS_751599/lang--en/index.htm

Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P.,
Lee, Y. T., Li, Y., Lundberg, S., Nori, H., Palangi, H., Ribeiro, M. T., & Zhang, Y. (2023).
Sparks of artificial general intelligence: Early experiments with GPT-4. arXiv.org.
https://arxiv.org/abs/2303.12712

Borsos, Z., Marinier, R., Vincent, D., Kharitonov, E., Pietquin, O., Sharifi, M., Teboul, O.,
Grangier, D., Tagliasacchi, M., & Zeghidour, N. (2022). AudioLM: A language modeling
approach to audio generation. arXiv.org. https://doi.org/10.48550/arXiv.2209.03143
Página web relacionada: https://google-research.github.io/seanet/audiolm/examples/

Branwen, G (2020). The Scaling Hypothesis. Gwern.net. Disponible en:


https://gwern.net/scaling-hypothesis

Bresnahan, T. F. & Trajtenberg, M. (1992). General Purpose Technologies “Engines of


growth?” National Bureau of Economic Research. https://www.nber.org/papers/w4148

Fawzi, A., Balog, M., Huang, A., Hubert, T., Romera-Paredes, B., Barekatain, M.,
Novikov, A., R. Ruiz, F. J., Schrittwieser, J., Swirszcz, G., Silver, D., Hassabis, D., &
Kohli, P. (2022). Discovering faster matrix multiplication algorithms with reinforcement
learning. Nature. https://www.nature.com/articles/s41586-022-05172-4

Grabois, J., & Pérsico, E. (2014). Organización y economía popular. CTEP - Asociación
Civil de los Trabajadores de la Economía Popular.
https://ctepargentina.org/descargas/1.pdf

Huang, W., Xia, F., Xiao, T., Chan, H., Liang, J., Florence, P., Zeng, A., Tompson, J.,
Mordatch, I., Chebotar, Y., Sermanet, P., Brown, N., Jackson, T., Luu, L., Levine, S.,
Hausman, K., & Ichter, B. (2022). Inner Monologue: Embodied Reasoning through
Planning with Language Models. ArXiv. https://doi.org/10.48550/arXiv.2207.05608
Página web asociada: Inner Monologue. https://innermonologue.github.io/

Jumper, J., Evans, R., Pritzel, A., Green, T., Figurnov, M., Ronneberger, O.,
Tunyasuvunakool, K., Bates, R., Žídek, A., Potapenko, A., Bridgland, A., Meyer, C.,
Kohl, S. A. A., Ballard, A. J., Cowie, A., Romera-Paredes, B., Nikolov, S., Jain, R., Adler,
J., & Hassabis, D. (2021). Highly accurate protein structure prediction with AlphaFold.
Nature. https://doi.org/10.1038/s41586-021-03819-2

Kaplan, J., McCandlish, S., Henighan, T., Brown, T. B., Chess, B., Child, R., Gray, S.,
Radford, A., Wu, J., & Amodei, D. (2020). Scaling laws for neural language models.
arXiv.org. https://arxiv.org/abs/2001.08361

Kirillov, A., Mintun, E., Ravi, N., Mao, H., Rolland, C., Gustafson, L., Xiao, T.,
Whitehead, S., Berg, A. C., Lo, W.-Y., Dollár, P. & Girshick, R. (2023). Segment
anything. arXiv.org. https://doi.org/10.48550/arXiv.2304.02643 Página web asociada:
https://segment-anything.com/

Li, Y., Choi, D., Chung, J., Kushman, N., Schrittwieser, J., Leblond, R., Eccles, T.,
Keeling, J., Gimeno, F., Dal Lago, A., Hubert, T., Choy, P., de Masson d’Autume, C.,
Babuschkin, I., Chen, X., Huang, P.-S., Welbl, J., Gowal, S., Cherepanov, A., Molloy, J.,
Mankowitz, D. J., Robson, E. S., Kohli, P., de Freitas, N., Kavukcuoglu, K., & Vinyals, O.
(2022). Competition-level code generation with AlphaCode. Science, 378(6624),
1092-1097. https://doi.org/10.1126/science.abq1158

Nun, J. (1999). El futuro del empleo y la tesis de la masa marginal. Desarrollo


Económico, 38(152), 985-1004. Instituto de Desarrollo Económico y Social.
https://doi.org/10.2307/3467265

Observatorio de Coyuntura Económica y Políticas Públicas. (2022). Monitor de la


Economía Popular - Agosto 2022.
https://www.ocepp.com/post/monitor-de-la-economia-popular-agosto-2022

Polanyi, M. (1966) The Tacit Dimension. Doubleday & company inc.


Radford, A., Kim, J. W., Xu, T., Brockman, G., McLeavey, C., & Sutskever, I. (2022).
Robust speech recognition via large-scale weak supervision. arXiv.org.
https://doi.org/10.48550/arXiv.2212.04356 Pagina relacionada:
https://openai.com/research/whisper

Russell, S.,& Norvig, P. (2022). Artificial intelligence: A modern approach (4t ed.).
Pearson.

Sevilla, J., Heim, L., Ho, A., Besiroglu, T., Hobbhahn, M., & Villalobos, P. (2022).
Compute Trends across three eras of machine learning. arXiv.org.
https://doi.org/10.48550/arXiv.2202.05924

Schteingart, D., Molina, M., & Fernández Massi, M. (2021). La densidad de la estructura
productiva y el empleo (Documento de Trabajo CEP XXI N° 9). Centro de Estudios para
la Producción XXI - Ministerio de Desarrollo Productivo de la Nación.
https://www.argentina.gob.ar/sites/default/files/2021/03/dt_9_-_la_densidad_de_la_estr
uctura_productiva_y_el_empleo_2.pdf

Shen, Y., Song, K., Tan, X., Li, D., Lu, W.,& Zhuang, Y. (2023). Hugginggpt: Solving AI
tasks with Chatgpt and its friends in Huggingface. arXiv.org.
https://doi.org/10.48550/arXiv.2303.17580

También podría gustarte