Está en la página 1de 4

40 Tecnología

Los riesgos de la
Inteligencia Artificial
Mayo 2023 M 41

autónoma. Estas capacidades tienen de cuentas de las decisiones tomadas


el potencial de mejorar muchos por sistemas autónomos de ia pue-
ciertos aspectos de nuestra vida den plantear riesgos en términos de
cotidiana, desde la atención médica ética, responsabilidad y confianza en
y la movilidad hasta la ef iciencia la tecnología. Es importante asegurar
energética y la toma de decisiones que la ia sea transparente, explicable
empresariales. Sin embargo, a medi- y responsable en su diseño, desarro-
da que la ia se vuelve más avanzada, llo y despliegue.
¿En qué ámbitos concretos también surgen riesgos que debemos
tener en cuenta. Mencionamos acá
de nuestra sociedad asoman algunos de los principales peligros
5. impactos en la privacidad y
la seguridad de los datos: la ia
amenazas a raíz de ella? De asociados con esta. a menudo requiere grandes cantida-
momento, es importante abordar 1. riesgos de seguridad y ma-
des de datos para su entrenamiento
y funcionamiento, lo que plantea
los problemas éticos que se derivan nipulación: a medida que la ia se preocupaciones sobre la privacidad
de su desarrollo y uso: se requieren vuelve más avanzada y autónoma,
existe el riesgo de que se utilice de
y la seguridad de los datos. La mala
gestión de los datos utilizados en la
además regulaciones adecuadas y manera malintencionada o para ia podría resultar en violaciones de
una rendición de cuentas clara. fines dañinos. Esto podría incluir
el uso de ia en ataques cibernéticos,
privacidad, filtraciones de datos y
pérdida de confidencialidad.
la creación de armas autónomas o la
manipulación de información para 6. ética y gobernanza: la toma de
sebastián r íos engañar, influenciar y manipular a decisiones éticas en el desarrollo y
Académico de Ingeniería Industrial, las personas. uso de la ia plantea desafíos com-
Universidad de Chile plejos. Entre ellos, la asignación de
2. desplazamiento laboral: a responsabilidades en caso de errores
medida que la ia se vuelve más capaz o daños causados por sistemas de ia,
de ejecutar tareas que antes eran la equidad en el acceso y uso de la

L
realizadas por humanos, existe el tecnología, y la necesidad de regu-
a Inteligencia Artif icial riesgo de que haya una disrupción laciones y marcos éticos adecuados
(ia) ha experimentado un en el mercado laboral, lo que podría para guiar su desarrollo y aplicación.
rápido avance en los últi- resultar en la pérdida de empleos en
mos años, revolucionando ciertos sectores. Esto podría tener
la forma en que interactuamos implicaciones económicas y sociales, Ética y regulaciones
con la tecnología y transfor- como la desigualdad de ingresos y la Es importante abordar estos riesgos
mando diversas industrias. necesidad de reentrenar y reubicar a y desafíos de manera proactiva, me-
Sin embargo, a medida que la los trabajadores afectados. diante la implementación de marcos
ia se vuelve más sofisticada y éticos y regulaciones adecuadas, la
se integra en nuestras vidas de 3. sesgos y discriminación: la ia promoción de la transparencia y la
maneras cada vez más intensas, puede perpetuar y amplificar sesgos responsabilidad en la ia. Asimismo,
también se plantean preocupa- y discriminación si no se desarrolla es relevante considerar los impactos
ciones y riesgos significativos y se implementa de manera ética sociales y laborales que provoca, así
para nuestra civilización. y responsable. Esto podría incluir como el compromiso de diversas
El potencial de la ia es innega- sesgos en los datos utilizados para partes interesadas. Es importante
ble. Con algoritmos de aprendizaje entrenar los modelos de IA, lo que incluir a la sociedad, en general, en
profundo y modelos generativos de podría llevar a decisiones discrimi- el diálogo y la toma de decisiones
diverso tipo, han aparecido sistemas natorias en áreas como la contrata- relacionadas con la ia.
que muestran comportamientos ción, la atención médica o la justicia
similares a los de un ser humano. penal, con consecuencias injustas
Incluso, en el último tiempo, la ia para ciertos grupos de población. Riesgos para la seguridad
ha demostrado su capacidad para Uno de los riesgos más significativos
realizar tareas complejas, como el 4 . falta de tr anspar encia y es la automatización de los ataques
reconocimiento de imágenes, el responsabilidad: la opacidad en cibernéticos. La inteligencia artifi-
procesamiento del lenguaje natural, el funcionamiento interno de los cial (ia) puede ser entrenada para
la toma de decisiones y la conducción modelos de ia y la falta de rendición identificar vulnerabilidades en sis-
42 Mensaje

temas de seguridad y redes, así como videos o imágenes generados por Lamentablemente, en general,
para desarrollar y ejecutar ataques ia que parecen ser auténticos, pero los gobiernos son mucho más lentos
de manera autónoma. Por ejemplo, en realidad son falsos y pueden ser en reaccionar ante disrupciones
los atacantes pueden utilizar algo- utilizados para difamar a personas, tecnológicas y es por ello que urge
ritmos de aprendizaje automático influenciar elecciones o causar daño apresurar el paso en esta dirección.
para analizar grandes cantidades de reputacional. Especialmente en gobiernos de Amé-
datos en busca de vulnerabilidades rica Latina, donde apenas estamos
en sistemas informáticos, identi- discutiendo el tema de la digitali-
ficar debilidades en contraseñas o Riesgos para el empleo zación, y en Chile, en particular,
desarrollar malware personalizado (desplazamiento laboral) donde acaba de publicarse una ley
que sea difícil de detectar por par- Uno de los principales riesgos de de transformación digital que ya
te de las soluciones de seguridad la ia es su impacto en el empleo. A podría venir obsoleta.
convencionales. medida que la ia se vuelve más capaz
Además, la ia puede ser uti- de realizar tareas que anteriormente
lizada para llevar a cabo ataques de requerían la intervención humana, Sesgos y discriminación
ingeniería social, que implican ma- existe la preocupación de que los En primer lugar, la ia puede estar
nipular a las personas para obtener empleos tradicionales sean reempla- sesgada debido a la calidad y a la
información confidencial o acceso zados por la automatización, lo que representatividad de los datos con
a sistemas protegidos. Por ejemplo, podría resultar en una disrupción los que se entrena. Si los datos
los atacantes pueden usar algorit- masiva en el mercado laboral. Según utilizados para entrenar a la ia son
mos de aprendizaje automático para un informe del Foro Económico sesgados o incompletos, la ia puede
analizar perfiles de redes sociales y Mundial «Future of work. Insights aprender y perpetuar esos sesgos
crear perfiles falsos que se utilizan for 2021 and Beyond», se estima en sus decisiones. Por ejemplo, si
para engañar a las personas y así que para el año 2025 la automatiza- se entrena una ia para contratar
obtener información confidencial, ción podría eliminar 85 millones empleados uti liza ndo datos de
como contraseñas o datos de acceso. de empleos en todo el mundo en contratación anteriores que tienen
Ot ro r iesgo de seg u r id ad sectores como la manufactura, el sesgos de género o raza, la ia puede
relacionado con la ia es la mani- comercio minorista y la adminis- perpetuar esos sesgos en su proceso
pulación de contenido. La ia puede tración pública. De igual forma, el de selección de candidatos, lo que
ser utilizada para generar contenido mismo estudio estima que surjan 97 lleva a la discriminación de género
falso o manipulado, como imágenes, millones de nuevos empleos que se u origen racial en la contratación.
videos o texto, con el fin de difundir adaptarán mejor al nuevo entorno En segundo lugar, la ia puede
información errónea o engañosa. Por entre humanos, robots y algoritmos. producir sesgos y discriminación
ejemplo, los llamados «deepfakes» son Pese a esto, surge la inquietud si los algoritmos utilizados para
natural asociada a que la tasa de re- desarrollarla no son transparentes
emplazo de trabajos humanos por ia o explicables. Muchos algoritmos de
puede ser mucho mayor a la tasa de ia son cajas negras, lo que significa
reconversión de estos trabajadores. que sus procesos y decisiones no
Esto generaría un problema social son claros para los usuarios o desa-
grave, si no se aborda antes de que rrolladores. Esto puede dificultar la
esto ocurra. Este cambio podría tener identificación y mitigación de sesgos
un impacto significativo en la socie- y la consiguiente discriminación
dad, con la posibilidad de una mayor producida por esta tecnología. Ade-
desigualdad económica, la pérdida más, si los desarrolladores de la ia
de empleos en comunidades enteras y no son conscientes de la presencia
la necesidad de una reestructuración de sesgos y discriminación en sus
masiva de la fuerza laboral. algoritmos, es posible que no tomen
De aquí que es esencial abordar medidas adecuadas para corregirlos.
La reciente imagen estos desafíos mediante la imple- En tercer lugar, la ia puede
ganadora del Sony
World Photography
mentación de políticas y programas producir sesgos y discriminación,
Awards , hecha que ayuden a la transición de los si no se implementan mecanismos
con IA por Boris trabajadores a nuevas oportunidades de supervisión y regulación ade-
Eldagsen, que
despertó polémica laborales, como la reeducación y la cuados. La falta de regulaciones y
mundial. capacitación en habilidades tecnoló- estándares claros en el desarrollo
gicas y de gestión del cambio. y uso de la ia puede permitir la
Mayo 2023 M 43

Si la ia toma decisiones autónomas, ¿quién es Como se mencionó en el punto


responsable cuando esas decisiones son erróneas o 3 de este artículo, los algoritmos
pueden generar discriminación en
perjudiciales? ¿Cómo se asigna la responsabilidad áreas como contratación, préstamos,
legal y ética en caso de consecuencias negativas? atención médica y justicia, lo que
plantea preocupaciones éticas sobre
la equidad y la imparcialidad en las
decisiones tomadas por la ia.
Asimismo, el uso de estas
herramientas plantea interrogantes
proliferación de sistemas sesgados datos, debido a varios factores. La sobre la responsabilidad y la ren-
y discriminatorios. Por ejemplo, si ia a menudo requiere grandes can- dición de cuentas (punto 4 de este
no se establecen políticas claras para tidades de datos para entrenarse y artículo). Si la ia toma decisiones
la utilización de la ia en procesos de funcionar de manera efectiva. Estos autónomas, ¿quién es responsable
contratación, préstamos, seguros u datos pueden incluir información cuando esas decisiones son erróneas
otras áreas sensibles, es posible que la sensible y privada de los usuarios, o perjudiciales? ¿Cómo se asigna la
ia perpetúe sesgos y discriminación como datos personales, historiales responsabilidad legal y ética en caso
sistemáticamente. médicos e información financiera, de consecuencias negativas? Este tema
entre otros. El uso de datos sensibles es especialmente relevante cuando la
en la ia plantea preocupaciones ia se utiliza en aplicaciones críticas,
Falta de transparencia y sobre la privacidad, ya que existe el como vehículos autónomos o sistemas
responsabilidad riesgo de que estos datos sean mal de atención médica, donde las decisio-
La inteligencia artificial (ia) puede utilizados, accedidos de forma no nes equivocadas pueden tener graves
generar falta de transparencia y autorizada o compartidos sin con- consecuencias para la seguridad y el
responsabilidad en el proceso de sentimiento, lo que puede resultar bienestar de las personas.
toma de decisiones, debido a su en violaciones de la privacidad de
complejidad y opacidad. Muchos los usuarios.
algoritmos de ia son considerados Además, la ia también puede Las «cajas negras»
como «cajas negras», producto de que tener implicaciones en la propiedad Finalmente, la falta de transparencia
sus procesos de toma de decisiones y control de los datos. Los modelos en el proceso de toma de decisiones
no son fácilmente explicables por los de ia desarrollados por empresas o de la ia plantea preocupaciones
desarrolladores o usuarios. Esto sig- instituciones pueden generar datos éticas. Muchos algoritmos de ia son
nifica que puede ser difícil entender y conocimientos derivados que considerados como «cajas negras», lo
cómo se toman las decisiones y por pueden tener valor económico. Esto que significa que su funcionamiento
qué se toman de esa manera. plantea preguntas sobre quién tiene interno no es fácilmente comprensi-
Esta falta de transparencia el control y la propiedad de estos ble para los desarrolladores, usuarios
puede llevar a una falta de respon- datos generados por la ia, así como y personas afectadas por las decisio-
sabilidad en el uso de la ia. Si los cómo se utilizan y son compartidos nes de la ia. Esto puede dificultar la
usuarios no pueden entender cómo con terceros. La falta de regulaciones identificación y corrección de sesgos,
se toman las decisiones, es posible y estándares claros en este sentido errores o discriminación en las
que no puedan identificar errores puede generar preocupaciones so- decisiones de la ia, lo que, a su vez,
o sesgos en el proceso de toma de bre la privacidad y seguridad de los puede afectar la confianza pública en
decisiones de la ia. Esto puede llevar datos, así como el uso ético de la ia la tecnología y plantear interrogantes
a decisiones equivocadas o discri- en la gestión de datos. éticas sobre la transparencia y la
minatorias y puede ser difícil para responsabilidad en el uso de la ia.
los desarrolladores o los usuarios Es importante abordar estos
asumir la responsabilidad de estos Ética y gobernanza problemas éticos en el desarrollo y
resultados negativos. La ética en las decisiones tomadas uso de la ia, mediante la implemen-
por la inteligencia artificial (ia) es tación de principios éticos, regula-
un tema de preocupación creciente, ciones adecuadas y una rendición
Impactos en la privacidad y la debido a que la ia tiene la capacidad de cuentas clara. Solo así podremos
seguridad de los datos de tomar decisiones autónomas que garantizar que la ia tome decisiones
La inteligencia artificial (ia) puede pueden tener un impacto significa- justas, equitativas y responsables
producir problemas de impacto en tivo en la vida de las personas y en en beneficio de la sociedad en su
la privacidad y seguridad de los la sociedad en general. conjunto. /M

También podría gustarte