Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La charla TED realizada en Zaragoza, España por la doctora Gemma Galdón-Clavell relata
distintos casos de uso donde la tecnología a pesar de ser utilizada para simplificar actividades del
diario común e intentar ayudar para que ciertos procesos fuesen más efectivos y rápidos, presentan
riesgos latentes para la sociedad donde la aplicación de estás tecnologías puede sesgar e incluso
discriminar personas en diferentes entornos de ciudad con base a modelos entrenados con
diferentes fuentes de datos recolectados. La charla se basa principalmente sobre el uso que se dan
sobre estas tecnologías y como se debe poner límites sobre el desarrollo, para tener control sobre
los diferentes productos que se lanzan al mercado utilizando inteligencia artificial y que afectan
a la “huella digital”, definida como un rastro que se genera al navegar por la red donde básicamente
a medida que se utiliza el internet para diferentes actividades como las redes sociales, quedan
almacenados los datos de los movimientos de los usuarios en los diferentes servidores de las
empresas proveedoras de páginas web (Puerto & Ignacio, 2018) dejando un rastro que permite
identificar a la persona que utilizó la red, que si bien esto pareciera no representar un problema
latente, las personas no conocen el uso que se dan a los datos suministrados, los cuales, permiten
utilizarse para realizar análisis y también para predecir comportamientos humanos, afectando la
privacidad de los mismos y siendo un riesgo en temas de seguridad para los usuarios.
Otro de los aspectos relevantes de la charla sobre la ética de los datos se da sobre ¿Cómo
se entrenan los algoritmos de inteligencia artificial?, puesto que, el ejemplo sobre las personas
potencialmente peligrosas en espacios sensibles como bancos o aeropuertos abre la puerta lo que
sería denominado la “normalidad”, que si bien se puede aplicar para muchas personas, para otras
no y esto crea un sesgo sobre los resultados que se están arrojando los algoritmos, creando estigmas
innecesarios sobre la población, además, que este sesgo puede incurrir en decisiones de tipo
judicial donde se incrimine injustamente a ciertas personas por comportamientos que según el
debe ser inmiscuido en cada proyecto o desarrollo que implique el uso de datos de personas, que
lado que se están utilizando datos medidos principalmente sobre personas y los cuales deben
garantizar la privacidad de los mismos en aras de que no se afecte el buen nombre de los usuarios
(Galdón-Clavell, 2018) por otra parte, que los datos no sean usados para usos indebidos como paso
en el caso de Cambridge Analítica, donde se perfilaron usuarios para modificar resultados en las
crearse mecanismos para el control de los algoritmos, donde básicamente se debe ser más estrictos
con los desarrollos que salen en el mercado para estos no tengan un impacto contrario al que se
busca, pero también enfatiza que para que esto no suceda se debe siempre crear responsabilidad
por parte de las personas que los desarrollan este tipo de tecnologías.
REFERENCIAS
3. Osoba, O. A., IV, W. W., & Welser, W. (2017). An Intelligence in Our Image: The Risks
of Bias and Errors in Artificial Intelligence. Rand Corporation.