Está en la página 1de 2

Pablo Andrés Lombana Zorro

Reseña – Charla TEDxZaragoza


Gemma Galdón-Clavell
Universidad Central
Maestría Analítica de Datos

¿QUÉ ES LA ÉTICA DE LA TECNOLOGÍA Y PORQUÉ DEBERÍA IMPORTARTE?

La charla TED realizada en Zaragoza, España por la doctora Gemma Galdón-Clavell

relata distintos casos de uso donde la tecnología a pesar de ser utilizada para simplificar

actividades del diario común e intentar ayudar para que ciertos procesos fuesen más efectivos y

rápidos, presentan riesgos latentes para la sociedad donde la aplicación de estás tecnologías

puede sesgar e incluso discriminar personas en diferentes entornos de ciudad con base a modelos

entrenados con diferentes fuentes de datos recolectados. La charla se basa principalmente sobre

el uso que se dan sobre estas tecnologías y como se debe poner límites sobre el desarrollo, para

tener control sobre los diferentes productos que se lanzan al mercado utilizando inteligencia

artificial y que afectan positiva o negativamente a la sociedad. Un aspecto importante sobre la

exposición, es relacionado a la “huella digital”, definida como un rastro que se genera al navegar

por la red donde básicamente a medida que se utiliza el internet para diferentes actividades como

las redes sociales, quedan almacenados los datos de los movimientos de los usuarios en los

diferentes servidores de las empresas proveedoras de páginas web (Puerto & Ignacio, 2018)

dejando un rastro que permite identificar a la persona que utilizó la red, que si bien esto pareciera

no representar un problema latente, las personas no conocen el uso que se dan a los datos

suministrados los cuales, permiten utilizarse para realizar análisis y también para predecir

comportamientos humanos, afectando la privacidad de los mismos y siendo un riesgo en temas

de seguridad para los usuarios.


Otro de los aspectos relevantes de la charla sobre la ética de los datos se da sobre ¿Cómo

se entrenan los algoritmos de inteligencia artificial?, puesto que, el ejemplo sobre las personas

potencialmente peligrosas en espacios sensibles como bancos o aeropuertos abre la puerta lo que

sería denominado la “normalidad”, que si bien se puede aplicar para muchas personas, para otras

no y esto crea un sesgo sobre los resultados que se están arrojando sobre a los algoritmos,

creando estigmas innecesarios sobre la población, además, que este sesgo puede incurrir en

decisiones de tipo judicial donde se incrimine injustamente a ciertas personas por

comportamientos que según el algoritmo no son normales (Osoba et al., 2017).

También podría gustarte