Está en la página 1de 19

Centro de Investigación e Innovación en

Tecnologías de la Información y Comunicación

Actividad 5A. Ensayo crítico sobre la protección de datos personales en


México.
Materia: Derecho mexicano de la protección de datos personales.
Profesor: Dra. Ana Josefina Bello Jiménez
Alumno: Jorge Arturo Pantoja Barroso
Tema: “Transparencia del aprendizaje automático en el tratamiento de datos
personales en las relaciones de consumo”.
Introducción

Con el avance de la inteligencia artificial, el desarrollo del aprendizaje automático,


muchas empresas y entidades del sector público, han aprovechado su potencial
para obtener resultados rápidos y generalmente precisos en cuanto a predecir el
comportamiento que puede tener una persona o un evento.

El aprendizaje automático permite realizar un análisis de los datos y la toma


automática de decisiones a partir de los modelos extraídos de este análisis de datos.

Un ejemplo de esto son los datos clínicos que, analizados con el aprendizaje
automático, aprendizaje profundo y sistemas expertos, se ha permitido obtener una
detección y prevención temprana de trastornos como diabetes, edemas, cáncer,
autismo, y otros; como resultado, la evolución de la historia clínica permite agilizar
el intercambio de datos entre médicos, unidades de atención, laboratorios de
investigación y el paciente.

Otro ejemplo es el análisis de datos financieros y de comportamiento crediticios con


aprendizaje automático, que realizan las instituciones bancarias al momento otorgar
o no un crédito a una persona. Así mismo, tenemos otro caso de alguna empresa o
institución pública en su proceso de reclutamiento utilice este tipo de inteligencia
artificial, para determinar si una persona accede o no a un empleo.

El poder desatado por los datos y su tratamiento ha hecho que la manera de


aproximarse a datos y algoritmos, con la ayuda de la inteligencia artificial y del
aprendizaje automático (machine learning), haya pasado de una primera intención
analítica (usar algoritmos para entender qué dicen los datos) a una intención
predictiva (anticipar) y, finalmente, a una acción claramente prescriptiva (orientar la
conducta de millones de personas mediante lo que se ha averiguado de ellas y de
su contexto con modelos predictivos y clasificatorios). De hecho, ahora mismo
conviven todas estas perspectivas y se necesitan mutuamente; juntas hacen real
una forma de economía y política basada en el control de la demanda y de la
conformación de conductas individuales a escala planetaria.1

Referencia histórica

El aprendizaje automático o aprendizaje automatizado o aprendizaje de máquinas


(del inglés, machine learning) es el subcampo de las ciencias de la computación y
una rama de la inteligencia artificial cuyo objetivo es desarrollar técnicas que
permitan que las computadoras aprendan.

De este modo para los antecedentes del aprendizaje automático no debemos


remontar hasta 1943, año en el que el matemático Walter Pitts y el neurofisiólogo
Warren McCulloch, dieron a conocer su trabajo enfocado a lo que hoy conocemos
como inteligencia artificial, pues en su teoría proponían analizar el cerebro como un
organismo computacional y la creación de computadoras que funcionaran igual o
mejor que nuestra red neuronal.2

Así también, en el año de 1950 el científico conocido como Alan Mathison Turing
creó el conocido “Test de Turing”, cuya finalidad era la de medir que tan inteligente
era una computadora, al tratar de responder en una conversación de la manera más
racional posible imitando el comportamiento de un ser humano.3

Años más tarde a finales de 1952, el profesor e informático teórico Arthur Samuel
dio a conocer el primer programa de cómputo capaz de aprender, era un software
con la capacidad de jugar damas, puesto que tenía capacidad almacenar

1 Turkle, S, "Artificial Intelligence at Fifty: From Building Intelligence to Nurturing


Sociabilities". Dartmouth artificial intelligence conference, Alemania, 2006. Disponible en:
http://www.mit.edu/~sturkle/ai@50.html
2 Hinestroza, Denniye, “El machine learning a través de los tiempos, y los aportes a la Humanidad”,

Repositorio Institucional Unilibre, Universidad Libre, Colombia, 2018, p. 4., disponible en:
https://repository.unilibre.edu.co/handle/10901/17289.
3 Rodríguez, Daniela, La Prueba de Turing, Centro de Innovación Industrial en Inteligencia Artificial,

México, 2021, disponible en: https://www.ciiia.mx/noticiasciiia/la-prueba-de-turing.


información y estilos de juego lo que le permitía mejorar su respuesta según el nivel
del juego, haciéndola cada vez mejor juego tras juego.4

Para el año de 1956 Martin Minsky, John McCarthy y otro grupo de profesionales
en medio de una conferencia científica en Darthmouth dan el nombre “Artificial
Inteligencie”, término el cual se quedaría para ser el nombre de este grandioso
campo de la ciencia e informática, de esta forma se abrió paso para que antes de
que terminara esa década otro innovador hiciera su aporte, este hombre conocido
Frank Rosenblatt un psicólogo Norte Americano, diseñador de perceptrón la primera
red neuronal artificial.

Otro avance importante se dio con la creación del Nearest Neighbor un algoritmo
capaz de reconocer patrones, la herramienta principal de la inteligencia artificial que
dio origen al machine learning ya que al poder brindarle a una maquina la capacidad
de aprender patrones se podía adelantar a una respuesta o solución efectiva.

Si bien se habían obtenido grandes avances en el campo de la inteligencia artificial,


a comienzos del año 2000, carecía de promoción y recursos, debido a que desde
sus orígenes estaba enfocada a sectores empresariales que no gozaban de
suficientes ganancias como para alentar su pleno desarrollo, además en ese punto
de la historia se desconocía el verdadero potencial del machine learning.

Fue hasta los primeros meses del 2006 que el machine learning inicio su gran
ascenso a la cúspide de manejo y procesamiento de datos, ya que, de la mano de
grandes empresas como IBM y Microsoft, empezaría a expandirse a nivel global.

De la mano de Jeff Dean, quien trabajaba en Google y Andrew N quien se


desempeñaba como profesor de la universidad de Stanford, se asociaron para dirigir
un innovador proyecto de Google, que tendría como nombre Google Brain, que
consistía en una red neuronal que por medio de Google es capaz de detectar
patrones en videos e imágenes. Así mismo, este tipo de Red Neuronal Profunda

4 Chess Programming Wiki, Artur Samuel, dsiponibel en:


https://www.chessprogramming.org/Arthur_Samuel
(RNP) se consolidaría a ser una de las grandes maravillas del machine learning al
ser aplicadas posteriormente en sistemas de seguridad y a nivel militar, gracias a
este tipo de algoritmos que costaban de una gran arquitectura de aprendizaje
empresas a nivel de comunicación como Facebook pudieron desarrollar algoritmos
más complejos como el DeepFace, el cual este le permitía a un sistema reconocer
a una persona como lo haría un sistema.5

Semejanzas y diferencias entre el sector público y privado

En realidad, depende de cada campo de industria en la que sea aplicada la


inteligencia artificial para discernir sus semejanzas o diferencia entre su aplicación
en el sector público o privado. Actualmente, son escasos los documentos a nivel
mundial que existen sobre la regulación específica de la inteligencia artificial tanto
en el ámbito público como en el privado. Debemos partir de cada acto propio en la
inteligencia artificial para descifrar su regulación.

La inteligencia artificial involucra la recolección, el almacenamiento, análisis,


procesamiento o interpretación de enormes cantidades de información que es
aplicada para la generación de diversos resultados, acciones o comportamientos
por parte de las máquinas. De este sentido, tendríamos que aterrizar cada actuación
elaborada por una máquina que aplique inteligencia artificial sobre datos personales
para entender su regulación en México desde la Ley Federal de Protección de Datos
en Posesión de los Particulares o en su defecto si se trata de un ente público, la Ley
General de Protección de Datos Personales en Posesión de Sujetos Obligados.

Uno de los pocos documentos que existen en la actualidad en específico sobre la


regulación de la inteligencia artificial son las Directrices Éticas para una IA fiable,
publicadas por el Grupo de expertos de alto nivel sobre inteligencia artificial de la
Comisión Europea el 8 de abril de 2019.6

5 Hinestroza, Denniye, op. cit., p. 6.


6 Grupo de expertos de alto nivel sobre inteligencia artificial de la Comisión Europea, Directrices
Éticas para una IA fiable, 2019, disponible en: https://op.europa.eu/es/publication-detail/-
/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1
“Las directrices elaboradas por el grupo de expertos de alto nivel sobre la IA, se
basan en particular en el trabajo realizado por el Grupo europeo de ética de la
ciencia y de las nuevas tecnologías y la Agencia de los Derechos Fundamentales.
Las directrices propugnan que, para lograr una IA fiable, son necesarios tres
componentes: 1) debe ser conforme a la ley, 2) debe respetar los principios éticos
y 3) debe ser sólida.

Las directrices señalan siete requisitos esenciales que deben respetar las
aplicaciones de IA para ser consideradas fiables. Las directrices también incluyen
una lista para ayudar a comprobar si se cumplen estos requisitos. Los siete
requisitos esenciales son los siguientes:

1. Intervención y supervisión humanas.


2. Solidez y seguridad técnicas.
3. Privacidad y gestión de datos.
4. Transparencia.
5. Diversidad, no discriminación y equidad.
6. Bienestar social y medioambiental.
7. Rendición de cuentas”.7

Aunado a los anteriores también tenemos que la OCDE establece los siguientes
principios sobre la Inteligencia Artificial:

1. “La IA debería beneficiar a las personas y al planeta impulsando el


crecimiento inclusivo, el desarrollo sostenible y el bienestar.
2. Los sistemas de inteligencia artificial deben diseñarse de manera que
respeten el estado de derecho, los derechos humanos, los valores
democráticos y la diversidad, y deben incluir las salvaguardias adecuadas,

7 Comisión Europea, “Generar confianza en la Inteligencia Artificial centrada en el ser humano”,


Dirección General de Redes de Comunicación, Contenido y Tecnologías, pp. 4-5, disponible en:
https://ec.europa.eu/transparency/regdoc/rep/1/2019/ES/COM-2019- 168-F1-ES-MAIN-PART-
1.PDF
por ejemplo, permitir la intervención humana cuando sea necesario, para
garantizar una sociedad justa y equitativa.
3. Debe haber transparencia y divulgación responsable en torno a los sistemas
de IA para garantizar que las personas comprendan los resultados basados
en la IA y puedan desafiarlos.
4. Los sistemas de IA deben funcionar de manera robusta y segura a lo largo
de sus ciclos de vida y los riesgos potenciales deben evaluarse y gestionarse
continuamente.
5. Las organizaciones y las personas que desarrollan implementan u operan
sistemas de IA deben ser responsables de su correcto funcionamiento de
acuerdo con los principios anteriores”.8

La inteligencia artificial puede integrarse en todo el proceso de formulación de


políticas y diseño de servicios. A medida que la inteligencia artificial y el aprendizaje
automático evolucionen, se podrán automatizar más tareas administrativas y de
procesos, lo que aumentará la eficiencia del sector público y privado liberando a
empleados y servidores públicos para que se concentren en trabajos más
significativos.

Algunas de las aplicaciones de la Inteligencia artificial en el sector público9 son:

• Experimentación con la IA en el gobierno y la identificación de proyectos


específicos de IA actualmente en curso o que se desarrollarán en un futuro
próximo.
• Colaboración entre sectores, por ejemplo, a través de asociaciones entre el
sector público y el privado y facilitada mediante centros y laboratorios de
innovación.

8 OCDE, ¿Qué son los principios de la OCDE sobre IA?, disponible en: http://www.oecd.org/going-
digital/ai/principles/.
9 Berryhill, Jamie, et. al., “Hola, mundo: la inteligencia artificial y su uso en el sector público”,

Documentos de trabajo de la OCDE sobre gobernanza pública, México, Núm. 36, p. 90, disponible
en: https://www.oecd.org/gov/innovative-government/hola-mundo-la-inteligencia-artificial-y-su-uso-
en-el-sector-publico.pdf
• Fomento de consejos, redes y comunidades intergubernamentales para
promover enfoques de sistemas.
• Automatización de los procesos gubernamentales habituales para mejorar la
eficiencia.
• Uso de la IA para ayudar a orientar la toma de decisiones gubernamentales
(por ejemplo, en la evaluación de políticas, la gestión de emergencias y la
seguridad pública).
• Gestión estratégica, aprovechamiento y apertura de los datos
gubernamentales para desarrollar servicios personalizados y anticipatorios,
así como para impulsar la IA en el sector privado. En cuanto a las estrategias
en desarrollo, esto se basa en declaraciones públicas sobre el contenido
previsto de la estrategia pertinente.
• Brindar orientación sobre el uso transparente y ético de la IA en el sector
público.
• Mejoramiento de la capacidad de la administración pública mediante la
capacitación, el reclutamiento, las herramientas y la financiación.

La protección de los datos personales como un derecho fundamental

La protección a los datos personales es un derecho humano que está protegido en


nuestra Constitución Política de los Estados Unidos Mexicanos, en el apartado A,
fracción II del artículo 6 que establece que:

“La información que se refiere a la vida privada y los datos personales será
protegida en los términos y con las excepciones que fijen las leyes”.

La fracción III del citado artículo garantiza que toda persona podrá tener acceso a
sus datos personales sin tener que acreditar el interés o justificar su utilización, así
como también solicitar la rectificación.

Y propiamente el artículo 16 de nuestra Constitución Federal dispone que:


“Nadie puede ser molestado en su persona, familia, domicilio, papeles o
posesiones, sino en virtud de mandamiento escrito de la autoridad
competente, que funde y motive la causa legal del procedimiento. En los
juicios y procedimientos seguidos en forma de juicio en los que se establezca
como regla la oralidad, bastará con que quede constancia de ellos en
cualquier medio que dé certeza de su contenido y del cumplimiento de lo
previsto en este párrafo”.

El segundo párrafo de ese artículo dispone que: “Toda persona tiene derecho
a la protección de sus datos personales, al acceso, rectificación y cancelación
de los mismos, así como a manifestar su oposición, en los términos que fije
la ley, la cual establecerá los supuestos de excepción a los principios que
rijan el tratamiento de datos, por razones de seguridad nacional,
disposiciones de orden público, seguridad y salud públicas o para proteger
los derechos de terceros”.

En el caso que nos ocupa para lograr una protección de datos personales a la hora
del tratamiento por medio del aprendizaje automático debemos verificar para que
sea fiable según las directrices antes mencionadas, que el sistema de inteligencia
artificial garantice:

1. Intervención y supervisión humanas.


2. Solidez y seguridad técnicas.
3. Privacidad y gestión de datos.
4. Transparencia.
5. Diversidad, no discriminación y equidad.
6. Bienestar social y medioambiental.
7. Rendición de cuentas.
Inteligencia artificial y aprendizaje automático

Uno de los recursos tecnológicos que las empresas mayormente han explotado en
los últimos cinco años para la publicidad en internet es la llamada inteligencia
artificial y aprendizaje automático. La Inteligencia Artificial (en adelante “IA”) es la
ciencia de construir máquinas que realicen tareas complejas que serían catalogadas
como “inteligentes” si fueran realizadas por humanos.10 Esto trae como
consecuencia que un sistema inteligente puede ser concebido bajo dos
paradigmas11, uno asociado a las capacidades de razonamiento y abstracción, y
otro relacionado a las capacidades de actuación (Norvig & Rusell, 2004, p. 2). Esto
origina cuatro paradigmas de IA: (1) Sistemas (de IA) que piensan como humano,
(2) Sistemas que actúan como humanos, (3) Sistemas que piensan racionalmente
y (4) Sistemas que actúan racionalmente (Norvig & Rusell, 2004, p. 2).

Una de las áreas de la IA se conoce como Planificación Automática. Ésta persigue


razonar automáticamente para determinar la “secuencia” de acciones posibles que
debe tomar un sistema para ir desde una situación final a una situación deseada.
En términos simples, las técnicas de aprendizaje automático permiten que la
máquina (computador) aprenda a realizar tareas automáticamente mejorando con
la experiencia12.

Esto es fundamental pues el enfoque clásico de “programación” de los


computadores asume que la máquina tiene un conjunto de instrucciones (i.e.,

10 Paz Araya, Carlos, “Transparencia algorítmica ¿un problema normativo o tecnológico?”, Revista
CUHSO, Ediciones Silsag, Chile, 2021.
11 Norvig, Peter & Stuard Russell, Inteligencia Artificial: Un Enfoque Moderno, Madrid: Pearson

Prentice Hall, 2004.


12 Shalev-Shwartz, Shai & Shai Ben-David, “Understanding Machine Learning: From Theory to

Algorithms”, New York: Cambridge University Press, 2014.


programa) que especifica paso a paso lo que debe realizar para cumplir un cierto
objetivo, mientras que el aprendizaje automático se caracteriza por abordar
problemas complejos en los cuales no es posible tener secuencias de pasos bien
delimitadas ni claras, por lo que se debe dotar al computador de la facultad de
“aprender” automáticamente a realizar alguna tarea a partir de ejemplos o la
experiencia, o sea, sin ser programados explícitamente13.

La inteligencia artificial son algoritmos de difícil comprensión que no le indican a una


máquina los pasos a seguir para resolver el problema sino la forma en que pueden
aprender a partir de ejemplos o experiencia previa. La Real Academia de la Lengua
Española define a un algoritmo como un “conjunto ordenado y finito de operaciones
que permite hallar la solución de un problema”.

Una de las utilidades más destacadas de un método de aprendizaje automático


tiene que ver con problemas de “predicción” (i.e., proyección de valores futuros de
ciertas variables) de datos continuos (también llamados “Regresión”) o de datos
discretos (también llamados “Categorización”).

Los métodos de aprendizaje automático atienden a diferentes técnicas que poseen


distintos tipos de complejidad: 1) complejidad temporal, 2) complejidad espacial, 3)
complejidad de diseño.

La opacidad antes mencionada, puede tener distintas causas como señalamos con
anterioridad al examinar los tipos de complejidad de los modelos computacionales
que subyacen a las técnicas de aprendizaje automático. Para enfatizar lo anterior,
conviene tener presente dos ejemplos que ilustran sobre el origen de la mencionada
opacidad: (1) la complejidad de la estructura del algoritmo (2) el algoritmo de
aprendizaje automático basado en relaciones geométricas que los humanos no
pueden visualizar.

13Galeano, Isabella, “10 Conceptos Básicos de Inteligencia Artificial”, The Technolawgist, 2019, p.
20-21.
Reto jurídico o problemática en general

Para describir la problemática que ya hemos esbozado en anterior apartados,


tratemos de imaginar la siguiente situación: Un banco tiene un sistema de
aprendizaje automático para determinar la solvencia de quienes solicitan un
préstamo. Con base en datos sobre préstamos anteriores, incluido su resultado,
etiquetado como “bueno” o “malo”, el sistema aprende por sí solo a predecir si una
persona quien realiza una nueva aplicación terminaría siendo una “buena” o “mala”
para obtener un préstamo.

La problemática en sí es el grado de dificultad para determinar cómo emite una


respuesta un sistema de aprendizaje automático. Como hemos visto, a medida que
los algoritmos de aprendizaje automático se hacen más y más sofisticados, la
posibilidad de que una mente humana entienda los procedimientos que utiliza para
llegar a un resultado determinado disminuyen progresivamente, lo que nos lleva, en
último término, a tener una caja negra que genera resultados, sin entender cómo se
llega a ellos.

Cuando el modelo alcanza ese nivel de complejidad, la capacidad de correlacionar


el resultado (output) con las variables introducidas en la entrada (input) se reducen
significativamente. Por consiguiente, demostrar que un método de aprendizaje
automático no ha tomado una decisión, basado en un criterio eventualmente
discriminatorio puede resultar extremadamente complejo desde la perspectiva
técnica.

En relación con los riesgos en el uso del aprendizaje automático se pueden


mencionar los siguientes:

• Muchos sistemas de Inteligencia Artificial afectan desproporcionadamente a


grupos que ya están en desventaja por factores como la raza, género y
antecedentes socioeconómicos. La capacidad de detectar y corregir estos
sesgos en los datos hace que sea importante contar con grandes volúmenes
de datos y diferentes para que la amplitud y la profundidad de los datos
expongan las sutilezas correspondientes a cada grupo de pacientes.
• Las personas que confían y utilizan Inteligencia Artificial en el ámbito sanitario
deben incorporar prácticas que garanticen la integridad, confidencialidad y
disponibilidad de la información del sistema.
• En algunas ocasiones, los datos clínicos son numerosos y no son de calidad,
no hay información concreta del paciente (por ejemplo, diferentes direcciones
de su vivienda), la información es inconsistente. En esta forma los datos no
tienen significados clínicos, por lo que no se pueden crear ontologías a partir
de ellos ni una capa semántica que sea la base de la Inteligencia Artificial ni
conseguir que un sistema aprenda solo.
• La influencia de los falsos positivos, los errores y la precisión del sistema de
Inteligencia Artificial.
• Otro de los riesgos es el sesgo de automatización, es decir, cuando los
médicos aceptan sin cuestionar los consejos de las máquinas en lugar de
mantener la vigilancia o validar esos consejos.
• Es potencialmente problemática, para la aplicación clínica, la incapacidad de
la inteligencia artificial para “explicar” la toma de decisiones de una manera
comprensible. Existe la necesidad no solo de enfoques de buen desempeño,
sino también fiables, transparentes e interpretables.
• Si bien los ejemplos descritos constituyen impresionantes éxitos prácticos,
su efectividad está limitada por la incapacidad para “explicar” la toma de
decisiones de una manera comprensible. Esto es potencialmente
problemático para su aplicación clínica, donde existe una necesidad clara de
enfoques que no son solo de buen desempeño, sino también fiables,
transparentes e interpretables.14

En este tenor, tenemos como premisa que el aprendizaje automático en la


combinación de datos y algoritmos induce y propaga mecanismos de sesgo,
discriminación, trato injusto y desigual.

14 Medinaceli, Karina, et. al., “Impacto y regulación de la Inteligencia Artificial en el ámbito sanitario”,
Ius Revista del Instituto de Ciencias Jurídicas de Puebla, México, 2021, pp. 77-113, disponible en:
https://revistaius.com/index.php/ius/article/view/745/803
Propuesta

Más que esbozar una propuesta de solución (que al momento es imposible de


articular), hablaremos de la necesidad de transparentar las decisiones tomadas por
los sistemas de aprendizaje automático.

La transparencia de datos y de algoritmos (transparencia algorítmica) implica la


capacidad de saber qué datos se utilizan, cómo se utilizan, quiénes los utilizan, para
qué los utilizan y cómo se llega a partir de los datos a tomar las decisiones que
afectan a la esfera vital de quien reclama esta transparencia. Si una persona ha sido
rechazada en algún proceso (por ejemplo, no recibe una beca o un crédito), debería
saber a partir de qué datos se ha tomado esa decisión y cómo se ha decidido
excluirla, que es una cosa diferente. Igualmente, si un sistema de reconocimiento la
ha clasificado como sospechosa de terrorista. Hoy en día, una esfera pública
informada debería estar compuesta por agentes capaces de averiguar el subtexto
del universo algorítmico en el que se desarrollan los ciudadanos como sujetos
económicos y políticos.15

Según las Directrices Éticas para una IA fiable que señalamos anteriormente, la
transparencia en los sistemas de inteligencia artificial tiene que ver con:

• Garantizarse la trazabilidad de los sistemas de IA; es importante registrar y


documentar tanto las decisiones tomadas por los sistemas como la totalidad
del proceso (incluida una descripción de la recogida y el etiquetado de datos,
y una descripción del algoritmo utilizado) que dio lugar a las decisiones.

• A este respecto, en la medida de lo posible debe aportarse la explicabilidad


del proceso de toma de decisiones algorítmico, adaptada a las personas
afectadas. Debe proseguirse la investigación en curso para desarrollar
mecanismos de explicabilidad. Además, deben estar disponibles las
explicaciones sobre el grado en que un sistema de IA influye y configura el

15Sangüesa, Ramon, "Inteligencia artificial y transparencia algorítmica : It's complicated”. BiD: textos
universitaris de biblioteconomia i documentació, núm. 41, España, 2018, p.2, disponible en:
https://bid.ub.edu/sites/bid9/files/pdf/41/es/sanguesa.pdf
proceso organizativo de toma de decisiones, las opciones de diseño del
sistema, así como la justificación de su despliegue (garantizando, por tanto,
no solo la transparencia de los datos y del sistema, sino también la
transparencia del modelo de negocio).

• Por último, es importante comunicar adecuadamente las capacidades y


limitaciones del sistema de IA a las distintas partes interesadas afectadas de
una manera adecuada al caso de que se trate. Por otra parte, los sistemas
de IA deben ser identificables como tales, garantizando que los usuarios
sepan que están interactuando con un sistema de IA y qué personas son
responsables del mismo.16

La transparencia en los sistemas de inteligencia artificial sin duda es un reto que


aún falta mucho por investigar y descifrar si en verdad puede ayudarnos a entender
como toma decisiones una sistema de este tipo.

Ahora, también es necesario mencionar que la transparencia sólo nos ayudaría nos
a entender cómo se emitió o llegó a una respuesta un sistema de este tipo, más no
dejaría producir un efecto si es que la organización toma los resultados de forma
directa sin analizar o premeditar la información arrojada por el sistema. Es decir, si
resultado de la predicción es que te niegan un seguro de vida por el motivo que le
causaría un detrimento a ala agencia de seguros, ¿deberíamos quedarnos
tranquilos con esa justificación? ¿Bastaría entonces la trasparencia y la explicación
en un sistema de aprendizaje automático para determinar que no hubo sesgos o
discriminaciones en la toma de decisiones?

Como tal en manos la decisión del sistema de inteligencia artificial no está la


decisión. La misma sigue en posesión de las organizaciones, tan solo es una
herramienta de la cual disponen para el tratamiento y análisis de datos masivos.

16
Comisión Europea, op. cit., p. 6.
Conclusiones

En el presente trabajo tratamos de exponer el tema de la falta de transparencia que


existe hoy en día sobre la transparencia en el tratamiento de datos que son usados
por los sistemas de inteligencia artificial en su modalidad del aprendizaje
automático.

Es bastante complejo tratar de regular y establecer lineamientos a una actividad


como la inteligencia artificial y el aprendizaje automático que en ocasiones alcanzan
puntos indescifrables para analista de datos, respecto a los sesgos existentes en
sus conclusiones y/o predicciones. Así mismo, por demás complejo, regular un
sistema que requiere por si mismo de cierta indecifrabilidad si se le puede llamar
así al hecho de que es necesario también mantener un mínimo de anonimato en los
códigos que utilizan estos sistemas porque de lo contrario también estamos
exponiendo o dejando vulnerable a los datos e información que se utilizan por estos.

Tendríamos que encontrar un equilibrio entre ambas situaciones, mantener una


cierta anonimia en los datos e información personal tratada por sistemas de
inteligencia artificial como la de proveer de recursos que nos permitan identificar la
forma o conducción de las tomas de decisiones de estos; tarea que, hasta nuestros
días actuales, necesita de más investigación y puesta en práctica.

Ante esta situación me pregunto ¿quiénes controlan las actuales relaciones de


consumo en internet? O será acaso, ¿que ni proveedores ni consumidores tengan
esta posición en dicha relación?, dado que ahora existen tecnologías que están
automatizando las operaciones en internet sin la necesidad de la intervención de
una persona, es decir, ¿el aprendizaje automático está creando las propias
necesidades de consumo de una persona atendiendo a sus preferencias
precedentes? ¿Quién está decidiendo qué tipo de tratamiento es el adecuado para
mí? Hasta qué medida el aprendizaje automático está condicionando nuestros
comportamientos, al darnos una respuesta en base en nuestras acciones
anteriores. ¿La predicción automática vulnera el ejercicio del libre desarrollo de la
personalidad?
Bibliografía:

• Berryhill, Jamie, et. al., “Hola, mundo: la inteligencia artificial y su uso en el


sector público”, Documentos de trabajo de la OCDE sobre gobernanza
pública, México, Núm. 36, p. 90, disponible en:
https://www.oecd.org/gov/innovative-government/hola-mundo-la-
inteligencia-artificial-y-su-uso-en-el-sector-publico.pdf

• Chess Programming Wiki, Artur Samuel, dsiponibel en:


https://www.chessprogramming.org/Arthur_Samuel

• Comisión Europea, “Generar confianza en la Inteligencia Artificial centrada


en el ser humano”, Dirección General de Redes de Comunicación, Contenido
y Tecnologías, pp. 4-5, disponible en:
https://ec.europa.eu/transparency/regdoc/rep/1/2019/ES/COM-2019- 168-
F1-ES-MAIN-PART-1.PDF

• Galeano, Isabella, “10 Conceptos Básicos de Inteligencia Artificial”, The


Technolawgist, 2019, p. 20-21.

• Grupo de expertos de alto nivel sobre inteligencia artificial de la Comisión


Europea, Directrices Éticas para una IA fiable, 2019, disponible en:
https://op.europa.eu/es/publication-detail/-/publication/d3988569-0434-
11ea-8c1f-01aa75ed71a1

• Hinestroza, Denniye, “El machine learning a través de los tiempos, y los


aportes a la Humanidad”, Repositorio Institucional Unilibre, Universidad
Libre, Colombia, 2018, p. 4., disponible en:
https://repository.unilibre.edu.co/handle/10901/17289.

• Medinaceli, Karina, et. al., “Impacto y regulación de la Inteligencia Artificial en


el ámbito sanitario”, Ius Revista del Instituto de Ciencias Jurídicas de Puebla,
México, 2021, pp. 77-113, disponible en:
https://revistaius.com/index.php/ius/article/view/745/803

• Norvig, Peter & Stuard Russell, Inteligencia Artificial: Un Enfoque Moderno,


Madrid: Pearson Prentice Hall, 2004.

• OCDE, ¿Qué son los principios de la OCDE sobre IA?, disponible en:
http://www.oecd.org/going-digital/ai/principles/.

• Paz Araya, Carlos, “Transparencia algorítmica ¿un problema normativo o


tecnológico?”, Revista CUHSO, Ediciones Silsag, Chile, 2021.

• Rodríguez, Daniela, La Prueba de Turing, Centro de Innovación Industrial en


Inteligencia Artificial, México, 2021, disponible en:
https://www.ciiia.mx/noticiasciiia/la-prueba-de-turing.

• Sangüesa, Ramon, "Inteligencia artificial y transparencia algorítmica : It's


complicated”. BiD: textos universitaris de biblioteconomia i documentació,
núm. 41, España, 2018, p.2, disponible en:
https://bid.ub.edu/sites/bid9/files/pdf/41/es/sanguesa.pdf

• Shalev-Shwartz, Shai & Shai Ben-David, “Understanding Machine Learning:


From Theory to Algorithms”, New York: Cambridge University Press, 2014.
• Turkle, S, "Artificial Intelligence at Fifty: From Building Intelligence to
Nurturing Sociabilities". Dartmouth artificial intelligence conference,
Alemania, 2006. Disponible en: http://www.mit.edu/~sturkle/ai@50.html

También podría gustarte