Está en la página 1de 7

ALGORITMOS – BIG DATA. DERECHO A LA INTIMIDAD Y LIBERTAD DE EXPRESIÓN.

Por Manuel Larrondo


@larrondomanuel
Abogado – Docente Universitario
Fac de Periodismo y Comunicación Social UNLP
Maestría Periodismo de Investigación – Universidad del Salvador
Director Instituto de Derecho de la Comunicación – Colegio de Abogados de La Plata

Mary Bollender es una madre soltera que vive en Las Vegas con ciertos
problemas económicos. Una mañana de 2014, al estar su hija de diez años enferma a
raíz de una fiebre alta persistente, decidió llevarla al Hospital con su auto. Pero no
pudo porque el vehículo no funcionaba: el Banco había desactivado su funcionamiento
en forma remota al advertir que Mary se había retrasado tres días en el pago del
préstamo. Una vez que pagara, el automóvil volvería a funcionar. Por desgracia, Mary
no podía pagar aquella mañana y, consecuentemente, tampoco llevar a su hija al
médico. Un equipo electrónico inserto en el auto y que opera bajo un sistema remoto
que a su vez no entiende de excepciones o de “lógica de humanidad”, simplemente lo
desconectó (“Miss a Payment? Good Luck Moving That Car” The New York Times
24/9/2014 https://dealbook.nytimes.com/2014/09/24/miss-a-payment-good-luck-
moving-that-car/?_r=0)
No solo los humanos sufren estas contingencias electrónicas modernas.
Las Empresas y los Gobiernos también padecen la lógica inentendible de los
algoritmos. Tanto el Gobierno Británico como muchísimas Empresas multinacionales
como Ford Motor Company, Volkswagen, Starbucks, Toyota Motor, Johnson & Johnson,
Verizon, Netflix y AT&T entre las cuales también hay medios de información como The
Guardian y la cadena pública BBC han reclamado recientemente a Google porque sus
promociones y publicidades aparecieron patrocinando videos extremistas y
discriminatorios, entre ellos de Steven Anderson quien se ufana al negar el holocausto
y clama por la muerte de los homosexuales. O bien han sido difundidos en videos por
los cuales se reinvidican actos terroristas del Ejército Islámico. Al parecer, el sitio YOU
TUBE, de propiedad de Google, posee un sistema de algoritmos cuya lógica opera en su
contra llevándole a enfrentar una severa crisis de confianza (“Socios accidentales: la
publicidad de You Tube le trae problemas a Google”, 18/4/2017
http://www.letraslibres.com/mexico/ciencia-y-tecnologia/socios-accidentales-la-
publicidad-youtube-le-trae-problemas-google#.WPhTTEL1P0k.twitter
Esos mismos algoritmos que dejan sin funcionar un auto e impiden a una
madre llevar a su hija al hospital y que vinculan publicidades de Empresas con actos
discriminatorios difundidos en YOU TUBE, también permiten que se pueda obtener un
perfil prácticamente completo de nuestra personalidad. Hace apenas cinco años, en
2012, Michal Kosinski, destacado experto en psicometría de la Subdirección de
Psicología basada en datos de la Universidad de Cambridge, demostró que sobre la
base de un promedio de 68 "gustos" de Facebook por parte de un usuario, era posible
predecir su color de piel (con 95% de precisión), su orientación sexual (88 por ciento de
precisión) y su afiliación al Partido Demócrata o Republicano (85%) en EEUU. Pero no
se detuvo allí. La inteligencia, la afiliación religiosa, así como el alcohol, el cigarrillo y el
uso de drogas, podrían ser determinados. De los datos y rastros que uno deja al usar
esta red social, era incluso posible deducir si los padres de alguien estaban divorciados
(“The Data That Turned the World Upside Down” 28/01/17 por HANNES GRASSEGGER
& MIKAEL KROGERUS https://motherboard.vice.com/en_us/article/how-our-likes-
helped-trump-win)
Los ejemplos citados sin duda son impactantes y demuestran en cierta
forma que el desarrollo temprano de la inteligencia artificial, algoritmos y los sistemas
autónomos implican no solo la imperiosa necesidad de saber cómo funcionan, debatir
sus alcances sino además de plantearnos sin dudas problemas éticos y legales
complejos.
A modo de ejemplo, bastará con recordar que el artículo 13 del Pacto de
San José de Costa Rica – de jerarquía constitucional- establece que todo ser humano
tiene derecho a la libertad de pensamiento y expresión. Uno podría decir que, al
menos hasta el momento, no se ha inventado una máquina que nos impida pensar
pero… es así? Acaso los algoritmos empleados por las Empresas y Gobiernos no nos
estarían condicionando actualmente en nuestra “libertad de pensamiento y libre
elección”? Por otra parte, las noticias futuristas – y no tanto- anticipan que pronto
habrá vehículos que se manejarán automáticamente, sin necesidad de que un ser
humano lo opere. En principio puede resultar fantástico y hasta muy cómodo pero…
¿Cómo operaría ese vehículo autónomo cuando se enfrente a un accidente en el que
podría causar daños a humanos y cosas? ¿Por cuál se inclinaría evitar dañar? ¿Podría
elegir?

¿Qué es un algoritmo?
Sandra Alvaro explica que “un algoritmo es una lista finita de instrucciones
que se aplican a un input durante un número finito de estados para obtener un output,
permitiendo realizar cálculos y procesar datos de modo automático.” (El poder de los
algoritmos: cómo el software formatea la cultura”, 29/01/2014,
http://lab.cccb.org/es/el-poder-de-los-algoritmos-como-el-software-formatea-la-
cultura/)
El algoritmo no sabe nada de género, edad, condiciones económicas, etc.
Simplemente tiene una ristra de números e intenta encontrar patrones que le permitan
acertar el mayor número de veces.
Y aquí es donde David Casacuberta sostiene que aparece el problema:
“Un programa tradicional, desarrollado por un humano, sigue una lógica, con lo que es
posible entender qué está haciendo ese programa. Un algoritmo automatizado es
como una caja negra. Le damos una entrada (los datos de la persona que pide el
crédito) y nos da una salida (la probabilidad de que devuelva o no el crédito). Es muy
complejo ─o prácticamente imposible─ saber por qué el programa ha decidido
rechazar o aceptar un crédito” (“Injusticia algorítmica”, 14/03/17
http://lab.cccb.org/es/injusticia-algoritmica/).
Por su parte, Sandra Alvaro explica que “los algoritmos también se han
ido infiltrando en todos los procesos que conforman nuestra cultura y vida cotidiana.
Facebook, a la que se conectan 699 millones de usuarios cada día, cuenta con un
algoritmo denominado Edgerank que analiza los datos recopilados acerca de nuestros
intereses –los «me gusta» que pulsamos–, el número de amigos que tenemos en
común con el emisor de la historia, así como los comentarios realizados, para
determinar qué post mostrar en nuestro «news feed» y ocultar las historias
«aburridas». Del mismo modo, es un algoritmo el que rastrea nuestros contactos para
sugerir nuevos amigos.”
Agrega Alvaro que “Twitter procede de modo similar a la hora de
sugerirnos nuevas cuentas que seguir, elaborar el contenido de la pestaña «descubre»
o la lista de los «trend topics». En este último caso, trabaja un complejo algoritmo que
no se limita a contabilizar la palabra más twitteada, sino que tiene en cuenta si un
término se ha acelerado en su uso, si ha sido tendencia anteriormente, o si este es
usado en diferentes redes o solo dentro de un cluster densamente conectado de
usuarios. A este fin, el algoritmo no solo cuenta con el seguimiento de los «hastags», la
etiqueta que permite linkear con todas las historias que la contienen –propuesta en
2007 por esta plataforma y que ha extendido su uso a toda la web social–, sino que
cuenta también con la tecnología de los links abreviados. Los t.co (f.bo, en el caso de
Facebook) se generan cada vez que compartimos una web a través de un botón social.
Estos permiten no solo economizar el número de caracteres, sino que convierten
los links en estructuras ricas en datos, que permiten seguir cómo estos son compartidos
a través de la plataforma y crear perfiles de sus usuarios.”
En el caso del buscador Google, es un medio que consta de más de
sesenta trillones de páginas y en el que se realizan más de dos millones de
búsquedas por minuto. El algoritmo que emplea es asistido por otros que tienen en
cuenta nuestro historial de búsquedas, analizan nuestro lenguaje y determinan nuestra
localización para personalizar los resultados.
También son algoritmos los que obtienen datos extraídos de nuestras
acciones para sugerirnos qué libros comprar en Amazon, que películas o series ver en
NETFLIX, qué videos ver en YOU TUBE o qué anuncios mostrarnos en todas estas
plataformas.
Concluye Sandra Alvaro sosteniendo que “cada link que creamos y
compartimos, cada tag que añadimos a una información, cada acto de aprobación,
búsqueda, compra o retweet, es registrado en una estructura de datos, y
posteriormente procesado para orientar e informar a otros usuarios. De este modo,
los algoritmos nos asisten en nuestra navegación a través del inmenso cúmulo de
informaciones de la red, tratando la información producida individualmente, para
que pueda ser consumida por la colectividad. Pero, al gestionar la información, estos
también reconstruyen relaciones y organizaciones, forman gustos y encuentros,
pasando a configurar nuestro entorno e identidades. Las plataformas se constituyen
en entornos socio-técnicos automatizados.”
Intimidad, acceso a la información, libertad de pensamiento: Derechos humanos
gobernados por los algoritmos.
El registro constante de nuestras acciones supone un cambio respecto a lo
que es nuestro derecho humano a la intimidad entendido como esa zona de reserva
espiritual que no puede ser afectada por una intromisión arbitraria (art 11 del Pacto de
San José de Costa Rica) y el hecho de que estos algoritmos nos enrolan en procesos de
los que quizás no somos del todo conscientes.
A pesar de que nos dan acceso a información que, por su dimensión, ha
dejado de ser humanamente discernible, ampliando así nuestra capacidad de elección,
lejos de ser neutros estos algoritmos también nos guían según operaciones
matemáticas incapaces – al menos hasta el momento- de contar con un sesgo de
humanidad y menos aún de ser sinceros en sus fines.
La pérdida día a día de ejercer nuestro derecho a la intimidad ha mutado
en una verdadera limitación a la libertad digital de pensamiento y expresión. Hasta se
ha llegado a decir en ámbitos académicos o sociales que en realidad hemos dejado de
tener intimidad plena porque ha mutado a ser una “expectativa”. Al ser solo una mera
“expectativa”, se genera una errónea idea o concepto respecto a que no sería posible
pretender que se la proteja desde el momento en que, por ejemplo, realizamos una
llamada telefónica o intercambio de correo electrónico empleando para ello los
servicios de una Empresa de telecomunicaciones o un proveedor gratuito de cuentas
de emails que pueden tener acceso a saber con quien nos comunicamos, cuando lo
hacemos y cuanto tiempo duran nuestros intercambios de correos o llamadas.
Sin duda que además de la clara afectación a nuestro derecho a la
intimidad y libertad de expresión, nos encontramos sometidos además a una vigilancia
tecnológica inaudita. Nuestras compras, fobias, consultas en buscadores, movimientos,
actividades y relaciones, son escrutadas y almacenadas para crear perfiles comerciales,
personales y de seguridad. No pensemos de forma única en las empresas privadas: el
propio Estado es uno de los principales recopiladores de datos de sus ciudadanos y
sobran ejemplos en nuestro país: el sistema BIOS utilizado para los DNI, pasaportes,
salida y entrada del país, la tarjeta de transporte público SUBE, las cámaras de
“inseguridad” que filman 24 hs en la vía pública.
Esta recopilación de datos para predecir nuestras próximas acciones sin
duda limita nuestra libertad de pensamiento y especialmente nuestra intimidad. Datos
y perfiles que podrán ser utilizados en el futuro, por ejemplo, para que una Empresa
decida si permite que contratemos un seguro, comprar un auto, concedernos un
crédito bancario o bien viajar a un determinado país.
En principio, es posible inferir que el usuario medio de la web o de las
aplicaciones móviles no sea consciente de todas las limitaciones, recopilación de datos
y observaciones a las que es expuesto. La libertad, para disfrutarla, requiere de
información y consciencia de los límites a los que se enfrenta. No solo hablamos de los
límites presentes, sino también de las consecuencias de nuestros actos digitales para el
futuro.
Es posible advertir que la mayoría de usuarios percibe a la web como un
medio de difusión, en el sentido de los medios tradicionales, sin ser conscientes de
cómo la información es filtrada y procesada por ese mismo medio. Los algoritmos no
solo son imperceptibles en su acción y desconocidos en muchos casos por estar en
manos de agencias comerciales y protegidos por las leyes de propiedad intelectual,
sino que también – como sostuvimos con antelación - se han hecho inescrutables. Ello
es debido a la interrelación existente entre complejos sistemas de software y su
constante actualización.
Pero no todo es negativo. El análisis de datos agregados sobre el
comportamiento humano a gran escala nos abre oportunidades extraordinarias para
entender y modelar patrones de conducta, así como para ayudar en la toma de
decisiones, de manera que ya no seamos los humanos quienes decidamos, sino que las
decisiones vengan determinadas por algoritmos construidos a partir de esos datos.
Estos algoritmos están diseñados para analizar cantidades ingentes de
información de distintas fuentes y, de manera automática, seleccionar los datos
relevantes para usarlos de forma concreta. Es lo que se conoce como BIG DATA SOCIAL,
una faz de los algoritmos que por supuesto es positiva. Y en ese campo se han llevado a
cabo proyectos que han analizado el valor de los datos para entender el desarrollo
económico de una región, predecir el crimen, modelar la propagación de
enfermedades infecciosas como la gripe o el ébola, estimar las emisiones de CO2 o
cuantificar el impacto de desastres naturales. Tanto investigadores como Gobiernos,
ONG, empresas y grupos de ciudadanos están experimentando activamente,
innovando y adaptando herramientas de toma de decisiones para alcanzar soluciones
que estén basadas en el análisis de información.
El potencial de los datos para ayudar a mejorar el mundo es inmenso en
numerosas áreas, incluyendo la salud pública, la respuesta ante desastres naturales y
situaciones de crisis, la seguridad ciudadana, el calentamiento global, la educación, la
planificación urbana, el desarrollo económico o la elaboración de estadísticas. De
hecho, el uso del big data es un elemento central en los 17 Objetivos para el Desarrollo
Sostenible (SDG) de Naciones Unidas.
Por otro lado, tal como expresáramos, los algoritmos no solo se aplican al
análisis de datos sino que, en un segundo momento, toman parte en el proceso de
decisiones. Esto nos plantea si es lícito aceptar las decisiones tomadas de modo
automático por algoritmos de los que no sabemos cómo operan y que por lo pronto
tampoco están sujetos a discusión pública. Al mismo tiempo, los algoritmos, al analizar
datos registrados de nuestras acciones anteriores, tienen una fuerte dependencia del
pasado, lo que podría derivar en el mantenimiento de estructuras y una escasa
movilidad social, dificultando las conexiones fuera de intereses y contactos definidos.
Posibles soluciones que “humanicen” a los algoritmos
Teniendo en cuenta que arbitran cómo fluye la información por la esfera
pública, se hace necesario plantear metáforas que hagan aprehensibles estos procesos,
más allá de los expertos en computación. Del mismo modo, hay que extender su
comprensión y uso a la población para que pueda participar en la discusión acerca de
qué problemas son susceptibles de una solución algorítmica y cómo plantearlos. Hay
que fomentar la participación para mantener la diversidad ecológica de este medio y su
relación con la pragmática.
Respecto a estas cuestiones, Mathew Fuller, uno de los iniciadores de los
estudios sobre software (software studies), hace notar que, aunque los algoritmos
constituyen la estructura interna del medio donde hoy en día se realiza la mayor parte
del trabajo intelectual, escasamente son abordados desde un punto de vista crítico y
humanístico, quedando relegados a su estudio técnico. En su obra Behind the Blip:
Essays on the Culture of Software, este autor propone algunos métodos encaminados a
esta crítica. Entre ellos, la ejecución de sistemas de información que pongan al
descubierto su funcionamiento, estructura y condiciones de verdad; el mantenimiento
de la poética de la conexión inherente al software social, o la promoción de un uso que
siempre sobrepase las capacidades técnicas del sistema. Y la promoción de conexiones
improbables que enriquezcan nuestro medio con nuevas posibilidades y perspectivas
más amplias, dejando lugar a la invención.
En ese sentido y para culminar, es interesante traer a colación que
recientemente la ACM estadounidense, un referente académico en el sector, ha
propuesto una serie de “Principios para la transparencia y responsabilidad en materia
de algoritmos” que merece la pena apuntarlos ya que actuarían como una suerte de
guías de interpretación y aplicación global de estos robots matemáticos que pretenden
facilitarnos la vida (US Association for Computing Machinery
https://www.acm.org/binaries/content/assets/public-
policy/2017_usacm_statement_algorithms.pdf):

1. Concienciación:
Los propietarios, diseñadores, programadores, usuarios y otras partes interesadas en
sistemas de análisis de datos deben concienciarse y vigilar la existencia de posibles
sesgos implícitos en su diseño, implementación y uso (así como responder de
potenciales daños causados a colectivos o individuos).
2. Impugnación y compensación:
Los reguladores deben promover mecanismos que permitan impugnar el
funcionamiento de algoritmos y exigir la debida compensación en caso de daños
causados por decisiones automatizadas.
3. Responsabilidad:
Empresas y Administraciones deben responsabilizarse de las decisiones adoptadas
mediante el uso de algoritmos, incluso en los casos en que no sea posible explicar
completamente el modo en que esos algoritmos produjeron el resultado dañoso.
4. Transparencia:
Se recomienda a las empresas e instituciones que utilizan procedimientos de adopción
algorítmica de decisiones que asuman y cumplan un compromiso de transparencia e
información sobre (i) los procesos seguidos por sus algoritmos, así como sobre (ii)
las decisiones que se adoptan a su través o con su ayuda.
Esta transparencia es especialmente relevante en el sector público.
5. Procedencia de los datos:
Los desarrolladores de algoritmos deben documentar:
1. La procedencia y recogida de los datos empleados en el desarrollo y
“entrenamiento” del software.
2. El análisis de posibles sesgos implícitos en el proceso de captación de datos, se
haya realizado dicha captación de forma tradicional o asimismo automatizada.
La revisión pública de estos datos maximizaría la posibilidad de detección y corrección
de problemas.
No obstante, esta publicidad puede ser restringida por imperativo de la protección de
la privacidad de las personas, de secretos de empresas o para evitar revelar datos que
permitirían a terceros malintencionados engañar a los sistemas objeto de escrutinio.
En estos casos se propone un acceso restringido a personas especialmente
cualificadas y autorizadas al efecto.
6. Auditabilidad:
Los modelos, algoritmos, datos y decisiones deben ser documentados de forma que
puedan ser objeto de revisión en caso de suscitarse responsabilidad.
Por ejemplo, algunas empresas de tarjetas de crédito han reducido los límites de
crédito de clientes no basándose en su propio historial financiero, sino a partir del
análisis de datos de otros clientes con un historial financiero muy deficiente, pero que
habían comprado en las mismas tiendas donde habían consumido los clientes
castigados http://elpais.com/elpais/2017/03/24/ciencia/1490358953_071638.html?
id_externo_rsoc=TW_CC
7. Validación y Prueba:
Deben utilizarse métodos rigurosos para validar modelos y documentar esos métodos
y resultados. En particular, deben realizarse pruebas recurrentes para evaluar y
determinar posibles resultados discriminatorios generados por los algoritmos
desarrollados. Los resultados de estas pruebas deben hacerse públicos.

Téngase en cuenta además que el desarrollo, diseño y distribución de la


inteligencia artificial y los algoritmos deberían cumplir plenamente con todas las leyes
nacionales e internacionales, tema que no es por supuesto nada menor teniendo en
cuenta que están en juego las capacidades normativas y los derechos y libertades
individuales.
El fin claramente sería llegar a un equilibrio normativo y tecnológico para
evitar una situación en la que una minoría tenga acceso a datos y disponga del
conocimiento y las herramientas necesarias para analizarlos, mientras que una mayoría
no. Esta situación exacerbaría la asimetría ya existente en la distribución del poder
entre los Gobiernos o las empresas, de una parte, y las personas, de otra. Iniciativas
para promover datos abiertos (open data) y programas de educación que fomenten la
alfabetización digital y el análisis de datos son dos ejemplos de medidas que se podrían
desarrollar para explicar a los ciudadanos sin conocimientos técnicos cómo funcionan
los algoritmos de toma de decisiones y con el uso de modelos de inteligencia artificial
que sean fácilmente interpretables.

También podría gustarte