Está en la página 1de 20

Universidad de Buenos Aires

Facultad de Derecho

Departamento de Derecho Público

Big Data, Algoritmos y Nuevas Tecnologías.


Efectos en la Política y las Instituciones

Comisión 5303 - Jorge Bercholc

Josefina De La Torre

02 de julio 2023
Índice
Índice ............................................................................................................................................................ 2
Introducción ................................................................................................................................................ 3
Las redes sociales ........................................................................................................................................ 3
El reino de los clics ...................................................................................................................................... 4
El clickbait ................................................................................................................................................ 5
Personalización............................................................................................................................................ 7
Herramientas: nuevas tecnologías ......................................................................................................... 7
Big data y user profiling ...................................................................................................................... 7
Machine learning ................................................................................................................................. 8
El sesgo de confirmación ........................................................................................................................ 9
Los filtros burbuja y las cámaras de eco ............................................................................................... 9
Polarización ............................................................................................................................................... 10
Radicalización ....................................................................................................................................... 11
Bibliografía ................................................................................................................................................ 16
De echo chambers y elecciones
Un estudio sobre el impacto de los algoritmos de personalización de las redes
sociales, el user profiling, los filtros burbuja y el microtargeting

Introducción

Vivir en el siglo XXI implica convivir con las exponenciales evoluciones tecnologías que le son
propias. Estos avances tecnológicos empapan todos los ámbitos de la sociedad, en todos los
rincones del mundo, a su modo y en su medida.

El mundo de la política y las instituciones estatales inevitablemente es y será cambiado por las
nuevas tecnologías.

Las redes sociales

Al pensar en las grandes nuevas tecnologías de los últimos años, uno piensa, indudablemente, en
las redes sociales. Facebook, Twitter, Instagram han ido ganando terreno en la vida diaria de las
personas, y se han instalado como una parte fundamental de ellas. Es muy difícil, por no decir
imposible, vivir en sociedad y mantener vínculos sin utilizar al menos una red social.

Uno comienza su recorrido en una red social buscando conexión. En una primera instancia, la red
social no es más que, como dice su nombre, un entretejido de vínculos socioafectivos. Uno se crea
un usuario en Facebook para ver las fotos publicadas por sus amigos y familiares, y estar al tanto
de sus viajes, sus cumpleaños, sus aventuras.

Pero es una vez que el usuario entró a la red social, estableció conexiones con otros usuarios, y se
acostumbró a la interfaz, que el juego realmente comienza. Poco a poco, el contenido que un nuevo
usuario consume va expandiendo sus horizontes – pasa de ver fotos de la cena de una tía, a ver
memes publicados por un amigo. Esas publicaciones, realizadas en un primer término por “amigos”
o “seguidos”, despiertan el interés del nuevo usuario, y se encuentra comenzando a consumir
contenido generado no por personas integrantes de su círculo social, sino por extraños. Memes,
recetas de cocina, tutoriales, comienzan a ser moneda corriente para el usuario de las redes sociales,
y así es que nace el nuevo empleo del “creador de contenido” o “influencer”, quien monetiza sus
publicaciones en las redes sociales.

El contenido que un usuario puede consumir, sin embargo, no es sólo de otros usuarios (sean
conocidos o no), sino que empresas, medios de comunicación, asociaciones también tienen perfiles
en las redes y generan contenido para ellas.

Con la integración de Facebook Marketplace, uno no tiene que si quiera salir de la aplicación para
comprar ropa, muebles o electrodomésticos. Las empresas grandes y pequeños emprendimientos
arman su store-front en Instagram para poder llegar a los potenciales consumidores que navegan
las redes.

Los medios de comunicación, desde grandes diarios hasta revistas de intereses nicho, comienzan
compartiendo su contenido en las redes, y terminan generando contenido específicamente pensado
para las redes, considerando qué tipo de contenido interesará a sus seguidores y cómo formularlo
para que tengan una audiencia más grande, o generen más clics.

Así, las redes sociales ven una oportunidad y ofrecen, tanto para las empresas como para los
creadores de contenido, la posibilidad de pagar para que sus publicaciones tengan un mayor
alcance, y llegue a personas que no están suscriptas a ellos. En este modelo, las redes sociales
encuentran una de sus grandes fuentes de ingresos: la publicidad. Teniendo ese norte, aparece la
necesidad de mantener a sus usuarios dentro de la aplicación, interactuando con su contenido,
generando clics que significan dinero.

El reino de los clics

Los clics rigen el mundo digital. Cada participante busca que sus usuarios pasen más tiempo en su
plataforma, interactuando con su contenido, porque esa interacción implica una ganancia
económica, derivada de publicidad que terceros estén dispuestos a pagar.

Las redes sociales buscan que sus usuarios se mantengan en las redes porque la interacción genera
ganancia mediante la publicidad que los distintos actores (empresas, creadores individuales de
contenido) paguen, para llegar a una mayor audiencia.
Los influencers buscan que los usuarios interactúen con su contenido, comentando y
compartiendo, porque esa interacción genera ganancia, en forma de sponsors que están dispuestos
a pagar en forma de dinero y/o productos a cambio de contenido promocional generado para su
producto, para llegar a las audiencias de los influencers. Cuanto más alcance tiene un influencer,
más dinero podrá generar de esta forma. Para alcanzar a más personas, necesita interacción, sea en
forma de likes, comentarios y demás. El punto interesante, que desarrollaremos a continuación, es
que esa interacción no necesariamente debe ser positiva.

Los medios de comunicación, a su vez, también persiguen la interacción. Específicamente, buscan


que sus titulares llamen la atención de los usuarios de las redes sociales, para incentivar a que
hagan clic en la nota y entren a su plataforma a leerla. Esa interacción genera ganancia, vía los
anunciantes que pagan por promocionar sus productos en las plataformas de los medios. Ahora
bien, para captar la atención de un usuario, no necesariamente se necesita una nota sobre un tema
interesante y de gran calibre, ni un titular medido y representativo.

El clickbait
Es aquí donde nace el famoso clickbait. Nombrado así por su significado en inglés “carnada de
clics”, literalmente, implica “un fenómeno comunicativo dinámico que recurre a contenidos
pseudoinformativos elaborados mediante estrategias de economía de la atención que se
aproximan al sensacionalismo y al infoentretenimiento. Sus mensajes se diseñan como gancho,
con fines más propios del marketing, a través de recursos tales como titulares llamativos,
apelación directa al lector y contenidos superficiales o exagerados.” (Bazaco et al, 2019). Es
decir, el clickbait es una manera de comunicar un mensaje de la forma más dramática posible, con
el fin de generar una reacción por parte del consumidor, y, así, hacer que éste interactúe con el
contenido.

Para un medio de comunicación, el clickbait se ve muy claro en aquellos “titulares que apelan a
la curiosidad del usuario, aunque la información que hay detrás no tenga nada que ver con el
titular y no cumpla las expectativas generadas ofreciendo poca información” (García Orosa et al
2017). Por ejemplo, una nota sobre la salida de Lionel Messi del club Barca, titulada “Messi tiene
celos de Ansu Fati”, que, por su sensacionalismo, llama la atención del lector casual y lo lleva a
hacer clic y leer la nota (pasando tiempo en la página y asegurándole tránsito al diario, que se
traducirá en dinero de los anunciantes), sólo para notar que no hay ninguna fuente citada para esos
supuestos celos que el escritor no hace más que asumir.

Este tipo de notas son las denominadas fake news: “historias falsas que parecen ser noticias,
difundidas en internet o usando otros medios, generalmente creadas para influir en puntos de vista
políticos o como una broma” (Diccionario de Cambridge). Se encuentran esparcidas en un amplio
espectro, desde las del deporte, como el ejemplo, a información sobre famosos, a política. Más
adelante se seguirá ahondando en este

Para un creador de contenido, el clickbait puede ser tan simple como un titular o hook llamativo:
“Gané 100.000 dólares en una hora, y te cuento cómo”, “Te comparto mi receta secreta para bajar
30kg en una semana”, “A que no adivinas cuál es el producto milagroso que cambió mi piel”.
Titular así un video de YouTube, o comenzar así un video en TikTok seguramente hará que el
usuario continúe viendo el video, al menos unos segundos, para descubrir cuál es ese maravilloso
secreto que cambió la vida del creador.

Justamente, cuando uno está en las redes y se cruza con este tipo de afirmaciones que parecen
descabelladas o demasiado buenas para ser reales, la primera reacción puede ser el clic, el querer
saber más, pero después, generalmente, el sentido común prevalece en el usuario, quien, al seguir
leyendo la nota o seguir viendo el video, ve que se trata de un caso de clickbait.

Sin embargo, como se adelantó anteriormente, no es en titulares sensacionalistas donde termina la


historia del clickbait. En el mundo de las redes sociales, lo que importa es conseguir interacción,
el cómo se consigue es superfluo.

Para un creador de contenido, si los comentarios son algo así como “¡cuánta razón!” o “¡me
encanta!”, o si son largas discusiones entre muchos usuarios distintos, llenos de enojo y
desacuerdo, no afecta a la métrica. El odio en las redes es interacción, crece el alcance del creador,
y genera ganancia.

Para un medio, salvo tal vez aquellos preocupados por mantener su reputación como imparcial y
medido, la interacción es interacción. Si consiguen tránsito en su plataforma porque publican notas
de investigación que citan fuentes confiables y tratan sobre temas serios y relevantes, o porque
publican notas sobre suposiciones sin fundamento que tratan sobre temas sensacionalistas o
amarillistas, no afecta a la métrica, y el dinero de los anunciantes llega igualmente.
Personalización

Se ha establecido que el objetivo de las redes sociales es retener a sus usuarios en la plataforma,
captivando su atención y dando clics e interacción. Éste fenómeno, del que surge el clickbait, puede
denominarse como “economía de la atención” (Kaplan en Roca, 2008). A lo que se refiere este
concepto es a que, en el actual ecosistema de internet, los consumidores están saturados de
información, opciones, contenido, están recibiendo estímulos constantemente. Así, para un creador
de contenido diferenciarse del resto, captar al consumidor y poder monetizar su interacción,
necesita competir con los demás creadores de contenido por la atención de los consumidores.

Esto es una preocupación para los creadores de contenido, los medios de comunicación entre ellos,
que buscan solucionar con las técnicas presentadas en el apartado anterior. Por su parte, las redes
sociales tienen una gran herramienta para facilitar la monetización del contenido: la
personalización.

Herramientas: nuevas tecnologías


La estrategia que desarrollaron las redes sociales es, en un primer punto, muy simple. Si uno quiere
mantener al usuario entretenido, interactuando y pasando tiempo en la red social, debe mostrarle
al usuario contenido que esté alineado con sus intereses. Por ejemplo, tomando el caso de un
usuario argentino de Twitter, cuyos intereses son el futbol argentino e inglés, el contenido de humor
generado por otros argentinos, y la Fórmula 1 – Twitter le mostrará a este usuario contenido
relacionado a esos intereses.

¿Cómo hace Twitter, o cualquier red social, para saber qué contenido mostrarle al usuario? Es aquí
donde empiezan a aparecer las grandes palabras que uno suele escuchar cuando se hablan de estos
temas: big data, algoritmos, machine learning. Se intentará explicar en palabras simples cómo es
el proceso de personalización que siguen las redes sociales para filtrar el contenido.

Big data y user profiling


El objetivo de la red social es personalizar el contenido que recibe el usuario. Para lograr esa
personalización, la red social arma un perfil del usuario (user profiling), mediante el big data.
Las redes sociales tienen perfiles armados de todos sus usuarios, que los califican según sus
intereses, patrones de consumo, hábitos, etc. Hay dos maneras de hacer este user profiling, armar
esos perfiles: la recopilación de información explícita y la implícita. El método explícito es aquel
en el cual el mismo usuario es el que dicta sus intereses y preferencias. El método implícito es
aquel en el cual la información es recopilada al monitorear la interacción del usuario con el sistema.
(Cufoglu, 2017).

En este segundo método se utiliza un algoritmo que nota cuántas veces por día se conecta el usuario
a la red social, cuánto tiempo pasa en cada vez, qué es lo que mira durante ese tiempo, si llega a
consumir el contenido en su totalidad (por ejemplo, si mira todo el video o lo deja a la mitad), con
qué tipo de contenido interactúa (comenta, comparte), de qué manera lo hace, etc. Valiéndose de
esta big data recopilada, el sistema logra encontrar patrones de consumo de contenido, que se
basan en los hábitos y comportamientos del usuario. (Bercholc, 2020). Es con esta información
con la que arma un perfil del usuario.

Machine learning
Una dificultad con la que se topan estos sistemas es que las tendencias de consumo de las personas
cambian con el tiempo. Para mantenerse actualizados los perfiles, se necesita de un método
dinámico, no estático, de user profiling (Cufoglu, 2017). Es por esto que los algoritmos que se
utilizan tienen la capacidad de autoaprendizaje, o machine learning.

Los algoritmos son de reinforcement learning, lo que implica que se basan en el concepto de
castigo/recompensa (Watkins, 1989), es decir, la recompensa sería que el usuario interactúe con el
contenido, y el castigo, que no lo haga. Así, el algoritmo aprende de los patrones de consumo del
usuario, agregando nuevas características, actualizando preferencias e intereses, y así se va
puliendo el perfil que tiene la red social de cada usuario (Ferreti et al, 2016).

Es así que la forma en la que las redes alimentan contenido al usuario va cambiando
constantemente. Según Bercholc, “la capacidad de autoaprendizaje de los algoritmos genera
constantes transformaciones que experimenta su motor. Se estima que unas 500 veces al año (lo
que equivale a un cambio cada 17 horas aproximadamente) el algoritmo de Google sufre algún
tipo de mutación. La mayoría son pequeños retoques que no alteran el posicionamiento Web. Pero
al menos cinco veces al año se modifican los criterios de búsqueda radicalmente.”
El sesgo de confirmación
Esta personalización de las redes sociales se basa en la existencia del llamado confirmation bias o
sesgo de confirmación. El sesgo de confirmación es la tendencia de las personas a ver lo que
quieren ver: creer las cosas que refuerzan sus creencias, ignorar información contraria o
interpretarla para que se alinee con las propias creencias preestablecidas (Pariser, 2012).

Los algoritmos son premiados por proveer al usuario de contenido con el que interactúe, como ya
se estableció previamente. El contenido con el que interactúa el usuario suele ser contenido de sus
intereses, contenido con el que está de acuerdo, o contenido que refuerza sus creencias.

Un ejemplo del primer supuesto sería que si el algoritmo de YouTube le muestra un video a un
fanático del fútbol argentino de una compilación de 100 goles de Lionel Messi, el usuario
probablemente interactúe con el video (le dé me gusta, comente, lo comparta), y el algoritmo sea
premiado.

Para el segundo supuesto, uno puede imaginarse que si el algoritmo de Twitter le muestra a un
usuario peronista un hilo con los 10 logros más importantes del primer gobierno de Perón, el
usuario probablemente interactúe con el contenido (le dé me gusta, retweet, responda), y el
algoritmo sea premiado.

El tercer supuesto es el más interesante. Tomando de ejemplo a un usuario de Facebook que es


anti-Trump, si en su feed de Facebook se encuentra con un titular de una nota que reza “Trump
tenía llamadas semanales con Putin en la que le contaba secretos de Estado”, es muy probable que
crea que esa afirmación es real, sin siquiera leer la nota y fijarse cuáles son las fuentes que cita, ya
que reafirma una creencia que él ya tenía. Esto es el sesgo de confirmación.

Los filtros burbuja y las cámaras de eco


En el plano físico, las personas suelen rodearse de personas que piensan como ellas, los círculos
sociales suelen ser mayormente homogéneos. Esa realidad se traduce al plano digital. Debido al
sesgo de confirmación, los usuarios interactúan con el contenido que les refuerza sus creencias
preestablecidas, el algoritmo nota esa conducta (machine learning), la establece dentro del perfil
del usuario (user profiling), y le muestra más de este tipo de contenido. Así, se genera un círculo
de retroalimentación, en la que cuanto más contenido del mismo tipo se le muestra al usuario, más
interactúa, y más contenido se le muestra: el algoritmo refuerza las creencias del usuario con el
contenido que le muestra, y el usuario refuerza el perfil que tiene el algoritmo de él con el contenido
con el que interactúa. Y así, el contenido que consume el usuario es cada vez más homogéneo, y
se crea el llamado filtro burbuja.

El filtro burbuja (traducción del concepto en inglés filter bubble) no es más que el efecto
cumulativo de esta personalización realizada por los algoritmos (Wolfowicz et al, 2019). Debido
a la personalización del contenido, los algoritmos van filtrando lo que no le gusta a los usuarios
(es decir, las opiniones con las que no está de acuerdo), y poco a poco va generando una burbuja
que, de alguna forma, es un lugar seguro, donde no se desafían las creencias ni se generan las
incomodidades de cruzarse con información que va en contra del propio punto de vista (Pariser,
2012; Voinea, 2017).

De los filtros burbujas emergen las llamadas cámaras de eco (de su traducción del concepto en
inglés echo chambers). La imagen es clara: el usuario vive en una burbuja en la cual sólo se
relaciona con contenido y personas que creen lo mismo que él, todo lo que piensa y dice es
reforzado por lo que publican los demás, y así se genera un efecto de eco, en el que se repiten las
mismas ideas una y otra vez, y los usuarios rara vez se topan con personas que piensan diferente,
salvo en ocasiones donde esa interacción no hace más que confirmar sus prejuicios y teorías.

Polarización

Habiendo establecido cómo la economía de la atención lleva al surgimiento del clickbait y de la


personalización, y cómo los sesgos de confirmación y los algoritmos generan filtros burbuja y
cámaras de eco que refuerzan las creencias propias y aíslan de las ajenas, es que llegamos al punto
más interesante del problema: la polarización. En un primer punto casi intuitivo, puede decirse
que, si el sesgo de confirmación y los filtros burbuja previenen la interacción entre individuos con
puntos de vista diferentes, se retrasa o frena el proceso de consensuar, de encontrar puntos en
común, y la sociedad se va polarizando (Gallo et al, 2020).

Los usuarios de las redes sociales están constantemente interactuando con contenido e individuos
que piensan lo mismo que él, que refuerzan sus creencias. Le dan la razón porque están de acuerdo
con él, explícitamente, o, en un nivel más complejo, el contenido con el que se cruza parece
confirmar todas sus teorías.

Existen muchos estudios que muestran cuán distinta parece la realidad, dependiendo del feed de
cada persona. Por ejemplo, en un trabajo del Wall Street Journal llamado “Blue Feed, Red Feed”,
puede verse la radical diferencia entre el contenido que el algoritmo de Facebook le alimenta a
personas cuyos perfiles coinciden con ideales más liberales o más conservadores.

Algo sumamente importante de aclarar es cómo esto es diferente al hecho de consumir noticias de
medios históricamente partidarios o parciales. La mayor parte de los usuarios que consumen
noticias de fuentes con tendencias políticas claras (por ejemplo, CNN y Fox News para Estados
Unidos, o C5N y LN+ para Argentina) saben que están buscando fuentes que están curadas para
servir a un punto de vista político particular (Pariser, 2012). Una persona pro-Trump sabe que
consumir contenido de Fox News implica escuchar sobre sus logros o sobre las falencias del
Partido Demócrata, y elige hacerlo conscientemente.

El problema es que los filtros burbuja son invisibles. Las redes sociales no muestran a sus usuarios
los perfiles que han armado de ellos – los usuarios no saben en base a qué les están alimentando
el contenido. Como el usuario no elige los criterios según los cuales los algoritmos personalizarán
el contenido, es fácil asumir que éste será imparcial, objetivo y cierto. Desde dentro de la cámara
de eco, es casi imposible ver lo sesgado que puede estar (Pariser, 2012).

Entonces, un usuario que no sabe que está siendo perfilado por un algoritmo, que no sabe que el
contenido que le están ofreciendo está sesgado, que no sabe que las personas con las que interactúa
son solamente una pequeña sección de la población, seleccionada especialmente por su ideología
similar, fácilmente va a creer que todo lo que piensa y consume es la verdad absoluta y que todos
quienes piensen distinto están en lo incorrecto. Y, de esta forma, el usuario será cada vez más
polarizado y la brecha entre él y quienes piensan distinto será cada vez más grande.

Radicalización
Se ha establecido que el objetivo de los algoritmos de las redes sociales es incentivar la interacción
del usuario con el contenido, por lo que éste ofrece contenido que es más propenso a generar
respuestas en el usuario. Así es como surge el clickbait, y como los algoritmos tienden a
favorecerlo. Se ha establecido como esta forma de operar lleva a la polarización de los usuarios.
Sin embargo, existe otro paso más: los algoritmos causan la radicalización de los usuarios.

Los ideales radicales existen desde siempre, y el camino de las personas hacia ellos no necesita de
las redes sociales para existir. Sin embargo, cuando están presentes, el proceso de radicalización
se torna acelerado e impredecible, y es casi imposible de comprender, rastrear, controlar o detener
(Burke, 2022).

Como los algoritmos de las redes sociales eligen contenido que despierte una respuesta en el
usuario y genere interacción, sin hacer una distinción ética del contenido que está arrojando, el
contenido que muestra a los usuarios es cada vez más y más radical.

Un ejemplo de este fenómeno que fue muy estudiado y hablado en los últimos años es el del
algoritmo de YouTube, o “el gran radicalizador” (Tufekci, 2018). Éste define el éxito como
convencer al usuario de ver un video adicional, al finalizar el video que estaba viendo. Cuando un
usuario ve un video de política, YouTube le recomienda otros videos que tienen que ver con el
tema. El algoritmo se encontró con que el contenido de extrema derecha, relacionado también con
contenido de teorías conspirativas, anti-feminismo, y de la derecha religiosa, generaba interacción.
Así, comenzó a recomendar videos de ultra-derecha en conexión a otros videos de distintos
creadores, de esta forma uniendo a la derecha, dándole más aparente veracidad (sesgo de
confirmación) y creando filtros burbuja de derecha, donde la ideología fue cada vez más extrema
(Valentino Bryant, 2020).

Otro ejemplo para tomar es el crecimiento en la audiencia de la teoría conspirativa conocida como
QAnon en Twitter. En un estudio que se realizo tomando este ejemplo, se notó como quienes
querían difundir la teoría conspirativa se valían de Twitter como una herramienta esencial, y
sumamente efectiva. Además, notaron el gran impacto que tuvo la moderación que realizó Twitter
en este tipo de contenido para frenar su avance, advirtiendo que el contenido menos evidentemente
radical tiende a escapar esa moderación (Wang et al, 2023).

La forma en la que los algoritmos están construidos fomenta la radicalización. Burke hace una
analogía muy visual: así como cuando uno se genera una llaga, y cuanto más la muerde, más daño
hace, por lo que más la muerde. De esta forma funciona también el uso de las redes sociales: a más
uso, más radicalización, y a más radicalización, más uso, y así consecutivamente. Cuanto más
contenido extremo consume, más contenido más extremo el algoritmo le alimenta. Es un círculo
vicioso que genera la radicalización de los usuarios de las redes sociales.

Así, puede concluirse que, por más que las ideas radicales hayan existido desde siempre, esta
aceleración del proceso de radicalización genera mucho contenido mucho más extremo que lo que
existía en los medios tradicionales, y, tal vez el factor más importante, le da una plataforma para
ser oído en un primer punto, y para reproducirse en el segundo (Gentzkow, 2016).

Campañas personalizadas y microtargeting


Se ha establecido que, para asegurar la interacción de los usuarios con el contenido ofrecido por
las redes sociales, se arman perfiles de los usuarios, a través de algoritmos que analizan múltiples
factores y datos en un proceso de user profiling. Estos perfiles son utilizados por las redes sociales
no sólo para maximizar la interacción con contenido creado por otros usuarios, sino también para
presentarle a los usuarios campañas de marketing de productos que calzan dentro del perfil.

Es decir, las redes sociales ofrecen este producto a las empresas, el perfil que han creado de los
usuarios, y les venden la posibilidad de promocionar sus productos a audiencias que encuadren en
su target. Este proceso de campañas personalizadas se conoce como microtargeting, y no es
exclusivo de campañas de marketing para vender productos, sino que también puede ser, y ha sido,
de campañas políticas.

Cuando se habla de microtargeting político se refiere a la creación de mensajes cuidadosamente


ideados, focalizados en pequeñas categorías de votantes, creadas a partir de análisis de datos
tomados de los individuos, desde características demográficas hasta patrones de consumo (Gorton,
2016). Es decir, utilizando datos del comportamiento del usuario, se elaboran perfiles, entre los
cuales se identifican posibles votantes de un partido específico, quienes reciben publicidades
personalizadas, pensadas por esos partidos, quienes hasta pueden tomar la información de esos
perfiles para formar sus promesas de campaña y políticas propuestas (Zuiderveen Borgesius et al,
2018).

Obviamente, esta personalización de campañas es una herramienta muy útil para los partidos
políticos. Sin embargo, tiene implicancias muy peligrosas para las instituciones públicas. La
estabilidad del gobierno depende, actualmente al menos, de la prevalencia de la integridad de la
democracia. El microtargeting puede manipular a los votantes de formas que impacten
negativamente a la democracia.

Por un lado, el microtargeting puede llevar mensajes importantes a los segmentos poblacionales
correspondientes, informándolos sobre temas que les son relevantes. Por otro, puede ser utilizado
como una especie de arma para manipular a los votantes. Al seleccionar el contenido que le llega
a cada usuario, los partidos deciden qué ve quién persona. Por ejemplo, si un partido político quiere
desincentivar que un grupo vote a su oponente, puede dirigirles contenido que muestre algo
negativo de su oponente, que sea relevante a su población. Una instancia así se dio, supuestamente,
en el 2016, cuando la campaña de Donald Trump focalizó en la población afro-americana
publicidades que les recordaba de comentarios que había hecho Hillary Clinton (su oponente) en
su contra, para desincentivar que la voten (Zuiderveen Borgesius et al, 2018).

Siguiendo con el hilo de la polarización, hay muchos políticos que se valen del discurso
antagonizante del “ellos contra nosotros”. Para incentivar esa mentalidad en su base votante, las
campañas políticas pueden focalizar contenido que exacerbe esos sentimientos en ellos, para seguir
instalando esas narrativas, y así generar votos. Algo interesante es que este tipo de publicaciones
focalizadas pueden plantearse para que solamente le aparezcan a los perfiles target, y no le
aparezcan a nadie más. Así, el contenido se mantiene en el filtro burbuja deseado, y la
manipulación pasa desapercibida.

La exposición a grandes cantidades de contenido político personalizado, especialmente para


personas para quienes las redes sociales son su fuente de información política, disminuye las
chances de que el votante cambie su opinión inicial sobre a quién votar (Liberini, 2020).

El microtargeting afecta a las elecciones. El mismo Donald Trump dijo que si no fuera por las
redes sociales, no hubiera ganado las elecciones presidenciales. Las redes sociales han cambiado
la manera en la que los votantes se relacionan con los candidatos, con las elecciones y con el
discurso político en general. La creación de Internet ha traído consigo un entorno de comunicación
que es más grande, más acelerado y más heterogéneo que nunca (Williams, 2017).
Conclusión
En conclusión, puede decirse que los recientes avances de las nuevas tecnologías han impactado
no sólo al mundo de la tecnología y las redes sociales, sino a muchos ámbitos distintos, incluido
el ámbito público, mediante el impacto analizado en las elecciones políticas.

Las redes sociales son regidas por la búsqueda de clics e interacción. Esto dio surgimiento al
clickbait y al user profiling, mediante el cual se utiliza la big data para formar algoritmos de
machine learning que presentan contenido a los usuarios que van a generar interacción. Esto causa,
por un lado, debido en parte al sesgo de confirmación propio de las personas, la creación de filtros
burbuja y cámaras de eco, que, por otro lado, llevan a la polarización y radicalización de los
usuarios. A su vez, estos perfiles creados son empleados por los partidos políticos para crear
campañas publicitarias personalizadas de microtargeting, que han impactado y seguirán
impactando resultados electorales.

Los distintos ámbitos de la vida están interrelacionados. No puede concebirse uno apartado del
resto. Así, los avances en la ciencia de datos y la ingeniería informática terminan causando
implicancias revolucionarias en las elecciones políticas de los países. Las redes sociales han
cambiado el panorama electoral para siempre, trayendo nuevas herramientas, que traen consigo
problemáticas de las que no se podrá escapar.
Bibliografía
AAGAARD, P. y MARTHEDAL, S. “Political microtargeting: Towards a pragmatic approach”.
En Revista Internet Policy Review, 12(1). Marzo 2023.

BAZACO, A., REDONDO, M. y SÁNCHEZ-GARCÍA, P. “El clickbait, como estrategia del


periodismo viral: concepto y metodología”. En Revista Latina de Comunicación Social, 74. 2019.

BEAUFORT, M. “Digital media, political polarization and challenges to democracy”. En Revista


Information, Communication & Society, Vol. 21, No. 7. Marzo 2018.

BERCHOLC, J. O. “Big Data, Algoritmos y Nuevas Tecnologías de la Información y


Comunicación. Efectos en el Sistema Político e Institucional”. Aldina Editorial Difiral. 2020.

Bloomberg. BERGEN, M. “YouTube Executives Ignored Warnings, Letting Toxic Videos Run
Rampant”. Abril 2019. Última visita 01/07/2023. Recuperado de
https://www.bloomberg.com/news/features/2019-04-02/youtube-executives-ignored-warnings-
letting-toxic-videos-run-rampant

BURKE, L. “Accelerated Epistemic Harm: Understanding the Role of Social Media Engagement
Algorithms in Online Radicalization”. En Revista de Carleton University. 2022.

CHAMORRO POY, E. “Clickbait: definición y análisis de su presencia en El Español y El


Huffington Post”. Para Universidad de Valladolid. Facultad de Filosofía y Letras. 2018.

COLLEONI, E., ROZZA, A. y ARVIDSSON, A. “Echo Chamber or Public Sphere? Predicting


Political Orientation and Measuring Political Homophily in Twitter Using Big Data”. En Revista
Journal of Communication, Volume 64, Issue 2, Marzo 2014.

CUFOGLU, A. “User Profiling-A Short Review”. En Revista International Journal of Computer


Applications (0975 8887) Volume 108 - No. 3, Diciembre 2014.

DANDEKAR, P., GOEL, A., y LEE, D. T. “Biased assimilation, homophily, and the dynamics of
polarization”. En Revista Proceedings of the National Academy of Sciences, Vol. 110, No. 15.
Abril 2013.
Diario Gol. SERRANO, D. “Messi tiene celos de Ansu Fati”. Octubre 2020. Última visita
23/06/2023. Recuperado de https://www.diariogol.com/futbol/messi-tiene-celos-de-ansu-
fati.html

EPSTEIN, R. y ROBERTSON, R. E. “The search engine manipulation effect (SEME) and


itspossible impact on the outcomes of elections”. En Revista Proceedings of the National
Academy of Sciences. Vol. 112, No. 33. Agosto 2015.

FERRETTI, S., MIRRI, S., PRANDI, C. y SALOMONI, P. “Automatic web content


personalization through reinforcement learning”. En Revista Journal of Systems and Software,
Volume 121, Noviembre 2016.

FLAXMAN, S., GOEL, S. y RAO, J.M. “Filter bubbles, echo chambers, and online news
consumption”. En Revista Public Opinion Quarterly, Vol. 80, Special Issue, 2016.

GALLO, E. y LANGTRY, A. “Social networks, confirmation bias and shock elections”. En


Revista arXiv. Noviembre 2020.

GENTZKOW, M. “Polarization in 2016”. Para Stanford University. 2016.

GORTON, W. A. “Manipulating Citizens: How Political Campaigns’ Use of Behavioral Social


Science Harms Democracy”. En Revista New Political Science, Volume 38, 2016.

GUO, L. “Who is responsible for Twitter’s echo chamber problem? Evidence from 2016 U.S.
election networks”. En Revista Information, Communication & Society, Volume 23, 2020 - Issue
2. Julio 2018.

HARRIS, L. y HARRIGAN, P. “Social Media in Politics: The Ultimate Voter Engagement Tool
or Simply an Echo Chamber?”. En Revista Journal of Political Marketing, Volume 14, 2015 -
Issue 3. 2015.

KAISER, J. y RAUCHFLEISCH, A. “Unite the Right? How YouTube’s Recommendation


Algorithm Connects The U.S. Far-Right”. En Revista D&S Media Manipulation: Dispatches from
the Field. Abril 2018.

KRUIKEMEIER, S., SEZGIN, M. y BOERMAN, S.C. “Political Microtargeting: Relationship


between personalized advertising on Facebook and voters’ responses”. En Revista Political
Microtargeting: Relationship between personalized advertising on Facebook and voters’
responses. Cyberpsychology, Behavior, and Social Networking, 19(6), 367-372. 2016.

LEVY, G. y RAZIN, R. “Echo Chambers and Their Effects on Economic and Political Outcomes”.
En Revista Annual Review of Economics. Vol. 11:303-328. Agosto 2019.

LIBERINI, F., REDOANO, M., RUSSO, A., CUEVAS, A. y CUEVAS, R. “Politics in the
Facebook Era Evidence from the 2016 US Presidential Elections”. En Revista. CESifo Working
Paper No. 8235. Abril 2020.

MAO, Y., BOLOUKI, S. y AKYOL, E. “Spread of Information With Confirmation Bias in Cyber-
Social Networks”. En Revista Transactions on Network Science and Engineering, vol. 7, no. 2.
Junio 2020.

MARGETTS, H. “Rethinking Democracy with Social Media”. En Revista The Political Quarterly,
Volume 90, Issue S1. Diciembre 2018.

MARWICK, A. y LEWIS, R. “Media manipulation and disinformation online”. En Revista Data


& Society. Mayo 2017.

MICU, A., CAPATINA, A., CRISTEA, D. S., MUNTEANU, D., MICU, A.E. y ANCUTA
SARPE, D. “Assessing an on-site customer profiling and hyper-personalization system prototype
based on a deep learning approach”. En Revista Technological Forecasting and Social Change,
Volume 174, Enero 2022.

PARISER, E. “The Filter Bubble. What the Internet is Hiding from You”. The Penguin Press.
2011.

PHADKE, S., SAMORY, M. y MITRA, T. “Pathways through Conspiracy: The Evolution of


Conspiracy Radicalizationthrough Engagement in Online Conspiracy Discussions”. En Revista
Proceedings of the Sixteenth International AAAI Conference on Web and Social Media (ICWSM)
2022.

Político. MCCASKILL, N. D. “Trump credits social media for his election”. Octubre 2017.
Última visita 02/07/2023. Recuperado de https://www.politico.com/story/2017/10/20/trump-
social-media-election-244009
RODRÍGUEZ-FERRÁNDIZ, R. “Posverdad y fake news en comunicación política: breve
genealogía”. El profesional de la información, v. 28, n. 3. Enero 2019.

SPOHR, D. “Fake news and ideological polarization: Filter bubbles and selective exposure on
social media”. En Revista. Business Information Review 2017, Vol. 34(3). 2017.

The Guardian. LEWIS, P. “'Fiction is outperforming reality': how YouTube's algorithm distorts
truth”. Febrero 2018. Última visita 02/07/2023. Recuperado de
https://www.theguardian.com/technology/2018/feb/02/how-youtubes-algorithm-distorts-truth

The Wall Street Journal. “Blue Feed, Red Feed. See Liberal Facebook and Conservative
Facebook, Side by Side”. Última visita 01/07/2023. Recuperado de http://graphics.wsj.com/blue-
feed-red-feed/

The Wall Street Journal. WANG, M. “China’s Bumbling Police State”. Diciembre 2018. Última
visita 21/06/2023. Recuperado de https://www.wsj.com/articles/chinas-bumbling-police-state-
11545869066

TIAN, L., YANG, B., YIN, X. y SU, Y. “A Survey of Personalized Recommendation Based on
Machine Learning Algorithms”. En Revista EITCE '20: Proceedings of the 2020 4th International
Conference on Electronic Information Technology and Computer Engineering. Noviembre 2020.

VALENTINO BRYANT, L. “The YouTube Algorithm and the Alt-Right Filter Bubble”. En
Revista Open Information Science 2020, Abril 2020.

VOINEA, D. V. “Ethical implications of filter bubbles and personalized news-streams”. En


Revista ISSN 2501-3513, Volume 3, 190-189, 2017.

VOZIAN, N. “Echo chamber as a transformative digital phenomenon – an outlook on the


Moldovan electoral system’s past, present and future”. Para UNDP. Octubre 2022.

WANG, E. L., LUCERI, L., PIERRI, F. y FERRARA, E. “Identifying and Characterizing


Behavioral Classes of Radicalization within theQAnon Conspiracy on Twitter”. En Revista
Proceedings of the Seventeenth International AAAI Conference on Web and Social Media
(ICWSM) 2023.
WILLIAMS, C. B. “Introduction: Social Media, Political Marketing and the 2016 U.S. Election”.
En Revista Journal of Political Marketing, 16:207–211, 2017.

WOLFOWICZ, M., WISBURD, D. y HASISI, B. “Examining the interactive effects of the filter
bubble and the echo chamber on radicalization”. En Revista Journal of Experimental Criminology
19:119–141. Agosto 2021.

ZUIDERVEEN BORGESIUS, F.K., MÖLLER, J., KRUIKEMEIER, S., FATHAIGH, R., IRION,
K., DOBBER, T., BODO, B. Y DE VREESE, C. “Online Political Microtargeting: Promises and
Threats for Democracy”. En Revista Utrecht Law Review, Volume 14, Issue 1, 2018.

También podría gustarte