Está en la página 1de 285

Machine Translated by Google

CAMPAÑA POLÍTICA Y COMUNICACIÓN

Desafiante
Propaganda en línea y
Desinformación en
el siglo XXI

Editado por Miloš Gregor ∙ Petra Mlejnková


Machine Translated by Google

Campaña política y comunicación.

Editor de la
serie Darren G. Lilleker
Universidad de Bournemouth
Bournemouth, Reino Unido
Machine Translated by Google

La serie explora temas relacionados con cómo las organizaciones políticas se


promocionan y cómo los ciudadanos interpretan y responden a sus tácticas. La política
se define aquí en términos generales como cualquier actividad diseñada para tener un
impacto en las políticas públicas. Por tanto, el alcance de la serie abarca campañas
electorales, así como campañas de grupos de presión, lobbying y campañas instigadas
por movimientos sociales y ciudadanos.
Las investigaciones incluidas en la serie podrían centrarse en las últimas estrategias
y tácticas dentro del marketing y las campañas políticas, cubriendo temas como el uso
estratégico de medios heredados, digitales y sociales, el uso de big data y análisis para
dirigirse a los ciudadanos, y el uso de herramientas manipuladoras. Tácticas y
desinformación.
Además, como las campañas son una interfaz importante entre las instituciones de
poder y los ciudadanos, presentan oportunidades para examinar su impacto en la
participación, participación y movilización de los ciudadanos. Las áreas de enfoque
podrían incluir actitudes y comportamiento electoral, polarización política y el entorno de
campaña, discurso público en torno a las campañas y las psicologías que sustentan a la
sociedad civil y los movimientos de protesta.
Las obras pueden adoptar una perspectiva estrecha o amplia. Los estudios de caso
de una sola nación sobre una campaña específica y los estudios comparativos entre
países o temporales son igualmente bienvenidos. La serie también acoge colecciones
temáticas editadas que exploran un conjunto central de preguntas de investigación.
Para una discusión informal sobre un libro de la serie, comuníquese con el editor de
la serie, Darren Lilleker (dlilleker@bournemouth.ac.uk), o Ambra Finotello
(ambra.finotello@palgrave.com).

Esta serie de libros está indexada por Scopus.

Más información sobre esta serie en http://


www.palgrave.com/gp/series/14546
Machine Translated by Google

Miloš Gregor ∙ Petra Mlejnková


Editores

Desafiando en línea
Propaganda
y desinformación
en el siglo XXI
Machine Translated by Google

Editores
Miloš Gregor Petra Mlejnková
Departamento de Ciencias Políticas Departamento de Ciencias Políticas
Universidad Masaryk Universidad Masaryk
Brno, República Checa Brno, República Checa

ISSN 2662­589X ISSN 2662­5903 (electrónico)


Campaña política y comunicación ISBN
978­3­030­58623­2 ISBN 978­3­030­58624­9 (libro electrónico) https://doi.org/
10.1007/978­3­030­58624­9

© El editor (si corresponde) y el autor (es), bajo licencia exclusiva para Springer Nature Switzerland
AG 2021 Este trabajo está sujeto
a derechos de autor. Todos los derechos son licenciados única y exclusivamente por el Editor, ya sea
que se trate de la totalidad o parte del material, específicamente los derechos de traducción, reimpresión,
reutilización de ilustraciones, recitación, radiodifusión, reproducción en microfilmes o en cualquier otro
medio físico, y transmisión. o almacenamiento y recuperación de información, adaptación electrónica,
software de computadora o mediante metodología similar o diferente ahora conocida o desarrollada en
el futuro.
El uso de nombres descriptivos generales, nombres registrados, marcas comerciales, marcas de
servicio, etc. en esta publicación no implica, incluso en ausencia de una declaración específica, que
dichos nombres estén exentos de las leyes y regulaciones protectoras pertinentes y, por lo tanto, libres
para uso general. usar.
El editor, los autores y los editores pueden asumir con seguridad que los consejos y la información de
este libro se consideran verdaderos y precisos en la fecha de publicación. Ni el editor ni los autores ni
los editores otorgan garantía, expresa o implícita, con respecto al material contenido en este documento
o por cualquier error u omisión que pueda haberse cometido. El editor se mantiene neutral con respecto
a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Ilustración de portada: Colin Anderson Productions pty ltd/Getty Images

Este sello de Palgrave Macmillan es publicado por la empresa registrada Springer Nature.
Suiza AG
La dirección registrada de la empresa es: Gewerbestrasse 11, 6330 Cham, Suiza.
Machine Translated by Google

Prefacio

Llevamos unos diez años impartiendo un curso sobre propaganda en la Universidad


de Masaryk. Cuando comenzamos a impartir el curso, se concibió principalmente
como un ejercicio histórico: una presentación de cómo fue la propaganda durante la
Primera Guerra Mundial, la Segunda Guerra Mundial y la Guerra Fría.
Alternativamente, presentamos a los estudiantes ejemplos interesantes de países no
democráticos, como China o Corea del Norte. Para nosotros, fue un hobby que nos
permitió conectar nuestros principales campos de interés: marketing político y
estudios de seguridad. El curso nos sirvió como recordatorio de cuán peligroso puede
ser el camino que puede tomar la política cuando las herramientas de comunicación
y marketing político se salen de control y caen en las manos equivocadas o deben
usarse indebidamente para propósitos equivocados: el lado oscuro del marketing
político. como diría Nicholas O'Shaughnessy. Nunca se nos ocurrió diseñar un curso
más allá del de un repaso histórico.
La situación cambió en 2014 debido a los acontecimientos relacionados con la
anexión rusa de Crimea. Las redes sociales e incluso los principales medios de
comunicación establecidos comenzaron a verse abrumados por historias maravillosas
que a menudo se contradecían entre sí. La absurda narrativa propagandística había
estado ahí durante meses antes de que los medios serios se orientaran y los
purgaran. En ese momento, nos dimos cuenta de que la propaganda y la
desinformación no eran sólo una reliquia histórica y un privilegio de viejas estructuras
políticas mucho más allá del mundo democrático; Los ejemplos actuales de Europa
habían comenzado a penetrar no sólo en nuestra enseñanza sino también en nuestra
investigación y otras actividades.

v
Machine Translated by Google

vi PREFACIO

Al principio se analizó las técnicas de manipulación propagandística que


aparecían en los llamados sitios web alternativos más leídos en la República Checa.
Este paso nos reveló plenamente la diversidad y lo salvaje del mundo de la
información en el que la objetividad, los hechos y el conocimiento juegan un papel
secundario. Un mundo en el que una opinión fuerte es más que un análisis, y la más
fuerte tiene razón, donde una mentira repetida cien veces se convierte en verdad.
En este punto, comenzamos a abordar plenamente la cuestión de la propaganda y
la desinformación modernas. Desde 2016 hemos realizado varios análisis sobre
cómo funcionan estos fenómenos tanto a nivel nacional checo como a nivel
internacional. Hemos participado en decenas de debates públicos y pronunciado
cientos de conferencias, tanto para el público en general como para el público
académico, tanto en la República Checa como en el extranjero.
Además de otras empresas, hemos ayudado a establecer los proyectos estudiantiles
'Zvol si info' (Elige tu información) y 'Fakescape' dedicados a la alfabetización
mediática y el pensamiento crítico principalmente entre estudiantes de secundaria.
Todas estas actividades culminaron en un proyecto de investigación de tres años,
cuyo resultado es el volumen editado que tienes en tus manos.
El proyecto reunió a institutos de investigación y académicos de la Universidad
de Masaryk que examinaron la cuestión de la propaganda y la desinformación
modernas en línea desde diversas perspectivas. Nuestro objetivo era centrarnos en
aspectos que han sido descuidados en investigaciones recientes y poner todo el
fenómeno en el contexto del entorno de información en línea en desarrollo y la era
de la posverdad, como lo hemos hecho en este volumen editado. En el siglo XXI se
ha producido un cambio significativo en cómo funcionan la propaganda y la
desinformación, qué herramientas utilizan y cómo afectan a la sociedad. En este
sentido, la era de la posverdad no es sólo una frase pegadiza sino un término
general que abarca tanto las transformaciones de la sociedad como el progreso
tecnológico.

Los fenómenos de la propaganda y la desinformación en línea son multidisciplinarios


y están relacionados con muchas cuestiones y aspectos. Para garantizar la integridad
del volumen editado, decidimos centrarnos en dos áreas principales relacionadas
con los cambios relacionados con la manipulación de los medios; Por lo tanto, este
libro consta de dos partes: la primera se centra en la naturaleza cambiante de la
propaganda y la desinformación, y la segunda trata de las medidas que los actores
individuales (pueden) considerar. Mientras que la primera parte describe los
cambios más a nivel teórico, la segunda refleja la experiencia de Europa y los países europeos.
Machine Translated by Google

PREFACIO vii

países ya que las medidas siempre están estrechamente relacionadas con el


entorno informativo, social y político. Cada una de las partes consta de cuatro
capítulos centrados en aspectos individuales.
El primer capítulo establece todo el contexto del volumen editado y establece
el marco en el que operan los demás capítulos. Pretende ser una especie de
capítulo inicial o introducción al volumen editado que explica los conceptos
teóricos de propaganda y desinformación y los términos relacionados que
utilizamos a lo largo del libro. Explicamos cómo se define propaganda y
desinformación y cuáles son las técnicas de manipulación más utilizadas. Se
pone énfasis en su desarrollo, especialmente en la última década cuando
experimentaron un resurgimiento en el entorno en línea. Los autores introducen
el concepto de era de la posverdad y los aspectos y principios psicológicos
asociados, como la exposición selectiva, la disonancia cognitiva o el sesgo de
confirmación. También se analiza el papel de las redes sociales y las cámaras
de eco relacionadas y cómo mejoran estos efectos en la audiencia. Se introduce
el término muy nuevo "infodemia", que se generalizó en el contexto de la
pandemia de COVID­19. El segundo capítulo trata de los principales avances
tecnológicos que afectan la forma en que se puede difundir la propaganda y la
desinformación en línea y aumentar su efectividad, contextualizados por las
características cambiantes del entorno de la información y el valor de la
información en sí. Se analizan los deepfakes, el trolling y el robotrolling:
inteligencia artificial altamente personalizada, dirigida con precisión y
emocionalmente adaptable.
El tercer capítulo está dedicado a las amenazas a la seguridad relacionadas
con la difusión de propaganda y desinformación en el entorno online. Refleja
los cambios que la propaganda y la desinformación han experimentado
recientemente y reacciona al desarrollo descrito en los capítulos anteriores. Los
autores analizan las amenazas a nivel personal, social y político, lo que
proporciona apoyo estructural a los capítulos dedicados a medidas específicas.
El cuarto capítulo completa la primera parte del volumen editado con una
discusión sobre la propaganda y la desinformación a través del prisma de los
derechos humanos fundamentales, específicamente la libertad de expresión.
La perspectiva jurídica proporcionada confronta el problema de la
desinformación con los componentes existentes de la libertad fundamental. La
comprensión de los límites de la libertad de opinión se desarrolla aún más a
través de la libertad de impartir información, así como la correspondiente
libertad de recibir información e ideas. La tipología resultante de expresión
protegida proporciona un marco adecuado para la siguiente discusión sobre los
límites permisibles aplicables a "la libertad".
Machine Translated by Google

viii PREFACIO

Estos capítulos están escritos haciendo hincapié en el cambiante entorno de la información


en el siglo XXI, que está relacionado con nuestra
evolución hacia una sociedad centrada en la información. Los autores describen la mayoría
cambios significativos en cuanto al desarrollo tecnológico y la evolución de las redes sociales,
que han afectado al entorno informativo en
términos de tipos de actores y las herramientas a su disposición. El cambio ha tenido
un impacto en las actividades y estrategias que implementan los propagandistas, todos
que se ven subrayados por la explotación de los conocimientos cognitivos (no sólo) existentes.
vulnerabilidades de los destinatarios. Los capítulos ofrecen una imagen clara de lo que
estamos presenciando actualmente en todo el mundo y qué tipo de crisis social,
desafíos políticos y de seguridad que enfrentamos.
La segunda parte pasa de definir los retos a posibles reacciones ante el estado del arte
actual o el del futuro próximo. El
Los capítulos están dedicados a las diversas formas de contrarrestar la propaganda y
desinformación: las posibilidades de detección, prevención y contrarrestación. La sección
comienza con el quinto capítulo dedicado a los enfoques basados en computadora para
detectar desinformación y técnicas de manipulación basadas en varios criterios presentados
en el capítulo. Los autores
centrarse en los aspectos técnicos de los métodos automáticos que respaldan la verificación
de hechos, la identificación de temas, el análisis de estilo de texto y el filtrado de mensajes.
canales de redes sociales. El sexto capítulo da seguimiento a los enfoques tecnológicos para
detectar la desinformación y la manipulación, pero desde
una perspectiva jurídica. Se ocupa de los aspectos legales del uso de vehículos autónomos.
herramientas algorítmicas, los requisitos para el análisis forense de datos digitales
evidencia y un marco legal relevante para recolectar y evaluar
evidencia disponible para abordar estos temas. Los dos últimos capítulos son
dedicado a enfoques y ejemplos de cómo los actores estatales y no estatales
actualmente nos enfrentamos a la propaganda y la desinformación, así como a qué tipo de
medidas y contramedidas que establezcan con base en su situación interna.
Situación política. El séptimo capítulo introduce un marco analítico para el análisis de las
contramedidas institucionales contra la propaganda.
y la desinformación y presenta estudios de casos de la Unión Europea,
La OTAN y los actores nacionales. El octavo capítulo está dedicado al papel
de la sociedad civil para abordar el problema, centrándose en Visegrado
Grupo: países de Europa central (República Checa, Hungría, Polonia,
y Eslovaquia) con un contexto político similar a primera vista pero con
diferentes enfoques una vez que se analizan más de cerca.
La segunda parte del volumen cubre áreas candentes de tecnología,
(contra)medidas legales, institucionales y no gubernamentales. Autores
Machine Translated by Google

PREFACIO ix

Proporciona a los lectores estudios de casos de la región europea, todos ellos


centrados en desafíos sociales, políticos o de seguridad. La única excepción es un
capítulo centrado en los métodos tecnológicos, ya que no tiene sentido limitar el
tema geográficamente ya que el conocimiento tecnológico y los enfoques
metodológicos no se ven afectados por las fronteras estatales. En otras palabras,
los capítulos presentan cómo diferentes actores estatales y no estatales que
comparten principios democráticos y con contextos geopolíticos más o menos
similares podrían reaccionar ante el tema de la propaganda y la desinformación.
Estos estudios de caso de medidas y contramedidas pretenden ser un ejemplo de
enfoques potenciales y su discusión. También es un recordatorio de la necesidad de
reflexionar sobre los contextos regionales.
El volumen editado termina con un capítulo final que proporciona a los lectores
un resumen de los puntos principales presentados en el volumen junto con un
resumen de posibles desarrollos futuros en este campo.
Sugerimos un enfoque centrado en la sociedad como una forma para que los
regímenes democráticos se adapten, con énfasis en la resiliencia humana y social
(incluida la protección de las redes) compuesta a partir de las áreas cubiertas en
este volumen editado.
Recientemente se han producido muchas publicaciones que tratan este tema
(varias de las cuales se mencionan en los capítulos individuales). Sin embargo,
esperamos que el volumen editado que tiene en sus manos sea una guía útil para el
mundo de la propaganda y la desinformación en línea en el siglo XXI y le brinde una
visión original del tema.
Estimados lectores, les deseamos una lectura inspiradora, y si el libro les ayuda a
comprender algunos de los aspectos descritos o les incita a realizar su propia
investigación sobre el tema, estaremos más que satisfechos.

Brno, República Checa Miloš Gregor


Petra Mlejnková
Machine Translated by Google

Agradecimientos

En primer lugar, nos gustaría agradecer a Darren Lilleker, el editor de la serie,


quien demostró mucho entusiasmo por este proyecto y nos animó a realizarlo.
¡Muchas gracias, Darren!
A continuación, a toda la buena gente de Palgrave Macmillan que nos dio la
oportunidad de publicar este trabajo. Nos alegra que Palgrave Macmillan esté
abierto a apoyar proyectos como el nuestro y así ayudar a académicos y lectores
de todo el mundo a comprender cómo la propaganda y la desinformación
evolucionaron hasta su forma actual, así como cómo la era de la posverdad
afecta a todos los sistemas políticos. Al rededor del mundo. Sin su apoyo, la
mayor parte de la información y el conocimiento que pudimos recopilar durante
los últimos años serían inútiles. Gracias por su confianza y creencia en las
publicaciones centradas en este tema. En particular, agradecemos a Anne­
Kathrin Birchley­Brun y Ambra Finotello, nuestras editoras, por sus consejos,
paciencia y asistencia.
Un gran agradecimiento es natural para todos los contribuyentes a este libro.
Gracias por tener el coraje de trabajar con nosotros y gracias por su energía y
arduo trabajo; ¡el resultado vale la pena! Esperamos que haya disfrutado el
trabajo en este emocionante proyecto tanto como nosotros.
El volumen editado ha sido escrito como resultado del proyecto de investigación
'Técnicas manipulativas de propaganda en tiempos de Internet' financiado por la
Agencia de Subvenciones de la Universidad Masaryk (MUNI/G/0872/2016).

xi
Machine Translated by Google

xiii AGRADECIMIENTOS

Muchas gracias a nuestros colegas del Departamento de Ciencias Políticas y del Instituto
Internacional de Ciencias Políticas de la Universidad Masaryk. En particular, el mérito
especial por su apoyo incondicional a nuestra investigación sobre propaganda y desinformación
es para Stanislav Balík, Vít Hloušek, Lubomír Kopeˇcek y Otto Eibl, quienes pacientemente
nos apoyaron durante todo este proyecto.

Gracias a todos nuestros amigos, colegas, expertos en seguridad y miembros de ONG


que nos inspiran una y otra vez: Nicholas
ˇ J. O'Shaughnessy, Paul Baines, Tom Nichols, Karel
Rehka y František Vrábel. Hay muchos de ustedes y probablemente no podamos nombrarlos
a todos; sin embargo, apreciamos su apoyo y comentarios.

No debemos olvidar agradecer enormemente a Brad McGregor por su


Excelentes servicios de revisión y corrección.
Y por último, pero no menos importante, queremos expresar un enorme agradecimiento a
nuestras familias inmediatas y extendidas, especialmente por su continuo apoyo, paciencia,
comprensión y aliento.
Una vez más, gracias a todos. No podríamos haber hecho esto sin ti.
Machine Translated by Google

Contenido

Parte I

1 Explicando el desafío: desde la persuasión


a la relativización 3
Miloš Gregor y Petra Mlejnková

2 La propaganda y la desinformación llegan a Internet 43


Miroslava Pavlíková, Barbora Šenkýˇrová,
y Jakub Drmola

3 La propaganda y la desinformación como amenaza a la seguridad 75


Miroslav Mareš y Petra Mlejnková

4 Discurso de etiquetado 105


František Kasl

Parte II

5 enfoques tecnológicos para la detección en línea


Desinformación y manipulación 139
Aleš Horák, Vít Baisa y Ondˇrej Herman

xiii
Machine Translated by Google

xiv CONTENIDO

6 análisis forenses proporcionados de la desinformación


y manipulación 167
Radim Polˇcák y František Kasl

7 respuestas institucionales de los países europeos 195


Jan Hanzelka y Miroslava Pavlíková

Ocho iniciativas de la sociedad civil que abordan la desinformación:


Experiencias de los países de Europa Central 225
Jonáš Syrovátka

9 Conclusión 255
Miloš Gregor y Petra Mlejnková

Índice 263
Machine Translated by Google

Notas sobre los contribuyentes

Vít Baisa fue asistente de investigación en el Centro de Procesamiento del Lenguaje


Natural de la Facultad de Informática de la Universidad de Masaryk. En su investigación,
se centra en el modelado del lenguaje, el procesamiento de grandes datos lingüísticos y
los datos multilingües. Ha estado involucrado en proyectos relacionados principalmente
con la lingüística de corpus y la lexicografía.

Jakub Drmola es profesor asistente en el Departamento de Ciencias Políticas de la


Facultad de Estudios Sociales de la Universidad Masaryk. En su investigación, se centra
principalmente en terrorismo, ciberseguridad, seguridad espacial, inteligencia artificial y
amenazas emergentes.

Miloš Gregor es profesor asistente en la Universidad de Masaryk y imparte cursos sobre


comunicación y marketing políticos, propaganda, desinformación y noticias falsas. Como
investigador, ha participado en los proyectos 'Análisis de técnicas de manipulación en
sitios web checos seleccionados, técnicas de manipulación de propaganda' (financiado
por la Universidad de Masaryk) y 'Operaciones estratégicas de comunicación e información
en el contexto de la seguridad cibernética' (financiado por la Agencia Nacional de
Seguridad Cibernética y de la Información), así como varios proyectos de investigación
dedicados a las campañas electorales (por ejemplo, junto con Otto Eibl, coeditó el
volumen Thirty Years of Political Campaigning in Central and Eastern Europe, Palgrave
Macmillan, 2019). Junto con Darren Lilleker, Ioana A. Coman y Edoardo Novelli, Gregor
coeditó el volumen Comunicación política y COVID­19: gobernanza y retórica en tiempos
de

xvi
Machine Translated by Google

xvi NOTAS SOBRE LOS COLABORADORES

Crisis, Routledge 2021. Junto con Petra Mlejnková, es mentor de los proyectos 'Zvol si
info' (Elige tu información) y 'Fakescape', ambos dedicados a la sensibilización sobre la
alfabetización mediática; Ambos proyectos fueron premiados en el concurso internacional
Peer to Peer: Global Digital Challenge iniciado por Facebook. Es coautor de ¡¡ ¡El mejor
libro sobre noticias falsas, desinformación y manipulación!!! (CPress, 2018) Gregor está
íntimamente involucrado en la popularización del problema de la desinformación y las
formas en que se puede reconocer; Con ese fin, ha pronunciado más de doscientas
conferencias y discursos públicos desde 2018.

Jan Hanzelka es Ph.D. Candidato e investigador especialista del Departamento de


Ciencias Políticas de la Facultad de Ciencias Sociales de la Universidad Masaryk. Su
interés de investigación se centra en cuestiones de nuevas tecnologías y extremismo
político. Actualmente investiga nuevos medios en relación con la radicalización y el
discurso de odio, así como con la titulización del espacio de las redes sociales.

Ondˇrej Herman es Ph.D. Candidato e investigador del Departamento de Tecnologías de


la Información, Facultad de Informática, Universidad Masaryk.
En su investigación, se centra en el modelado del lenguaje y el procesamiento de grandes
datos lingüísticos. Ha estado involucrado en proyectos relacionados con la lexicografía.

Aleš Horák es profesor asociado de Informática en la Universidad de Masaryk. Su


investigación se concentra en el procesamiento del lenguaje natural, la representación y
el razonamiento del conocimiento, la tilometría, la atribución de autoría y la lingüística de
corpus. Su trabajo ha sido publicado, entre otros, en Oxford University Press y Routledge.

František Kasl es doctor. Estudiante del Instituto de Derecho y Tecnología de la Facultad


de Derecho de la Universidad Masaryk. Sus principales temas de investigación están
relacionados con la protección de datos personales, la privacidad, las comunicaciones
electrónicas y la regulación de tecnologías emergentes.

Miroslav Mareš es profesor del Departamento de Ciencias Políticas de la Facultad de


Estudios Sociales de la Universidad de Masaryk (FSS MU). Es garante del programa de
estudios Estudios Estratégicos y de Seguridad e investigador del Instituto Internacional de
Ciencias Políticas, FSS MU.
Se centra en la investigación de la violencia política, el extremismo y la política de
seguridad, concretamente en el contexto centroeuropeo. Fue coautor (con Astrid Bötticher)
de Extremismus—Theorien—Konzepte—Formen (Olden­bourg Verlag, 2012) y Militant
Right­Wing Extremism in Putin's
Machine Translated by Google

NOTAS SOBRE LOS COLABORADORES xvii

Rusia. Legacies, Forms and Threats (con Jan Holzer y Martin Laryš;
Routledge, 2019) y es autor o coautor de más de doscientos artículos,
capítulos y libros académicos científicos.
Petra Mlejnková (Vejvodová) es jefa del Departamento de Ciencias Políticas
de la Facultad de Estudios Sociales de la Universidad de Masaryk (FSS MU)
e investigadora del Instituto Internacional de Ciencias Políticas, FSS MU.
Se centra en la investigación del extremismo y el radicalismo en Europa, la
propaganda y la guerra de información. Es miembro de las redes de expertos
Radicalization Awareness Network, la Red Europea de Expertos en
Cuestiones de Terrorismo y la red checa de expertos RAN CZ coordinada
por el Ministerio del Interior de la República Checa. Ha publicado varios
textos sobre desinformación, propaganda y extrema derecha europea.
También es codesarrolladora de una herramienta analítica semiautomática
para detectar técnicas de manipulación. Además del mundo académico,
también ha sido mentora de los proyectos de alfabetización mediática 'Zvol
si info' (Elige tu información) y 'Fakescape'. Junto con Miloš Gregor, coeditó
¡¡ ¡El mejor libro sobre noticias falsas, desinformación y manipulación!!!
(CPress, 2018), un libro de literatura popular que empodera al público en general.
Miroslava Pavlíková es Ph.D. estudiante de ciencias políticas en la
Universidad Masaryk. Su tesis de tesis trata sobre la guerra de información
y su posición en el pensamiento estratégico ruso. También es investigadora
principal en el Centro de Estudios Estratégicos Militares y de Seguridad de
la Universidad de Defensa. Se graduó en Estudios Estratégicos y de
Seguridad en la Universidad Masaryk y asistió a cursos de historia, política
y relaciones internacionales en la Universidad de Loughborough en el Reino Unido.
Radim Polˇcák es director del Instituto de Derecho y Tecnología de la
Facultad de Derecho de la Universidad de Masaryk. Es el presidente general
de la conferencia sobre el ciberespacio; editor en jefe de la Revista de
Derecho y Tecnología de la Universidad de Masaryk y jefe del consejo
editorial de Revue pro právo a technologie (Revista de derecho y tecnología).
Es miembro fundador del Instituto de Derecho Europeo y de la Academia
Europea de Derecho y TIC, panelista del tribunal de arbitraje ADR .eu y
miembro de varios organismos gubernamentales y científicos expertos y
asesores y consorcios de proyectos en toda la Unión Europea. También se
ha desempeñado como asesor especial sobre Robótica y Política de
Protección de Datos de la Comisión Europea. Polcak es autor o coautor de más de 150 pu
Machine Translated by Google

xviii NOTAS SOBRE LOS COLABORADORES

artículos, libros y artículos, en concreto sobre temas relacionados con el ciberderecho y la


filosofía jurídica.

Barbora Šenkýˇrová es Ph.D. estudiante del Departamento de Ciencias Políticas de la


Facultad de Ciencias Sociales de la Universidad Masaryk. Sus principales áreas de
investigación están relacionadas con la política local, la participación política y la democracia
directa. Trabaja en la investigación de técnicas de manipulación en los medios desde 2016.

Jonáš Syrovátka es doctor. estudiante de ciencias políticas en la Universidad Masaryk. Su


principal área de especialización es el desarrollo del sistema político ruso y su historia.
También trabaja como director de programas en el grupo de expertos del Instituto de
Estudios de Seguridad de Praga, donde se centra en proyectos relacionados con la
desinformación y las comunicaciones estratégicas.
Machine Translated by Google

Lista de Figuras

Fig. 1.1 Jerarquía de términos en asuntos civiles ( Autores fuente) 23


Fig. 1.2 Jerarquía de términos en asuntos militares ( Autores fuente) 24
Fig. 3.1 Desinformación en el contexto de la propaganda,
engaño y operaciones destructivas de falsa bandera (Fuente
Autores) 78
Fig. 8.1 Número de iniciativas de la sociedad civil recientemente establecidas
Abordar la desinformación por año ( Autor fuente) 234
Fig. 8.2 Identidad de los actores de la sociedad civil en cada país
( Autor fuente) 235

xix
Machine Translated by Google

Lista de tablas

Cuadro 1.1 Categorías de desinformación Cuadro 15


5.1 Descripción general de conjuntos de datos y corpus 159
Cuadro 7.1 Categorización de contramedidas institucionales contra
operaciones de influencia 198

xxi
Machine Translated by Google

Parte I
Machine Translated by Google

CAPÍTULO 1

Explicando el desafío: de la persuasión a


la relativización

Miloš Gregor y Petra Mlejnková

1.1 Introducción
Un capítulo que describa la historia de fenómenos como la propaganda y la
desinformación podría comenzar con la afirmación obligatoria "incluso los
antiguos griegos" o "el problema es tan antiguo como la humanidad misma".
Es más, sería correcto. La verdad es que la información siempre ha sido
crucial en la política y la guerra, y quienes la poseían y podían manipularla
eran capaces de confundir al enemigo, al adversario o al público. Como
afirma O'Shaughnessy, no hubo una edad de oro de la verdad (O'Shaughnessy
2020, 55). La información y su manipulación, por tanto, siempre han estado
presentes en nuestras vidas.

M. Gregor ∙ P. Mlejnková (B)


Departamento de Ciencias Políticas, Facultad de Estudios Sociales,
Universidad Masaryk, Brno, Chequia
correo electrónico: mlejnkova@fss.muni.cz

Correo
electrónico del Sr. Gregor: mgregor@fss.muni.cz

© El autor(es), bajo licencia exclusiva para Springer Nature Switzerland 3


AG 2021 M. Gregor y P.
Mlejnková (eds.), Desafiando la propaganda y la desinformación en
línea en el siglo XXI, campañas políticas y comunicación, https://
doi.org /10.1007/978­3­030­58624­9_1
Machine Translated by Google

4 M. GREGOR Y P. MLEJNKOVÁ

La propaganda y la desinformación han cambiado junto con cada nueva tecnología


utilizada para la información y la inteligencia. Con el desarrollo del entorno de los
medios y la información, las posibilidades de propaganda y desinformación también
han cambiado (ver Capítulo 2). Sin embargo, rara vez (o lentamente) cambian los
objetivos de la propaganda; son, en general, un esfuerzo por influir, manipular y
persuadir a un público objetivo.
Las herramientas que despliega la propaganda han experimentado un desarrollo
mucho más dinámico: desde el boca a boca, pasando por folletos y carteles, hasta
las modernas tecnologías de la comunicación. El último cambio significativo ha sido
la llegada de Internet y de las redes sociales en particular. Si bien podría haber
parecido que la propaganda estaba en hibernación después de dos guerras mundiales
y la posterior Guerra Fría, los acontecimientos de los últimos años lo han refutado.
A principios del siglo XXI, la propaganda se asociaba principalmente con regímenes
no democráticos geográficamente alejados del mundo occidental (democrático), como
lo están Corea del Norte o China. Los regímenes democráticos se sentían lejos de
intentos de manipulación, lejos de amenazas de exposición a influencias políticas
externas a través de campañas de desinformación y lejos de intentos de inmiscuirse
en los asuntos internos de regímenes soberanos y sus sociedades. Se pueden
detectar excepciones y casos controvertidos, y varios conflictos pueden servir como
buen ejemplo; sin embargo, estas estrategias y técnicas estaban muy alejadas de los
valores representados por las democracias liberales occidentales. Sin embargo, a
más tardar en 2014, exactamente diez años después de la creación de Facebook, el
mundo occidental comenzó a luchar con campañas masivas de propaganda y
desinformación dirigidas a sociedades de todo el mundo. Desde entonces, hemos
podido rastrear con extrema precisión la conexión entre las campañas de propaganda
y desinformación y el conflicto en Ucrania. Sin embargo, no son sólo los actores
estatales o patrocinados por el Estado los que dirigen activamente tales campañas,
sino que también son las organizaciones extremistas y terroristas las que construyen,
de manera muy profesional, propaganda para amenazar o radicalizar y reclutar
individuos, como lo ha hecho Daesh.

Desde entonces, toda la cuestión de la propaganda y la desinformación se ha


enfrentado a un destino similar al de muchos otros términos y conceptos académicos
que han pasado a ser utilizados cada vez más por los políticos, los medios de
comunicación y el público en general, confundiendo así la comprensión y el uso de
términos individuales. en el modo equivocado o en el contexto equivocado. Un claro
ejemplo es la moderna y pegadiza frase fake news, que ahora algunos políticos
utilizan como etiqueta para que los medios hagan preguntas desagradables o llamen
la atención sobre escándalos pasados de políticos.
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 5

El propósito de este capítulo, por tanto, es describir los conceptos de


propaganda y desinformación, su desarrollo y cómo se relacionan entre sí.
Otros conceptos relacionados, como noticias falsas, desinformación,
campañas de desinformación, operaciones psicológicas y de información y
operaciones de influencia, se introducirán y se pondrán en el contexto del
objetivo de este volumen editado. En la última parte del capítulo, se
presentarán los cambios en la sociedad, los medios y el entorno de la
información: qué han aportado especialmente Internet y las redes sociales
a la propaganda y la desinformación, y cómo han cambiado tanto la
comprensión como el nivel funcional de la propaganda y la desinformación.
en la llamada era de la posverdad. Por último, pero no menos importante,
se mencionará el desarrollo dinámico relacionado con la pandemia de
COVID­19. No sorprende que este período emocionalmente tenso haya
provocado un nuevo nivel de desinformación y desconfianza pública.

1.2 Propaganda

Uno de los aspectos más problemáticos de la propaganda es su definición


de anclaje. Hace un siglo, Lasswell definió la propaganda como la gestión
de actitudes colectivas mediante la manipulación de símbolos significativos
(Lasswell 1927, 627). Según Ellul, la propaganda es un proceso que tiene
como objetivo provocar la acción, hacer que el individuo se aferre
irracionalmente a un proceso de acción. No conduce a una elección, sino a
una relajación de los reflejos, al despertar de una creencia activa y mítica
(Ellul 1973, 25). La definición minimalista dice que la propaganda es un
intento deliberado de persuadir a la gente a pensar y comportarse de la
manera deseada (Taylor 2003, 6). Abarca decisiones conscientes,
metodológicas y planificadas para emplear técnicas de persuasión diseñadas
para lograr objetivos específicos destinados a beneficiar a quienes organizan
el proceso. Los métodos empleados varían según los canales de
comunicación disponibles: discursos, canciones, arte, radio, televisión o
Internet. La propaganda utiliza la comunicación para transmitir un mensaje,
una idea o una ideología diseñada principalmente para servir a los intereses
propios de la persona o personas que comunican. Un componente esencial
de la propaganda es la información en forma de mentira o al menos no toda
la verdad. Esta información está diseñada para servir a los intereses
primarios del propagandista, invocando un patrón común de comunicación
manipuladora unidireccional que solicita la acción —o inacción— de las
masas (Baines et al. 2020, xxv). La ocultación de hechos inconvenientes y
la censura son contrapartes inseparables de la propaganda (Taylor 2003, 14).
Machine Translated by Google

6 M. GREGOR Y P. MLEJNKOVÁ

La comprensión de la propaganda difiere en muchos contextos históricos,


culturales, ideológicos y políticos. El primer uso de la noción de propaganda se
remonta a 1622 y al establecimiento de la Sagrada Congregación para la
Propagación de la Fe (originalmente Congregatio de Propaganda Fide en latín),
a través de la cual los cardenales católicos gestionaban sus actividades
misioneras (Guilday 1921). . En el siglo XX, los regímenes políticos comenzaron
a utilizar el término de manera más activa. Los regímenes dictatoriales nunca
han rehuido la palabra "propaganda" cuando se autodenominan. Durante la
Segunda Guerra Mundial (e incluso antes), la Alemania nazi tenía su Ministerio
de Ilustración Popular y Propaganda, y la Unión Soviética tenía su Comité de
Propaganda del Partido Comunista.
El marxismo­leninismo se refería a la propaganda como el uso racional de
argumentos históricos y científicos para adoctrinar a las personas educadas e
ilustradas. En ambos países, la propaganda se percibió de manera positiva y
como un elemento inevitable que conduce a la victoria política (Smith 2019). Se
podrían encontrar ejemplos similares en China (Departamento Central de
Propaganda) o Vietnam (Departamento Central de Propaganda del Partido
Comunista de Vietnam). Por el contrario, los países democráticos utilizaron la
palabra "propaganda" para etiquetar las actividades de comunicación de su
oponente. Sus departamentos evitaron etiquetarse a sí mismos como
propagandísticos; el Reino Unido estableció el Ministerio de Información y los
Estados Unidos tenían la Oficina de Información de Guerra.
El objetivo de la propaganda es moldear la visión del mundo de la gente,
creando modelos de rol y conciencia deseados para el grupo, la clase y la
sociedad en su conjunto. Presenta la difusión institucionalizada de ideas,
teorías, opiniones, doctrinas o ideologías enteras esencialmente organizadas sistemáticamente
La propaganda puede o no exigir creencia; por lo general no emplea un atractivo
racional. Como recuerdan Baines, O'Shaughnessy y Snow, "no busca credibilidad
basada en el suministro de información precisa; el género se define casi …
exclusivamente por su contenido emotivo y el rechazo de formas de persuasión
no emotivas" (Baines et al. 2020 , xxvi). La propaganda se distingue de otras
formas de comunicación por la intención y por el énfasis en la manipulación del
destinatario. La selectividad deliberada de la información y la manipulación de la
propaganda también se distingue del proceso educativo (Smith 2019). Sin
embargo, los límites entre educación y propaganda pueden percibirse de manera
diferente, tanto desde la perspectiva de la información y las ideas como desde
el punto de vista del destinatario, como lo demostró la comprensión del término
en la Unión Soviética.
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 7

Toda propaganda se basa inherentemente en una trinidad de conceptos: mitología,


simbolismo y retórica (O'Shaughnessy 2004). El uso eficaz de estos elementos
fundamentales diferencia entre la persuasión exitosa y los esfuerzos fallidos para
influir en las masas. La mitología representa el núcleo de cualquier pieza de
propaganda. Los propagandistas suelen explotar la historia y la tradición, así como
las características nacionales, como fuente. Un mito es una historia, una narrativa
más que una ideología, una idea o un principio. Estos mitos suelen contar una historia
que identifica claramente a los héroes y villanos, patrones de comportamiento buenos
y malos ilustrados a través de casos conocidos públicamente. No se cuentan en un
lenguaje sofisticado; por el contrario, utilizan símbolos fáciles de reconocer e
identificar, o al menos su esencia o significado puede transmitirse a través de un
simple signo (O'Shaughnessy 2016, 140). El mito a menudo puede ir acompañado de
ficción, que para el propagandista es algo más que una mera mentira: representa
una forma más profunda de realidad, una narrativa alternativa que encarna el estado
de cosas ideal buscado (O'Shaughnessy 2020, 66). . Los símbolos son esenciales no
sólo para la mitología sino también para la comunicación y la persuasión efectivas en
general, incluida la propaganda. Surge del hecho de que la comunicación de masas
exitosa tiene una naturaleza inherentemente emotiva y los símbolos son conexiones
cruciales con las emociones. Por lo tanto, la presentación de símbolos puede sustituir
la argumentación. Cualquier cosa puede volverse políticamente simbólica si se
encuentra el contexto adecuado (O'Shaughnessy 2016, 216). La última parte de la
tríada es la retórica.
En un ejemplo clásico, George Orwell representa la fuerza del lenguaje en su obra
maestra de 1984. En su novela, el autor ilustra—además de otras herramientas en la
absorción totalitaria del poder y el control de la vida de un individuo—que el control
de la mente de las personas reside en en el control del lenguaje (Orwell 1949).
Comprender los motivos y mecanismos de la mente grupal es la clave para controlar
y gestionar las multitudes, y la herramienta de la retórica es el uso correcto del
lenguaje (Bernays 1947).
La retórica se basa en un encuadre explícito o implícito que proporciona al
destinatario pistas simplistas y un camino claro para comprender el asunto
correctamente (O'Shaughnessy 2016, 256).
Mientras que la propaganda del siglo XX podía permitirse una mentira explícita
porque sólo había formas limitadas de verificar la información, la situación cambió
con la llegada de Internet. En general, una gran tarea del propagandista es ganarse
la confianza, crear credibilidad y persuadir a la audiencia para que confíe en la
fuente. Hoy en día, las mentiras explícitas a menudo pueden verificarse fácilmente;
Nuestro acceso a muchas fuentes de información redujo radicalmente la efectividad
de las mentiras y su impacto en la sociedad, en los casos en los que estamos dispuestos a hacerlo.
Machine Translated by Google

8 M. GREGOR Y P. MLEJNKOVÁ

encontrar la información correcta (que se analiza más adelante en este capítulo).


Al enterarse de que parte de un mensaje era incorrecto, la credibilidad se resiente.
Y viceversa, si una parte de un mensaje verificada es correcta, el efecto es el
contrario: es más probable que la audiencia crea en todo el mensaje y vuelva a
creer en la fuente en el futuro. Por lo tanto, la estrategia actual de los propagandistas
suele ser no decir mentiras, sino seleccionar la verdad y mezclarla con contenido
manipulador. La mezcla final también contiene mentiras, pero en ese caso, ¿a
quién le importan las mentiras cuando está basada en una historia real?
Una forma diferente de procesar la verdad es también crear una atmósfera de
incertidumbre en términos de alimentar sentimientos de "todo el mundo miente" y
"la verdad ya no es relevante" porque "nada es lo que parece". Esto significa que
los propagandistas no convencen a la audiencia acerca de una "verdad" en particular.
En cambio, utilizan técnicas de manipulación seleccionadas e incluso mentiras para
generar dudas sobre la credibilidad de las fuentes de información de un público
objetivo o inducirles apatía con información abrumadoramente conflictiva. Esta es
una estrategia aplicada por regímenes autoritarios. Sin embargo, con el desarrollo
de las tecnologías modernas, a estos regímenes se les ha vuelto más difícil
controlar el flujo de información. En cambio, producen un volumen increíble de
información, lo que hace que sea abrumador navegar por ella. Produce "smog de
datos", donde resulta difícil encontrar información útil (Shenk 1997).

La estrategia de crear 'smog de datos' o 'ruido de información': inundar el


entorno informativo con abundantes historias e información alternativas y
contradictorias, algunas veraces, otras no; algunos verificables, otros no; relevante
o irrelevante—crea la ilusión de que nada es lo que parece y es difícil buscar la
verdad. En ese caso, a nadie le importa realmente que lo pillen diciendo mentiras,
porque el objetivo principal del propagandista no es construir la propia credibilidad
o una ideología coherente sino persuadir a los enemigos de que mienten. Después
de todo, la información está debilitada por un lastre engañoso y ya no tiene ningún
valor. Entonces, una población apática es lo mejor que pueden controlar los
gobiernos autoritarios.
El carácter y las posibilidades de la propaganda están directamente influenciados
por el repertorio de medios y herramientas que pueden utilizarse para su difusión.
Durante el reinado del Papa Gregorio XV, cuando se fundó la Sagrada Congregación
para la Propagación de la Fe, el principal instrumento de comunicación era el boca
a boca. La literatura era prerrogativa de los estratos más estrechos de la sociedad.
Sin embargo, en la segunda mitad del siglo XIX, la impresión masiva de periódicos
había comenzado y se convertiría en una de las herramientas del arsenal de los
propagandistas. Se observó un cambio similar
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 9

con la llegada del cine, la radio y la televisión entre el público en general.


No es casualidad que la época dorada de la propaganda esté asociada con la
primera mitad del período de la guerra mundial del siglo XX, cuando la mayoría de
los medios antes mencionados experimentaron un auge masivo.
Un auge similar acompañó la aparición de Internet y especialmente de las redes
sociales. Estos no se explotan únicamente con fines propagandísticos (ahora
denominados propaganda digital), sino también para la represión y opresión de los
ciudadanos en forma de chantaje, acoso y coerción de quienes se oponen al régimen
(Pearce 2015). Las posibilidades del entorno informativo actual han brindado a las
personas un acceso casi ilimitado a la información, lo que dificulta la censura.
También ha dado lugar al nuevo fenómeno del periodismo online (Bor 2014) y del
periodismo ciudadano (Atton 2009; Goode 2009; Kaufhold et al. 2010; Lewis et al.

2010). Representan un gran desafío para nosotros porque estos tipos de periodismo
contribuyen al aumento de la cantidad de información (aunque a veces de calidad y
precisión cuestionables) en el entorno informativo. Para los destinatarios de las
noticias, esta democratización del periodismo, así como la abundancia de información
y sus fuentes, resultan ambiguas.
También potencian el potencial de la propaganda digital, que, gracias a estos
avances, utiliza la replicación masiva de ideas entre pares y la participación activa
en la difusión de la propaganda. Disminuye la necesidad de estructuras centralizadas
para mantener o acelerar la propagación de ideas particulares. Los propagandistas
pueden disfrutar de la ventaja de la estructura descentralizada de las redes sociales
al orquestar campañas con un amplio impacto mientras la fuente sigue siendo difícil
de identificar (Farkas y Neumayer 2018; Sparkes­Vian 2018). El uso de trolls y robots
para simular el apoyo público es una de las consecuencias del desarrollo de las
tecnologías de redes sociales. Este aspecto específico se analiza con más detalle
en el Capítulo 2.

1.2.1 La manipulación es la columna vertebral de la propaganda

Como ya se dio a entender, el concepto de manipulación es crucial para la


propaganda. Toda propaganda es manipuladora y sería un disparate hablar de
propaganda no manipuladora (O'Shaughnessy 2004, 18). La manipulación puede
adquirir diferentes significados según el sector y contexto en el que se aplica.
Adquiere el campo semántico amplio y algo confuso del término, la intención negativa
del hablante y el carácter encubierto de influencia (Akopova 2013). La manipulación
puede tomar
Machine Translated by Google

10 M. GREGOR Y P. MLEJNKOVÁ

muchas formas diferentes y se puede aplicar mediante el uso de técnicas de


manipulación. La manipulación de la propaganda a menudo tiene que ver con la
información, los sistemas de información y las redes que usa la gente. La
propaganda también manipula a los individuos en términos de procesar la
conciencia de las personas. Los datos pueden manipularse cambiando su
significado o contenido. Este tipo de manipulación es la menos perceptible y, por
tanto, la más difícil de detectar. Hay docenas de técnicas manipuladoras de
propaganda y persuasión (ver Pratkinis y Arons 2001; Bernays 2004; Shabo
2008). Por mencionar al menos algunos de los más descritos por los académicos
y utilizados por los propagandistas, podemos nombrar la apelación al miedo, la
culpa, la demonización, la fabricación, el etiquetado o los insultos, la relativización
y el uso de imágenes o vídeos manipuladores.
La apelación al miedo se beneficia del hecho de que las emociones son la
columna vertebral de la propaganda. Por tanto, el miedo se encuentra entre las
emociones más comunes explotadas por los propagandistas (Baines et al. 2020).
Se pueden identificar varios miedos subyacentes frecuentemente presentes en la
propaganda: el miedo al rechazo, la impotencia y, lo más importante, el miedo a
la muerte (Shabo 2008). La apelación al miedo emplea la preocupación del público
por lo desconocido o sus malas experiencias con el grupo objetivo o los principios.
Estos miedos son una de las motivaciones más poderosas detrás del
comportamiento y las actitudes de las personas. Culpar, como técnica de
manipulación, señala al enemigo responsable del evento o situación. Los
propagandistas a menudo simplifican demasiado los problemas complejos al
señalar una sola causa o un solo enemigo al que se puede culpar por ello (aunque
no sea responsable en absoluto). En todo, desde el desempleo hasta los desastres
naturales, culpar al enemigo puede ayudar al propagandista a lograr su agenda
(Shabo 2008). La demonización se utiliza para deshumanizar al oponente. Por lo
general, emplea herramientas similares al etiquetado, aunque de una manera más
sencilla. El objetivo es presentar al oponente como un enemigo no sólo desde un
punto de vista diferente, sino que ni siquiera sea humano. Esta técnica se utiliza
con frecuencia en conflictos armados para eliminar el miedo de los soldados que
deben matar a los soldados del adversario (hombres que matan a hombres).
Representar al enemigo de forma deshumanizada, equiparando a los humanos
con los animales, psicológicamente hace que la situación sea más fácil. Las
fabricaciones son información falsa presentada como afirmaciones verdaderas
(Syed 2012). Por lo general, toman la forma de información engañosa o
francamente falsa presentada como información verificada. Etiquetar (o insultar)
es el uso de palabras negativas para menospreciar a un enemigo o una opinión
contraria. El etiquetado puede adoptar muchas formas diferentes según las circunstancias, pero t
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 11

atacar a la oposición a nivel personal. También suelen apelar a las ideas preconcebidas y
prejuicios de la audiencia (Domatob 1985; Shabo 2008).
La relativización sirve para debilitar los méritos del oponente o dañar a un actor preferido.
Suele utilizarse para apaciguar las emociones cuando (desde el punto de vista del
propagandista) está sucediendo algo malo. Contiene explícitamente críticas al oponente o
trivializa el problema. Los vídeos y las imágenes manipuladores representan aquí una de las
técnicas de manipulación más evidentes. En el contexto de este volumen editado,
consideramos que un video o una imagen son manipuladores si cambian la percepción del
público sobre el tema, o si presentan un collage o un medio modificado de alguna manera.

Un denominador común de la mayoría de las técnicas de manipulación son las emociones.


Representan una parte crucial de la existencia humana y son un factor importante en los
diferentes procesos por los que pasa cada individuo.
En 2010, el neurocientífico Antonio Damasio utilizó su investigación para confirmar una
importante teoría psicológica. En la toma de decisiones las emociones juegan un papel muy
importante y quizás sean incluso más decisivas que la lógica. La culpa la tiene la parte del
cerebro responsable de la formación de las emociones; sin ella, no podríamos tomar ni
siquiera decisiones simples (Damasio 2010). La importancia de las emociones puede
demostrarse aún más mediante el prejuicio: nuestras asociaciones despiertan diferentes
emociones y nuestras fuertes actitudes sociales están respaldadas emocionalmente. Con
frecuencia, las técnicas de manipulación tienen como objetivo el miedo y los sentimientos de
incertidumbre. La reacción de algunos actores políticos a la crisis migratoria europea de 2015
fue un excelente ejemplo de manipulación que alimentó los miedos (naturales) de la gente,
creando, por ejemplo, conexiones entre inmigrantes y terroristas/criminales. Cuando un
individuo se siente subjetivamente inseguro e inestable, es más susceptible a la manipulación,
ya que la necesidad de seguridad personal pertenece a una de las necesidades personales
básicas.

Los propagandistas no producen mensajes engañosos mediante la manipulación lingüística


con un atractivo emocional o acentos únicamente, sino también manipulando la información
en su conjunto o el contexto en el que se presenta la información. Podemos distinguir entre
cuatro métodos principales: sesgar la información publicada, presentar la información de
manera ambigua, manipular la cantidad de información publicada y presentar información
irrelevante al discurso (McCornack 1992, 4).

Con los desarrollos descritos anteriormente, con el paso de la persuasión a la relativización,


podemos observar un cambio de las dos primeras formas de manipulación a las dos últimas
mencionadas: manipulación de la cantidad de información y presentación de información
irrelevante al discurso.
Machine Translated by Google

12 M. GREGOR Y P. MLEJNKOVÁ

1.3 Desinformación
En la última década, probablemente se mencionó incluso más que propaganda el término
desinformación. La desinformación puede percibirse como parte del ámbito conceptual más
amplio de la propaganda. Despliega mentiras, pero no siempre ni necesariamente. Por tanto,
podemos decir que no toda propaganda es desinformación, pero toda desinformación es
propaganda (O'Shaughnessy 2020, 55).
El intenso debate sobre los peligros de difundir desinformación y propaganda se revivió en
2014 en el contexto de la ocupación por parte del ejército ruso de la parte oriental de Ucrania
y la anexión de Crimea.
Sin embargo, al igual que la propaganda, la desinformación tampoco es un fenómeno nuevo.
Durante décadas, el concepto de desinformación había estado relacionado exclusivamente
con las actividades de inteligencia en todo el mundo. Un ejemplo clásico de campaña de
desinformación a este respecto es la Operación INFEKTION, una campaña de desinformación
dirigida por la KGB, el servicio de inteligencia soviético, en los años 1980.
La campaña fue diseñada para socavar la credibilidad de Estados Unidos y fomentar el
antiamericanismo. La campaña plantó la idea de que Estados Unidos había inventado el
virus VIH en los laboratorios del Departamento de Defensa como arma biológica. Sin
embargo, el término desinformación sólo empezó a penetrar en el léxico de los medios y en
el público en general a partir de los años 1980. En febrero de 1992, David C.

Berliner presentó un artículo dedicado a las reformas educativas en la "era de la


desinformación" (Berliner 1992).
El objetivo de la desinformación no es necesariamente persuadir, hacer que la gente
cambie de opinión. Según su finalidad, podemos distinguir entre cuatro categorías de
desinformación (O'Shaughnessy 2020, 58­59):

1. Aquiescencia, no creencia: El propósito de la desinformación es crear, sostener y


amplificar divisiones dentro de un partido político rival, un gobierno o una coalición.
En este sentido, la desinformación es una estrategia de control político.

2. Sembrar división: la desinformación como herramienta estratégica nacional con el


objetivo de sabotear el consenso internacional: un arma contra una nación o coalición
hostil. Se convierte, por tanto, en un método para aprovechar las ventajas en las
relaciones internacionales.
3. Sembrar confusión: El objetivo es dejar perplejos: todo y nada es ya creíble, que es la
condición previa para la parálisis política.
Mentir es una estrategia. El objetivo no es crear creencias sino sembrar confusión.
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 13

4. Plantear dudas: La propagación de dudas es un género de desinformación


muy eficaz, ya que los fenómenos creíbles rara vez pueden probarse de
forma absoluta. Siempre existe la posibilidad de duda.

La desinformación incluye una amplia gama de información o mensajes falsos,


falsos, inexactos o engañosos que se generan, presentan y difunden con el
objetivo de confundir al destinatario de la información o causar daño público. La
desinformación se basa en tres características necesarias (Fallis 2015), y podemos
hablar de desinformación solo si se cumplen todas las características. En primer
lugar, la desinformación es información, información que representa una parte
del mundo como si fuera de cierta manera.
Aunque algunos autores consideran información sólo lo que es verdadero (Dretske
1983), no tenemos que tener una discusión filosófica sobre el significado de la
información ya que podemos aceptar la opinión de que la información nos
proporciona contenido que es verdadero o falso (ver Capítulo 6). . El hecho es
que primero percibimos la información y la consideramos o evaluamos
posteriormente. Y sólo en algunos casos, la segunda característica define la
desinformación como información engañosa, lo que significa que crea creencias
falsas. En tercer lugar, la desinformación no es accidental por su naturaleza
engañosa; hay un intento intencional de proporcionar a la audiencia información
que crea creencias falsas. La intención de difundir deliberadamente información
falsa es crucial para esta característica porque diferencia la desinformación de
otras formas de mensajes inexactos, como la información errónea.
La intención también se refleja en el término campaña de desinformación, que
se refiere al uso sistemático de información engañosa y a la serie de actos que
conducen a los objetivos deseados. Una campaña de desinformación es la
difusión focalizada, controlada y coordinada de desinformación con el fin de influir
en el proceso de toma de decisiones del oponente o para lograr ventajas políticas,
económicas o de otro tipo (Kragh y Åsberg 2017). Significa la manipulación
sistemática y deliberada de una audiencia, independientemente de si la audiencia
está representada por el público en general o por un segmento específico de la
población, como los políticos.

1.3.1 Qué es y qué no es la desinformación

En las discusiones entre políticos o entre el público en general, podemos


encontrarnos con un uso excesivo del término desinformación. Además de los
casos que cumplen las características descritas anteriormente (información
intencionalmente engañosa), a veces también se denominan otros casos como desinformación. N
Machine Translated by Google

14 M. GREGOR Y P. MLEJNKOVÁ

Los políticos sólo utilizan el término desinformación como etiquetado, lo que sirve
para desacreditar la información presentada, un argumento o incluso al portador de la
información, pero marcar una declaración o un argumento como desinformación
también se ha convertido en un acalorado punto de discusión en sí mismo.
Hay mucha información que no tiene contenido veraz, que puede ser engañosa o
incluso falsa. Estos casos, sin embargo, no cumplen con la intención de engañar; no
tienen esta función. Un ejemplo podría ser información que solía ser cierta pero ya no
lo es (por ejemplo, qué equipo lidera la liga nacional de fútbol). Sin embargo, podemos
distinguir entre dos tipos principales de desinformación que pueden tener esta función.

En primer lugar está la intención de engañar como objetivo; es decir, intentan cambiar
la opinión o el comportamiento de la audiencia. El segundo utiliza el mensaje
engañoso no como un objetivo sino para beneficiar al autor de otra manera, por
ejemplo, una ganancia financiera. El objetivo de la desinformación en tales casos no
es cambiar la opinión o el comportamiento de la audiencia, sino obtener un beneficio
resultante de este cambio. En el sector de la salud, por ejemplo, la desinformación se
puede utilizar para convencer a la audiencia de lo nocivo de las drogas con el fin de
hacer que la gente use los productos que el autor desea.
Las categorías que entran dentro del ámbito de la desinformación están
representadas, entre otras, por mentiras, mensajes audiovisuales o aquellos
producidos y difundidos de forma altruista. Representa información que no sólo está
fuera de contexto, presentada como parcialmente cierta o incompleta, sino también
información presentada contra una verdad objetivamente verificable. La desinformación
audiovisual puede adoptar la forma de imágenes o vídeos con modificaciones de
postproducción o presentados en un contexto (lugar o momento) diferente al de su
creación. Los deepfakes son otro ejemplo (ver Capítulo 2).
Incluso la información altruista y engañosa puede considerarse desinformación; No
importa si la presentación de información engañosa fue motivada por buenas
intenciones. Por el contrario, la información apenas cierta no puede considerarse
desinformación; de lo contrario, el significado del término estaría vacío. También se
puede presentar información falsa sin intención de manipularla; pueden ser falsedades
accidentales.
Una categoría especial son los chistes y las sátiras, que normalmente se basan en
información mentirosa o incompleta. Su intención es más bien entretener al público
que engañarlo. Sin embargo, esto no significa que los casos mencionados no puedan
inducir a error a la gente. Incluso si no fueron creados con el propósito de engañar a
la audiencia, luego pueden convertirse en desinformación cuando se difunden (Tabla
1.1).
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 15

Tabla 1.1 Categorías


Desinformación No desinformación
de desinformación
Mentiras maliciosas declaración veraz
Desinformación audiovisual Falsedades accidentales
Verdadera desinformación chistes
Desinformación sobre efectos secundarios Comentarios sarcásticos

Desinformación adaptativa Verdades accidentales


Desinformación altruista Mentiras inverosímiles
Desinformación perjudicial Sátira

Autores fuente , basados en Fallis (2015, 415)

1.3.2 Desinformación versus noticias falsas

Hoy en día, el término noticias falsas se ha vuelto más común que desinformación después de
hacerse conocido públicamente y ampliamente utilizado durante la crisis de EE.UU. de 2016.
elecciones presidenciales a más tardar. Su popularización se debió a la entonces
El candidato presidencial Donald Trump, quien calificó a los medios críticos con él.
como noticias falsas. Como concepto relativamente nuevo, no se le ha dado suficiente
atención epistemológica, y su comprensión varía según el panorama general.
público y académico (Gelfert 2018).
Algunos autores consideran fake news todas aquellas noticias que no están basadas en
hechos pero que, a pesar de ello, se reportan como noticias verdaderas (Allcott y Gentzkow
2017). Otros perciben las noticias falsas como noticias que niegan los principios de
periodismo objetivo y de calidad (Baym 2005). Sin embargo, existe una diferencia entre los
medios que difunden noticias falsas y los llamados medios políticos,
que ajusta la cobertura informativa de tal manera que busca establecer la
agenda política de un partido o entidad política relacionada (Vargo et al. 2017).
Silverman afirma que las noticias falsas son noticias que no se basan en la verdad y
se realiza para obtener ganancias financieras, generalmente a través de ingresos publicitarios. Las noticias falsas son,

por lo tanto, cercano al periodismo sensacionalista, pero a diferencia de los tabloides, el beneficio
El motivo, aparte de la venta del medio en sí, es crucial en esta definición porque, según
Silverman, debe considerarse propaganda.
cuando falta una motivación financiera (Silverman 2016).
Las noticias falsas también se utilizan a menudo como un término general para toda la desinformación,
pero es un término más restringido que entra dentro de esta clasificación (Gelfert 2018).
Por tanto, las noticias falsas son un tipo de desinformación y pueden definirse como la
Creación y difusión deliberada de historias y noticias falsas que son
afirmó ser una noticia seria por su autor.
Machine Translated by Google

16 M. GREGOR Y P. MLEJNKOVÁ

El concepto de fake news responde en cierto modo a que más bien asociamos
la desinformación con agentes y gobiernos y gran parte de la información
engañosa presentada en el entorno informativo y los medios con otros actores.
Hoy, sin embargo, cualquiera con una intención política o económica puede crear
desinformación deliberadamente.

1.4 La desinformación y la propaganda como


herramienta para promover resultados políticos

Nadie, quizás con algunas excepciones, utiliza la desinformación y la propaganda


sólo por diversión. Siempre hay alguna intención detrás de esto, que es también
el propósito de la desinformación y la propaganda y su característica inherente.
Los actores estatales, patrocinados por el Estado o no estatales deciden recorrer
el camino de la manipulación generalmente para promover sus intereses y
objetivos políticos, económicos, militares o culturales, o el actor lo considera
necesario para protegerse contra sus adversarios. En este contexto se han
mencionado principalmente regímenes antidemocráticos y sus partidarios u
organizaciones extremistas y terroristas. La desinformación y la propaganda les
dan la oportunidad de utilizar técnicas de manipulación y mentiras para atacar los
corazones y las mentes de grupos objetivo predefinidos, que después de todo se
cree que es el factor más importante en cualquier conflicto.
La desinformación y la propaganda basada en su carácter suele ejercerse de
forma planificada y coordinada, lo que indica que cualquier información
intencionadamente engañosa no permanece sola por mucho tiempo; principalmente
encaja en una serie de acciones tomadas para lograr las ventajas y objetivos
deseados por alguien definidos en el tiempo y el lugar. Puede que esto no parezca
información engañosa en el momento, pero generalmente se revela más tarde
como parte de una secuencia más compleja de acciones que respaldan objetivos estratégicos.
Podemos llamarlo operación, acción realizada, incluyendo su planificación y
ejecución (Diccionario Merriam­Webster sf). Más específicamente, la
desinformación y la propaganda representan componentes importantes de las
operaciones psicológicas.
La capacidad de gestionar y cambiar las percepciones de una audiencia
objetivo puede considerarse el cuarto instrumento de poder disponible para un
actor político, después de los poderes diplomático, económico y militar (Brazzoli
2007, 223). El uso de operaciones psicológicas aumenta la eficacia de otros
instrumentos y aumenta las posibilidades de lograrlo.
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 17

conflictos, lo que, contemporáneamente, ocurre a menudo en un entorno


asimétrico. Las operaciones psicológicas (psyops) pueden definirse como
actividades planificadas previamente que utilizan métodos de comunicación y otros
recursos dirigidos a audiencias objetivo seleccionadas para influir y moldear sus
emociones, actitudes, comportamientos, percepciones e interpretaciones de la
realidad. Así, mediante el uso de métodos especiales, es posible inducir respuestas
deseables en la población objetivo, lo que, en el contexto más amplio, contribuye al
cumplimiento de objetivos específicos. Cada operación psicológica se basa en un
tema psicológico particular: la narrativa o las ideas principales, cuidadosamente
preparadas. Cuanto mayor sea la receptividad del público objetivo (en otras
palabras, su sensibilidad a herramientas de operaciones psicológicas específicas),
mayor será la probabilidad de éxito de toda la operación psicológica (Oficina de
Normalización de la OTAN 2014, 2018; Vejvodová 2019; Wojnowski 2019).
La importancia de las operaciones psicológicas se basa en la creencia de que
la naturaleza psicológica de un conflicto es tan importante como la física (Stilwell
1996). Las actitudes y comportamientos de las personas afectan el curso y el
resultado de un conflicto y la naturaleza del entorno en el que tiene lugar. Para una
operación psicológica bien realizada, es crucial conocer al público objetivo, su
voluntad y su motivación. Las operaciones psicológicas trabajan con estos
elementos y tienen como objetivo influir en ellos, debilitando la voluntad del
adversario, fortaleciendo el compromiso del grupo objetivo y obteniendo el apoyo y
la cooperación de grupos indecisos (Vejvodová 2019). Las operaciones psicológicas
pueden promover la resistencia dentro de una población contra un régimen, o
pueden presentar la imagen de un gobierno legítimo. Tienen el poder de
desmoralizar o animar a una población. Pueden reducir o aumentar las emociones
deseadas entre una población objetivo. Pueden incluso apoyar la apatía, por un
lado, o radicalizarse, por el otro. Brazzoli (2007) distinguió entre aspectos duros y
blandos de las operaciones psicológicas: relaciona los aspectos difíciles con la
creación de percepciones negativas, por ejemplo, del Estado, el gobierno o la
sociedad con el fin de sembrar las semillas de la alienación. Los aspectos suaves
se relacionan con imágenes positivas que motivan a la audiencia a seguir un
ejemplo. Ambos aspectos tienen como objetivo subvertir la mente e influir en el
comportamiento inconsciente decidido por quienes dirigen la operación.
Se cree que los conflictos terminan cuando una de las partes ha perdido la
voluntad de continuar el conflicto y llega a la decisión de que hay más que ganar o
menos que perder si deja que el adversario prevalezca. Por lo tanto, la voluntad
del adversario es, además de herramientas militares y económicas
Machine Translated by Google

18 M. GREGOR Y P. MLEJNKOVÁ

o el apoyo externo, factor decisivo en un conflicto. En los conflictos militares, las operaciones
psicológicas logran objetivos donde la fuerza militar no está disponible, es inapropiada o
donde puede combinarse con el ejército para minimizar los gastos y maximizar los efectos.
Las operaciones psicológicas persuaden a través de medios no violentos: armas psicológicas
de persuasión y engaño. En este contexto se cita muy a menudo al estratega chino Sun Tzu.

Sun Tzu abogó por el debilitamiento psicológico del adversario y menciona en su El arte de
la guerra que uno de los factores fundamentales que afectan la guerra es aquello que "hace
que el pueblo esté en armonía con sus líderes para que estos los acompañen en la vida y
hasta el final". muerte sin miedo al peligro mortal' (Post nd). Dortbudak cita otro fragmento de
su obra cuando subraya que la victoria está más bien determinada por qué bando tiene
influencia sobre las decisiones y acciones del otro: 'Luchar y vencer en todas nuestras
batallas no es excelencia suprema; la excelencia suprema consiste en romper la resistencia
del enemigo sin luchar» (Dortbudak 2008).

Las operaciones psicológicas se pueden dividir en tres tipos: estratégicas, operativas y


tácticas. Las operaciones psicológicas estratégicas promueven objetivos amplios o de largo
plazo. Incluso podrían ser globales, o al menos centrarse en grandes audiencias o tomadores
de decisiones clave. Las operaciones psicológicas operativas se llevan a cabo a menor escala.
Su propósito puede variar desde obtener apoyo para una acción hasta preparar el campo o
entorno definido para una acción. Las operaciones psicológicas tácticas son entonces aún
más limitadas y se utilizan para asegurar objetivos inmediatos y a corto plazo.
Pero no hay que confundir las operaciones psicológicas con las relacionadas únicamente
con entornos y acciones militares. Las operaciones psicológicas también se llevan a cabo en
entornos en los que no hay conflicto militar o guerra declarada; pertenecen a las herramientas
de influencia política, económica e ideológica. Se llevan a cabo continuamente para influir en
las percepciones y actitudes con el fin de dirigirse eficazmente a una audiencia en beneficio
de la fuente de influencia. En teoría política, las operaciones psicológicas se estudian
principalmente en el contexto de regímenes no democráticos, donde se basan en propaganda
y donde el objetivo final es controlar y manipular a la población, a los adversarios o incluso a
actores neutrales dentro y fuera del régimen. Lo mismo se aplica a las organizaciones
extremistas o terroristas. Las versiones modernas de estas organizaciones ponen gran
énfasis en sus métodos de operaciones psicológicas para aumentar el miedo entre su público
objetivo (Ganor 2002). Sembrar el miedo más allá del objetivo directo es un aspecto esencial
del terrorismo, y el desarrollo de Internet y
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 19

Las redes sociales han servido como multiplicadores de fuerza para los terroristas. El
surgimiento del espacio virtual combinado con una creciente alfabetización tecnológica
entre organizaciones terroristas ha creado nuevas oportunidades para el uso
de operaciones psicológicas (Bates y Mooney 2014; Cilluffo y Gergely 1997; Emery
et al. 2004). El 11 de septiembre es un ejemplo clásico de influencia psicológica terrorista. Sin
embargo, los regímenes y actores democráticos también llevan a cabo operaciones psicológicas.
Sin embargo, en comparación con los antidemocráticos, carecen de propaganda y
desinformación, que se cree que están excluidas del
caja de herramientas democrática.

Hoy en día, las operaciones psicológicas se perciben como una parte específica de
operaciones de información. Con operaciones de información, ya estamos
avanzar más hacia el área del pensamiento estratégico y militar. Sin embargo, el término
operación de información también se ha integrado en
lenguaje de comunicación civil y política, principalmente debido a los debates
sobre las actividades rusas y chinas en el exterior. Las operaciones de información pueden
definirse como actividades emprendidas para contrarrestar la información hostil y
sistemas de información y al mismo tiempo proteger los suyos propios. es el coordinado
y el empleo integrado de capacidades relacionadas con la información para influir, perturbar,
corromper o usurpar la toma de decisiones (Estados Unidos—Conjunto
Jefes de Estado Mayor 2014; Miljkovic y Pešic 2019). Representan ofensiva
y medidas defensivas centradas en influir en las decisiones del adversario,
Manipular la información y los sistemas de información. También incluyen
medidas que protejan sus procesos de toma de decisiones, información y
sistemas de información. Las operaciones de información deben tener metas y objetivos
específicamente predefinidos; por lo tanto, una planificación cuidadosa es parte del proceso.
Las operaciones de información se llevan a cabo dentro de un entorno de información en el
que afectan sus tres dimensiones: física, informativa,
y cognitivo. En la dimensión física pensamos en la infraestructura de la información; recopilación,
transmisión, procesamiento y
Los sistemas y dispositivos de entrega pueden verse afectados, así como el comando y
instalaciones de control, TIC e infraestructura de apoyo. Esta dimensión también
cubre a los seres humanos. Lo importante es que la dimensión física no esté conectada
exclusivamente a sistemas militares o nacionales y
procesos. Aunque estemos considerando el ámbito militar, los civiles
y la infraestructura civil también se incluye en las operaciones de información. En
En la dimensión informativa pensamos en la información misma y en su contenido.
y fluir. Cuando las instalaciones de mando y control se vean afectadas en la dimensión física,
la misma característica también podrá verse afectada en la información.
dimensión sino desde la perspectiva del tipo de información recopilada,
Machine Translated by Google

20 M. GREGOR Y P. MLEJNKOVÁ

su calidad, contenido y significado. En la dimensión de la información, las


operaciones de información se centran en las formas en que se recopila, procesa,
almacena, difunde y protege la información. Por último, pero no menos
importante, en la dimensión cognitiva, las operaciones de información influyen en
las mentes de quienes transmiten, reciben, responden o actúan sobre la
información. La dimensión cognitiva significa individuos y grupos, sus creencias,
normas, vulnerabilidades, motivaciones, emociones, experiencias, educación,
salud mental, identidades e ideologías individuales y culturales (Estados Unidos—
Jefes de Estado Mayor Conjunto 2014; Miljkovic y Pešic 2019 ; Vejvodová 2019 ).
Comprender estos factores es crucial para desarrollar las mejores operaciones
con el fin de influir en los tomadores de decisiones y producir el efecto deseado.
De la descripción anterior, queda claro que pensar en las operaciones de
información como una colección de piezas únicas de información sería demasiado
reduccionista. Son procesos complejos de actividades que integran los efectos
de las actividades de información (recolección, creación, transmisión y protección)
que conducen a la influencia sobre un adversario y al logro de objetivos. Las
operaciones de información integran un amplio espectro de actividades, como
operaciones psicológicas, seguridad de operaciones, seguridad de la información,
engaño, guerra electrónica, acciones cinéticas, participación de líderes clave y
operaciones de redes informáticas. En conjunto, apuntan a la voluntad de los
adversarios, su comprensión de la situación y sus capacidades.
Las actividades de información destinadas a influir en el adversario se centran
principalmente en los tomadores de decisiones que tienen la capacidad de influir
en la situación. Las actividades en este caso incluyen cuestionar la legitimidad de
los líderes políticos, socavar la moral de la población o, en términos militares, la
moral de los militares, polarizar la sociedad, etc. Las actividades de información
destinadas a afectar la comprensión de la situación buscan influir en la información
de que dispone el enemigo para sus procesos de toma de decisiones.
Esto incluye difundir desinformación, utilizar maquetas a escala militar para
engañar a los sistemas de radar del enemigo, filtrar deliberadamente información
distorsionada, destruir o manipular información dentro de los sistemas de
información del oponente, etc. El tercer tipo de actividades de información se
llevan a cabo sobre las capacidades del enemigo y están destinadas a perturbar
su capacidad para comprender la información y promover su voluntad. Estos
incluyen interrupciones de la conexión a Internet, destrucción física de la
infraestructura y ataques cibernéticos.
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 21

En este enfoque, las operaciones de información se pueden subdividir en


actividades técnicas de información e información psicológica .
Las actividades técnicas de la información representan, por ejemplo, ataques a
infraestructuras críticas, ataques a elementos de la infraestructura de información o
ataques cibernéticos. Por operaciones psicológicas de la información nos referimos
a la gestión de la percepción, la propaganda, las campañas de desinformación, las
operaciones psicológicas y el engaño del adversario. Es manipulación con o por
información de manera cognitiva. Eso nos devuelve a la razón por la cual clasificamos
las operaciones psicológicas como una herramienta en las operaciones de información.
Pasemos por un momento a otro término relevante que suelen mencionar los
representantes políticos y los tomadores de decisiones cuando se habla de
desinformación y propaganda, típicamente en relación con las elecciones, la
promoción de intereses particulares en la sociedad, la polarización externa de la
sociedad a través de líneas de conflicto internas existentes. , o en relación con la
cuestión de la seguridad nacional: operaciones de influencia. Las operaciones de
influencia son actividades coordinadas, integradas y sincronizadas que utilizan
herramientas diplomáticas, informativas, de inteligencia, psicológicas, de
comunicación, técnicas, militares, culturales (basadas en la identidad) o económicas
para influir en las actitudes, el comportamiento y las decisiones de las personas.
una audiencia objetivo predefinida para que la audiencia apoye los objetivos del actor que realiza la
En principio, las operaciones de influencia tienen como objetivo promover, socavar
el apoyo o una combinación de ambos para crear un espacio que pueda llenarse
con una solución deseada. Pueden desarrollarse en tiempos de paz, en tiempos de
crisis, conflictos y períodos posteriores a conflictos (Brangetto y Veenendaal 2016;
Larson et al. 2009). Se llevan a cabo tanto en el espacio físico como en el digital. Un
ejemplo notorio de operaciones de influencia es la rivalidad entre la Federación de
Rusia y Estados Unidos. Con su origen en la Guerra Fría, continúa actualmente
mediante el uso parcial de patrones y herramientas previamente probados, así
como bajo nuevas condiciones generadas por la aparición del entorno de información
en línea y el progreso tecnológico, que ha ido desarrollando técnicas novedosas. y
métodos de explotación e influencia. Tromblay (2018) describe aspectos de la
recopilación de influencias como información y explotación de vulnerabilidades fuera
de la diplomacia formal, la explotación de cabilderos, el idealismo universitario y
académico, las afinidades culturales/étnicas/religiosas (por ejemplo, el concepto
chino de "chinos de ultramar": el pueblo chino). que viven en el extranjero como un
bloque en deuda con China), y los medios de comunicación.
Machine Translated by Google

22 M. GREGOR Y P. MLEJNKOVÁ

Operaciones de influencia es un término que engloba todas las operaciones en el ámbito de la


información, incluidas las actividades que dependen de las llamadas herramientas de poder blando.
Sin embargo, las operaciones de influencia no son exclusivamente herramientas de poder blando;
debido a la infiltración y alteración de los sistemas de información, las actividades secretas y
disruptivas también forman parte de las operaciones de influencia. Las herramientas de poder
blando y las actividades de influencia se superponen, pero no son sinónimas. El poder blando
incluye actividades abiertas destinadas a vender una agenda. La influencia encubierta incluye
actividades destinadas a alterar los procesos (Tromblay 2018). En el ámbito militar, pueden utilizarse
durante operaciones militares y servir para debilitar la voluntad del adversario, intimidar o confundir
a quienes toman decisiones, influir (perturbar, modificar o cerrar) sus sistemas de información,
debilitar el apoyo público al adversario, o atraer audiencias para apoyar sus actividades.

La victoria se puede lograr sin disparar una sola bala.


De manera similar a las operaciones de información, las operaciones de influencia también
afectan las tres dimensiones del entorno de información. Afectan los sistemas de información, el
contenido de la información y cómo la información afecta al público objetivo, creando también
espacio para la implementación de desinformación y propaganda. Las operaciones de influencia
utilizan actividades que tienen un carácter tanto técnico de la información como psicológico de la
información.
Esto puede parecer intercambiable con la definición de operaciones de información; sin embargo,
esa sería una percepción engañosa. Primero, las operaciones de influencia integran un alcance
mucho más amplio de herramientas que las operaciones de información. Las operaciones de
información son, por tanto, un subconjunto de las operaciones de influencia, como ya se ha
mencionado. En segundo lugar, las operaciones de información se limitan a operaciones militares.
Las operaciones de influencia se llevan a cabo como actividades coordinadas tanto en asuntos
civiles como militares y, en el caso de los asuntos civiles, se realizan independientemente de la paz
o la guerra, generalmente en relación con la proyección del poder (geo)político.

Aunque la jerarquía y las relaciones entre términos definidos pueden parecer complicadas, las
Figs. 1.1 y 1.2 pueden proporcionarnos una imagen clara; sin embargo, para entenderlos es
necesario distinguir entre asuntos civiles y militares, y entre tiempos de paz y de conflicto, en la
medida en que cada término puede desempeñar un papel diferente.
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 23

Fig. 1.1 Jerarquía de términos en asuntos civiles ( Autores fuente)

1.5 ¿Qué hay de nuevo en el siglo XXI y


dónde están mis hechos?
El año 2016 y las elecciones presidenciales en Estados Unidos están asociados
no solo con la aparición de noticias falsas, sino también con el punto en el que
empezamos a hablar cada vez más de la disminución de la preocupación de la
gente por los hechos, las fuentes verificadas y la información veraz. Cada vez más,
la gente cree en las teorías de conspiración, mentiras y manipulación que circulan
ampliamente. Este fenómeno se conoce como la era de la posverdad y, no
casualmente, se convirtió en la palabra del año 2016 del Diccionario Oxford. La
posverdad puede describirse como una manifestación de una “deshonestidad
cualitativamente nueva por parte de los políticos que parecen inventar hechos para
adaptarlos a sus narrativas” (Mair 2017, 3). La posverdad está llevando a "la importancia cada vez
Machine Translated by Google

24 M. GREGOR Y P. MLEJNKOVÁ

Fig. 1.2 Jerarquía de términos en asuntos militares ( Autores fuente)

de anclar las declaraciones políticas en relación con hechos verificables"


(Hopkin, Rosamond 2017, 1­2). Cuando los votantes aceptan esa mentalidad,
los políticos pueden mentirles sin sonrojarse y los votantes incluso lo agradecerán.
Esto puede explicar la actual situación política observable en Estados Unidos y
otros lugares. Las elecciones presidenciales en Estados Unidos son las más
seguidas, y este caso más visible de propagación de noticias falsas se ha
extendido, además de otros síntomas de la posverdad, por todo el mundo. Sin
embargo, se pudo encontrar una tendencia similar en otros países incluso antes
de 2016. Este no es un problema relacionado únicamente con los políticos. Se
refiere a mentiras obvias que son rutinarias en un sector de la sociedad. El
estándar tradicional de veracidad ha perdido su importancia: la distinción entre verdad fáctica y
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 25

se ha vuelto irrelevante; sólo importan las preferencias del público por un conjunto
de hechos (Kalpokas 2020, 71). Asimismo, a nivel académico se venía discutiendo
previamente el papel de la verdad y su cuestionamiento (ver Bufacchi 2020).
La situación actual es diferente del cliché de que todos los políticos mienten y
hacen promesas que no cumplen. Por supuesto, la política y especialmente los
períodos de campaña electoral siempre se han caracterizado por los esfuerzos de los
candidatos por presentar la realidad enmarcada de manera que les beneficie. Las
campañas electorales se llevan a cabo para persuadir a la gente; no pueden
confundirse con la educación, por muy informativas que parezcan a veces.
La comunicación y el marketing políticos no pueden cumplir la función educativa que
conocemos de la presentación de información objetiva e imparcial.
Sin embargo, como regla general, las proclamaciones políticas del pasado
tergiversaron la verdad dentro de los límites establecidos por las reglas del juego
político en las contiendas democráticas. Si se sorprendía a los políticos mintiendo,
generalmente los miembros del partido, los competidores políticos, los medios de
comunicación o los votantes los obligaban a explicar su punto de vista y ofrecer
disculpas (Sismondo 2017). Si no podían hacerlo, a menudo tenían que renunciar a
su candidatura o a un cargo electo; Richard Nixon podría contar la historia.
Esta mentalidad ya no es típica de todos. Hay una parte importante de la sociedad
(no sólo los políticos, sino también los ciudadanos y los votantes) que no se basa en
los hechos para determinar la verdad. La posverdad es para la política un juego
cualitativamente nuevo. Los hechos no se tergiversan u omiten simplemente para
disfrazar la realidad, sino que, en cambio, se crean discursivamente nuevas
realidades para servir a un mensaje político (Kalpokas 2020, 71). El prefijo post en
posverdad no alude a una referencia cronológica de que algo ocurra después de la verdad.
Más bien, indica el hecho de que la verdad ya no es esencial y ha sido reemplazada
por una nueva realidad (Bufacchi 2020). Por tanto, podemos hablar de una sociedad
posverdad o posfactual. Estamos ante una situación en la que una parte importante
de la población ha abandonado los criterios convencionales de evidencia, coherencia
interna y búsqueda de hechos. En un mundo de posverdad, el principio de honestidad
como posición predeterminada y de responsabilidad moral por las propias
declaraciones es algo que algunos políticos ya no sostienen (Higgins 2016).

Muchos entre el electorado parecen no darse cuenta de los problemas que


surgen del hecho de que los políticos les mienten. Probablemente esto se deba a
que creen que las intenciones de su candidato favorito son buenas y no engañarían
deliberadamente (Higgins, 2016). Por lo tanto, la política actual puede describirse
como una competencia para elegir qué "verdad" puede considerarse la más
destacada e importante. La pregunta
Machine Translated by Google

26 M. GREGOR Y P. MLEJNKOVÁ

Parece haberse desviado la cuestión de qué afirmaciones pueden considerarse


verdaderas y falsas, sin importar cuán importantes sean las consecuencias que
tengan estas elecciones (ver Sismondo 2015). Este es un atributo prominente de
la política actual y es la esencia de la era de la posverdad: empodera a las personas
para elegir su realidad; una realidad donde los hechos objetivos y basados en
evidencia son menos importantes que las creencias y prejuicios ya existentes de las personas.
En ocasiones, el fenómeno ha sido denominado con el término de moda "hechos
alternativos".
Sin embargo, las afirmaciones de posverdad o los llamados hechos alternativos
no buscan establecer un modelo coherente de la realidad. Más bien, sirven para
distraer al público de información no deseada o de acciones políticas potencialmente
impopulares, que como resultado de la distracción pueden pasar desapercibidas o
no comentadas. Además, son capaces de destruir la confianza en los hechos y la
realidad hasta el punto de que los hechos ya no importan o ni siquiera se reconoce
su existencia. En cambio, las personas buscan afirmaciones incluso cuando saben
que están siendo engañadas; la gente desea creerles (Colleoni et al. 2014;
Lewandowsky et al. 2017). Esto puede verse amplificado por políticos que
incorporan información engañosa y engaño a su arsenal como forma adecuada de
ganar poder. Para esta parte del establishment político y de la sociedad, la mentira
no sólo es aceptada sino también recompensada. Como Lewandowsky et al. (2017)
añaden que falsificar la realidad ya no se trata de cambiar las creencias de las
personas, sino de ganar y mantener el poder.
Así, la era de la posverdad se caracteriza por el paso de la persuasión a la
relativización, lo que a veces conduce a la apatía. No sorprende que la
desinformación y la propaganda hayan encontrado condiciones más que favorables
para su desarrollo y difusión hoy en día, independientemente de lo fácil que sea
encontrar hechos e información basada en evidencia: hay algunas audiencias que
simplemente no están interesadas en ellas. .
En el ámbito político, son frecuentes las discusiones sobre períodos históricos e
interpretaciones de acontecimientos históricos. Los representantes demócratas y
los expertos en la región poscomunista luchan con quienes presentan una
"interpretación alternativa de la historia", principalmente en el contexto de la
instalación de gobiernos comunistas después del final de la Segunda Guerra
Mundial con el apoyo de la Unión Soviética. Por ejemplo, en Checoslovaquia, la
instalación del régimen comunista fue precedida por el abuso de poder político y la
intimidación de los opositores políticos por parte de representantes comunistas.
Sin embargo, la interpretación actual de los revisionistas (por ejemplo, representantes
del Partido Comunista apoyados por algunos canales de medios rusos) se presenta
como democrática. Lo mismo podría decirse incluso de los
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 27

Holocausto, una atrocidad muy bien documentada. Seguimos siendo testigos de


debates en los que se expresan dudas sobre aspectos concretos o se niega el
Holocausto en su conjunto. Esta percepción de la información, los hechos y las pruebas
no concierne sólo a las opiniones y actitudes políticas de los votantes, sino que se
extiende a otras esferas de nuestras vidas. El creciente número de personas que creen
en teorías de conspiración, engaños y desinformación en el ámbito de la atención
sanitaria o la nutrición sólo lo demuestra. Ya no nos preguntamos cuántas personas
todavía creen que la vacuna contra el sarampión causa autismo. Nos hemos
acostumbrado. Hace unos años, no hubiéramos pensado que a principios del siglo
XXI aumentaría el número de personas que creían que la Tierra era plana. Hoy, sin
embargo, esto puede sorprendernos, pero es un hecho. Sí, un hecho real, no un hecho
alternativo. ¿Qué tienen estos casos en común? Desconfianza hacia los científicos,
expertos y profesionales y sus conocimientos y habilidades.

El relativismo y la tendencia a hacer un mal uso, malinterpretar o cuestionar los


hechos y la investigación no son nada nuevo. Lo nuevo es el grado y la intensidad con
que está sucediendo. Las discusiones sobre los hechos se centran en lo que está bien
y lo que está mal. Pero para algunos, esto simplemente no es relevante (Ihlen et al. 2019).
Una condición indispensable para una relación entre el público en general, los políticos
y los expertos, como casi todas las relaciones en una democracia, es la confianza. El
público en general confía en los políticos en sus decisiones políticas, mientras que los
políticos confían en los expertos cuyo conocimiento les proporciona la base para la
toma de decisiones políticas. Por tanto, directa o indirectamente, el público en general
debe confiar en los expertos. Cuando esa confianza colapsa, cuando el público o los
políticos ya no confían en los expertos, la democracia misma puede entrar en una
espiral mortal que presenta un peligro inmediato de decadencia, ya sea hacia un
gobierno de masas o hacia una tecnocracia elitista. Ambos son resultados autoritarios
(Nichols 2017, 216). Si bien el gobierno de las masas no es observable directamente
en las democracias actuales, hay casos de políticos que dominan la escena política y
que, en sus palabras, representan a la gente común y se definen a sí mismos en
oposición a los expertos (no sólo a las élites, como en el caso del populismo). De
hecho, estos casos van en aumento en el siglo XXI, y la posverdad es una de las
principales causas.
Lo que también resulta sorprendente es el alto nivel de tolerancia pública hacia las
declaraciones inexactas, engañosas o falsas de quienes niegan los hechos. Puesto
que usted está leyendo este capítulo, quizá no le sorprenda a estas alturas que no sea
inusual que estos negadores de la realidad aparezcan en las pantallas de televisión u
otros medios de comunicación al lado de los científicos. Hay serios debates sobre
quién tiene razón y quién no y, además, si quienes niegan los hechos simplemente tienen
Machine Translated by Google

28 M. GREGOR Y P. MLEJNKOVÁ

una perspectiva u opinión diferente. De hecho, la difuminación de las diferencias


entre hechos objetivamente reconocibles y la presentación de la propia opinión
es otra característica típica de la era de la posverdad. "No me molestes con los
hechos" ya no es un chiste, se ha convertido en una postura política.
(Higgins 2016).

1.5.1 El viaje que hemos emprendido hacia la era de la posverdad

Es evidente que la era de la posverdad no ha aparecido de la nada.


Cuando consideramos los factores que causaron su aparición, podemos
distinguir tres categorías principales: factores psicológicos que afectan nuestro
trabajo diario con la información, cambios y transformaciones sociales, y progreso
tecnológico que afecta tanto a los medios como a nuestras vidas como tales. No
podemos decir cuál de ellos es predominante. Están interconectados y todos son
cruciales para comprender por qué nos enfrentamos a la era de la posverdad y
por qué está sucediendo a principios del siglo XXI.
No es nuestra intención analizarlos en detalle (cada uno de ellos requeriría un
libro por separado), el objetivo de los siguientes párrafos es proporcionar a los
lectores al menos una introducción básica de ellos para que puedan comprender
mejor por qué Ahora estamos lidiando con la posverdad. Esto también
proporcionará a los lectores la razón de ser de los siguientes capítulos de este
volumen editado.
Todo ser humano debe lidiar con sesgos al recibir y procesar información y
noticias (Nickerson 1988). Nadie es inmune a ellos; Sólo si somos conscientes
de ellos podemos minimizarlos cambiando conscientemente nuestros hábitos y
comportamientos asociados con la recepción de noticias e información. Tanto
nuestros puntos de vista como nuestras actitudes actuales son factores que
juegan un papel importante en la forma en que recibimos nueva información.
Tienen un impacto en la comunicación en general. Consciente e inconscientemente
intentamos evitar comunicaciones que contradigan nuestras creencias y, por el
contrario, buscamos mensajes que confirmen nuestras actitudes ya establecidas.
La nueva información que uno es capaz de aceptar tiende a afianzar aún más
las fallas de las perspectivas existentes (O'Shaughnessy 2020, 60). Cuando nos
exponemos a información inadecuada, a menudo la ignoramos, la reformulamos
o la interpretamos para respaldar nuestras actitudes existentes. También solemos
olvidar más rápidamente la información con la que no estamos de acuerdo que
la información que está de acuerdo con nosotros. Estos procesos se denominan
exposición selectiva, percepción selectiva y memoria selectiva. La exposición
selectiva es una tendencia a exponernos a información o noticias acordes con nuestra actualida
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 29

actitudes evitando aquellas con las que no estamos de acuerdo. La percepción


selectiva del cambio encarna el fenómeno de una persona que proyecta lo que
queremos ver y oír en lo que vemos u oímos. La memoria selectiva nos facilita
recuperar de nuestra memoria información que respalda nuestros puntos de vista (ver
Freedman y Sears 1965; Hart et al. 2009; Stroud 2010; Zillmann y Bryant 2011).

Otro principio que afecta nuestra actitud hacia la información es la disonancia


cognitiva. Festinger (1957) sostiene que si tenemos dos o más datos que son
incompatibles, entonces sentimos un estado de malestar: disonancia. La información
que tenemos y en la que creemos debe estar en armonía para hacernos sentir
cómodos. Por eso, ante cualquier discordia, debemos actuar. Sin embargo, este estado
de malestar mental no sólo se produce cuando la información que tenemos no coincide.
También existe malestar que surge después de tomar una decisión, cuando hay
discordia entre actitud y comportamiento, y cuando hay malestar por decepción. El
malestar es causado por dos o más informaciones relevantes, y el malestar
experimentado es mayor cuanto más importante es la información. El propio estado de
malestar se percibe como desagradable y puede reducirse, por ejemplo, reduciendo la
importancia de la información no conforme o reevaluándola. También podemos agregar
información que confirme nuestra opinión inicial para eliminar el malestar (ver Harmon­
Jones 2002).

El sesgo de confirmación es probablemente la noción de error inferencial más


conocida y aceptada que surge de la literatura sobre el razonamiento humano (Evans
1989, 41). Sin embargo, en realidad existe un conjunto de sesgos de confirmación en
lugar de un sesgo de confirmación unificado (véase Nickerson, 1998). A menudo
existen diferencias sustanciales entre tareas en estos fenómenos observados, sus
consecuencias y los procesos cognitivos subyacentes que podemos identificar. Sin
embargo, en general, su dirección es una tendencia de la gente a creer demasiado en
su hipótesis favorita.
El término sesgo de confirmación se refiere a buscar la presencia de lo que esperamos
en lugar de buscar lo que no esperamos, a una inclinación a retener o a una falta de
inclinación a abandonar una hipótesis actualmente favorecida (ver Jones, Sudden
2001; Knobloch­Westerwick y Kleinman 2012).
Los cambios sociales representan la segunda categoría que afecta nuestra
percepción de la información y las noticias. Es natural que los seres humanos
evolucionen y cambien. Asimismo, los valores y convenciones que prevalecen en la
sociedad evolucionan y cambian. Esto no es nada nuevo ni una característica
puramente encontrada en las últimas décadas o en el siglo pasado. Sin embargo, los cambios específ
Machine Translated by Google

30 M. GREGOR Y P. MLEJNKOVÁ

a las cartas de la posverdad. En primer lugar, en las democracias occidentales se


ha observado una disminución del compromiso cívico, la confianza y la buena
voluntad desde los años sesenta. Los valores que han animado a la gente a discutir,
intercambiar opiniones y buscar el consenso son cada vez menos relevantes para
la gente. Esta tendencia nos lleva a permanecer en contacto con personas con
actitudes, estatus social, opiniones políticas y pasatiempos similares. Con nuestro
encierro en burbujas sociales, también ha habido un cambio de valores y objetivos
de vida entre la mayoría de las personas. La voluntad de ayudar al medio ambiente
o el interés por la filosofía de vida ha disminuido significativamente desde los años
1970. Por otro lado, la importancia de gozar de una buena situación financiera ha
aumentado durante el mismo período (Twenge et al. 2012). Aunque es posible que
hayamos visto una mayor preocupación ambiental en los últimos años, la pregunta
es cómo esta tendencia se verá afectada por la pandemia de COVID­19 y el
posterior desarrollo económico de cada país. No podemos predecirlo ya que este
texto se escribe en plena pandemia.
Estos objetivos de vida cambiantes han ido inesperadamente acompañados de
una creciente desigualdad. Como Lewandowsky et al. (2017) , es una paradoja
que, al mismo tiempo que el dinero se ha vuelto más prominente, el crecimiento del
ingreso real de los jóvenes estadounidenses se haya estancado en gran medida
desde la década de 1960. Tampoco es esto un problema sólo para los jóvenes de
Estados Unidos. Es algo con lo que la generación más joven debe lidiar en la
mayoría de las democracias. La capacidad de independizarse y adquirir una
vivienda propia es más difícil para los millennials que para la generación de sus
padres. Esta brecha generacional que conduce a la desigualdad está asociada con
la polarización política afectiva, lo que significa que los miembros de los partidos
políticos tienden a ver a los miembros de su partido político de manera más positiva
y a los de los partidos opuestos de manera más negativa que nunca (ver Abramowitz
y Webster 2016). La afiliación partidista o, más precisamente, la preferencia
ideológica es también el vínculo con otro efecto social: la credulidad políticamente
asimétrica. Estudios recientes han demostrado que existen diferencias cognitivas y
psicológicas entre liberales y conservadores en la forma en que acceden a la
información y evalúan su relevancia o confiabilidad: los votantes conservadores
tienden a creer en la desinformación y la información falsa con más frecuencia que
los votantes liberales (ver Jost 2017). . Este efecto social está representado por
una confianza cada vez menor en la ciencia, como ya se mencionó anteriormente.
Naturalmente, al considerar casos específicos individuales de confianza en la
desinformación y hechos alternativos, no todos estos efectos o cambios sociales deben estar pres
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 31

Al observar los actuales acontecimientos políticos a nivel nacional e internacional,


no es fácil librarse de la impresión de que se trata a menudo de casos ejemplares
de los efectos aquí mencionados.
Por último, pero no menos importante, están los cambios tecnológicos.
Probablemente el desarrollo tecnológico más visible que afecta nuestra percepción
de la información son los cambios en el panorama global de los medios que han
llevado a la fragmentación. La llegada de Internet, especialmente la Web 2.0, produjo
fuentes de información adaptadas a las necesidades y deseos de cada usuario. A la
luz de la fragmentación del panorama mediático en cámaras de eco (por ejemplo,
Jasny et al. 2015), muchas personas creen que sus opiniones, por exóticas que
sean o no estén respaldadas por evidencia, son ampliamente compartidas, lo que
las hace resistentes al cambio o la corrección (Lewandowsky et al. 2017). Por lo
tanto, los hechos alternativos han llegado cada vez más desde las afueras del
discurso público. Las teorías de la conspiración y la desinformación reciben más
atención que nunca por parte del público general (Webb y Jirotka, 2017).
Si los medios tradicionales y convencionales no nos brindan información que
confirme nuestra opinión y nuestros prejuicios, podemos buscar medios que sí la
proporcionen, incluso si son tonterías. Además, esta heterogeneidad contribuye a la
incivilidad del discurso político. Los medios de comunicación están tratando de
ofrecer noticias más impactantes o presentarlas de maneras cada vez más llamativas
para llamar nuestra atención.
Las redes sociales son un fenómeno en sí mismo. Polariza a la sociedad a través
de algoritmos que encarnan la esencia de su funcionamiento. Cuando se habla de
bienes se puede apreciar la funcionalidad basada en la lógica del comportamiento
del consumidor, donde se nos ofrecen productos y servicios que consideramos
atractivos en función de nuestro comportamiento anterior.
Sin embargo, es muy problemático en el ámbito de las noticias y los contenidos
políticos. A los usuarios se les presenta contenido que refleja su visión del mundo
(O'Shaughnessy 2020); por lo tanto, se enfrentan cada vez menos a otros puntos de
vista. La disposición a hablar con personas que tienen una opinión diferente está
disminuyendo. Porque ¿por qué deberíamos molestarnos en hacerlo? Para filtrar
información inconveniente (o contaminación de datos), las personas tienden
naturalmente a pertenecer a un "grupo de información": personas que están
"marcadas por su lealtad a tipos y fuentes de información particulares, a modos
particulares de percepción y solución de problemas" (Marshall et al.2015 , 23).
Pertenecer a un grupo de información nos ahorra tiempo. Conscientemente o no,
nos estamos encerrando en nuestras burbujas de filtro o cámaras de eco
(comunidades donde nos gusta confirmar nuestra opinión independientemente de si
se basa en hechos reales o no) sin estar expuestos a contraargumentos (Ihlen et al. 2019).
Machine Translated by Google

32 M. GREGOR Y P. MLEJNKOVÁ

Dado que somos personas de ideas afines en estas cámaras de eco, la


posibilidad de que alguien cuestione información falsa está disminuyendo. Las
personas tienden a creer que sus opiniones son ampliamente compartidas,
independientemente de si en realidad lo son o no (Lewandowsky et al. 2017).
Cuando las personas creen esto, se resisten más a cambiar de opinión, son
menos propensas a ceder y más propensas a insistir en sus propios puntos de
vista (Leviston et al. 2013). Por supuesto, las personas pueden pertenecer a
más de un grupo de información y escuchar más de una cámara de eco con
distintos grados de compromiso o conciencia (Marshall et al. 2015, 24). Otro
efecto relacionado con las redes sociales es la dureza de las discusiones. No
vemos a aquellos con quienes conversamos en las redes sociales. Por lo tanto,
es más fácil caer en un lenguaje más duro. Del mismo modo, los trolls y los
bots tienen un efecto vulgarizador similar.
Hasta ahora, la atención se ha centrado principalmente en los usuarios, los ciudadanos o los votantes.
Sin embargo, los gigantes tecnológicos del mundo online también han tenido
un impacto innegable en la situación actual, como lo demuestra el efecto
potenciador de los algoritmos. Además de las plataformas de redes sociales
como Facebook, YouTube y Twitter, Google y sus anuncios dirigidos se
encuentran entre los más influyentes. Basta con que un usuario lea un artículo
en un sitio web de mala reputación varias veces, y los motores de búsqueda y
los anuncios ya le recomiendan recursos similares. Al igual que ocurre con el
comportamiento de compra, al recibir información, los operadores de Internet
ofrecen "productos similares". Por lo tanto, paradójicamente, un pequeño
número de 'superpotencias' tecnológicas han llegado a dominar la difusión
global de información y afectan no solo la forma en que consumimos
información, sino también qué información y de qué fuentes (Webb y Jirotka 2017).

1.5.2 Infodemia: posverdad con esteroides

El año 2020 y la pandemia de COVID­19 han traído, entre otras cosas, una
mayor aceleración de la difusión de información engañosa.
La información sanitaria engañosa, como consejos y sugerencias "garantizados"
sobre cómo tratar la enfermedad, se ha convertido en un problema nuevo en
particular (Lilleker et al. 2021). El término "infodemia" se ha generalizado,
destacando el peligro del fenómeno de la desinformación en la gestión de los
brotes de virus, ya que tiene la capacidad de acelerar incluso la propagación
del nuevo coronavirus al potenciar la renuencia a la respuesta social. La
pandemia ha demostrado lo crucial e importante que es
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 33

El papel que juegan las redes sociales en el nuevo entorno de la información (Cinelli et al.
2020, 2). Los usuarios ven cada vez más fuentes confiables de información dentro de sus
redes de pares y comparten sus declaraciones. A medida que esa información se
difunde, a menudo aumenta su percepción de legitimidad. Este método de compartir y
validar información contrasta con los métodos implementados por los medios de
comunicación, que tienen conocimientos especializados y responsabilidades específicas
relacionadas con la verificación y el intercambio de información. Durante la pandemia de
COVID­19, no es sorprendente que las personas hayan recurrido a esta nueva realidad
digital en busca de orientación (Limaye et al. 2020, 277). Podemos ver esta tendencia en
todo el mundo, y países e incluso organizaciones supranacionales, como la Unión
Europea o la Organización Mundial de la Salud (OMS), la han enfrentado (ver Lilleker et
al. 2021).
No sería correcto afirmar que las redes sociales han servido exclusivamente para
difundir información engañosa. Hubo numerosos casos en los que las redes sociales
ayudaron a empoderar y apoyar al personal del hospital, así como campañas de
información sobre recomendaciones epidemiológicas o medidas gubernamentales. Estos
dos últimos representan especialmente un campo de batalla donde las redes sociales se
han encontrado con los medios de masas y han luchado por la atención de la audiencia,
por el privilegio de quién puede informar al público en general. Aunque los usuarios
comparten información en las redes sociales, las técnicas de comunicación (política) de
la "vieja escuela" han demostrado que todavía no pertenecen al basurero. Los medios de
comunicación han jugado un papel crucial principalmente en dos aspectos: (1) la
mediación de conferencias de prensa y discursos de miembros del gobierno ante las
masas, y (2) la selección de expertos que brindan comentarios basados en su experiencia.

El fenómeno, que no es nuevo pero se ha visto potenciado por la pandemia, son los
comentarios y declaraciones de autoproclamados expertos o autoridades con experiencia
en campos no relacionados con la pandemia.
Estas declaraciones han circulado ampliamente en las redes sociales y a menudo han
socavado las declaraciones oficiales realizadas por el gobierno. "La desinformación
científica se ha propagado activamente como un medio para desestabilizar la confianza
en los gobiernos y como arma política" (Limaye et al. 2020, 277), y los medios de
comunicación, al menos hasta cierto punto, han desempeñado el papel de moderador,
devolver el debate a normas aceptables con oradores elegibles. Aunque las redes
sociales han fortalecido su poder durante la pandemia, los medios de comunicación han
demostrado ser cruciales si se necesita información verificada y confiable.
Sin embargo, incluso los medios de comunicación no han quedado exentos de errores y
han sido criticados, por ejemplo, por dar espacio a expertos "erróneos".
Machine Translated by Google

34 M. GREGOR Y P. MLEJNKOVÁ

*****

La gente suele oír lo que quiere oír porque recibe las noticias exclusivamente de
fuentes con cuyos prejuicios está de acuerdo. Una fuente proporciona el marco de la
información. Le dice al consumidor si es probable que la información sea agradable
y se ajuste a sus expectativas (Marshall et al.
2015, 24). No es decisivo cuán confiable es la fuente según los criterios objetivos;
reconocemos que la fuente es confiable cuando proporciona "hechos" agradables,
sin importar cuán "alternativos" sean. Aunque algunos autores esperan que las
cámaras de eco impulsadas por algoritmos informáticos para seleccionar noticias en
la Web 2.0 (y especialmente en las redes sociales) tengan un efecto tanto en las
noticias sólidas como en las falsas (ver Sismondo 2017), datos recientes muestran
que la desinformación y las mentiras se difunden más rápido y a una audiencia más
amplia que la verdad, producto de las diferentes emociones predominantes que
evocan ambos tipos de noticias (Vosoughi et al. 2018). Sin embargo, no importa qué
lado elija la gente, ya sea confiar en los hechos o en hechos alternativos, ambas
formas contribuyen a enfoques que tratan a los votantes como personas a las que
hay que manipular en lugar de convencer (Sismondo 2017).
Las mentiras y las tonterías siempre han estado entre nosotros, pero las
tecnologías, como las redes sociales; el crecimiento de los llamados medios
alternativos; e incluso los bots los han elevado a la categoría de causa común, de la
que una parte de nuestra sociedad no se avergüenza, elevándola incluso a una
actitud política. Verificar información y desacreditar mentiras y desinformación se
percibe entonces como una restricción a la libertad de expresión y la imposición de
actitudes políticas en detrimento de otros. Todas estas tendencias han alentado a
los políticos a dirigir estratégicamente a sus partidarios mensajes radicales y, en
algunos casos, incluso extremistas. En una época en la que la gente está abrumada
por la información, la lucha política a menudo la gana no el político que es capaz de
llegar a acuerdos y utilizar un razonamiento sustantivo, sino aquel cuyos tweets y
estados de Facebook son más visibles y llamativos. Y mientras lees la explicación
de qué es la era de la posverdad, cada vez más personas discuten en Facebook
sobre mentiras descaradas que se presentan y defienden como su opinión.
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 35

1.6 Conclusión
En las páginas anteriores intentamos explicar qué es la propaganda y la desinformación, en
qué se diferencian de otras formas de información falsa o engañosa.
información y cómo encajan en el concepto más amplio de influencia.
operaciones. La forma en que recibimos información y noticias ha cambiado radicalmente
durante la última década, lo que también está relacionado con la aparición de la
era de la posverdad o, más recientemente, la llamada infodemia. Aunque hay
Hay una falta de consenso sobre la definición universalmente aceptada de propaganda, las
definiciones individuales se caracterizan por características estándar: (1)
difundidas sistemática e intencionalmente (2) ideas e información
(3) son inexactos, distorsionados, falsos u omitidos (4) y tienen la intención de influir o
manipular al público (5) para dañar al oponente. Desinformación
representa un fenómeno conceptualmente más sencillo (información intencionalmente
engañosa). Sin embargo, a menudo se confunde con otros
formas de engaño.
La forma y estrategia de la propaganda están influenciadas por los medios.
qué propaganda puede utilizar: la propaganda depende de las herramientas y canales de
difusión de información que se ofrecen. Hoy ha tomado la forma de
usar Internet y las redes sociales para que cualquiera pueda escribir lo que quiera,
cualquiera puede ser periodista o, en términos más generales, creador de publicaciones populares.
contenido. Esto significa, entre otras cosas, una sobrecarga del entorno informativo y también
del individuo. Laswell, Ellul y
Las definiciones de propaganda de Taylor tal como se presentan en este capítulo siguen siendo
válido, pero la naturaleza del entorno de información y los medios
a través de los cuales podemos utilizar en él han cambiado, afectando las estrategias que
conducir al cumplimiento de aquellos objetivos todavía válidos para los cuales tanto la propaganda
y se utiliza la desinformación. Las técnicas de manipulación siguen siendo las mismas,
aunque la frecuencia varía en el uso de técnicas particulares. Qué
no cambia es el papel esencial de las emociones.
La propaganda y la desinformación actuales no necesariamente apuntan a
persuadir; Otra estrategia utilizada es el esfuerzo por sobrecargar a un público objetivo con
información y así inducir la relativización, lo que se adapta a la situación.
era de la posverdad. En la era de la posverdad, se pueden identificar tres cambios principales:
(1) una mentira se eleva a la categoría de opinión política, y si los hechos no coinciden
En nuestra visión del mundo, elegimos otros hechos alternativos que
hacer; (2) las tecnologías aceleran nuestro recinto hasta convertirlo en cámaras de eco y
guetos de opinión; y, paradójicamente, (3) los políticos que se benefician de la posverdad se
basan en las tendencias de la gente a creer que otros están diciendo (al menos
Machine Translated by Google

36 M. GREGOR Y P. MLEJNKOVÁ

principalmente) la verdad, y la explotan. Además, la era de la posverdad se


caracteriza a menudo por un entrelazamiento de ambiciones políticas y políticos
con narrativas propagandísticas y desinformación.
La pregunta es ¿qué fue primero, el huevo o la gallina? ¿Las estrategias de
sobrecarga informativa y relativización son una característica de la era de la
posverdad o fueron simplemente una condición ventajosa que facilitó el inicio
de la era de la posverdad? ¿La era de la posverdad permitió que se aplicara
esta estrategia, o el uso de la estrategia condujo a su desarrollo? El propósito
de este capítulo no fue responder tales preguntas sino buscar resaltar que
estas nuevas estrategias responden al hecho de que la sociedad tiene acceso
a información casi ilimitada que se ve afectada por estrategias de propaganda
aplicada y desinformación. Es un desafío controlar o incluso detener el flujo de
información a menos que creemos un entorno de información completamente
nuevo y controlable. Así, el nuevo método de manipulación consiste en crear la
ilusión de que las cosas no son lo que parecen, de que siempre hay hechos
alternativos para todos.
Con el cambio en el entorno de la información, también han cambiado las
estrategias. Hemos pasado de la persuasión a la manipulación por la mera
cantidad de información y la presentación de información irrelevante para el
discurso y, por tanto, para su relativización.

Bibliografía

Abramowitz, AI y Webster, S. (2016). El auge del partidismo negativo y la nacionalización


de las elecciones estadounidenses en el siglo XXI. Estudios electorales, 41 (marzo),
12­22. https://doi.org/10.1016/j.electstud.2015.11.001.
Akopova, AS (2013). Manipulación lingüística: definición y tipos. Revista internacional
de investigación cognitiva en ciencia, ingeniería y educación, 1(2), 78–82.

Allcott, H. y Gentzkow, D. (2017). Redes Sociales y Fake News en el 2016


Elección. Revista de perspectivas económicas, 31 (2), 211–236.
Atton, C. (2009). Periodismo Alternativo y Ciudadano. En K. Wahl­Jorgensen y T.
Hanitzsch (Eds.), The Handbook of Journalism Studies (págs. 265­278). Nueva
York y Londres: Routledge.
Bates, RA y Mooney, M. (2014). Operaciones psicológicas y terrorismo: el dominio
digital. The Journal of Public and Professional Sociology, 6(1). https://
digitalcommons.kennesaw.edu/cgi/viewcontent.cgi?art icle=1070&context=jpps.
Consultado el 22 de marzo de 2020.
Baym, G. (2005). The Daily Show: integración discursiva y reinvención del periodismo
político. Comunicación política, 22(3), 259–276.
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 37

Berliner, DC (1992, febrero). Reforma educativa en una era de desinformación. Reunión anual de la
Asociación Estadounidense de Facultades de Formación Docente. San Antonio, Texas, Estados
Unidos. https://files.eric.ed.gov/fulltext/ED3 48710.pdf. Consultado el 22 de marzo de 2020.

Bernays, EL (1947). La ingeniería del consentimiento. Anales de la Academia Estadounidense de


Ciencias Políticas y Sociales, 250 (1), 113­120. https://doi.org/10.1177/000271624725000116 .

Bernays, EL (2004). Propaganda. Nueva York: IG Publishing.


Bor, SE (2014). Enseñanza del periodismo en redes sociales: desafíos y oportunidades para el diseño
curricular futuro. Educador en periodismo y comunicación de masas, 69 (3), 243–255. https://
doi.org/10.1177/1077695814531767.
Brangetto, P. y Veenendaal, AM (2016). Operaciones cibernéticas de influencia: el uso de ataques
cibernéticos en apoyo de las operaciones de influencia. Tallin: Publicaciones del CCD COE de la
OTAN.
Brazzoli, MS (2007). Perspectivas futuras de la guerra de información y de las operaciones
particularmente psicológicas. En L. Le Roux (Ed.), Visión del ejército sudafricano 2020: desafíos
de seguridad que darán forma al futuro ejército africano (págs. 217­234).
Pretoria: Instituto de Estudios de Seguridad.
Bufacchi, V. (2020). Trutp, mentiras y tweets: una teoría del consenso sobre la posverdad.
Filosofía y crítica social, 1­15. https://doi.org/10.1177/019145371 9896382.

Cilluffo, FJ y Gergely, CH (1997). Guerra de información y terrorismo estratégico. Terrorismo y


violencia política, 9(1), 84–94.
Cinelli, M., Quattrociocchi, W., Galeazzi, A., Valensise, CM, Brugnoli, E., Schmidt, AL, et al. (2020). La
infodemia de las redes sociales COVID­19.
Informes científicos 10.
Colleoni, E., Rozza, A. y Arvidsson, A. (2014). ¿Cámaras de eco o esfera pública? Predecir la
orientación política y medir la homofilia política en Twitter utilizando Big Data. Revista de
comunicación, 64 (2), 317–332. https://doi.org/10.1111/jcom.12084.

Damasio, A. (2010). Uno mismo viene a la mente: construcción del cerebro consciente. Nueva York:
Panteón.
Domatob, J. (1985). Técnicas de propaganda en el África negra. Internacional
Gaceta de comunicación, 36 (3), 193–212.
Dortbudak, MF (2008). El requisito de inteligencia de las operaciones psicológicas en el
contraterrorismo. Monterey: Escuela de Posgrado Naval. https://cal houn.nps.edu/bitstream/handle/
10945/3856/08Dec_Dortbudak.pdf?seq uence=1&isAllowed=y. Consultado el 22 de marzo de
2020.
Dretske, FI (1983). Précis del conocimiento y el flujo de información.
Ciencias del comportamiento y del cerebro, 6(1), 55–90.
Ellul, J. (1973). Propaganda: la formación de las actitudes de los hombres. Nueva York:
Libros antiguos.
Machine Translated by Google

38 M. GREGOR Y P. MLEJNKOVÁ

Emery, NE, Earl, RS y Buettner, R. (2004). Uso terrorista de operaciones de información.


Revista de guerra de información, 3(2), 14–26.
Evans, JSBT (1989). Sesgo en el razonamiento humano. Hillsdale, Nueva Jersey: Erlbaum.
Fallis, D. (2015). ¿Qué es la desinformación? Tendencias bibliotecarias, 63(3), 401–426.
Farkas, J. y Neumayer, C. (2018). Propaganda disfrazada de lo digital a las redes sociales.
En J. Hunsinger et al. (Eds.), Segundo manual internacional de investigación en Internet
(págs. 1 a 17), Springer.
Festinger, L. (1957). Una teoría de la disonancia cognitiva. Stanford, CA: Prensa de la
Universidad de Stanford.
Freedman, JL y Sears, DO (1965). Exposición selectiva. Avances en Psicología Social
Experimental, 2, 57–97. https://doi.org/10.1016/S0065­260 1(08)60103­3.

Ganor, B. (2002). El terror como estrategia de guerra psicológica. Instituto Internacional de


Lucha contra el Terrorismo. https://www.ict.org.il/Article/827/Terror­as­a­Strategy­of­
Psychological­Warfare#gsc.tab=0. Consultado el 22 de marzo de 2020.
Gelfert, A. (2018). Noticias falsas: una definición. Lógica informal, 38 (1), 84­117.
Goode, L. (2009). Noticias Sociales, Periodismo Ciudadano y Democracia. Nuevos medios y
sociedad, 11(8), 1287–1305. https://doi.org/10.1177/146144480 9341393.

Guilday, P. (1921). La Sagrada Congregación de Propaganda Fide (1622­1922).


The Catholic Historical Review, 6(4), 478–494.
Harmon­Jones, E. (2002). Una disonancia cognitiva: perspectiva teórica de la persuasión. En
J. P Dillard y MW Pfau (Eds.), The Persuasion Handbook: Developments in Theory and
Practice (págs. 99­116). Londres: sabio. http://dx. doi.org/10.4135/9781412976046.n6.

Hart, W., Albarracín, D., Eagly, AH, Brechan, I., Lindberg, MJ y Merrill, L.
(2009). Sentirse validado versus estar en lo correcto: un metaanálisis de la exposición
selectiva a la información. Boletín psicológico, 135(4), 555–588. https://doi.org/10.1037/
a0015701 .
Higgins, K. (2016). Posverdad: una guía para los perplejos. Naturaleza, 540(9). https://doi.org/
10.1038/540009a.
Hopkins, J. y Rosamond, B. (2017). Política posverdad, tonterías y malas ideas: 'fetichismo
del déficit' en el Reino Unido. Nueva economía política, 23(6), 641–655.
Ihlen, Ø., Gregory, A., Luoma­aho, V. y Buhmann, A. (2019). Posverdad y relaciones públicas:
Introducción a la sección especial. Revisión de relaciones públicas, 45(4), 1–4. https://
doi.org/10.1016/j.pubrev.2019.101844.
Jasny, L., Waggle, J. y Fisher, DR (2015). Un examen empírico de las cámaras de eco en las
redes de políticas climáticas de EE. UU. Naturaleza Cambio climático, 5, 782–786. https://
doi.org/10.1038/nclimate2666.
Jones, M. y Sugden, R. (2001). Sesgo de confirmación positiva en la adquisición de
información. Teoría y decisión, 50, 59–99. https://doi.org/10.1023/A:1005296023424 .
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 39

Jost, JT (2017). Asimetrías ideológicas y esencia de la psicología política.


Psicología política, 38(2), 167–208. https://doi.org/10.1111/pops.12407.
Kalpokas, I. (2020). La posverdad y el entorno informativo cambiante. En P. Baines,
N. O'Shaughnessy y N. Snow (Eds.), The Sage Handbook of Propa­ganda (págs.
71–84). Londres, Thousand Oaks, Nueva Delhi y Singapur: Sage.

Kaufhold, K., Valenzuela, S. y Gil de Zúñiga, H. (2010). Periodismo ciudadano y


democracia: cómo el uso de noticias generadas por los usuarios se relaciona
con el conocimiento y la participación políticos. Periodismo y comunicación de
masas trimestral, 87 (3–4), 515–529. https://doi.org/10.1177/107769901008700305.
Knobloch­Westerwick, S. y Kleinman, SB (2012). Exposición selectiva preelectoral:
sesgo de confirmación versus utilidad informativa. Investigación en comunicación,
39 (2), 170–193.
Kragh, M. y Åsberg, S. (2017). La estrategia de Rusia para influir a través de la
diplomacia pública y medidas activas: el caso sueco. Revista de estudios
estratégicos, 40(6), 773–816.
Larson, VE y col. (2009). Fundación de Operaciones de Influencia Efectivas. Un
marco para mejorar las capacidades del ejército: RAND Corporation.
Lasswell, HD (1927). La teoría de la propaganda. Revista estadounidense de
ciencias políticas, 627–631. https://doi.org/10.2307/19455515.
Leviston, Z., Walker, I. y Morwinski, S. (2013). Es posible que su opinión sobre el
cambio climático no sea tan común como cree. Naturaleza Cambio climático, 3,
334–337. https://doi.org/10.1038/nclimate1743.
Lewandowsky, S., Ecker, UKH y Cook, J. (2017). Más allá de la desinformación:
comprender y afrontar la era de la “posverdad”. Revista de investigación aplicada
en memoria y cognición, 6(4), 353–369.
Lewis, SC, Kaufhold, K. y Lasorsa, DL (2010). Pensar en el periodismo ciudadano:
los desafíos filosóficos y prácticos del contenido generado por el usuario para los
periódicos comunitarios. Práctica periodística, 4(2), 163–179. https://doi.org/
10.1080/14616700903156919.
Lilleker, D., Coman, I., Gregor, M. y Novelli, E. (2021). Comunicación política y
COVID­19: gobernanza y retórica en tiempos de crisis. Londres y Nueva York:
Routledge.
Limaye, RJ, Suaer, M., Ali, J., Bernstein, J., Wahl, B., Barnhill, A., et al.
(2020). Generar confianza al mismo tiempo que se influye en el contenido en línea sobre
COVID­19 en el mundo de las redes sociales. The Lancet Digital Health, 2(1), e277–e278.
Mair, J. (2017). Antropología de la posverdad. Antropología hoy, 33 (3), 3–4.
Marshall, JP, Goodman, J., Zowghi, D. y da Rimini, F. (2015). El desorden y la
sociedad de la desinformación. Londres y Nueva York: Routledge.
McCornack, SA (1992). Teoría de la manipulación de la información. Monografías
de comunicación, 59 (1), 1–16. https://doi.org/10.1080/03637759209376245.
Machine Translated by Google

40 M. GREGOR Y P. MLEJNKOVÁ

Diccionario Merriam­Webster. (Dakota del Norte). Operación. https://www.merriam­webster.


com/diccionario/operación. Consultado el 22 de marzo de 2020.
Miljkovic, M. y Pešic, A. (2019). Aspectos informativos y psicológicos de las amenazas a la seguridad en
el entorno contemporáneo. TEME, 43(4), 1079–1094.
Oficina de Normalización de la OTAN. (2014). Doctrina Conjunta Aliada para Operaciones Psicológicas.
Publicación conjunta aliada—3.10.1. Bruselas: Organización del Tratado del Atlántico Norte, Oficina
de Normalización de la OTAN.
Oficina de Normalización de la OTAN. (2018). Glosario de términos y definiciones de la OTAN.
AAP­06. Bruselas: Organización del Tratado del Atlántico Norte, Oficina de Normalización de la
OTAN.
Nichols, T. (2017). La muerte del conocimiento. Nueva York: Oxford University Press.
Nickerson, RS (1998). Sesgo de confirmación: un fenómeno omnipresente en muchos
Guisas. Revisión de Psicología General, 2(2), 175–220.
O'Shaughnessy, N. (2004). Política y propaganda: armas de seducción masiva.
Manchester: Prensa de la Universidad de Manchester.
O'Shaughnessy, N. (2016). Vender a Hitler: propaganda y la marca nazi.
Londres: Hurst & Company.
O'Shaughnessy, N. (2020). De la desinformación a las noticias falsas: hacia el pasado. En P. Baines, N.
O'Shaughnessy y N. Snow (Eds.), The Sage Hand­book of Propaganda (págs. 55–70). SAGE:
Londres, Thousand Oaks, New Dehli y Singapur.

Orwell, G. (1949). 1984. Londres: Secker y Warburg.


Pearce, KE (2015). democratizar Kompromat: los bailes de aventuras de las redes sociales para el acoso
patrocinado por el estado. Información, comunicación y sociedad, 18(10), 1158­1174. https://doi.org/
10.1080/1369118X.2015.102 1705.

Publicar, JM (sin fecha). Operaciones Psicológicas y Contraterrorismo. https://www. pol­psych.com/


downloads/JFQ%20Psyops%20and%20counterterrorism.pdf.
Consultado el 22 de marzo de 2020.

Pratkanis, A. y Aronson, E. (2001). Era de la propaganda: el uso y abuso cotidianos de la persuasión.


Nueva York: Holt Libros en rústica.
Shabo, ME (2008). Técnicas de propaganda y persuasión. Clayton: Prestwick
Casa.
Shenk, D. (1997). Smog de datos: sobrevivir al exceso de información. Nueva York: Harper Collins.

Silverman, C. (2016). Este análisis muestra cómo las noticias virales falsas sobre elecciones superaron
a las noticias reales en Facebook. Buzzfeed. https://www.buzzfeed.com/craigsilverman/viral­fake­
election­news­outperformed­real­news­on­facebook?utm_term=tgEkrDpr#.dvkvJ3DJ . Consultado
el 22 de marzo de 2020.
Sismondo, S. (2017). ¿Posverdad? Estudios sociales de la ciencia, 47 (1), 3–6. https://
doi.org/10.1177/0306312717692076.
Machine Translated by Google

1 EXPLICANDO EL DESAFÍO: DE LA PERSUASIÓN A LA RELATIVISACIÓN 41

Smith, BL (2019). Propaganda. Enciclopedia Británica. https://www.britan


nica.com/topic/propaganda. Consultado el 20 de marzo de 2020.
Sparkes­Vian, C. (2018). Propaganda digital: la tiranía de la ignorancia.
Sociología crítica, 45 (3), 393–409.
Stilwell, RD (1996). Dimensiones político­psicológicas de la contrainsurgencia.
En FL Goldstein y B. F Findley (Eds.), Operaciones psicológicas: principios y estudios de casos
(págs. 319–332). Alabama: Prensa de la Universidad del Aire.
Stroud, Nueva Jersey (2010). Polarización y exposición selectiva partidista. Revista de comunicación,
60 (3), 556–576. https://doi.org/10.1111/j.1460­2466. 2010.01497.x.

Syed, M. (2012). De la guerra mediante el engaño: del control mental a la propaganda: de


Teoría a la práctica. Documentos de ISSRA, 195–214.
Taylor, PM (2003). Municiones de la mente: una historia de propaganda desde el mundo antiguo hasta
la era actual. Manchester y Nueva York: Manchester University Press.

Tromblay, ED (2018). Operaciones de influencia política: cómo los actores extranjeros buscan dar
forma a la formulación de políticas estadounidenses. Lanham: Rowman y Littlefield.
Twenge, JM, Campbell, WK y Freeman, EC (2012). Diferencias generacionales en los objetivos de
vida, la preocupación por los demás y la orientación cívica de los adultos jóvenes, 1966­2009.
Revista de Personalidad y Psicología Social, 102(5), 1045–1062. https://doi.org/10.1037/a0027408.

Estados Unidos: Estado Mayor Conjunto. (2014). Publicación conjunta 3–13: Información
operaciones.
Vargo, C., Lei, G. y Amazeen, M. (2017). El poder de las noticias falsas para establecer la agenda: un
análisis de big data del panorama de los medios en línea de 2014 a 2016. New Media & Society,
20(5), 2028–2049.
Vejvodová, P. (2019). La Información y las Operaciones Psicológicas como Reto a la Seguridad y la
Defensa. Vojenské rozhledy, 28(3), 83–96.
Vosoughi, S., Roy, D. y Aral, S. (2018). La difusión de noticias verdaderas y falsas en línea. Ciencia,
359(6380), 1146­1151. https://doi.org/10.1126/science. aap9559.

Webb, H. y Jirotka, M. (2017). Matices, dinámica social y responsabilidad al abordar la desinformación


en la era de la posverdad: comentario sobre Lewandowsky, Ecker y Cook. Revista de investigación
aplicada en memoria y cognición, 6(4), 414–417. https://doi.org/10.1016/j.jarmac.2017.10.001.

Wojnowski, M. (2019). Las elecciones presidenciales como herramienta de desestabilización del Estado
en la teoría y la práctica de las operaciones infopsicológicas rusas en los siglos XX y XXI . Przegl
˛ad Bezpiecze ´nstwa Wewn˛etrznego, 11(21), 311–
333.
Zillmann, D. y Jennings, B. (2011). Exposición selectiva a la comunicación.
Londres: Serie de comunicación de Routledge.
Machine Translated by Google

CAPITULO 2

La propaganda y la desinformación llegan a Internet

Miroslava Pavlíková, Barbora Šenkýˇrová y Jakub Drmola

2.1 Introducción
¿Cuál es el futuro de la propaganda política? ¿El futuro es "ahora"? En
Ucrania, la guerra de información se hizo pública y posteriormente apareció
un debate sobre nuevas formas de difusión de propaganda. En el conflicto
ruso­ucraniano surgieron cuentas controladas por humanos que
manipulaban contenido en línea al mismo tiempo. Los llamados trolls del
Kremlin intentaron influir en el público nacional y ucraniano a favor del
encuadre ruso de la confrontación. La parte ucraniana, por su parte,
también intentó utilizar Internet como arma no cinética. El Ejército de
Información de Ucrania fue fundado por el Ministerio de Política de
Información como una iniciativa destinada a luchar contra los trolls rusos y contra todos l

M. Pavlíková (B) ∙ B. Šenkýˇrová ∙ J. Drmola


Departamento de Ciencias Políticas, Facultad de Estudios Sociales, Universidad
Masaryk, Brno, República Checa

J. Drmola
Correo electrónico: jdrmola@mail.muni.cz

© El autor(es), bajo licencia exclusiva para Springer Nature 43


Switzerland AG 2021
M. Gregor y P. Mlejnková (eds.), Desafiando la propaganda
y la desinformación en línea en el siglo XXI, campañas
políticas y comunicación, https://doi.org /
10.1007/978­3­030­58624­9_2
Machine Translated by Google

44 M. PAVLÍKOVÁ ET AL.

pudo convertirse en miembro del grupo, una táctica destinada a desacreditar la


desinformación difundida por los trolls.
Otro signo de los tiempos en lo que respecta al desarrollo tecnológico y el uso de
propaganda fueron las elecciones presidenciales estadounidenses de 2016 y las
consiguientes acusaciones sobre la interferencia del Estado ruso. Rusia llevó a cabo
complejas operaciones de influencia utilizando el ciberespacio, donde la propaganda
jugó un papel importante. Una campaña masiva de cuentas robotizadas que difunden
contenidos llegó a las redes sociales. El objetivo de esta actualización de los antiguos
trolls del Kremlin de Internet ucranianos se convirtió en grupos objetivo elegidos con
precisión. Poco después apareció un escándalo con la empresa Cambridge Analytica.
Después del referéndum sobre el Brexit, se reveló que la empresa consultora había
aprovechado los agujeros en la protección de datos de los usuarios de Facebook
para producir campañas políticas microdirigidas en todo el mundo: los servicios de la
empresa habían sido contratados por actores estatales en varios niveles.
Además, ahora estamos leyendo sobre la amenaza que representan los llamados
deepfakes y su capacidad para engañar perfectamente al público objetivo. ¿Podrían
la futura propaganda y manipulación de la información como estos ejemplos decidir
las elecciones?
Un nuevo entorno informativo, impulsado en gran medida por el crecimiento de
Internet, está cambiando rápidamente el panorama económico, social y político.
Dado el crecimiento exponencial tanto en el uso de Internet como en la disponibilidad
de noticias, no es de extrañar que esta nueva forma de comunicación traiga nuevas
herramientas y métodos para la manipulación de los medios. Por lo tanto, el objetivo
de este capítulo es presentar y describir los cambios en el entorno de la información
y las herramientas y tendencias más nuevas identificadas en el contexto de la
manipulación de la información y la propaganda a principios del siglo XXI. La
tecnología de la desinformación y la propaganda ha experimentado cambios
significativos desde el final de la Guerra Fría. Junto con los cambios en la sociedad y
el significado mismo de la información, hoy en día podríamos hablar de sociedad de
la información (Webster 2006), economía de la información (una sociedad que
produce más información que bienes) (Zhang 2017), o economía de la información.
sociedad céntrica. Los cambios sociales también se han aplicado al ámbito militar y
de seguridad.
Aunque la importancia de la información se remonta a teóricos militares clásicos
como Sun Tzu, su conexión con el rápido surgimiento de nuevas tecnologías ha
cambiado profundamente la forma en que se libran los conflictos y las guerras.
Términos como guerra de información o utilización de la información como arma
(véase Toffler y Toffler, 1981) se han convertido en una parte vital del discurso militar
y de seguridad actual.
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 45

Sun Tzu estaría de acuerdo en que la información siempre ha sido un arma


extremadamente peligrosa. Sin embargo, a principios del siglo XXI, asistimos a
tiempos muy turbulentos debido al desarrollo tecnológico de alta velocidad y al
potencial expansivo del espacio virtual. Por tanto, el capítulo comienza con una
reflexión sobre el entorno de la información y la infosfera. La atención se centra en
el desarrollo del entorno de la información, porque éste es el factor decisivo que
influye en qué herramientas se pueden utilizar y de qué manera se puede manipular
la información. Las cuestiones relacionadas con el entorno de la información y los
esfuerzos de los países por protegerlo quedan ilustradas por los casos de dos
países no democráticos, China y Rusia. Estos países son más propensos a creer
que la desinformación y la propaganda son partes adecuadas de un conjunto de
herramientas para la protección y promoción de sus intereses, y los esfuerzos por
controlar el entorno de la información van de la mano con ello. A través de tales
ejemplos podemos demostrar la importancia del entorno de información (y su
protección), y también hasta dónde pueden llegar los regímenes en su obsesión
por controlar el flujo de información dadas las circunstancias actuales. Se describirá
cómo pueden funcionar los diferentes entornos de información y cómo pueden
impedir que el público esté informado dentro de un régimen, pero también, a la
inversa, cómo pueden difundir abiertamente información fuera de un régimen.

La segunda parte del capítulo se centra en las herramientas tecnológicas de


desinformación y propaganda en el espacio online. Esta parte describe el cambio
del trolling creado por humanos a actividades de bots y a una inteligencia artificial
altamente personalizada, dirigida con precisión y que se adapta a las emociones.
La siguiente sección confirma brevemente que no son sólo los actores con objetivos
políticos o ideológicos los que utilizan la desinformación y la propaganda; un motivo
frecuente para desplegarlas es, de hecho, el lucro. Otro cambio observado en el
contexto de la desinformación y propaganda en línea es el de las empresas que
implementan actividades manipuladoras en la comunicación política, como se
puede ver en el ejemplo de las elecciones presidenciales de Estados Unidos de
2016 y Cambridge Analytica; y no olvidemos también el papel crucial que
desempeñaron las plataformas de redes sociales, como Facebook. Por lo tanto,
las empresas tecnológicas quedarán cubiertas posteriormente. En la parte final,
nos acercamos al futuro, centrándonos en la tecnología deepfake, que puede verse
como una futura herramienta de nueva propaganda en línea. Aunque los deepfakes
son una tecnología de desinformación muy nueva, ya podemos explorarla a través
de algunos ejemplos (vídeos falsos de Barack Obama y Donald Trump, fotos de
perfil falsas en LinkedIn y el caso de privacidad de datos de FaceApp). Aunque los deepfakes repr
Machine Translated by Google

46 M. PAVLÍKOVÁ ET AL.

tecnología, sostenemos que marcan el siguiente paso en la profesionalización


gradual de la manipulación de la información más que un nuevo fenómeno
revolucionario.
El objetivo de este capítulo no es ofrecer a los lectores una lista exhaustiva de
"tecnologías de alta tecnología", sino más bien señalar las principales direcciones
de los avances modernos en propaganda y desinformación.

2.2 Entorno de información


El elemento clave en el que se basa toda propaganda y desinformación es la
información. Desde el desarrollo de tecnologías como la radio y la televisión, la
importancia de la información y su valor han ido cambiando.
En la década de 1950, cuando las transmisiones de televisión entraron en la vida
cotidiana de las personas en el mundo desarrollado, la percepción y la necesidad
de nueva información comenzó a ser un nuevo requisito en sus vidas. La palabra
información (de raíces latinas y origen griego) se utiliza en dos contextos básicos:
el acto de moldear la mente y el acto de comunicar conocimiento (Capurro y
Hjørland 2005, 351). La acción de informar, por tanto, se refiere a la formación de
la mente o el carácter, la educación y la enseñanza (Oxford English Dictionary).
Según la OCDE existen tres concepciones de información: información como
conocimiento, información como actividad económica e información como
tecnología (Godin 2008, 256). En nuestro capítulo nos ocuparemos de todas estas
concepciones. Como sociedad en la que la información y las tecnologías de la
información tienen una poderosa influencia en la vida social cotidiana (OCDE,
documento marco en Godin 2008, 268), a menudo utilizamos el término "sociedad
de la información". Al igual que la información misma, este concepto no es claro
ni generalmente aceptado. Vale la pena señalar aquí que uno de los enfoques para
definir la sociedad de la información es el cumplimiento de estos cinco criterios:
tecnológico (relacionado con la innovación tecnológica desde 1970), económico
(en el contexto de la economía de la información), ocupacional (trabajo
informacional), espacial (cambio en la organización del tiempo y el espacio) y
cultural (información en la vida cotidiana: televisión, correos electrónicos, etc.)
(Webster 2006, 8).1 La definición de información en su
relación con la economía de la información se basa más en la producción y el
es intercambio de información que

1Según Webster (2006, 8), también existe una sexta definición. Sin embargo, '... su afirmación
principal no es que hoy en día haya más información (obviamente la hay), sino más bien que la
El carácter de la información es tal que ha transformado nuestra manera de vivir".
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 47

bienes físicos” (Mazarr et al. 2019, 3). Además, en algunos estudios se utiliza la
sociedad de la información en lugar de la economía de la información (Atik 1999, 121).
Según la OCDE, la economía de la información "se refiere a las implicaciones de las
tecnologías de la información en la economía [y] en el desempeño de las empresas
(productividad, rentabilidad, empleo)" (Godin 2008, 268). Las tres concepciones de
Godin aquí demuestran que la información y las tecnologías de la información son,
hoy en día, los principales productos de los negocios internacionales.
El entorno de la información, donde tienen lugar todos estos procesos, es un
concepto que se entiende a la vez de forma vaga y compleja. Los estudios sobre
medios y comunicación suelen utilizar términos como "sistema de prensa", "sistema
de medios" y "sistema de comunicación de masas". Sin embargo, la forma en que
se construyen y desarrollan los sistemas mediáticos ya no es homogénea. Además,
estos conceptos no integran todos los actores y formas de comunicación
interpersonal que podemos ver hoy. Por lo tanto, el concepto de entorno informativo
proporciona una mejor comprensión del "campo de batalla" donde la propaganda
y la desinformación luchan por nuestra atención y afecto. El entorno de información
consta de tres dimensiones: cognitiva, informativa y física (Jefes de Estado Mayor
Conjunto de EE. UU., 2006).
El entorno de la información durante la mayor parte del siglo XX fue uno en el que
las personas podían identificar fácilmente el lugar, el tiempo y el espacio con los
que se relacionaba la información; sin embargo, esto se volvió más difícil (si no
imposible) con la llegada de Internet a finales de los años 1980. Este cambio no
sólo dificultó a los consumidores identificar dónde y cuándo se publicó inicialmente
la información, sino que incluso identificar al productor se convirtió en un desafío.
Otra forma de concebir este cambio es que el ciberespacio y las redes sociales se
entrelazaron con (o comenzaron a superponerse) el entorno de la información
(Porche et al. 2013, 12).
La parte integral del entorno de la información es la infosfera.
En ocasiones, estos dos términos se utilizan como sinónimos. Sin embargo, en
nuestra opinión, estos dos conceptos son más complejos y, por lo tanto, definiremos
la infosfera por separado. El término fue ideado por Boulding en 1970.
Señala que "la infosfera consiste entonces en entradas y salidas de conversaciones,
libros, televisión, radio, discursos, servicios religiosos, clases y conferencias, así
como información recibida del mundo físico mediante observación personal". …
Es claramente un segmento de la socioesfera por
derecho propio y, de hecho, tiene un derecho considerable a dominar los demás
segmentos. Se puede argumentar que el desarrollo de cualquier tipo es
esencialmente un proceso de aprendizaje y que depende principalmente de una red de
Machine Translated by Google

48 M. PAVLÍKOVÁ ET AL.

flujos de información" (Martens 2015, 332). Al igual que el entorno de la información,


la infosfera solía estar controlada solo por unos pocos canales y programas de televisión
(Mazarr et al. 2019, 25). Los periódicos que se publican periódicamente y las
retransmisiones continuas de las emisoras de radio y televisión se han complementado
con Internet, donde el acceso a la información depende más de la voluntad de los
usuarios, que deciden por sí mismos cuándo y dónde desean consumirla. En estos
términos, y dado el entorno y la sociedad en permanente cambio, la infosfera podría
definirse como "el proceso continuo de producción, difusión y percepción de información
en una sociedad, incluidos los medios, los procesos algorítmicos basados en datos y el
intercambio de información en redes". ' (Mazarr et al.2019 , 7). En otras palabras, en
el entorno informativo actual, "los vínculos directos entre tiempo y lugar, por un lado, y
el individuo como productor y consumidor de contenidos, por otro, hace tiempo que
desaparecieron" (Brikše 2006 ). Este cambio ha aumentado el espacio y las posibilidades
para la producción de manipulación mediática. Esto también se aplica a la infosfera,
cuyos desafíos discutiremos más adelante.

En el contexto del entorno informativo actual, a menudo se menciona el ciberespacio,


que es esencial pero difícil de definir. La palabra ciberespacio fue utilizada por primera
vez por el escritor William Gibson en 1982 en el cuento 'Burning Chrome'. A falta de
una definición ampliamente aceptada de ciberespacio, cada sector define el término de
acuerdo con sus propias necesidades.
Sin embargo, en los últimos años ha habido una tendencia a llamar “cibernético” a todo
lo relacionado con las redes y las computadoras (Lorents y Ottis 2010). Además de
Internet y las redes informáticas, también incluimos redes de telecomunicaciones,
procesadores integrados y controladores en el ciberespacio.
Por ejemplo, Lorents y Ottis (2010) intentaron crear una definición general del
ciberespacio como un mundo virtual que fuera válida en todos los sectores.
Según ellos, el ciberespacio representa un conjunto de sistemas de información
interconectados que dependen del tiempo y usuarios humanos que interactúan con
estos sistemas. Aunque el ciberespacio es independiente de fronteras geográficas, cae
dentro de la jurisdicción de un Estado ubicado en ese territorio. Sin embargo, incluso
esta división es poco clara y jurídicamente difícil de entender, como se mostrará más
adelante en este capítulo. Al mismo tiempo, dificulta la aplicación de delitos y delitos
cometidos por usuarios individuales en el ciberespacio.
Los actores estatales y no estatales se esfuerzan por proteger su ciberespacio.
Estos esfuerzos, denominados ciberseguridad, pueden representarse mediante los
conceptos de seguridad informática y seguridad de los sistemas de información
electrónicos. De facto, existen dos enfoques de la ciberseguridad como disciplina: el técnico y el social.
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 49

enfoques de la ciencia. El primero trata principalmente del aspecto práctico (la


lucha contra los ciberataques, su análisis, la implementación de soluciones de
seguridad con orientación técnica, etc., es decir, la capa lógica y física del
ciberespacio), mientras que el segundo explora la capa social del ciberespacio.
problema.
Debido a que la tecnología de la información es enormemente dinámica, los
atacantes inventan continuamente nuevas técnicas de actividad maliciosa. Los que
estaban actualizados hace cinco años hoy parecen obsoletos y han sido
reemplazados por métodos más sofisticados. Este desarrollo en el ciberespacio
requiere respuestas flexibles por parte de la comunidad de seguridad. Conocer el
origen de los ataques es más importante que conocer la técnica de ataque.
Aunque las técnicas de ciberamenazas cambian con el tiempo, los actores suelen
seguir siendo los mismos (Secureworks 2017).

2.3 Desafíos en el entorno de


la información actual
A medida que la tecnología se desarrolló (a través de la difusión de diferentes
métodos de transmisión), también cambió la infoesfera. Hoy en día, la infosfera
podría caracterizarse por muchas (no sólo) nuevas tendencias problemáticas,
incluida "la fragmentación de la autoridad, el surgimiento de silos de creencias y
una persistente ética trolling de acoso cínico y agresivo en nombre de una
disidencia social amorfa". (Mazarr et al.2019 , 2). Significa que hoy la infosfera
está determinada por:

• dinámica en red y el papel de la difusión viral de información •


sensacionalismo generalizado en las noticias y otros medios •
fragmentación de la infosfera •
concentración de plataformas de información •
el efecto de las cámaras de eco que se refuerzan a
sí mismas • el papel de los
influencers • el surgimiento de una 'ética del trolling' en
Internet • el crecimiento explosivo de la recopilación de datos sobre individuos y grupos.
(Mazarr et al.2019 , 19)

Todas estas características influyen en cómo se percibe el entorno de la


información y podrían indicar los principales desafíos futuros (en gran medida en
el contexto de la propaganda en línea, los ciberataques y la guerra de información).
A continuación nos centraremos en ejemplos de cómo los actores estatales y no estatales
Machine Translated by Google

50 M. PAVLÍKOVÁ ET AL.

reaccionar a los cambios en la infosfera controlando el entorno de información.


Sin embargo, los principales desafíos serán las nuevas herramientas utilizadas en
el entorno de información actual. Este enfoque se llama manipulación social hostil
y utiliza técnicas como el trolling o el aprendizaje profundo.
Internet, su desarrollo y su expansión generalmente están vinculados a la
libertad de expresión (ver Capítulo 4) y al proceso de democratización (Whitehead
2002; Grugel y Bishop 2013). Tomemos, por ejemplo, el importante papel que
desempeñó en los acontecimientos que rodearon la Primavera Árabe (ver
Wolfsfeld et al. 2013; Khondker 2011). Sin embargo, junto con el desarrollo de
Internet y la difusión de información, también ha crecido la tendencia hacia el
control de la información. Los actores no democráticos parecen nerviosos debido
al flujo de información, que es casi imposible de detener dada la facilidad de
acceso. Temen una erosión de su poder político y, por lo tanto, buscan métodos
para controlar la situación tanto como sea posible, mediante la censura o la
manipulación. Un ejemplo de estas tendencias es la ausencia contemporánea de
cambios políticos visibles en los regímenes autoritarios, lo que indica que la
censura de Internet ayuda a estos regímenes a consolidarse (Tang y Huhe 2020,
143).
Esta situación es evidente en China, donde Internet está censurada,
monopolizada por el Estado y llena de contenido manipulador (ver Informe
Freedom House: China, 2018). A partir de 1997, cuando Internet comenzó a
usarse ampliamente en China, el gobierno aprobó leyes y regulaciones que
proporcionaban control sobre la propiedad relacionada con todos los servicios y
medios de Internet, el contenido de Internet y todo el comportamiento en Internet
(Lu y Zhao 2018, 3297; Esto 2017). Posteriormente, en 2014, se estableció una
nueva Oficina del Grupo Dirigente Central para Asuntos del Ciberespacio (CAC),
controlada por el Secretario General del Partido Comunista de China. Esta oficina
controla la regulación de Internet con su justificación la ciberseguridad (Lu y Zhao
2018, 3297). En 2016, China aprobó la llamada Ley de Ciberseguridad, que
fortalece el papel del Estado en el ciberespacio y enfatiza la seguridad por encima
de la libertad de expresión (Qi et al. 2018).

La regulación de Internet en China se divide en tres niveles (King et al. 2013,


3). El primero es el Gran Cortafuegos de China, es decir, el entorno de información
específico en el que sólo se permiten algunos sitios web. De hecho, significa que
la mayoría de los sitios web extranjeros están bloqueados. Esta censura no
permite que las personas se conecten con personas o medios de comunicación
fuera de China. El segundo tipo es el bloqueo de palabras clave, que imposibilita
la publicación de un texto (ya sea en sitios web o redes sociales) cuando un usuario
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 51

Escribe palabras o frases prohibidas. El tercer nivel puede denominarse


"censura manual" y, a diferencia de los dos tipos anteriores, éste se emplea
después de la publicación de la información. Mientras que los dos primeros
métodos de censura son automáticos o técnicos, el último lo llevan a cabo
personas; Hay miles de censores leyendo, marcando y prohibiendo contenidos
en Internet. Un tipo especial de censor manual son las personas que se
centran en la producción de contenidos. Uno de los ejemplos conocidos es el
llamado Ejército de 50 Cent de trolls chinos de Internet. El gobierno les paga
para que escriban comentarios que favorezcan al régimen comunista chino (Farrell 2016).
A pesar de su distancia geográfica, la operación de China en el entorno
de la información puede constituir una amenaza para el espacio euroatlántico.
Hoy en día, se están produciendo debates sobre la nueva infraestructura de
información de quinta generación (5G) y su provisión en Europa y Estados
Unidos. El asunto cobró notoriedad en 2019, cuando un informe del Pentágono
dedicado a la infraestructura 5G mencionó el riesgo de seguridad relacionado
con la comunidad de inteligencia china (principalmente la empresa Huawei).
Según este informe, Huawei fue incluida en una lista de entidades que prohibía
a las empresas estadounidenses venderles sus productos (sin un permiso
especial del gobierno). Muchos gobiernos de Europa también discutieron los
riesgos resultantes de una red 5G, especialmente en el contexto de la
seguridad nacional. Dado que Huawei está vinculado al régimen chino, existe
preocupación por su enfoque en el entorno de la información (consulte el
Capítulo 7 para el ejemplo de la República Checa). La desconfianza se debe
principalmente a la fuerte conexión entre el gobierno chino (especialmente los
servicios secretos) y proveedores de tecnología como Huawei o ZET. Existe
aprensión sobre el posible uso por parte de China de la red 5G para
operaciones de influencia. Sin embargo, a pesar de la evidente presión,
Huawei todavía coopera y ha firmado contratos para suministrar 5G en
muchos países (Segev et al. 2019).
Además de China, la censura de Internet y los ajustes de contenido
también ocurren en Siria, India (Steen­Thornhammar 2012, 227­228), Corea
del Norte, Cuba (Cheng et al. 2010) y Rusia. Cuba y Corea del Norte utilizan
el modelo de mosquitero mediante el cual los gobiernos apoyan la entrada de
inversión extranjera (incluso en el negocio de TI), pero bloquean la entrada de
valores, ideas y cultura extranjeros (Cheng et al. 2010, 660). En Corea del
Norte, el acceso a Internet es limitado y sólo está disponible para las élites
(Cheng et al. 2010, 650).
El enfoque ruso se caracteriza más bien por la censura y la intimidación
que por el acceso limitado (Maréchal 2017, 31). Sin embargo, Rusia
Machine Translated by Google

52 M. PAVLÍKOVÁ ET AL.

tiene sus lagunas liberales: el desarrollo de RuNet, la comunidad de habla rusa


en Internet, se centró desde el principio principalmente en el intercambio y el
desarrollo académico (Bowles 2006). No obstante, todavía intenta ampliar su
vigilancia del entorno de Internet. La nueva política informativa rusa está
particularmente relacionada con el inicio de la década de 2010 y la acumulación
de poder en manos de Vladimir Putin.
Los proveedores de comunicaciones controlados por el Estado tienen un
papel importante en Rusia, lo que permite al Estado, a través de sus servicios
secretos, tener fácil acceso al tráfico de Internet (Freedom House Report: Rusia,
2014). El poder legislativo también es una poderosa herramienta en la
regulación de Internet (ver la medida legislativa No. 428884­6, la llamada Ley
de Bloggers; la medida legislativa No. 553424­6 sobre almacenamiento de
datos; o la medida legislativa No. 89417­6 de 2012 relativo a la protección de
los niños contra contenidos maliciosos en Internet). Todas estas medidas legales
han intentado o permitido al Estado controlar mejor el contenido de Internet, su
regulación y la represión contra la disidencia. Además, las leyes son flexibles en
su aplicación y pueden apuntar a un amplio espectro de sujetos desfavorables al régimen.
La especificidad de la forma emergente de RuNet radica en sus fuertes
vínculos con el gobierno y su relación con la identidad nacional rusa.
RuNet ha sido definida como "una totalidad de información, comunicaciones y
actividades que ocurren en Internet, principalmente en idioma ruso, sin importar
dónde se encuentren físicamente los recursos y los usuarios, y que de alguna
manera están vinculadas a la cultura rusa y a la cultura rusa". identidad' (Gorny
2009 en Ristolainen 2017, 118). La idea de RuNet y el aislamiento de Internet
en el contexto ruso está relacionada con la idea del espacio soberano ruso y los
desafíos al "mundo dominado por Estados Unidos" (Ristolainen 2017, 124). Las
tensiones entre Rusia y Occidente (representadas especialmente por la OTAN
y Estados Unidos) comenzaron a profundizarse, con un pico durante la crisis de
Ucrania y la interferencia en las elecciones presidenciales de Estados Unidos
de 2016. El 12 de mayo de 2019, se adoptó un proyecto de ley que confirmaba
el control y aislamiento del espacio de Internet en idioma ruso del resto de
Internet a partir de 2020 (The Moscow Times 2019).
El enfoque ruso de la regulación de Internet y la propaganda en línea puede
describirse mediante el concepto de guerra híbrida. Rusia aprovecha las ventajas
del entorno de la información porque el precio bajo y la simplicidad la hacen
disponible. En lugar de una guerra regular, se basa en la irregularidad para
contrarrestar la posible asimetría en la confrontación.
El control sobre el entorno de la información tiene múltiples beneficios para
los regímenes no democráticos. En primer lugar están las razones económicas. El
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 53

Internet y su desarrollo son cruciales para el desarrollo económico de un país, lo que


podría ser el principal factor legitimador de
países autoritarios (Kalathil y Boas 2003, 144). Sin embargo, para
comunicación estratégica moderna, para controlar las mentes y opiniones de los
ciudadanos y, por tanto, el apoyo a los fundamentos del régimen,
es importante controlar y censurar Internet. Como ejemplos de
Rusia y China demuestran que es más fácil establecer un entorno de información
soberano para todas estas variables. Jiang (2010, 72­73) ofrece una
explicación teórica llamada "informacionalismo autoritario". Esta basado
sobre el desarrollo de Internet y el modelo regulatorio. Se enfatizan las responsabilidades
individuales sobre los derechos individuales; máximo beneficio económico
También se destaca el riesgo político mínimo para el Estado unipartidista. Jiang
Explica el concepto a través del caso chino. El informacionalismo autoritario en China
combina elementos del capitalismo, el autoritarismo,
y el confucianismo (Jiang 2010, 82). Jiang afirma además que el informacionalismo
autoritario describe la realidad futura de su información.
ambiente porque se basa no sólo en extender el control sino también en
en mejorar su legitimidad (basada principalmente en la confianza en el gobierno y
éxito económico).
Estas características pertenecen especialmente a los países autoritarios.
han producido nuevas amenazas para el mundo democrático así como para sus propios
civiles. Los regímenes autoritarios tienden a controlar su propio entorno informativo
dentro del país y, al mismo tiempo, interfieren en
el entorno exterior para reducir el poder de la información que
podría estar poniendo en peligro al régimen y yendo en contra de sus intereses. En
En los siguientes apartados se abordarán las últimas herramientas tecnológicas y
tácticas de propaganda y manipulación. Son las herramientas utilizadas para
controlar y manipular el entorno de información. lo que parecía
La ciencia ficción de la década de 1970 se ha convertido en realidad hoy o lo será en unos pocos.
en años.

2.4 De trolls a robots


En 2015, se publicó un artículo llamado 'La Agencia' en el
New York Times (Chen 2015). Este hecho podría marcar el momento
El interés comenzó por la nueva ola de propaganda en Internet, especialmente para
El mundo occidental. El artículo de Chen presentó al público en general
la existencia de los llamados trolls del Kremlin y su organización. 'El
Agencia", que se cree que está vinculada a la administración de Putin, se refiere a una
Machine Translated by Google

54 M. PAVLÍKOVÁ ET AL.

de las primeras 'granjas de trolls' conocidas públicamente (Financial Times 2019).


Éste, ubicado en San Petersburgo, Rusia, empleaba principalmente a jóvenes rusos
que no estaban interesados en la política. Como parte de la descripción de su
trabajo, se suponía que debían difundir propaganda sobre el actual conflicto entre
Rusia y Ucrania sin ningún interés personal.
Esta agencia representa una nueva herramienta de propaganda estrictamente
ligada al mundo online: los trolls. Con ventajas para los propagandistas y desventajas
para los receptores, los trolls, a veces denominados trolls híbridos (Hannah 2018),
son personas que tienen como objetivo difundir o destruir una narrativa particular.
Su función principal es dominar la discusión en las redes sociales o en los foros de
discusión; abrumarlo con diversas contribuciones, a menudo ni siquiera relacionadas
con el tema de discusión; y ofender vulgarmente las opiniones de los oponentes y
disuadirlos de seguir discutiendo utilizando estas prácticas (para una explicación
más amplia del término y su papel en el ciberespacio, consulte Nycyk 2017). En este
caso, los trolls están actuando como un multiplicador de fuerza para hacer llegar los
mensajes rusos (Giles 2016, 9). Como lo demuestran los documentos filtrados, los
trolls pagados de San Petersburgo recibían todos los días hojas de trabajo con
indicaciones sobre los temas que debían tratar y el discurso que debían utilizar.
La historia de los trolls de San Petersburgo está relacionada con un discreto
edificio administrativo en el barrio de Olgino, donde en su mayoría jóvenes sin
ninguna postura política importante trabajan básicamente como redactores. Sin
embargo, el contenido que estaban produciendo estaba estrictamente orientado al
encuadre de la situación política actual en Rusia y Ucrania.
Esto contrasta marcadamente con lo que se vería tres años después, cuando trolls
con los mismos antecedentes llevaron a cabo sofisticadas y complejas operaciones
de influencia, incluido el trolling clásico, la creación de sitios web falsos, la
suplantación de medios de comunicación locales y la cooperación con el servicio
militar ruso (StopFake 2019). y la producción de campañas microdirigidas.
Además del conflicto de Ucrania, las operaciones de los trolls fueron detectadas
en los países bálticos unos meses después; según una investigación del Centro de
Excelencia StratCom de la OTAN, las actividades de la granja de trolls de San
Petersburgo eran evidentes en Letonia (Spruds et al. 2016). La periodista de
investigación finlandesa Jessikka Aro también reveló2 actividades de trolls del
Kremlin en Finlandia, que ayudaron a dar publicidad al tema; sin embargo, su
investigación también resultó en un ciberacoso masivo dirigido a ella (Aro 2016;
Rose 2019).

El caso de 2Aro fue aún más lejos. Los trolls/ciberacosadores más agresivos terminaron en
tribunal finlandés y, en consecuencia, tres personas fueron condenadas (Staudenmaier 2018).
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 55

Lo que podrían haber parecido operaciones de información regionales evolucionaron


hasta convertirse en un conflicto supranacional y una campaña de propaganda. Los
trolls de San Petersburgo se hicieron conocidos por su nombre comercial oficial: Agencia
de Investigación de Internet (IRA). Se descubrió que el IRA interfirió en las elecciones
presidenciales estadounidenses de 2016 (Departamento de Justicia de Estados Unidos,
2019), pero Howard et al. (2018) notaron que los ataques del IRA contra la sociedad
estadounidense habían comenzado mucho antes. La participación de los trolls del IRA
quedó aún más demostrada en la campaña del referéndum sobre el Brexit de 2016
(Bastos y Mercea 2018; Field y Wright 2018), así como en las elecciones generales
alemanas de 2017 y el debate que siguió al tiroteo en una mezquita en Canadá (Al­Rawi y Jiwani 2019).
La interferencia de los trolls del Kremlin en las elecciones estadounidenses demostró
cuán sofisticada podría ser esta forma de propaganda en línea y cómo sus capacidades
operativas, alcance e intensidad están creciendo (Inkster 2016; Badawy et al. 2019;
Kreiss 2019).
Los trolls habían estado cubriendo una amplia gama de temas, en su mayoría con el
potencial de dividir a la sociedad pública. Por ejemplo, cubrieron masivamente temas
relacionados con la cultura negra estadounidense, así como cuestiones de los veteranos
y el derecho a portar armas en la campaña electoral estadounidense. Los grupos
destinatarios eran a veces contradictorios, como por ejemplo cubriendo contenidos anti­
refugiados y reformas pro­inmigración, pero fueron seleccionados deliberadamente con
un enfoque en la receptividad del mensaje (Yonder 2018; Howard et al. 2018). El caso
ilustra una de las principales características de estas operaciones de información en
línea: la siembra de incertidumbre, caos y fragmentación y polarización de la sociedad,
en contraposición a la propagación de una ideología particular.

Como se demostró anteriormente, la cuestión de los trolls está estrechamente ligada


a los individuos y grupos pro­Kremlin en las discusiones europeas, porque estos son los
actores propagandísticos más activos que influyen en la región euroatlántica.
Sin embargo, podemos identificar muchos otros grupos organizados de trolls en todo el
mundo, por ejemplo, el mencionado Ejército Chino de 50 Cent que produce contenido
para que sus propios ciudadanos apoyen al régimen (ver Farrell 2016). Durante el
referéndum sobre el Brexit, no solo interfirieron los trolls rusos, sino que también
participaron los trolls iraníes que operaban en Twitter (Field y Wright, 2018). En 2018,
Twitter y Facebook cerraron cientos de cuentas falsas de origen del gobierno iraní. Los
trolls promovieron intereses políticos iraníes centrándose en temas anti­saudíes, anti­
israelíes y pro­palestinos, así como temas dirigidos a la política estadounidense (Titcomb
2018). Incluso han surgido grupos de trolling en Europa. Un ejemplo es el grupo de
extrema derecha Reconquista Germánica, que se centra en la política alemana y
Machine Translated by Google

56 M. PAVLÍKOVÁ ET AL.

simpatizando con el partido de extrema derecha Alternativa para Alemania (Ebner


2018).
La aparición de campañas de trolls no se esperaba y, al principio, el contenido
compartido podría haberse confundido fácilmente con los blogs de usuarios
reales. Sin embargo, si bien el fenómeno de las actividades de los trolls en línea
se ha revelado recientemente, sus tácticas ya se han desarrollado y su
sofisticación está creciendo. La evolución del trolling no se ha limitado únicamente
a la expansión geográfica y una mejor focalización, sino que también se está
produciendo su robotización y automatización.
La propaganda automatizada o propaganda robótica se basa en las
actividades de los bots: programas que producen automáticamente contenido
que debería parecerse al de usuarios reales, interactuar con humanos en línea y
producir contenido manipulador en las redes sociales, especialmente en Twitter,
Facebook e Instagram ( ver The Computational Propaganda Project 2016; Gorwa
y Guilbeault 2018; Nimmo 2019). Originalmente, se utilizaban como una
herramienta complementaria para los trolls, con bots difundiendo el contenido
producido por trolls y usuarios genuinos progubernamentales.
Los bajos costos, la disponibilidad y la escalabilidad a través de la
automatización (Woolley y Howard 2016, 7) han demostrado que los bots por sí
solos pueden ayudar a los gobiernos, partidos políticos u otros grupos de interés
a manipular las opiniones de una audiencia. Naturalmente, la principal diferencia
entre trolls y bots radica en la capacidad de los bots para coordinar tuits sobre el
mismo tema miles y miles de veces al día (ver Gorwa y Guilbeault 2018, 10). En
muchos ejemplos, los programadores que implementan bots trabajan como puros mercenarios.
Son ideológicamente apolíticos y están motivados estrictamente por el dinero
(Woolley y Howard 2016, 10).
Al utilizar robots en línea, la propaganda puede producir la impresión de una
fuerte campaña de base y, por lo tanto, atraer nuevos seguidores o fomentar una
mayor actividad entre los existentes, una práctica llamada astro­turfing (ver
Zhang et al. 2013; Spruds et al. 2016; Kollanyi et al.
2016). Twitter representa una plataforma ideal para esta estrategia; Una gran
cantidad de bots y usuarios reales estuvieron activamente a favor de las
campañas en Twitter de Donald Trump y Hillary Clinton (con los hashtags
'#MAGA' y '#ImWithHer'), así como del referéndum sobre el Brexit. A través de
una alta frecuencia de tweets y actividad coordinada, los robots pueden cambiar
y distorsionar temas, mensajes y publicaciones de "tendencia" con hashtags. Es
habitual que los bots 'secuestren' hashtags. Los hashtags populares y de
tendencia se explotan con la intención de obtener más visibilidad y atención
aunque el contenido compartido por los bots no tenga que estar conectado a
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 57

el tema de un hashtag de todos modos (Woolley y Guilbeault 2017). Tomemos, por


ejemplo, el secuestro coordinado de hashtags de Twitter durante el tiroteo en una
escuela secundaria de Florida en 2017. Los hashtags de tendencia como #NRA,
#shooting, #Nikolas, #Florida y #teacher fueron secuestrados por robots políticos, en
su mayoría originarios de Rusia (Frenkel y Wakabayashi 2018).
Los bots también son reutilizables. Las botnets durmientes, un sistema de bots,
pueden estar inactivas o enfocadas en spam no político durante algún tiempo. Cuando
sea necesario, pueden activarse para difundir contenido político y manipulador. Por lo
tanto, un grupo de bots puede ser utilizado durante múltiples campañas políticas por
diferentes actores con diversas ideologías (Neudert 2017). Además de lo mencionado
anteriormente, los bots se implementan como parte de diversas estrategias para
manipular la opinión. También pueden mantener una intimidación coordinada, participar
en la vigilancia contra ciudadanos u opositores del régimen (Pavlíková y Mareš 2018),
ayudar a bloquear ciertos contenidos a través de quejas coordinadas a proveedores o
usarse como herramienta para la optimización de motores de búsqueda (SEO)
(Zhdanova y Orlová 2019, 53–54).
No todas las actividades de trolls y robots que difunden narrativas particulares
deben percibirse como estrictamente dirigidas por los gobiernos. La especificidad de
la propaganda en línea contemporánea es su carácter participativo (ver Wanless y
Berk 2017); Además de los intentos de manipular a las audiencias, existe también la
cooptación de miembros de esta audiencia para que participen activamente en la
propaganda. La manipulación por parte de trolls y bots también la utilizan los partidos
políticos o políticos individuales, especialmente durante las campañas electorales.
Las actividades de los bots pueden mejorarse enormemente mediante nuevas
tecnologías basadas en inteligencia artificial (IA). El Atlantic Council define este
fenómeno como la integración de la inteligencia artificial en herramientas de
comunicación impulsadas por máquinas para su uso en propaganda: MADCOM (Chessen 2017).
MADCOM utiliza aprendizaje automático, aprendizaje profundo y chatbots. Cuando el
aprendizaje automático se combina con big data, surge una herramienta de propaganda
muy poderosa (Chessen 2017). Las campañas se vuelven altamente personalizadas
basándose en información sobre las actividades de los destinatarios en el espacio
virtual y en información compartida en el espacio virtual sobre familia, amigos,
preferencias políticas, datos demográficos y pasatiempos y, por lo tanto, se dirigen
precisamente a los caracteres individuales de las personas y, lo que es más, apuntar
con precisión a las vulnerabilidades y detectar emociones en tiempo real. Estas
tecnologías sofisticadas, cuando se vinculan a empresas privadas dispuestas a ser
contratadas por gobiernos, partidos o incluso individuos, pueden aportar aportes
radicales a los procesos de toma de decisiones o al comportamiento de los votantes.
Machine Translated by Google

58 M. PAVLÍKOVÁ ET AL.

2.5 Desdibujando la línea entre


política y negocios

En la sociedad de la información se están desdibujando las fronteras entre política y


negocios. La línea entre relaciones públicas y propaganda siempre ha sido bastante difusa
y su desarrollo ha estado estrechamente relacionado durante al menos un siglo (véase
Bernays, 1928). En este capítulo presentaremos cómo las estrategias y tecnologías
desarrolladas más recientemente por el sector empresarial ahora también son utilizadas
por manipuladores políticos mientras, simultáneamente, la propaganda se ha convertido
en un negocio rentable. Esto puede considerarse un rasgo típico de una sociedad y una
economía de la información, como se detalló anteriormente en este capítulo, en las que la
información es el principal bien de negocios y fuente de poder e influencia política. En
este sentido, así como la información y las tecnologías de la información se volvieron
valiosas para los negocios, también lo hicieron para la competencia política. En la
actualidad, los países desarrollados enfrentan una problemática falta de programas y
valores políticos; por ejemplo, el populismo está en aumento. Al mismo tiempo, los medios
tradicionales de competencia política (como los distintos valores e ideologías) hoy en día
se ven cada vez más complementados (o incluso desplazados en algunos casos, se
podría argumentar) por campañas de influencia impulsadas por las empresas.

Fundamentalmente, la proliferación tecnológica y la consiguiente acumulación de datos


están permitiendo estos esfuerzos, tanto en términos de su gran escala como de su
orientación precisa.
La Agencia de Investigación de Internet (IRA), originalmente un híbrido entre una
entidad privada y una organización controlada por el Estado, vuelve a ser un ejemplo. En
algún momento, se pasó gradualmente del uso de trolls a campañas de información más
precisas basadas en grupos objetivo precisos, lo que ha sido más típico de las empresas.
Como muestra el análisis de la interferencia electoral de Estados Unidos, el IRA se centró
cuidadosamente en segmentos de usuarios de redes sociales basados en raza, etnia y
división geográfica, y llevó a cabo múltiples campañas publicitarias dirigidas a diferentes
grupos (Howard et al.
2019). Su estrategia tuvo dos etapas. El primero se centró en las narrativas de un grupo
específico como estrategia de clickbait para atraer tráfico a las páginas de la IRA. El
segundo fue manipular a la audiencia publicando contenido en estas páginas (Howard et
al. 2019, 18­19). El caso del IRA enfatiza la complejidad y el nivel de las amenazas de
manipulación en línea que se encuentran en la frontera entre la propaganda estatal y el
modelo de negocios, fusionando ambos y aprendiendo de cada uno.
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 59

También existe hoy una tendencia creciente a desplegar tropas cibernéticas


principalmente como una herramienta de influencia masiva (aunque dirigida). El carácter
de los bots, su reutilización y eficacia, ha llevado a la formación de mercenarios de
propaganda informática. Woolley y Howard (2018, 10) mencionan a programadores que
implementan bots por contrato y que están puramente orientados al dinero, sin ninguna
afiliación política. Estos pueden utilizarse igualmente para influir tanto en los clientes
potenciales como en los votantes potenciales.
Además de los cibermercenarios, hay empresas enteras que participan en la
manipulación política en línea (sin conexión con un gobierno, como sucedió con el IRA).
Un ejemplo de la campaña Brexit muestra que las grandes empresas pueden ser
poderosas en la formación de opinión y pueden tener enormes consecuencias políticas.
Las nuevas tecnologías que utilizan microfocalización, aprendizaje automático,
aprendizaje profundo y big data (principalmente de proveedores de redes sociales con
poca seguridad de los datos de los usuarios) pueden manipular opiniones para
promover puntos de vista ideológicos (Neudert 2017). Las conexiones entre los
defensores de la salida de la Unión Europea y las empresas Cambridge Analytica y
Aggregate IQ que llevan a cabo una “guerra psicológica” (Cadwalladr y Townsend,
2018) formaron las opiniones de los británicos durante el referéndum sobre el Brexit.

Cambridge Analytica se promocionó como una consultora de alta tecnología que


utilizaba datos para dirigirse a grupos de población con mensajes diseñados con precisión.
Sin embargo, según las acusaciones, la empresa recopiló los datos de 50 millones de
usuarios de Facebook para montar la campaña (Cadwalladr y Graham­Harrison 2018).
Christopher Wylie, un ex empleado y denunciante, afirmó más tarde que la empresa
"explotó Facebook para recopilar millones de perfiles de personas". Y construyeron
modelos para explotar lo que [Cambridge Analytica] sabía sobre ellos y atacar sus
demonios internos (ibid.). Si bien los actores políticos han estado contratando empresas
privadas para las relaciones públicas durante décadas, estas campañas de propaganda
de microfocalización, que han demostrado ser especialmente efectivas para manipular
a una audiencia específica, sólo han sido posibles gracias a tecnologías con fines de
lucro implementadas exclusivamente por actores empresariales, ya que requieren
algún tipo de acceso a cantidades masivas de datos privados de clientes y/o usuarios
para poder operar.
Cambridge Analytica no operó solo en el Reino Unido sino en muchos otros países
durante elecciones importantes, principalmente en África o Estados Unidos (Solomon
2018). Sin embargo, el ejemplo de la campaña del referéndum Brexit y sus
consecuencias enfatiza el alcance de la superposición entre política y negocios.
Además, esta forma interna de propaganda tuvo lugar en un Estado democrático.
Destaca que dos
Machine Translated by Google

60 M. PAVLÍKOVÁ ET AL.

Los preciados atributos de las democracias (libertad de expresión y libertad


económica) también pueden hacerlas más vulnerables.3

2.6 ¿Deepfake como futura herramienta


de propaganda online?

Internet ofrece una plataforma para difundir de forma anónima contenido


manipulador que, mediante el uso de nuevas tecnologías de difusión, es tan
fácil que cualquiera puede producirlo. Las cuentas despersonalizadas y
anónimas pueden habilitar y amplificar sus mensajes hostiles. Lo que siempre
ha sido un desafío para la manipulación fue la credibilidad y confiabilidad de la
información. Sin embargo, con nuevas formas de técnicas de manipulación y
nuevas tecnologías, incluida la inteligencia artificial, parece probable que este
problema se supere muy pronto. En 2017, se puso a disposición una nueva
herramienta utilizable para la propaganda: el llamado 'deepfake' (ver Parkin
2019). La razón por la que se empezó a estudiar este nuevo fenómeno fue la
introducción de una nueva tecnología de aprendizaje profundo. Como uno de
sus usos, esta tecnología podría alterar y reemplazar los rostros de las personas
en videos con resultados creíbles. Aún más importante, ya no es una herramienta
exclusiva de ingenieros y entusiastas de TI, sino una herramienta que está cada
vez más disponible para el público en general.
El deepfake es una combinación de dos expresiones: aprendizaje profundo
(producto de la inteligencia artificial) y noticias falsas (contenido falso, ver
Capítulo 1). El término se refiere a contenido audiovisual falso generado por
inteligencia artificial que es tan creíble que el espectador promedio es incapaz
de reconocerlo como producto de inteligencia artificial o contenido falsificado
(Chesney y Citron 2018a). El software que utiliza tecnología moderna de
aprendizaje profundo analiza una gran cantidad de datos (vídeos, imágenes o
pistas de audio), los analiza y, con el tiempo, aprende a reconocer regularidades,
como la entonación, las expresiones faciales, el color de la voz o los gestos.
Estos sistemas de IA tienen dos elementos: generador y discriminador. La
función básica del generador podría ser crear un nuevo vídeo: un videoclip
falso. A continuación, se le pide al discriminador que pruebe si el vídeo es real
o falso. A partir de la evaluación del discriminador, que identifica cuáles son las
piezas falsas, el generador aprende qué evitar en la siguiente

3Naturalmente, la propaganda estatal interna en línea en regímenes no democráticos adopta formas


diferentes. Botsman (en: Jiang y King­wa 2018) describe la propaganda de Beijing como "Big data se
encuentra con el gran hermano" (más grandes ganancias).
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 61

clip de vídeo. Cuando un generador produce un nivel de salida aceptable, los vídeos
se "alimentan" nuevamente al discriminador. El proceso se repite para que el
generador mejore en la creación de videos y el discriminador mejore en su análisis.
Estas dos partes del sistema también se denominan red generativa adversarial (GAN)
(Yuzeun y Lyu 2018, 47; Robinson 2018, 18; What Is It 2019, sf; Giles et al. 2019).

Al hablar de deepfakes, muchas personas pueden estar familiarizadas con el


'intercambio de caras', por ejemplo, cuando la cara de otra persona que inicialmente
no aparece en un vídeo se añade a la escena reemplazando a otra.
Es un método más sencillo para crear este tipo de vídeos falsos y se utiliza mucho en
contenido pornográfico. Sin embargo, lo que sí es posible mediante el uso de
tecnología de aprendizaje profundo y lo que correctamente se indica como deepfake
es la generación de contenido personalizado a partir del análisis de datos acumulados
(en lugar de simplemente intercambiar dos piezas de contenido preexistente). Este
tipo no sólo es más sofisticado sino que también representa una mayor amenaza
para la seguridad porque, con datos suficientes, puede simular de manera realista
cualquier expresión de cualquier persona (por ejemplo, políticos influyentes).
El primer gran escándalo relacionado con la tecnología deepfake fue la distribución
de vídeos pornográficos con rostros de celebridades como Gal Gadot o Emma
Watson, que no participaron en la producción (Chesney y Citron 2018b; What Is It
2019, sf). Los vídeos falsos o manipulados y las fotografías retocadas están ahí
desde hace décadas y se producen más constantemente. Con la expansión de las
redes sociales, que proporcionan material fuente perfecto para entrenar los algoritmos,
existen numerosos ejemplos de fotos y vídeos falsos que podrían afectar la seguridad
y el bienestar de celebridades y ciudadanos por igual.

Entre los ejemplos más famosos de vídeo falso (que inició el debate público sobre
el deepfake) se encuentra una "llamada telefónica" entre Barack Obama y Donald
Trump. En 2016, The Tonight Show de NBC transmitió una escena en la que Jimmy
Fallon disfrazado de Donald Trump y en una llamada telefónica con Dion Flynn, quien
estaba disfrazado de Barack Obama. Esta escena se rehizo en 2019 cuando un
usuario llamado James subió un video similar a YouTube. Esta vez, sin embargo, el
vídeo se creó mediante un modelo de aprendizaje automático profundo y los
espectadores tuvieron la impresión de estar viendo los rostros reales de Donald
Trump y Barack Obama. Sus gestos y voces eran casi indistinguibles de los de los
verdaderos presidentes (Parkin 2019). Junto con la creciente calidad de los videos
deepfake, surge una creciente preocupación de que el abuso de dicha herramienta
conduzca a ataques a
Machine Translated by Google

62 M. PAVLÍKOVÁ ET AL.

políticos, lo que podría ser especialmente perjudicial durante las elecciones. El peligro
surge del hecho de que hoy en día no existe ningún software disponible que pueda
detectar de forma rápida y fiable estos vídeos como falsos (Schellmann 2017).
Sin embargo, las tecnologías deepfake no son sólo vídeos. Otro uso de la tecnología
se demostró en el caso de una foto de perfil falsa de Kate Jones en LinkedIn. El perfil
de Jones se diferenciaba de las falsificaciones "ordinarias" en muchos aspectos: estilo,
precisión del perfil, pero principalmente en el uso de tecnología deepfake. En lugar de
una copia de una fotografía o una fotografía robada de una persona real, el perfil falso
de Jones utilizó una foto única, que era un artefacto generado por computadora
mediante algoritmos de aprendizaje automático.
Esto hizo que fuera más difícil para los usuarios reales de LinkedIn reconocer que la
cuenta era falsa y muchos de ellos aceptaron las solicitudes de conexión de Jones. Las
solicitudes fueron aceptadas incluso por el Agregado de Defensa de Estados Unidos
en Moscú, un funcionario de alto rango del Departamento de Estado de Estados
Unidos4 y otros profesionales (Giles et al. 2019, 4­5). El perfil fue detectado como falso
en junio de 2019, tres meses después de su creación. Se desconoce el propósito del
perfil falso y sus creadores. Esta "autenticidad falsa" es motivo de preocupación, ya
que la erosión de los métodos estándar y de fácil acceso para verificar cuentas (como
la búsqueda inversa de fotos) hace que sea más difícil distinguir los perfiles falsos de
los reales.
Otra herramienta relacionada con las amenazas deepfake en 2019 fue la aplicación
FaceApp. La aplicación se basa en algoritmos de inteligencia artificial que pueden
intercambiar caras en videos. FaceApp demuestra que utilizar herramientas que
emplean inteligencia artificial puede ser tan sencillo que cualquiera puede hacerlo
utilizando un teléfono inteligente. No necesita ningún sistema de hardware sofisticado
ni un equipo de especialistas y expertos. Además de vídeos divertidos, la aplicación se
puede utilizar para producir vídeos falsos (Dickson 2018). Otra amenaza que presenta
FaceApp radica en el campo de la privacidad de los datos. En 2019, cuando las
celebridades publicaron sus fotos generadas por esta aplicación en las redes sociales,
iniciando el 'desafío FaceApp', la aplicación se hizo famosa y se extendió entre decenas de millones de
Como resultó más tarde, la empresa responsable de la aplicación procedía de Rusia y
la política de privacidad de la aplicación no está clara; Los usuarios no saben si la
empresa está recopilando sus datos o vendiéndolos a terceros, o posiblemente
recopilando sus datos para entrenar algoritmos de aprendizaje profundo aún mejores
para su futura implementación. Además, este tipo de aplicación podría ser una herramienta para

4Los autores de la investigación no mencionaron los nombres de los oficiales.


Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 63

los objetivos futuros de orientación política de algunas organizaciones (ver Wondracz


2019; Libby 2019). Dado que la empresa tiene su sede en Rusia y en el contexto de
la guerra de información, el caso es más relevante: en julio de 2019 se inició una
investigación estadounidense sobre la aplicación y su manejo de datos (Wondracz 2019).
La tecnología deepfake tampoco se centra exclusivamente en contenido visual.
Una parte necesaria de cualquier contenido (vídeo) es también el sonido, y es incluso
más fácil manipular el audio que el vídeo. Dos de los principales proyectos que tratan
con la tecnología deepfake en el entorno de audio incluyen 'Pro­ject VoCo' creado
por Adobe, que recibe el sobrenombre de 'Photoshop for Audio' (Wardle y Derakhshan
2017, 76), y el segundo es la herramienta generalizada Lyrebird, que se centra en el
aprendizaje profundo y las redes neuronales y se utiliza para sintetizar la voz humana
(Dickson 2018). Lyrebird representa otro ejemplo de aplicación fácil de usar; basta
con un minuto de grabación para empezar a imitar la voz de una persona.

Para concluir, según la investigación y los ejemplos antes mencionados, existe


una amenaza creciente para muchas instituciones, organizaciones y otros intereses,
así como para la sociedad en su conjunto. Lo que sigue es una introducción a las
principales amenazas que enfrentan estos grupos por separado, aunque es importante
señalar que cada amenaza para un grupo está relacionada con las consecuencias
que enfrenta otro. Desde el punto de vista del gobierno, las falsificaciones profundas
presentan múltiples peligros. Uno es en el ámbito militar y de seguridad nacional: la
tecnología deepfake podría generar instrucciones y órdenes falsas. Desde esta
perspectiva, los deepfakes podrían utilizarse como una forma de desinformación que
apoye el engaño estratégico, operativo e incluso táctico (Giles et al.
2019, 14; Chesney y Citron 2018b, 1783). Al mismo tiempo, la tecnología deepfake
podría respaldar la desinformación relacionada con la credibilidad de los servicios
militares o las agencias de inteligencia. Además de la desinformación existente, que
intenta cambiar acontecimientos reales (por ejemplo, la guerra de información de
Rusia), las tecnologías deepfake podrían producir desinformación o noticias
aparentemente auténticas sobre un evento que no sucedió (o que aún no ha sucedido),
por ejemplo, un ataque contra civiles en Irak (Giles et al. 2019, 15; Chesney y Citron
2018b, 1783; Westerlund 2019, 40). Por lo tanto, todos estos acontecimientos podrían
tener consecuencias a nivel internacional: en las relaciones internacionales y la
diplomacia.
Además, los deepfakes también podrían tener un impacto en la democracia y la
confianza en la información difundida por los medios y las redes sociales. Para la
democracia, esto se manifiesta principalmente en términos de elecciones (campañas
políticas falsas y manipuladoras creadas con tecnología deepfake), la credibilidad de
los políticos (como quedó ilustrado en el caso de Obama) o la credibilidad de las instituciones.
Machine Translated by Google

64 M. PAVLÍKOVÁ ET AL.

(ataques contra jueces, policías, etc.). Otra amenaza a la democracia está relacionada
con la credibilidad y la confianza en los medios. La tecnología deepfake plantea
desafíos no solo para los ciudadanos a la hora de reconocer qué es real y qué es falso,
sino también para los periodistas (por ejemplo, qué vídeos de testigos presenciales son
reales) (Chesney y Citron 2018b, 1779; CNN 2019, sf; Westerlund 2019, 42). . La
desconfianza podría ser incluso más peligrosa que el propio deep­fake. Esta
desconfianza en los medios, las noticias y la información puede denominarse
"apocalipsis informativo" o "apatía de la realidad" (Westerlund 2019, 43).
Para las empresas, las principales amenazas están relacionadas con la credibilidad
y la privacidad, principalmente en lo que respecta a la transparencia y la privacidad de
los datos. También existe el peligro de que algunos deepfakes tomen decisiones fatales
basadas en información totalmente falsa (noticias falsas, mensajes de voz falsos, etc.)
que parece real. La amenaza a la credibilidad está relacionada principalmente con la
reputación (de las empresas o de sus líderes), que podría verse muy fácilmente
dañada por la tecnología deep­fake (por ejemplo, por algunos vídeos falsos e
inadecuados). Otra amenaza está relacionada con la manipulación del mercado o la
manipulación del proceso de toma de decisiones. Las tecnologías deepfake podrían
producir registros que podrían utilizarse para chantajear o causar pánico en el mercado
(por ejemplo, noticias sobre una quiebra, etc.) (Westerlund 2019, 43).

Para los individuos, la primera implicación posible es que cualquiera podría ser
objeto de manipulación, abuso, chantaje, etc.; este riesgo es mayor para personas que
son celebridades, políticos y similares. La segunda implicación es que todo el contenido
producido por nosotros podría usarse como insumo para la creación de un deepfake
(Giles et al. 2019, 17). Este punto se relaciona entonces con la privacidad y la protección
de datos. En relación con los individuos, también podríamos señalar que la tecnología
deepfake podría usarse fácilmente en el abuso de niños por parte de depredadores
infantiles (Westerlund 2019, 43) o causar pánico público.

Es imposible mencionar todas las posibles amenazas que plantea la tecnología


deepfake ya que la lista es ilimitada, pero es una amenaza real para toda la sociedad.
Es obvio que todo el mundo es potencialmente un objetivo de productos deepfake y,
en base a esto, hay muchos desafíos que los investigadores, políticos y otros expertos
deben enfrentar. Uno de los desafíos estará en el contexto legal de la privacidad de los
datos, la protección de datos, etc. Otra será que los expertos en TI encuentren
herramientas para la detección y reconocimiento de contenido deepfake (ver Fraga­
Lamas y Fernández­Caramés 2019; Nelson et al.
2020). Y, por último, pero no menos importante, hay un desafío no sólo relacionado con
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 65

reconocimiento de deepfake pero también con otros tipos de manipulación de la


información: aumentar la alfabetización mediática del público (Parkin 2019). Sin
embargo, es importante señalar que estas amenazas derivadas de los deepfakes
no son realmente novedosas. Todos los impactos negativos en diversas
instituciones y sectores de la sociedad ya existen y se deben a formas "antiguas"
de contenidos falsificados: principalmente textos e imágenes. Los deepfakes
simplemente están expandiendo esto a los videos al hacer que sea mucho más
fácil producirlos. Así como era posible crear imágenes manipuladas mucho antes
de usar Photo­shop y software similar, era posible crear vídeos manipulados
antes de la llegada de los deepfakes. Sin embargo, estas tecnologías lo hacen
enormemente más fácil, lo que conduce a una mayor proliferación y producción
de dicho contenido. Mientras que en décadas anteriores los vídeos manipulados
eran bastante raros, en las próximas décadas probablemente se convertirán en
algo habitual. El volumen en sí se convertirá en un problema. Esta prevalencia
probablemente erosionará aún más la confianza del público en la información,
facilitando la tarea a cualquiera que busque desestabilizar y socavar la sociedad
mediante el uso de propaganda y guerra de información.

2.7 Resumen
La evolución de las técnicas de propaganda manipuladora va de la mano del
desarrollo tecnológico. Con la propaganda "en línea", utiliza tropas cibernéticas
voluntarias y pagadas, respaldadas por el Estado y las empresas, y herramientas
primitivas y sofisticadas. La propaganda en línea manipula el comportamiento de
la gente tanto en países democráticos como no democráticos. En los regímenes
no democráticos, el objetivo es influir en los ciudadanos y fortalecer el régimen.
Sin embargo, esos países también pueden tener aspiraciones ofensivas contra
otros actores estatales. Como lo han demostrado las recientes actividades de
Rusia, la propaganda y la manipulación en línea pueden ser una herramienta
importante en la confrontación de poder.
En este capítulo se presentaron las tendencias actuales de las actividades
modernas de desinformación y propaganda en línea desde diferentes perspectivas.
Primero se centró en el entorno de la información en el contexto del uso de la
propaganda. Se introdujeron nuevas tendencias en las no democracias, ampliadas
a través de la lente del ejemplo ruso. En Rusia, la restricción de Internet todavía
está evolucionando. Como se mencionó, el ejemplo más reciente es RuNet, un
entorno aislado a partir de 2020 que manifiesta la "soberanía digital" de Rusia.
Sin embargo, esto no significa que Rusia u otros países "aislados" no influyan ni
utilicen herramientas de propaganda sobre otros. Reciente
Machine Translated by Google

66 M. PAVLÍKOVÁ ET AL.

Las actividades manipuladoras rusas en Europa y Estados Unidos han


demostró lo siniestra que puede ser una ofensiva virtual.
La segunda parte del capítulo estuvo dedicada a las herramientas tecnológicas más nuevas de
desinformación y propaganda en línea y su rápida
evolución. Ejemplos de comportamiento de trolls y bots demostraron cómo estos
Los actores originalmente primitivos pudieron evolucionar y convertirse en una parte importante de
operaciones de influencia complejas. No mucho después de las revelaciones de las actividades de
influencia rusa en Europa y Estados Unidos,
Apareció una nueva estrategia de propaganda y manipulación. los asuntos
que rodea a la empresa Cambridge Analytica presentó qué influencia
La combinación de big data, aprendizaje profundo y microfocalización puede tener
sobre el comportamiento de los votantes. Además, Cambridge Analytica fue contratada principalmente
por actores de democracias, no de regímenes no democráticos, y no como resultado
de un enfrentamiento entre poderes estatales.
En la última parte, una nueva herramienta de futuro que puede influir en los próximos
Se introdujeron campañas de propaganda. La tecnología deepfake se basa en
inteligencia artificial, y es muy probable que la proliferación de esta tecnología pueda ser
extremadamente grave en lo que se refiere a la credibilidad de todos
grabaciones de audio y vídeo (Schellmann 2017). Lo más preocupante es
su amplia disponibilidad combinada con la velocidad y facilidad de producción, lo que lleva
a una avalancha de videos deepfake que erosiona la confianza.
En resumen, el cambiante entorno en línea y las nuevas herramientas que utilizan
La inteligencia artificial (MADCOM), el aprendizaje profundo, los macrodatos y la microfocalización
podrían ser el futuro de la propaganda y la difusión de desinformación. Sin embargo, dado el entorno
rápidamente cambiante y la rápida
desarrollo tecnológico, francamente no es fácil predecir lo que vendrá
próximo. En la actualidad, podría parecer que las herramientas de desinformación y las capacidades
de propaganda se están desarrollando más rápido que las contramedidas (Schell­mann 2017). Es
necesario un mejor reconocimiento de las amenazas por parte del Estado.
nivel (ver Capítulo 7), así como ajustes legales y estratégicos. Mejor
También se necesitan habilidades técnicas y comprensión de los actores defensores.
Los medios de comunicación y las organizaciones tecnológicas tienen un papel muy importante que desempeñar en
combatir también la propaganda. Necesitan cooperar con los actores estatales.
y darse cuenta de que ellos también tienen una responsabilidad civil incluso si trabajan para
negocio. Por último, existe un papel importante para la sociedad misma y, en particular, para el
mundo académico (ver Capítulo 8). Los académicos aún deberían educarse
sobre los nuevos desarrollos tecnológicos y sus posibles consecuencias
en propaganda incluso si puede resultar incómodo para su campo de estudio. Su
Los resultados deben ser escuchados y discutidos, especialmente por las autoridades que tienen
el poder de tomar medidas decisivas.
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 67

Bibliografía

Al­Rawi, A. y Jiwani, Y. (2019). Los trolls rusos de Twitter avivan las mentiras antiinmigrantes
antes de las elecciones canadienses. Radio Pública Internacional. https://www.pri.org/
stories/2019­07­26/russian­twitter­trolls­stoke­anti­immigrant­lies­ahead­canadian­election.
Consultado el 20 de marzo de 2020.
Aro, J. (2016). La guerra del ciberespacio: propaganda y trolling como herramientas de guerra.
Visión europea, 15 (1), 121­132. https://doi.org/10.1007/s12290­016­0395­5 .

Atik, H. (1999). Las características de la economía de la información. Facultad de Ciencias


Económicas y Administrativas de la Universidad Erciyes, Departamento de Economía.

Badawy, A., Addawood, A., Lerman, K. y Ferrera, E. (2019). Caracterización de la campaña de


influencia del IRA ruso de 2016. Análisis y minería de redes sociales, 31(9). https://doi.org/
10.1007/s13278­019­0578­6.
Bastos, MT y Mercea, D. (2018). La responsabilidad pública de las plataformas sociales:
lecciones de un estudio sobre robots y trolls en la campaña Brexit.
Transacciones filosóficas de la Royal Society A: Ciencias matemáticas, físicas y de
ingeniería, 376. https://doi.org/10.1098/rsta.2018.0003.
Bernays, E. (1928). Propaganda. Nueva York: H. Liveright.
Bowles, A. (2006). La cara cambiante de RuNet. En H. Schmidt, K.
Teubener y N. Konradova (Eds.), Control + Shift: usos públicos y privados de la Internet
rusa (págs. 21­33). Norderstedt: Libros a la carta.
Brikše, I. (2006). El entorno de la información: enfoques teóricos y explicaciones. https://
www.szf.lu.lv/fileadmin/user_upload/szf_faili/Petnie ciba/sppi/mediji/inta­brikse_anglu.pdf.
Consultado el 26 de octubre de 2020.
Cadwalladr, C. y Graham­Harrison, E. (17 de marzo de 2018). Revelado: 50 millones de
perfiles de Facebook recopilados para Cambridge Analytica en una importante filtración de datos.
El guardián. https://www.theguardian.com/news/2018/mar/17/cam bridge­analytica­facebook­
influence­us­election?CMP=share_btn_tw. Consultado el 20 de marzo de 2020.

Cadwalladr, C. y Townsend, M. (24 de marzo de 2018). Revelado: Los vínculos que unieron a
la empresa de datos Vote Leave con la controvertida Cambridge Analytica.
El guardián. https://www.theguardian.com/uk­news/2018/mar/24/agg regateiq­data­firm­link­
raises­leave­group­questions. Consultado el 20 de marzo de 2020.
Capurro, R. y Hjørland, B. (2005). El concepto de información. Revisión anual de ciencia y
tecnología de la información, 37 (1), 343–411. https://doi. org/10.1002/aris.1440370109.

Chen, A. (7 de junio de 2015). La agencia. Los New York Times. https://www.nytimes.com/


2015/06/07/magazine/the­agency.html . Consultado el 20 de marzo de 2020.
Cheng, C., Kyungmin, K. y Ji­Yong, L. (2010). La estrategia de Internet de Corea del Norte y
sus implicaciones políticas. The Pacific Review, 23(5), 649–670. https://doi.org/
10.1080/09512748.2010.522249.
Machine Translated by Google

68 M. PAVLÍKOVÁ ET AL.

Chesney, R. y Citron, DK (2018a). Deepfakes y la nueva guerra de desinformación: la era venidera


de la geopolítica de la posverdad. Asuntos Exteriores, 97 (6), 147­155.

Chesney, R. y Citron, DK (2018b). Deep Fakes: un desafío inminente para


Privacidad, democracia y seguridad nacional. Blog DE ATENCIÓN LEGAL.
Chessen, M. (2017). El futuro de MADCOM: cómo la inteligencia artificial mejorará la propaganda
computacional, reprogramará la cultura humana y amenazará la democracia y qué se puede
hacer al respecto. Washington: Consejo Atlántico.

CNN. (2019). Vídeos deepfake: dentro de la carrera del Pentágono contra los vídeos deepfake. Red
de Noticias por Cable. https://edition.cnn.com/interactive/2019/01/business/pentagons­race­
against­deepfakes/ . Consultado el 20 de marzo de 2020.
Dickson, B. (julio de 2018). Cuando Ai se desdibuja: la línea entre la realidad y la ficción.
Revista PC, págs. 114­125.
Ebner, J. (6 de marzo de 2018). Forscherin schleust sich bei Hasskommentatoren ein ­ und erlebt
Erschreckendes. Enfoque en línea. https://www.focus.de/politik/experten/gastbeitrag­von­julia­
ebner­hass­auf­knopfdruck­wenn­die­verbreitung­von­hass­computerspiel­charakter­
bekommt_id_8554382.html .
Consultado el 19 de marzo de 2020.

Farrell, H. (19 de mayo de 2016). El gobierno chino falsifica casi 450 millones de comentarios en las
redes sociales al año: este es el motivo. El Washington Post. https://www.washingtonpost.com/
news/monkey­cage/wp/2016/05/19/the­chinese­government­fakes­nearly­450­million­social­
media­comments­a­year­this _ ­es porque/. Consultado el 19 de marzo de 2020.

Field, M. y Wright, M. (17 de octubre de 2018). Los trolls rusos enviaron miles de mensajes a favor
de la salida el día del referéndum sobre el Brexit, según revelan datos de Twitter.
El Telégrafo. https://www.telegraph.co.uk/technology/2018/10/17/rus sian­iranian­twitter­trolls­
sent­10­million­tweets­fake­news/. Consultado el 19 de marzo de 2020.

Tiempos financieros. (2019, 30 de septiembre). El Tesoro de EE.UU. golpea al "chef de Putin" con
Nuevas sanciones.
Fraga­Lamas, P., & Fernández­Caramés, TM (2019). Noticias falsas, desinformación y deepfakes:
aprovechamiento de las tecnologías de contabilidad distribuida y blockchain para combatir el
engaño digital y la realidad falsificada (documento de trabajo). Universidad de Cornell. https://
arxiv.org/abs/1904.05386.
Casa de la libertad. (2014). Libertad en la red: Rusia. https://freedomhouse. org/report/freedom­net/
2014/russia. Consultado el 20 de marzo de 2020.
Casa de la libertad. (2018). Libertad en la Red: China. https://freedomhouse. org/report/freedom­net/
2018/china. Consultado el 20 de marzo de 2020.
Frenkel, S. y Wakabayashi, D. (2 de febrero de 2018). Después del tiroteo en una escuela de Florida,
el ejército ruso 'Bot' se abalanzó. New York Times. https://www. nytimes.com/2018/02/19/
technology/russian­bots­school­shooting.html.
Consultado el 20 de marzo de 2020.
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 69

Giles, K. (2016). La próxima fase de la guerra de información rusa. Riga: OTAN


CoE de Stratcom.
Giles, K., Hartmann, K. y Mustaffa, M. (2019). El papel de los deepfakes en las campañas de
influencia maligna. Riga: CoE Stratcom de la OTAN. https://www. stratcomcoe.org/role­
deepfakes­malign­influence­campaigns?fbclid=IwAR25 Hbld­
nb7nOaVmoW8AAnMLkiPxh8HoRRpjluIBhNWckD0yNZ8AJA1Sxg.
Consultado el 19 de marzo de 2020.

Godín, B. (2008). La economía de la información: la historia de un concepto a través de su


medición, 1949­2005. Historia y tecnología, 24 (3), 255–287. https://doi.org/
10.1080/07341510801900334.
Gorwa, R. y Guilbeault, D. (2018). Descomprimiendo el robot de redes sociales: una tipología
para guiar la investigación y las políticas. Política e Internet. https://doi.org/10.1002/poi3.184 .

Grugel, J. y Bishop, ML (2013). democratización: una introducción crítica.


Londres: Palgrave Macmillan.
Hannah, J. (2018). ¿Trollándonos hasta la muerte? ¡Las redes sociales y la política posverdad!
Revista europea de comunicación, 33 (2), 214–226. https://doi. org/10.1177/0267323118760323.

Howard, PN, Ganesh, B., Liotsiou, D. y Kelly, J. (2018). El IRA y la polarización política en
Estados Unidos, 2012­2018. Universidad de Oxford: Proyecto de investigación de
propaganda computacional. https://comprop.oii.ox.ac.uk/wp­content/uploads/sites/93/2018/12/
The­IRA­Social­Media­and­Politi cal­Polarization.pdf. Consultado el 19 de marzo de 2020.

Howard, PN, Ganesh, B. y Liotsiou, D. (2019). El IRA, las redes sociales y la polarización política
en los Estados Unidos, 2012­2018. Universidad de Oxford: Proyecto de investigación de
propaganda computacional. https://comprop.oii.ox.ac.uk/wp­content/uploads/sites/93/2018/12/
The­IRA­Social­Media­and­Politi cal­Polarization.pdf. Consultado el 19 de marzo de 2020.

Inkster, N. (2016). La guerra de información y las elecciones presidenciales de EE.UU.


Supervivencia, 58(5), 23–32. https://doi.org/10.1080/00396338.2016.123 1527.

Jiang, M. (2010). Informacionalismo autoritario: "El enfoque de China hacia la soberanía de


Internet". Revisión de SAIS, 30(2), 71–89. https://doi.org/10.1353/sais. 2010.0006.

Jiang, M. y King­wa, F. (2018). Redes sociales chinas y Big Data: ¿Big Data, gran hermano,
gran beneficio? Política e Internet, 10(4), 372–392. https://doi. org/10.1002/poi3.187.

Kalathil, S. y Boas TC (2003). Redes abiertas, regímenes cerrados: el impacto de Internet en


los gobiernos autoritarios. Fondo Carnegie para la Paz Internacional, Washington, DC.

Khondker, HH (2011). Papel de los nuevos medios en la Primavera Árabe. Globalización, 8(5),
675–679. https://doi.org/10.1080/14747731.2011.621287.
Machine Translated by Google

70 M. PAVLÍKOVÁ ET AL.

King, G., Pan, J. y Roberts, ME (2013). Cómo la censura en China permite las críticas al
gobierno pero silencia la expresión colectiva. American Polit­ical Science Review, 107
(2), 1–18. http://j.mp/2nxNUhk. Consultado el 20 de marzo de 2020.

Kollanyi, B., Howard, PN y Woolley, SC (2016). Bots y automatización en Twitter durante


las elecciones estadounidenses: memorando de datos. Universidad de Oxford:
Proyecto de investigación de propaganda computacional.
Kreiss, D. (2019). De la epistémica a la crisis de identidad: perspectivas sobre las
elecciones presidenciales estadounidenses de 2016. Revista Internacional de Prensa/
Política, 24(3), 383–388. https://doi.org/10.1177/1940161219843256.
Libby, K. (17 de julio de 2019). Dar tu selfie de FaceApp a los rusos es realmente una
mala idea. Mecánica Popular. https://www.popularmechanics.com/tec hnology/security/
a28424868/faceapp­challenge­security­risks/. Consultado el 20 de marzo de 2020.

Lorents, P. y Ottis, R. (2010). Ciberespacio: definición e implicaciones. En Actas de la


Quinta Conferencia Internacional sobre Seguridad y Guerra de la Información (págs.
267­270). Lectura: Academic Publishing Limited.
Lu, J. y Zhao, Y. (2018). Control implícito y explícito: modelado del efecto de la censura
de Internet en la protesta política en China. Revista Internacional de Comunicación,
12, 3294.
Maréchal, N. (2017). Autoritarismo en red y geopolítica de la información: comprensión
de la política rusa de Internet. Medios y comunicación, 5(1), 29–41. http://dx.doi.org/
10.17645/mac.v5i1.808.
Martens, B. (2015). Una introducción ilustrada a la infosfera. Tendencias bibliotecarias,
63 (3), 317–361.
Mazarr, MJ, Bauer, RM, Casey, A., Heintz, S. y Matthews, LJ (2019). El riesgo emergente
de una guerra social virtual: manipulación social en un entorno de información
cambiante (p. 2019). Santa Mónica, CA: RAND Corporation.
Nelson, SD, Simek, JW y Maschke, M. (2020). Detección de deepfakes. Ley
Práctica: El negocio de ejercer la abogacía, 46(1), 42–47.
Neudert, L.­MN (2017). Propaganda computacional en Alemania: una advertencia
(documento de trabajo n.° 2017.7). Universidad de Oxford: Proyecto de investigación
de propaganda computacional. http://blogs.oii.ox.ac.uk/wp­content/uploads/sites/
89/2017/06/Comprop­Germany.pdf . Consultado el 7 de noviembre de 2019.

Nimmo, B. (2019). Medición de la manipulación del tráfico en Twitter. Universidad de


Oxford: Proyecto de investigación de propaganda computacional. https://comprop.oii.
ox.ac.uk/research/working­papers/twitter­traffic­manipulation/. Consultado el 7 de
noviembre de 2019.
Nycyk, M. (2017). Trolls y trolling: una exploración de los que viven debajo
el Puente de Internet. Australia: Brisbane.
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 71

DEO en línea. (2020, 21 de octubre). “información, n.”. Prensa de la Universidad de Oxford.


https://www.oed.com/viewdictionaryentry/Entry/95568.
Parkin, S. (22 de junio de 2019). El auge de los deepfake y la amenaza a la democracia. El guardián.
https://www.theguardian.com/technology/ng­interactive/2019/jun/22/the­rise­of­the­deepfake­and­
the­threat­to­dem ocracy. Consultado el 7 de noviembre de 2019.

Pavlíková, M. y Mareš, M. (2018). Techniky robotické propagandy na sociální síti Twitter [Técnicas de
propaganda robótica en la red Twitter]. Právo a Technologie, 9(18), 3–28. https://doi.org/10.5817/
RPT2018­2­1.
Porsche, IR, Paul, Ch., York, M., Serena, Ch. C., Sollinger, JM, Axelband, E., et al. (2013). El entorno de
la información y la guerra de la información. En Redefinición de los límites de la guerra de información
para un ejército en un mundo inalámbrico (págs. 11­18). Corporación RAND.

Qi, A., Guosong, S. y Zheng, W. (2018). Evaluación de la ley de ciberseguridad de China.


Revisión de seguridad y derecho informático, 34 (6), 1342–1354. https://doi.org/10. 1016/
j.clsr.2018.08.007.
Ristolainen, M. (2017). ¿Debería tomarse en serio 'RuNet 2020'? Opiniones contradictorias sobre la
seguridad cibernética entre Rusia y Occidente. Revista de guerra de información, 16(4), 113–131.
https://www.jstor.org/stable/265 04121.

Robinson, O. (2018). Uso malicioso de las redes sociales: estudios de casos de BBC Monitoring. Riga:
CoE Stratcom de la OTAN. https://www.stratcomcoe.org/mal icious­use­social­media­case­studies­
bbc­monitoring. Consultado el 7 de noviembre de 2019.
Rose, H. (29 de mayo de 2019). Jessikka Aro, la periodista que se enfrentó a los trolls rusos. El tiempo
del domingo. https://www.thetimes.co.uk/article/jessikka­aro­the­journalist­who­took­on­russian­trolls­
fv0z5zgsg. Consultado el 7 de noviembre de 2019.
Schellmann, H. (5 de diciembre de 2017). La nueva y peligrosa tecnología que nos hará cuestionar
nuestra idea básica de la realidad. Cuarzo. https://qz.com/1145657/the­dangerous­new­technology­
that­will­make­us­question­our­basic­idea­of­reality/ . Consultado el 9 de noviembre de 2019.

Trabajos seguros. (2017). Conceptos básicos de las amenazas cibernéticas, tipos de amenazas,
inteligencia y mejores prácticas. https://www.secureworks.com/blog/cyber­threat­basics. Consultado
el 18 de febrero de 2020.
Segev, H., Doron, E. y Orion, A. (2019). ¿A mi manera o a Huawei? La carrera entre Estados Unidos y
China por el dominio de 5G. Instituto de Estudios de Seguridad Nacional, Universidad de Tel Aviv.
INSS Insight, núm. 1193. https://www. inss.org.il/publication/my­way­or­the­huawei­the­united­states­
china­race­for­5g­dominance/?offset=2&posts=2219&fbclid=IwAR1VgdtXd2msdotN
HsOaCm_lkvyz_XFp4nDM0w0gjapp1DMIPdcVfQamTwE. Consultado el 10 de enero de 2020.
Machine Translated by Google

72 M. PAVLÍKOVÁ ET AL.

Salomón, S. (22 de marzo de 2018). Cambridge Analytica desempeñó un papel en múltiples elecciones
africanas. Voa. https://www.voanews.com/africa/cambridge­analytica­played­roles­multiple­african­
elections . Consultado el 8 de noviembre de 2019.
Spruds, A., Rožulkalne, A. y Sedlenieks, K. (2016). El troleo en Internet como
Herramienta de guerra híbrida: el caso de Letonia. Riga: Centro de Europa de la OTAN.
Staudenmaier, R. (18 de octubre de 2018). Un tribunal de Finlandia declara culpables a los trolls pro­
Kremlin de acosar a un periodista. Deutsche Welle. https://www.dw.com/en/court­in­finland­finds­pro­
kremlin­trolls­guilty­of­harassing­journalist/a­45944893­0 . Consultado el 8 de noviembre de 2019.

Steen­Thornhammar, H. (2012). Combatir la censura debería ser un objetivo de política exterior. En J.


Perry y SS Costigan (Eds.), Ciberespacios y asuntos globales. Burlington, VT: Routledge.

DetenerFalso. (2019, 9 de junio). Cifras de la semana. https://www.shorturl.at/


enT04. Consultado el 9 de noviembre de 2019.

Tang, M. y Huhe, N. (2020). Analizando el efecto de Internet en el apoyo al régimen en China. Gobierno
y oposición, 55 (20), 130­146. https://doi.org/10.1017/gov.2017.39 .

El proyecto de propaganda computacional. (2016). Recurso para comprender los robots políticos. http://
comprop.oii.ox.ac.uk/research/public­scholarship/resource­for­understanding­political­bots/ .
Consultado el 10 de noviembre de 2019.
Los tiempos de Moscú. (2019, 1 de mayo). Putin promulga un proyecto de ley sobre aislamiento de
Internet. https://www.themoscowtimes.com/2019/05/01/putin­signs­int ernet­isolation­bill­into­law­
a65461. Consultado el 7 de noviembre de 2019.
La Duma del Estado. (2012). Medida Legislativa N° 89417­6 de 2012, Sobre la Infancia
Protección contra contenidos maliciosos de Internet.
La Duma del Estado. (2014a). Medida Legislativa No. 428884­6, Los Bloggers
Ley.
La Duma del Estado. (2014b). Medida Legislativa N° 553424­6, Sobre Datos
Proveedores de almacenamiento
ˇ y telecomunicaciones.
Thim, M. (2017). Cínský internet pod rostoucí kontrolou [La Internet china bajo un control cada vez
mayor]. Praga: AMO.
Titcomb, J. (22 de agosto de 2018). Facebook y Twitter eliminan cientos de cuentas falsas vinculadas a
Irán y Rusia. El Telégrafo. https://www.telegraph. co.uk/technology/2018/08/22/facebook­twitter­
delete­hundreds­fake­acc ounts­linked­iran­russia/. Consultado el 10 de noviembre de 2019.

Toffler, A. y Toffler, H. (1981). La tercera ola. Nueva York: Bantam Books.


Departamento de Justicia de Estados Unidos. (2019). Informe sobre la investigación sobre la interferencia
rusa en las elecciones presidenciales de 2016. https://www.justice.gov/sto rage/report.pdf. Consultado
el 8 de noviembre de 2019.
Estado Mayor Conjunto de Estados Unidos. (2006, diciembre). La Estrategia Militar Nacional para
Operaciones en el ciberespacio. Washington DC.
Machine Translated by Google

2 PROPAGANDA Y DESINFORMACIÓN EN LÍNEA 73

Wanless, A. y Berk, M. (2017). Propaganda participativa: la participación del público en la difusión


de comunicaciones persuasivas. En Actas de las redes sociales y el orden social, Conferencia
Culture Conflict 2.0.
Wardle, C. y Derakhshan, H. (2017). Trastorno de la información: hacia un marco interdisciplinario
para la investigación y la formulación de políticas. Consejo Europeo. https://rm.coe.int/
information­disorder­toward­an­interdiscipl inary­framework­for­researc/168076277c. Consultado
el 6 de noviembre de 2019.
Webster, F. (2006). Teorías de la Sociedad de la Información. Cambridge: Routledge.
Westerlund, M. (2019). El surgimiento de la tecnología Deepfake: una revisión.
Revisión de la gestión de la innovación tecnológica, 9(11), 39–52.
Qué es. (2019). Deepfake (IA profunda y falsa). https://whatis.techtarget.com/def
inicio/deepfake. Consultado el 6 de noviembre de 2019.
Whitehead, L. (2002). democratización: teoría y experiencia. Oxford: Prensa de la Universidad de
Oxford.
Wolfsfeld, G., Elad, S. y Sheafer, T. (2013). Las redes sociales y la primavera árabe: la política es
lo primero. Revista Internacional de Prensa/Política, 18(2), 115­137. https://doi.org/
10.1177/1940161212471716.
Wondracz, A. (6 de agosto de 2019). Los expertos advierten que se debe mantener alejado el
acaparamiento de datos de FaceApp, ya que los selfies 'ensimismados' podrían provocar
violaciones devastadoras de la privacidad. Correo diario. https://www.dailymail.co.uk/news/
article­732 4955/FaceApp­warning­experts­raise­concerns­privacy.html. Consultado el 6 de
noviembre de 2019.
Woolley, SC y Guilbeault, D. (2017). Propaganda computacional en los Estados Unidos de
América: Consenso de fabricación en línea (Documento de trabajo No. 2017.5). Universidad
de Oxford: Proyecto de investigación de propaganda computacional.

Woolley, SC y Howard, PN (2016). Automatización, Algoritmos y Política| Comunicación política,


propaganda computacional y agentes autónomos: Introducción. Revista Internacional de
Comunicación, [Sl], 10, 9.
ISSN 1932­8036.
Woolley, SC y Howard, PN (2018). Propaganda computacional: partidos políticos, políticos y
manipulación política en las redes sociales. Oxford, Reino Unido: Oxford University Press.

Allá. (2018). El informe de desinformación. https://www.yonder.co/articles/the­disinformation­


report/ . Consultado el 6 de noviembre de 2019.
Yuzeun, L. y Lyu, S. (2018). Exponer videos DeepFake mediante la detección de artefactos de
deformación facial. Fundación de Visión por Computadora. http://openaccess.the cvf.com/
content_CVPRW_2019/papers/Media%20Forensics/
Li_Exposing_DeepFake_Videos_By_Detecting_Face_Warping_Artifacts_CVPRW_2019_p
aper.p. Consultado el 6 de noviembre de 2019.
Machine Translated by Google

74 M. PAVLÍKOVÁ ET AL.

Zhang, YC (2017 [2016]) La economía de la información. En J. Johnson, A.


Nowak, P. Ormerod, B. Rosewell, YC Zhang. Ciencias y políticas sociales del desequilibrio.
Comprensión de sistemas complejos. Springer, Cham. https://doi.org/
10.1007/978­3­319­42424­8_10.
Zhang, J., Carpenter, D. y Ko, M. (2013). Astroturfing en línea: una perspectiva teórica: artículo
de investigación completado. En conferencia: XIX Conferencia de las Américas sobre
Sistemas de Información, AMCIS 2013—Mundo hiperconectado: cualquier cosa, en cualquier
lugar y en cualquier momento.
Zhdanova, M. y Orlova, D. (2019). Ucrania: amenazas externas y desafíos internos. En S.
Woolley y PN Howard (Eds.), Propaganda computacional: partidos políticos, políticos,
manipulación política y redes sociales.
Oxford: Prensa de la Universidad de Oxford.
Machine Translated by Google

CAPÍTULO 3

Propaganda y desinformación como seguridad


Amenaza

Miroslav Mareš y Petra Mlejnková

3.1 Introducción
La atención que hoy se presta a las campañas de desinformación es un asunto
delicado para los políticos, los tomadores de decisiones y los medios de
comunicación en muchos países, particularmente en las democracias liberales
occidentales. También ha despertado un gran interés entre académicos y expertos
en seguridad. Las formas políticas específicas de desinformación tienen un fuerte
impacto en las sociedades de la era digital. Algunos autores, cuando hablan de
los desarrollos más recientes, incluso utilizan el término era posdigital, que se
refiere “a un estado en el que la disrupción provocada por la tecnología de la
información digital ya ha ocurrido” (Albrecht et al. 2019, 11).

M. Mareš ∙ P. Mlejnková (B)


Departamento de Ciencias Políticas, Universidad Masaryk, Brno, Chequia correo
electrónico: mlejnkova@fss.muni.cz

M. Mareš
correo electrónico: mmares@fss.muni.cz

© El autor(es), bajo licencia exclusiva para Springer Nature Switzerland 75


AG 2021 M. Gregor y P.
Mlejnková (eds.), Desafiando la propaganda y la desinformación en
línea en el siglo XXI, campañas políticas y comunicación, https://
doi.org /10.1007/978­3­030­58624­9_3
Machine Translated by Google

76 M. MAREŠ Y P. MLEJNKOVÁ

Las campañas modernas de propaganda y desinformación continúan en


consonancia con las profundas tradiciones históricas y los legados de la propaganda subversiva.
Esta nueva dimensión de la propaganda subversiva se caracteriza por el uso de
desinformación en el ciberespacio con el objetivo de socavar la cohesión social y al
mismo tiempo valorar la coherencia y la lealtad de los ciudadanos para legitimar la
representación política. Recientemente, varios actores han calificado este fenómeno
de amenaza a la seguridad, incluidas las organizaciones internacionales de seguridad
en el área euroatlántica. Sin embargo, es muy difícil crear contramedidas eficaces.
Está creciendo la tensión entre la libertad de expresión y los límites a los mensajes
falsos y/o de odio. Se están discutiendo ampliamente nuevas normas internas de los
proveedores de internet, leyes contra la desinformación y las noticias falsas o la
adaptación institucional de la arquitectura de seguridad al nuevo entorno propagandístico.

El objetivo de este capítulo es describir y explicar cómo la difusión de propaganda


y desinformación constituye una amenaza a la seguridad. Tras una breve
contextualización histórica, analizamos el impacto de esta amenaza desde varias
dimensiones de seguridad. Luego categorizamos a los actores gubernamentales y no
gubernamentales "deshonestos" que son responsables de la difusión masiva de
desinformación en el mundo contemporáneo, incluidas sus estrategias y tácticas.
Estos actores sólo pueden tener éxito en una situación en la que el adversario sea
vulnerable. Por ello, también delineamos la vulnerabilidad de las sociedades
contemporáneas y sus sistemas de información en el contexto de las amenazas
descritas. Finalmente, nos ocupamos brevemente de la defensa y protección frente a
esta nueva dimensión de amenaza propagandística y desinformativa a nivel nacional
e internacional.

3.2 Propaganda y desinformación desde el punto


de vista del análisis de seguridad
La propaganda y la desinformación tienen largas tradiciones históricas con raíces en
la era antigua. Estaban y están generalizados en diversas dimensiones de seguridad
interconectadas. Tradicionalmente, estaban relacionados con diversos conflictos
militares y la seguridad del régimen (dentro del contexto de la seguridad nacional,
incluida la era prewestfaliana). En los tiempos modernos, también han servido para la
"guerra política", en el sentido de derrocar a un adversario sin el uso directo de fuerzas
militares o internas. Pueden estar dirigidos a la población en general con el objetivo
de destruir la moral y la lealtad de la ciudadanía, que puede aceptar los intereses de
un adversario. Dentro de estos contextos realistas hay desinformación específica y
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 77

"armas" propagandísticas de un lado del conflicto y, al mismo tiempo, la


amenaza percibida del otro lado del conflicto, lo que provoca contramedidas
defensivas y ofensivas. La propaganda y la contrapropaganda, la difusión de
desinformación y la defensa contra ellas son dos caras de la misma moneda.

En su breve análisis del uso de la propaganda en los conflictos, Haroro J.


Ingram, describió el uso de la propaganda desde los antiguos imperios
mesopotámicos hasta la Guerra contra el Terrorismo del siglo XXI (también se
ocupa intensamente de la propaganda en la Primera Guerra Mundial, la
Segunda Guerra Mundial y la Guerra Fría). Ingram resumió sus hallazgos con
las siguientes palabras: 'La evolución histórica de la propaganda durante los
conflictos ha sido impulsada por la interacción de tres factores persistentes: (1)
avances en las tecnologías de la comunicación, (2) desarrollos en tecnologías
y estrategias militares, y (3) la relación cambiante entre la élite política y el
pueblo” (Ingram 2016, 34).
La dimensión militar de la desinformación y la propaganda ha acompañado
a lo largo de la historia a las campañas de propaganda y desinformación
organizadas por las fuerzas gubernamentales de diversos regímenes con fines
de seguridad nacional. Estas campañas han estado dirigidas principalmente
contra oponentes ideológicos, religiosos o étnico­nacionales internos y sus
partidarios extranjeros. Sin embargo, muchas actividades de persuasión con
elementos propagandísticos se centraron y se centran en otras amenazas
internas, como la corrupción, el crimen organizado, las amenazas a la salud y
la prevención de desastres. Por el contrario, las fuerzas políticas subversivas
también han utilizado propaganda y desinformación con el objetivo de socavar
un régimen gobernante, por ejemplo, el conocido concepto terrorista de
"propaganda por hechos" (Campion 2015), o los numerosos movimientos de
resistencia y fuerzas revolucionarias. que han tenido sus propias divisiones de
propaganda (Shultz 1989).
Desde la perspectiva de la seguridad, las dimensiones militar y de régimen
fueron dominantes hasta finales del siglo XX. Sin embargo, como se mencionó
anteriormente, recientemente hemos podido ver la intervención de la
desinformación y la propaganda en todos los sectores de seguridad definidos
por la Escuela de Copenhague: sectores militar, político, económico, social y
ambiental (Buzan et al. 1998). Este enfoque funciona dentro de estos cinco
sectores de seguridad, pero también en un marco analítico más específico, con
un enfoque específico en la seguridad de la información.
En algunos modelos conceptuales contemporáneos, la dimensión informativa
se incorpora a partes iguales junto con otras categorías. El político,
Machine Translated by Google

78 M. MAREŠ Y P. MLEJNKOVÁ

El modelo militar, económico, social, informativo y de infraestructura (PMESII) es la


representación más importante de este enfoque. Fue desarrollado en 2000 por expertos
militares estadounidenses durante un juego de guerra (McFate et al. 2012, 94) y, en la
era actual, se utiliza, entre otras cosas, para el análisis de la guerra híbrida. De este
modelo se derivó el modelo militar, político, económico, civil e informativo (MPECI)
(Cullen y Reichborn­Kjennerud 2017, 4). La dimensión de la información está, por
supuesto, muy estrechamente interconectada con otras dimensiones (y en sí misma es
más amplia que "sólo" la desinformación y la propaganda).

Si volvemos a las dimensiones tradicionales militar y de seguridad nacional,


podemos trabajar principalmente con los conceptos de seguridad de propaganda,
engaño y operaciones destructivas de falsa bandera en las que la desinformación se
ubica donde se superponen (Fig. 3.1).
La propaganda es una categoría más amplia que la desinformación (ver Capítulo 1).
Puede basarse en información veraz, en la difusión de mensajes positivos sobre éxitos
reales o en la amenaza de armas o atrocidades reales con el objetivo de

Fig. 3.1 Desinformación en el contexto de propaganda, engaño y operaciones


destructivas de falsa bandera ( Autores fuente )
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 79

de influir en una población objetivo. La desinformación debería, en el contexto


propagandístico, servir a la difusión de noticias e información falsas o incompletas y
engañosas con el objetivo de debilitar la cohesión y la determinación de un adversario
para proporcionar una política eficiente mientras esta política contrasta con los intereses
del actor. difundir la desinformación.
La desinformación también puede provocar que se tomen decisiones erróneas debido
a la mala valoración de una situación.
Este último contexto también se incluye en el concepto de engaño dirigido a un
adversario. El engaño es también una categoría más amplia que, según Gerwehr y
Glenn, incluye las subcategorías (1) camuflaje/ocultamiento y demostración/finta/desvío,
(2) exhibición/señuelo/maniquí, (3) mimetismo/suplantación, (4) deslumbramiento. /
saturación sensorial, (5) desinformación/ardid, y (6) condicionamiento/explotación
(Gerwehr y Glenn 2000, 30­31). La desinformación también es una parte inherente de
las operaciones de bandera falsa, definidas como una "táctica de distracción o
propaganda para engañar a un adversario haciéndole creer que una operación fue
llevada a cabo por otra parte" (Pihelgas 2015, 6).

Si nos fijamos en las operaciones destructivas de falsa bandera, la desinformación


es su elemento crucial; sin embargo, también son una categoría más amplia, que
también incluye la preparación y ejecución de la operación en sí (con fuerzas militares,
unidades especiales de la policía secreta, comandos terroristas, grupos de hackers,
etc.). La desinformación sólo puede difundirse entre un número limitado de actores
involucrados o entre el público en general. Ambas variantes pueden demostrarse en
casos de la era "pre­internet". La Acción Kámen (que se refiere a "piedra" en checo)
puede usarse como ejemplo de la primera categoría. A principios de los años 1940 y
1950, la policía secreta comunista checoslovaca, la Seguridad del Estado (StB; Státní
bezpeˇcnost), creó falsos puestos de control e instalaciones de las fuerzas
estadounidenses, incluido personal vestido con uniformes estadounidenses o
interpretando a agentes del servicio secreto estadounidense, cerca de la frontera con
Alemania. . A esta falsa frontera fueron transportadas las personas que escapaban con
la ayuda de redes controladas de tráfico de personas desde la Checoslovaquia
comunista a través de la "Cortina de Hierro" hacia Alemania Occidental. Durante los
interrogatorios, la policía comunista recibió datos importantes sobre la resistencia
interna (Jandecková 2018). La operación fue ultrasecreta y la desinformación sobre el
edificio y el personal falsos estaba dirigida únicamente a las víctimas de esta operación.
Un caso representativo de la segunda categoría (que repercute en el público en general)
es el ataque comando del Servicio de Seguridad Alemán (SD; Sicherheitsdienst) dirigido
por Alfred Naujocks en Gleiwitz (entonces en Alemania, ahora en Polonia) contra 31
de agosto de 1939.
Machine Translated by Google

80 M. MAREŠ Y P. MLEJNKOVÁ

Los miembros del comando capturaron una emisora de radio y, bajo la falsa bandera de los
nacionalistas polacos, emitieron una proclama antialemana. Este incidente sirvió como una de
las excusas para la invasión de Polonia por parte de Hitler el 1 de septiembre de 1939
(Runzheimer 1962). El mensaje falso se difundió por ondas de radio y la propaganda alemana
hizo mal uso de la información sobre este incidente. En la era de Internet, los ciberataques bajo
una bandera falsa dirigidos a personas específicas (entre otras razones, con fines de chantaje)
son representativos de la primera categoría, y los ataques masivos a sitios web en un país
extranjero, dirigidos en realidad por expertos militares gubernamentales que fingen ser
hacktivistas no gubernamentales y similares, son representantes de la segunda categoría
(Pihelgas y Tammekänd 2015).

El engaño y la propaganda también forman parte, en el sentido antes mencionado, de las


operaciones de información y psicológicas (psyops). Estos términos se utilizan con significados
más o menos superpuestos (Cowan y Cook 2018) y se analizaron en el Capítulo 1 de este
volumen. Algunos autores también trabajan con el concepto de guerra política (Lord y Barnett
1989, xi).
Recientemente, la guerra (o guerra) híbrida ha sido una "palabra de moda" que se refiere al
impacto de la desinformación relacionado con la seguridad.
En diversas épocas históricas se crearon órganos gubernamentales especializados o partes
de organizaciones y movimientos no gubernamentales (incluidas organizaciones de resistencia)
con tareas propagandísticas, y algunos incluso se especializaron en campañas de desinformación.
El (in)famoso ejemplo es la creación de la Oficina de Desinformación (Dezinformbyuro) en la
Dirección Principal de Inteligencia (GRU; Glavnoye razvedyvatelnoye upravleniye) de la Unión
Soviética en 1923. La primera de sus importantes operaciones tuvo como objetivo desacreditar
al sacerdote ruso Kirill Vladimirovitch. entre los emigrantes rusos en Alemania (Zhirnov 2003).

También es posible la cooperación internacional en la difusión de desinformación. El


departamento especializado en desinformación del Comité para la Seguridad del Estado del
servicio secreto civil soviético (KGB; Komitet Gosu­darstvennoy Bezopasnosti) se creó en 1959.
Durante la Guerra Fría, sirvió de modelo para la creación de órganos similares en los servicios
secretos satelitales. en todo el bloque del Este y cooperó con ellos. Un desertor del StB
checoslovaco, Ladislav Bittman, informó sobre estos hechos después de su emigración a los
Estados Unidos (Bittman 1972). Después de la caída del comunismo, publicó un libro en checo
advirtiendo sobre las continuas operaciones de desinformación contra los intereses occidentales
(Bittman 2000).
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 81

Los fuertes esfuerzos de varios actores de la historia por crear sus propias
actividades de desinformación y propaganda también han llevado a defensas contra
ellos. Se han llevado a cabo ataques militares selectivos, incursiones de fuerzas
especiales o diversos ataques, incluidos sabotajes y terrorismo, contra fuentes de
propaganda enemigas; recientemente, se pueden aprovechar las posibilidades de
la piratería informática y la guerra cibernética. Varias formas de restricciones legales,
como los castigos draconianos, fueron reacciones a la ayuda propagandística
brindada a los enemigos e incluso simplemente a leer o escuchar propaganda
extranjera. Estas penas eran típicas de muchas épocas históricas, sobre todo en
regímenes no democráticos, como en la Alemania nazi y los territorios ocupados
durante la Segunda Guerra Mundial. Sin embargo, durante las guerras y otras
situaciones de crisis o como protección contra el extremismo, las democracias
también tienen una libertad de expresión limitada en relación con la difusión de
noticias falsas y la infiltración de propaganda extranjera (Capoccia 2005, 58).
Además, algunas restricciones menores o no formalizadas destinadas a la difusión
de propaganda y desinformación en espacios públicos (escuelas, televisión pública,
etc.) pueden resultar eficientes. Las tecnologías también pueden utilizarse contra la
difusión de propaganda, por ejemplo, las interferencias de radio durante la Guerra Fría o, recientem
Además de las medidas represivas, la contrapropaganda y la educación pública
también podrían eliminar el impacto de la propaganda de un adversario.
(1) Acciones militares directas y otras acciones violentas contra las fuentes
(incluidos los ataques cibernéticos); (2) legal represivo; (3) social; y (4) medidas
tecnológicas; (5) contrapropaganda; y (6) la educación pública son síntomas de la
securitización de las cuestiones de propaganda y desinformación.
La titulización se entiende como "el movimiento que lleva la política más allá de las
reglas del juego establecidas y encuadra la cuestión ya sea como un tipo especial
de política o por encima de la política" (Buzan et al. 1998, 23). Según Ralf Emmers,
"el acto de titulización sólo tiene éxito una vez que la audiencia relevante está
convencida de la amenaza existencial al objeto de referencia" (Emmers 2007, 114).

Este enfoque constructivista es difícil de probar en muchas sociedades polarizadas


recientes con un espectro político y de expertos fragmentado. Sin embargo, podemos
observar una fuerte ola de atención prestada a las nuevas formas de propaganda y
desinformación en el contexto de la creciente importancia de las redes sociales, más
recientemente en relación con el desarrollo de la inteligencia artificial. Esta ola
incluye elementos claros de titulización, al menos en el sentido de crear estrategias
e instituciones especializadas como resultado de debates políticos, a pesar de que la
aceptación por parte del público de varios
Machine Translated by Google

82 M. MAREŠ Y P. MLEJNKOVÁ

Las medidas adoptadas han sido ambiguas, sobre todo en casos relacionados con las limitaciones
de la libertad de expresión en Internet.
En resumen, la propaganda y la desinformación tienen fuertes tradiciones históricas y sus
legados se transfieren continuamente a la era contemporánea, que es típica de las nuevas
oportunidades tecnológicas (Internet, redes sociales, inteligencia artificial). Estos fenómenos
tienen un impacto en diversos sectores de la seguridad externa e interna. Las nuevas formas de
comunicación y medios han creado una nueva dimensión de amenaza y provocado su titulización.
Además, dado que estos fenómenos han estado afectando a una amplia gama de sectores,
también hay una variedad de actores (tanto antiguos como nuevos) que participan en el juego de
la desinformación y la propaganda.

3.3 Actores contemporáneos de


propaganda y desinformación 'deshonestos'

La propaganda es utilizada por muchos actores gubernamentales y no gubernamentales en el


mundo contemporáneo. Por lo tanto, al abordar la propaganda y la desinformación como
amenazas específicas a la seguridad, debemos identificar a aquellos actores que utilizan estos
instrumentos con la intención de desestabilizar el desarrollo pacífico de la comunidad
internacional, la democracia y la democratización a nivel global. Esta identificación de los actores
amenazadores se basa en el sistema de valores democrático liberal occidental. Por supuesto,
desde el punto de vista de las fuerzas políticas autoritarias y populistas, la lucha por la propaganda
democrática se percibe como una amenaza a sus propios intereses políticos. Con respecto a
los valores democráticos antes mencionados y la reflexión interconectada en la respetada
literatura científica reciente (Hartig 2016; Galeotti 2016; Scheidt 2019) y la política de seguridad
de la comunidad euroatlántica y sus aliados, hay varios actores "deshonestos" importantes que
han llevado a cabo amenazas recientes de propaganda y desinformación que vale la pena
especificar.

Estos actores están interconectados en algunas categorías, pero algunos de ellos actúan
independientemente de otros. También es imposible identificar un frente global unificado de
desinformación. Además, la interdependencia de algunos actores también es un hecho (ver más
abajo). Si analizáramos las relaciones de varios actores con las esferas gubernamental o no
gubernamental, veríamos una frontera poco clara y flexible entre ellas. Algunas campañas de
desinformación son organizadas por actores gubernamentales (incluidas ramas especiales de
los servicios secretos), mientras que otras incluyen la participación de fuerzas no estatales, pero
progubernamentales. La interconexión de varios actores.
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 83

con corrientes ideológicas (por ejemplo, la extrema derecha) puede hacer que actores no
gubernamentales en un país apoyen a actores gubernamentales en otros países a través de
campañas de noticias falsas (por ejemplo, una campaña en nombre del ministro del interior
italiano, Matteo Salvini, por parte del partido de extrema derecha occidental). Justo en 2018­2019).
Si analizamos cómo se difunde la desinformación, podemos identificar:

1. Fuentes originales/creadores de desinformación (por ejemplo, una rama de


desinformación del servicio secreto); 2.
Canales primarios de comunicación de desinformación (por ejemplo, medios motivados
ideológicamente o por el régimen con un impacto global, sitios web de banderas
falsas, perfiles en redes sociales, etc., personas influyentes primarias); 3. Canales
secundarios intencionales de desinformación (medios de comunicación no serios,
influencers secundarios, trolls conectados directa o libremente con los intereses
políticos de la fuente de desinformación); y 4. Público objetivo (el
público más amplio en uno o más países; las personas de esta categoría creen que el
contenido es verdadero y pueden difundir aún más la desinformación original y
modificar su comportamiento político de acuerdo con los intereses de la fuente de
desinformación, por ejemplo, en materia de preferencias electorales).

La categorización específica de los actores de los medios que pueden difundir desinformación
en todas las formas antes mencionadas es muy amplia e incluye todos los tipos de canales
de comunicación mediáticos en el mundo contemporáneo.
En Rusia se ha creado un sistema muy desarrollado de propaganda y desinformación.
Continúa en línea con las "medidas activas" de la Unión Soviética. La estructura de este
sistema de propaganda y desinformación es parcialmente encubierta; sin embargo, con la
ayuda de muchos indicios, se pudo delinear su contorno básico. Después de veinte años
bajo Vladimir Putin, Rusia puede caracterizarse como un régimen autoritario moderno
(Mochˇtak y Holzer 2017, 37). Su legitimación interna, así como su política exterior, combinan
elementos nacionalistas e imperiales con los legados de la política expansionista rusa y
tradiciones seleccionadas del pasado soviético (principalmente la glorificación de la victoria
soviética en la Segunda Guerra Mundial, que se utiliza para justificar la reciente interferencia
rusa en la guerra). la política de los países extranjeros.

La propaganda y la desinformación son elementos importantes de esta política y están


bien organizados dentro del sistema político y de seguridad ruso.
Machine Translated by Google

84 M. MAREŠ Y P. MLEJNKOVÁ

sistema. La era moderna de este fenómeno, relacionado con las redes sociales en el
ciberespacio, comenzó a principios de la segunda década del siglo XXI. En ese momento,
el uso gubernamental de trolls estaba dirigido contra opositores internos del régimen ruso
(Benkler et al. 2018, 247). Tras el inicio de la crisis ucraniana a principios de 2013/2014,
la propaganda rusa reorientó su principal interés hacia los países extranjeros. La reciente
maquinaria de propaganda y desinformación del país consta principalmente de las
siguientes partes (y, por supuesto, interconectadas):

1. Las instituciones gubernamentales son responsables de la prefabricación y la


difusión primaria de mensajes propagandísticos y desinformación, incluidas las
ramas especializadas de los servicios secretos rusos (como parte de sus medidas
activas): el Servicio Federal de Seguridad (FSB, por sus siglas en inglés) civil
interno, Federalnaya sluzhba bezopasnosti, el Servicio de Inteligencia Exterior
civil (SVR; Sluzhba vneshney razvedki), y la Dirección Principal militar (GU;
Glavnoye upravlenie) del Estado Mayor de las Fuerzas Armadas, que todavía se
conoce con la abreviatura de su predecesor soviético, el GRU (Galeotti 2016). Los
falsos actores específicos también pueden ser unidades militares regulares que
desempeñan el papel de una falsa resistencia en otros países, como los "pequeños
hombres verdes" del ejército ruso que se hicieron pasar encubiertamente por los
Guardianes del Hogar de Crimea durante la crisis de 2014 (Buchar 2017, 101–
102).
2. Los medios gubernamentales con impacto nacional y global se presentan tanto en
ruso como en idiomas extranjeros (principalmente a través de la emisora de
televisión RT, incluida su dimensión de Internet, y la agencia de noticias Sputnik)
(Ramsay y Robertshaw 2019).
3. Los partidarios internos del régimen ruso en territorio ruso actúan abierta o
encubiertamente en nombre de la propaganda pro­Kremlin (medios de
comunicación privados pro­Kremlin, personas influyentes, trolls y vigilantes de
Internet de grupos pro­Putin, como los Nashi, etc.) .
4. Los partidarios de las diásporas rusas en todo el mundo actúan abierta o
encubiertamente en nombre de la propaganda pro­Kremlin (medios de
comunicación pro­Kremlin en la diáspora, personas influyentes, debates activos
sobre trolls en los países anfitriones, etc.).
5. Los extranjeros apoyan intencionalmente al régimen ruso (por ejemplo, partidarios
ideológicos del eurasianismo ruso, paneslavistas, agentes pagados, etc., con sus
propios medios, trolls, personas influyentes, etc.).
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 85

6. Actores nacionales o extranjeros apoyan involuntariamente al régimen ruso,


difundiendo propaganda y desinformación del régimen para sus propios fines;
son atacados y utilizados indebidamente por actores gubernamentales y
progubernamentales rusos (por ejemplo, la inclinación de la escena esotérica
hacia las teorías de conspiración).

Algunos actores pueden incluirse en más de una de las categorías antes mencionadas.
Probablemente el símbolo más importante de la lucha rusa moderna contra la
desinformación sea la Agencia de Investigación de Internet (IRA; Agentstvo internet
issledovaniya), conocida en términos generales como la granja de trolls rusa. Fundada
en 2013, su objetivo es difundir propaganda y desinformación con la ayuda de
empleados que actúan como trolls (ver Capítulo 2) en varias redes sociales. Está
organizado a través de estructuras oligárquicas pro­Putin; sin embargo, la influencia de
los servicios secretos rusos en su actividad es muy probable (Spruds et al. 2016, 16­17).

Otro actor importante en la difusión de la desinformación y la propaganda es el


movimiento nacionalista blanco (o de extrema derecha) global, con sus propios medios
y canales de comunicación. Por supuesto, el uso del término "actor" es problemático
debido a su carácter interno heterogéneo; sin embargo, sirve a los objetivos analíticos
de nuestro capítulo. La extrema derecha tradicional neonazi y neofascista ha estado
utilizando Internet desde la década de 1990 para difundir sus tradicionales teorías de
conspiración, incluida su infame negación del Holocausto. La ubicación de muchos de
estos sitios web en Estados Unidos es típica debido a diferentes límites a la libertad de
expresión (ver Capítulo 4). La creación del sitio web neonazi más antiguo, Stormfront, a
mediados de los años 1990 es un buen ejemplo (Fromm y Kernbach 2001, 29­32).

Esta nueva dimensión de los actores de extrema derecha está relacionada con el
ascenso de la llamada derecha alternativa en Estados Unidos y muchos otros países,
así como con movimientos antiislámicos, principalmente a mediados de la década de 2010.
Sus canales de comunicación (plataformas como Reddit, 4Chan y 8Chan o campañas
nacionales específicas con antecedentes organizativos como 'Reconquista Germania' o
'Infokrieg') fueron o todavía son utilizados con fines de propaganda y movilización.
También sirven para apoyar el ascenso de partidos populistas de derecha (Conway y
Courtney 2018, 9). El movimiento identitario es un actor importante en el campo de la
propaganda moderna de extrema derecha, como lo demostró la campaña 'Defender
Europa' durante la crisis migratoria (Gattinara y Froio 2019).
Machine Translated by Google

86 M. MAREŠ Y P. MLEJNKOVÁ

Una gran parte de las plataformas de propaganda y desinformación de


extrema derecha han estado recientemente conectadas, intencionadamente o
no, con la maquinaria de propaganda pro­Kremlin. El periodista alemán de
extrema derecha Manuel Ochsenseiter es un ejemplo. Editor de la revista
Zuerst!, fue invitado varias veces a RT como experto (Shekhovtsov 2017). Por
otro lado, no todos los medios de extrema derecha apoyan al reciente régimen
ruso, como las plataformas neonazis que apoyan a la extrema derecha
ucraniana. Estas conexiones neonazis se utilizan en la propaganda rusa con el
objetivo de desacreditar a Ucrania (Mareš 2017, 34).
Mientras tanto, la propaganda china funciona de forma relativamente
autónoma. El Partido Comunista de China tiene un profundo legado histórico y
sus carteles propagandísticos y otras formas tradicionales de propaganda son
populares (Mittler 2008); hoy, sin embargo, su impacto es limitado. Durante
muchos años, la propaganda china se centró en su audiencia interna (incluidas
las minorías oprimidas involucradas en la cuestión de Taiwán). Sin embargo,
en el siglo XXI se puede observar la globalización de la propaganda persuasiva
china (Edney 2014, x).
La difusión de desinformación no era anteriormente un instrumento chino
muy extendido; sin embargo, esto cambió durante la crisis de Hong Kong de
2019. Se espera un uso masivo de la inteligencia artificial por parte de China
en este campo en el futuro (Howard y Bradshaw 2019). Varias instituciones
gubernamentales y partidistas chinas están involucradas en campañas de
propaganda, entre otras, el Ministerio de Seguridad del Estado, el Departamento
de Publicidad del Partido Comunista de China (CPPCD) y China Network Television (CNTV).
Los ayudantes de las comunidades chinas en varios países y de los aliados
políticos y económicos de China son utilizados en una lucha propagandística
global (bajo el liderazgo de las embajadas chinas) (Rawnsley 2013, 154). La
diplomacia pública y la propaganda están interconectadas por ramas del Instituto
Confucio, un actor global 'financiado en parte por la Oficina del Consejo
Internacional de la Lengua China (Hanban), una organización bajo la autoridad
del Ministerio de Educación de China' (Hartig 2016, 2) . .
En el mundo contemporáneo se presta enorme atención a la propaganda de
los extremistas islámicos. También podemos ver en este caso un espectro muy
heterogéneo de actores propagandísticos. La propaganda cuasi legal es
apoyada en parte por los gobiernos de algunos países islamistas (por ejemplo,
Arabia Saudita en el mundo del Islam sunita y por Irán en el mundo del Islam chiita).
Lo proporcionan diversas organizaciones, centros y personas influyentes, como
imanes, raperos, combatientes extranjeros, etc., normalmente con la ayuda de
diversas plataformas de Internet (en el contexto de la llamada economía global).
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 87

comunidad virtual ). En este entorno se propagan conspiraciones antioccidentales.


Las organizaciones yihadistas militantes tienen sus propios medios de comunicación
responsables de la difusión de propaganda en varios idiomas, incluidos periódicos y
vídeos con atrocidades, directrices terroristas y experiencias de batalla. El panorama
mediático del llamado Estado Islámico es un ejemplo (Wejkszner 2016, 133­169).

Un actor concreto de los grupos islámicos fantasmas que se atribuyen atentados


cometidos por otro grupo o incidentes que, en realidad, no tienen relación con el
terrorismo (accidentes tecnológicos, catástrofes naturales) o difunden falsas
amenazas. Las Brigadas Abu Hafs Al Masri, por ejemplo, se atribuyeron la
responsabilidad de un apagón en el noreste de Estados Unidos en agosto de 2003
(Carmon 2004). Sin embargo, tales afirmaciones y amenazas también pueden ser
expresadas por grupos terroristas reales dentro de campañas amenazantes, incluido
Daesh (Myre y Domonoske 2017).
La desinformación y la propaganda también están conectadas con muchas
organizaciones y medios de extrema izquierda. La delimitación entre la extrema
izquierda y la extrema derecha es en muchos casos cuestionable porque algunos
medios de propaganda y desinformación se centran en diversas corrientes de protesta
en la sociedad; la revista alemana Compact es un ejemplo (Schilk 2017).
Recientemente, la lucha global en los medios y la política por el cambio climático ha
incluido elementos de propaganda y desinformación en ambos lados del conflicto
(American Institute of Biological Sciences 2017; Sakas y Fendt 2019).
Hay muchas otras cuestiones particulares que involucran a actores de propaganda
y desinformación en el mundo contemporáneo. Sin embargo, en general, podemos
observar la participación de actores estatales, patrocinados por el Estado y no
estatales, así como un aumento de actores especializados que realizan campañas
de propaganda en relación con temas específicos considerados importantes para los
temas políticos y económicos. La estructura de los actores de la propaganda y la
desinformación puede ser extremadamente heterogénea, como lo demuestra el
espectro de "máquinas de desinformación" prorrusas o de extrema derecha. Varios
actores individuales pueden desempeñar su propio papel en campañas estratégicas
de propaganda y desinformación, y pueden utilizar diversos enfoques tácticos dentro de esta lucha.
Machine Translated by Google

88 M. MAREŠ Y P. MLEJNKOVÁ

3.4 Estrategias y tácticas de desinformación y propaganda


contemporáneas

En general, se entiende que el uso de desinformación y propaganda no se hace por


razones altruistas o con buenas intenciones. Dicho normativamente, es un enfoque
sucio y básicamente es engañar a la población objetivo (ver Capítulo 1). Sin
embargo, las siguientes palabras no sirven para discutir bajo qué condiciones podría
ser justificable y legítimo utilizar desinformación y propaganda. En cambio, los
párrafos siguientes muestran con más detalle el problema de la desinformación y la
propaganda en lo que respecta a su impacto en los destinatarios de este contenido
engañoso y manipulador. Como sabemos, la desinformación y la propaganda
pueden afectar a cada individuo de diferentes maneras, y pueden construirse incluso
con el objetivo de apuntar a una sola persona, una estrategia bastante costosa pero
con grandes beneficios bajo ciertas condiciones. En el contexto de la población en
general, también podemos identificar daños potenciales y amenazas que son
relevantes en términos de la construcción de una sociedad resiliente y la protección
de la democracia, los valores democráticos y la estabilidad y legitimidad de un
régimen político.
Un volumen sustancial de desinformación daña la democracia al apuntar a
socavar la confianza en el sistema democrático, que consta de instituciones políticas
y funcionarios constitucionales y políticos. Las narrativas de desinformación buscan
crear la impresión de que los representantes políticos traicionan a sus votantes y
gobiernan mal o crear una atmósfera en la que todos mienten y no se puede confiar
en nadie. Imagínese las consecuencias de un video o audio manipulado que capture
a funcionarios encargados de hacer cumplir la ley discutiendo posibles formas de
abusar de sus poderes o aceptar sobornos.
Específicamente, la desinformación juega un papel muy notorio durante las
elecciones, ingresando al discurso público con mayor frecuencia y apuntando a
influir en los votantes y el resultado de las elecciones. El caso más conocido podrían
ser las elecciones presidenciales estadounidenses de 2016; Al momento de escribir
este artículo, todavía está en proceso una investigación sobre la intromisión rusa
en las elecciones. En Alemania también se observaron intentos de manipulación de
los resultados electorales en favor de la extrema derecha Alternativa para Alemania,
que obtuvo el apoyo mediático del canal de televisión estatal ruso Rossiya­1, que
transmite en Rusia; de RT; y de Sputnik, que informó positivamente solo sobre
este partido político (Instituto para el Diálogo Estratégico 2017). Otro caso
documentado procede de la República Checa, donde muy poco antes de las
elecciones parlamentarias nacionales de 2017, un sitio web de desinformación de
los medios de comunicación en línea publicó una historia sobre el suministro nacional de litio, acus
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 89

partido de coalición, los Socialdemócratas, de vender los intereses del Estado a


Australia y malversar en secreto los ingresos del contrato en beneficio de las
arcas del partido político. Los opositores políticos difundieron intensamente esta
desinformación. Según la encuesta, alrededor del seis por ciento de los votantes
se vieron influenciados por esta desinformación al tomar su decisión (Median
2017).
También se abusa de estos fenómenos para contaminar los debates públicos
y promover narrativas de odio en ellos. Tienen un gran y peligroso potencial para
perturbar el discurso democrático y aumentar o intensificar las tensiones entre
diversos grupos de la población, ya sean políticos, sociales, étnicos o religiosos.
La información falsa sobre la crisis migratoria, los ataques terroristas en Europa
o el apoyo al Islam radical son ejemplos obvios. Los conflictos existentes en la
sociedad pueden incrementarse artificialmente para desestabilizar la sociedad.
Esto sucede a través de la radicalización de la discusión y la radicalización de
las actitudes y creencias de los destinatarios. Entonces están más dispuestos a
dejar atrás los hechos y el conocimiento experto, y son más propensos a aceptar
"hechos alternativos" (tampoco necesariamente sólo en política); La radicalización
puede ocurrir en cualquier área de discusión, como la economía, la cultura o las
cuestiones de salud.
En política, cuando ocurre la radicalización del discurso público y se enfrenta
a una confianza socavada en las instituciones políticas y los representantes
políticos del sistema, tales circunstancias generalmente conducen a una
búsqueda de alternativas: alternativas políticas antisistema, representadas
típicamente por la extrema derecha. y partidos políticos de extrema izquierda
que, en general, se aprovechan de la cada vez menor confianza de los principales
partidos políticos y, en la era de la posverdad, también buscan activamente
oportunidades para relativizar y manipular a través de información engañosa.
Los partidos políticos europeos de extrema derecha, en concreto, son
considerados muy a menudo caballos de Troya de la maquinaria propagandística
pro­Kremlin y transmisores activos de narrativas pro­Kremlin en su combate
contra la Unión Europea, los Estados Unidos y la globalización y en la promoción
de la política nativista (Laruelle 2015; Polyakova et al. 2016, 2017, 2018;
Shekhovtsov 2017). Marine Le Pen, líder del partido francés Agrupación Nacional
(anteriormente Frente Nacional), ha elogiado muchas veces a Vladimir Putin
como un verdadero patriota y defensor de los valores europeos y la herencia
cristiana de la civilización europea. Representantes de La Liga de Italia se han
referido a Rusia como un ejemplo de cómo proteger la identidad nacional (Klapsis
2015). En los países eslavos, como la República Checa, Eslovaquia o Serbia,
esto también se ve acelerado por la creencia en la necesidad de unificación entre las naciones e
Machine Translated by Google

90 M. MAREŠ Y P. MLEJNKOVÁ

En países como Grecia y Bulgaria, el vínculo se basa en la conexión religiosa.


Fuera de la representación política oficial, hay vigilantes o actores paramilitares
(Bjørgo y Mareš 2019) que socavan la confianza en el Estado como proveedor
de seguridad y protección, y toman el poder en sus manos para garantizar el
orden y la seguridad públicos. Europa se encontró con un fenómeno de este
tipo durante la crisis migratoria, por ejemplo, con los Soldados de Odín, un
movimiento antiinmigrante y supremacista blanco que operaba en los países
del norte. En Europa central ha habido un movimiento paramilitar activo que
utiliza la retórica de sangre eslava, como los Slovenskí branci (reclutas
eslovacos), con conexiones con el entorno militar ruso. Sin intentar sustituir las
competencias estatales, a menudo están motivados ideológicamente y apoyan
la geopolítica rusa actual, incluida la difusión de propaganda y desinformación
pro­Kremlin.

El proceso de radicalización que conduce al extremismo violento es otra


gran agenda y amenaza a la seguridad. El papel de la propaganda como
herramienta de reclutamiento utilizada por organizaciones subversivas
(terroristas y extremistas) ha sido ampliamente descrito en la literatura (Rabasa
y Benard 2015; MacDonald et al. 2016; Vacca 2019; Littler y Lee 2020). Estos
actores han aprendido que tienen el poder de afectar las creencias y actitudes
de los individuos mediante el diseño de narrativas adecuadas dirigidas a los
sentimientos y necesidades de las personas. Las organizaciones neonazis se
aseguran de compartir materiales de propaganda nacionalsocialista del Tercer
Reich y crean nuevos materiales, como vídeos, música, juegos de ordenador
o folletos con contenido político. Y, por supuesto, el caso de Daesh es un
ejemplo obligado de la maquinaria propagandística de una organización
terrorista, que elevó esta actividad a un nivel extremadamente profesional e
hizo de las actividades de "comunicación" una parte clave para la consecución
de sus objetivos. Los actores subversivos son muy conscientes del poder de
una propaganda bien diseñada para sembrar el miedo y, por tanto, debilitar y
desmoralizar al adversario, pero también para reclutar a quienes buscan
protección debido a este miedo sembrado, aunque no exclusivamente. El
reclutamiento tiene múltiples capas y difundir el miedo es sólo una de ellas. Es
una especie de motivación negativa. La positiva se basa en el reclutamiento a
través de narrativas positivas, imágenes de una vida feliz y la creación de
identidades (compartidas), comunidad y unión. Los individuos se radicalizan y
reclutan por diferentes motivos, y los motivos ideológicos son sólo uno de
muchos, incluidos motivos de identidad, privaciones sociales y económicas,
estigmatización, marginación, discriminación, tensión etnocultural, deseo de un estatus super
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 91

se convierten en indignación moral y sentimientos de venganza (Bjørgo y Horgan 2009;


Schmid 2013). Estos individuos podrían ser vulnerables ante la manipulación. Las
organizaciones neonazis reclutan a un número de personas simplemente con la esperanza
de hacer amigos. De manera similar, Daesh reclutó a varias mujeres con la esperanza de
conseguir un marido y una familia; estaban convencidos de que eso es lo que recibirían al
unirse.
Las razones de identidad juegan un papel especial en la radicalización y el reclutamiento.
La propaganda a menudo utiliza técnicas de manipulación que hacen hincapié en la identidad
del grupo: subirse al carro para persuadir a los individuos a unirse y seguir el curso de acción
que todos los demás están tomando, la técnica de la gente común para convencer apelando
al sentido común y a la gente común, y el falso dilema, que empuja a los individuos a decidir
cuál es su posición: elegir el otro lado o ser neutral significa ponerse del lado del enemigo (¡y
debes decidir ahora mismo porque es una cuestión de nuestra existencia futura!). La
propaganda trabaja con la brecha entre Nosotros y Ellos. Dicho simplemente, la propaganda
necesita un enemigo, incluso si ese enemigo es inventado. La creación de amenazas internas
y externas se logra buscando grupos dignos de culpa (O'Shaughnessy 2004) porque es más
fácil definir quiénes somos por lo que no somos y unificarnos contra las amenazas,
independientemente del mundo que nos rodea. . La gente sabe lo que odia, pero es más
ambivalente acerca de sus preferencias (O'Shaughnessy 2004).

El desarrollo de Internet y las redes sociales ha influido en los procesos de radicalización


y reclutamiento de tal manera que ha abierto nuevas formas de llamar la atención sobre
personas vulnerables en todo el mundo.
Internet y las redes sociales trajeron nuevos métodos para conectar e influir en los procesos
de identificación colectiva (Caiani y Parenti 2013).
El actual sistema de algoritmos encierra a los usuarios en burbujas sociales en cuanto a
conexiones y en burbujas de información en cuanto a los contenidos que consumen. Los
intentos de personalizar y mostrar el contenido en línea tanto como sea posible basándose
en la actividad en línea de un usuario tienen, por lo tanto, un lado oscuro: los usuarios
quedan encerrados en pequeños universos, a veces ni remotamente cercanos a la realidad.
Zeynep Tufekci habla de YouTube como una herramienta perfecta para la radicalización en
sentido amplio. Describe cómo YouTube ofrece al usuario contenidos cada vez más radicales
y extremos para captar la máxima atención. La búsqueda y visualización de vídeos sobre
Donald Trump condujo a vídeos sobre la negación del Holocausto y los supremacistas
blancos; Los vídeos sobre carreras dieron lugar a vídeos dedicados a las ultramaratones.
Así, también hay aspectos técnicos que, debido a nuestra curiosidad natural por lo
desconocido, pueden conducirnos en la dirección de
Machine Translated by Google

92 M. MAREŠ Y P. MLEJNKOVÁ

desinformación y propaganda (Tufekci 2018). Combinado con una cámara de


resonancia llena de usuarios con ideas afines que proporciona a los individuos la
ilusión de un acuerdo masivo, los usuarios obtienen más confianza, lo que los incita
a hablar de manera más radical en el espacio en línea. En algunos casos, esto
también podría resultar en una motivación cada vez mayor para involucrarse en actos
fuera de línea, como actividades criminales, violencia o incluso terrorismo.
Después de todo, la información engañosa también tiene el potencial de poner en
peligro la seguridad pública. El aumento de los conflictos en la sociedad, la
radicalización o la siembra de desconfianza están sólo a un pequeño paso de
situaciones que ponen en peligro la salud o la vida pública. Es bastante fácil crear
pánico con un disparo, y la desinformación y los materiales manipulados pueden
funcionar de manera similar en el mundo virtual. Chesney y Citron (2018) citan un
ejemplo de desinformación intencionada emitida por la Agencia Rusa de Investigación
de Internet, que afirmaba que se había producido un desastre químico en Luisiana y
un brote de ébola en Atlanta. El daño real causado por esta desinformación fue, en
última instancia, mínimo, ya que ambas historias carecían de pruebas y los hechos
eran fáciles de verificar. Sin embargo, los vídeos deepfake pueden mejorar
sustancialmente la verosimilitud de la desinformación.
El uso de información intencionalmente engañosa también podría representar un
peligro para la seguridad nacional, alterar las relaciones internacionales y socavar la
diplomacia. Debido a la desinformación, se podría crear presión para responder
rápidamente, dañando las relaciones internacionales y aumentando la probabilidad
de que estalle un conflicto. Las relaciones internacionales podrían verse perturbadas.

A medida que Internet, las redes sociales y los métodos de recopilación de datos
se han desarrollado, también han progresado y transformado los objetivos de los
desinformadores y propagandistas, que ya no se limitan únicamente a la difusión de
información, contenidos y narrativas manipuladores. Las posibilidades actuales de
recopilación de datos sobre los usuarios de Internet y el público objetivo permiten que
la propaganda y la desinformación se centren más allá de influir en las actitudes y el
comportamiento para controlar las redes entre contactos, las interconexiones entre
personas en el espacio virtual y la fuerza de estas interconexiones. La victoria final ya
no se limita a la difusión de narrativas, sino a ganar control sobre la red a través de
narrativas que pueden difundirse. Con conocimiento de la estructura y configuración
de una red, el entorno tecnológico de Internet hace que sea fácil de manipular de la
forma prevista, reconfigurando vínculos entre usuarios y redes confiables. Usando
terminología militar, la derrota es cuando uno ha perdido el control sobre su propia
red. Es posible influir con
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 93

con quién se comunican los usuarios, con qué usuarios conocen virtualmente y
quién se considera una fuente confiable. Es fácil identificar, por ejemplo, a los
usuarios antisistema e influir en ellos. Las conexiones naturales pueden
manipularse, pueden conectarse intencionalmente entre sí y la conexión mutua
puede intensificarse intencionalmente. Una vez que se identifica a un grupo como
encerrado en una burbuja social sin casi ninguna influencia sobre la sociedad
mayoritaria, nuevamente es posible interferir y, basándose en datos, ampliar y
fortalecer sus vínculos fuera de la burbuja, por ejemplo, basándose en datos
relativos a la actividades de ocio de dichos usuarios. La oposición antisistema
puede reforzarse artificialmente. Es importante tener esto en cuenta cuando se
habla de vulnerabilidades porque las investigaciones muestran que la estructura
de las relaciones sociales entre los individuos influye en las actitudes y el comportamiento.
Según Hwang (2019), la estructura de una red puede influir en la afiliación
política, los hábitos de salud y la probabilidad de divorcio. La manipulación de
las conexiones de red a nivel micro puede afectar la estructura de las actitudes,
el comportamiento de un grupo objetivo o incluso la sociedad en su conjunto.
En definitiva, la gran estrategia de los actores que crean campañas de
desinformación y propaganda es explotar todas las posibles vulnerabilidades de
los individuos, así como las vulnerabilidades del sistema, a nivel psicológico,
cognitivo y técnico.

3.5 Defensa y protección contra la propaganda y la


desinformación

El alcance reciente de las amenazas antes analizadas relacionadas con la


desinformación y la propaganda también ha provocado una reacción contraria.
Los gobiernos nacionales, las organizaciones internacionales y las organizaciones
no gubernamentales, así como las empresas privadas, han adoptado diversas
medidas para aumentar la resiliencia de las sociedades. La reacción a la
expansión del islamismo ha aumentado desde mediados de la década de 2000
(sobre todo bajo el paraguas de la lucha contra la radicalización en línea). Diez
años después, la nueva forma de guerra política e híbrida rusa ha dado lugar a
una respuesta decidida en varios países europeos y norteamericanos y a nivel
internacional. Sin embargo, la percepción de la intensidad de la amenaza difiere
entre varios países y actores (Scheidt 2019, 19).
La participación de las instituciones de defensa en el proceso de contrarrestar
la propaganda y la desinformación demuestra la importancia de esta cuestión
desde el punto de vista de la política de seguridad contemporánea. El concepto
tradicional de defensa psicológica ha ganado nueva importancia en los países bajo la
Machine Translated by Google

94 M. MAREŠ Y P. MLEJNKOVÁ

ataque de la 'guerra política 2.0' (Rossbach 2017). La nueva necesidad de una defensa
psicológica está fuertemente tematizada en Suecia y Estonia.
Según el gobierno estonio, la defensa psicológica consiste en informar a la sociedad y
aumentar el nivel de información sobre actividades contrarias al orden constitucional y a los
valores sociales. El concepto pretende ser proactivo para aumentar preventivamente la
resiliencia de la sociedad en posiblesˇ tiempos de crisis (Cerve nová 2019; Kaitseministeerium
ˇ
2017).
Respecto a Suecia, Rossbach (2017) habla de tres componentes: contrarrestar el engaño y
la desinformación, incluida la propaganda (todo lo hostil); garantizar que las autoridades
gubernamentales puedan comunicarse con el público en cualquier crisis, incluida la guerra;
y fortalecer la voluntad de la población de defender el país. Las operaciones de información y
psicológicas, las operaciones de influencia y la resiliencia contra amenazas híbridas vuelven
a ser temas importantes de la agenda de defensa (Janssen y Sünkler 2019).

El sector civil ha reaccionado ante esta nueva dimensión de amenaza de diversas


maneras. Los gobiernos y las organizaciones no gubernamentales comprometidas de la esfera
de la sociedad civil han lanzado nuevas campañas de persuasión y educación. Se han
fundado iniciativas de verificación de hechos y mejora de la confianza (Comité Directivo de
Derechos Humanos, Consejo de Europa 2019, 37–40), incluidos proyectos para mejorar la
alfabetización mediática y digital individual y la capacidad de reconocer noticias falsas (Misión
Permanente de la República Checa). República ante la ONU, la OSCE y otras organizaciones
internacionales en Viena 2017). El fortalecimiento de los medios serios en la lucha contra la
desinformación también se ha convertido en un elemento importante (Brodnig 2019, 96). Se
han adoptado nuevas restricciones legales e internas, incluidas nuevas reglas y acciones de,
entre otros, Facebook y Twitter contra la desinformación china (sobre medidas y contramedidas,
véanse los capítulos 7 y 8) (Reuters 2019). Los argumentos que apoyan la necesidad de
potenciar la resiliencia se pueden escuchar y leer casi a diario. Una de ellas fue una encuesta
realizada en marzo de 2019 con una muestra representativa de mil adultos de la República
Checa. Entre otros hallazgos, los datos mostraron que sólo el 23 por ciento sabía
correctamente que los motores de búsqueda de Internet proporcionan resultados diferentes
cuando diferentes usuarios ingresan la misma palabra clave, de modo que los anuncios
difieren para diferentes usuarios. Solo el 35 por ciento sabía correctamente que lo que vemos
en nuestros muros de Facebook se filtra en función de nuestro comportamiento en esta red
social (Gregor y Mlejnková 2019).
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 95

En resumen, las principales pruebas de la titulización en respuesta a la reciente ola de


propaganda y desinformación a nivel gubernamental (incluido el intergubernamental) son:

• Partes de conceptos estratégicos de seguridad y materiales similares (o incluso


documentos especializados), que incluyen la etiqueta de este problema como una
amenaza a la seguridad y una descripción de las contramedidas, por ejemplo, la
Auditoría
ˇ de Seguridad Nacional de la República Checa de 2016 (Vláda
República de Ceské ,2016); •
Nuevas normas jurídicas y conductas voluntarias destinadas a contrarrestar la
desinformación, por ejemplo, el Código de prácticas de la Unión Europea sobre
Desinformación (Comisión Europea 2018);
• Redirección de las instituciones de seguridad tradicionales y establecimiento de nuevas
instituciones especializadas que contrarresten la propaganda y la desinformación
(recientemente, principalmente en defensa contra amenazas híbridas), como el
establecimiento del Centro Europeo de Excelencia para
Contrarrestar las amenazas híbridas (2017);
• Investigación y adquisición de herramientas tecnológicas especializadas contra la
desinformación y la propaganda, incluida la defensa y protección contra la inteligencia
artificial al servicio de estos fenómenos, por ejemplo, el programa de software
Propaganda Web Crawler creado en la Universidad de Masaryk en 2019 (Panˇcík y
Baisa 2019). , la herramienta de verificación automática de hechos del gobierno sueco
y su emisora pública, o una herramienta que actualmente está planificando una unidad
cibernética del ejército alemán que puede identificar propaganda y detectar la influencia
de la inteligencia artificial sobre el público (Kommando Cyber­ und Informationraum ,
sin fecha); • Investigaciones sobre propaganda y desinformación que pueden dañar los
intereses nacionales y/o interferencias que violen la ley, por
ejemplo, la investigación del Senado de los Estados Unidos sobre la interferencia rusa en
las elecciones estadounidenses de 2016 (Comité Selecto de Inteligencia, Senado de
los Estados Unidos 2019); y

• Operaciones reales contra la propaganda adversa y la desinformación, como el uso


continuo de blockchain en Estonia para combatir las noticias falsas desde 2019 (Krusten
2019).
Machine Translated by Google

96 M. MAREŠ Y P. MLEJNKOVÁ

3.6 Conclusión
La propaganda y la desinformación se perciben como una amenaza y, por tanto,
los objetos de referencia dependen de los intereses de seguridad. Si nos centramos
–desde una perspectiva realista– en los Estados como los actores más importantes
de la política internacional, podemos identificar la soberanía, la estabilidad del
régimen y la riqueza de los ciudadanos como los valores protegidos más
importantes. La influencia de la propaganda y el uso de desinformación con el
objetivo de dañar estos intereses se percibe como una amenaza a la seguridad
relacionada con la fuente de dicha propaganda y desinformación. Desde el punto
de vista de las fuerzas políticas decisivas contemporáneas en los países
occidentales (incluida la política oficial de las organizaciones internacionales en
el área euroatlántica), los actores más amenazadores identificados en la época
contemporánea son los regímenes ruso y chino y los actores globalmente activos,
odiosos nacionalistas blancos y movimientos militantes yihadistas. Y al mismo
tiempo, están surgiendo nuevos campos de luchas de propaganda y desinformación, como el deb
La principal securitización de nuevas formas de propaganda y desinformación,
interconectada con el crecimiento masivo de personas que utilizan las redes
sociales, se produjo en la década de 2010, principalmente como reacción a la
campaña de movilización yihadista durante la guerra civil siria y el ascenso de
Daesh. con el inicio de la guerra híbrida rusa contra Ucrania y la intensificación
coincidente de la guerra política rusa contra Occidente, y recientemente, también
con el aumento de las habilidades propagandísticas chinas, incluido el potencial
amenazador de la inteligencia artificial. Sin embargo, la polarización de los debates
políticos internos hace que la actividad de varios movimientos políticos
(principalmente de extrema derecha) también sea una amenaza en el contexto de la seguridad in
A pesar de los muchos elementos nuevos de las recientes campañas de
propaganda y desinformación (entre otros, la posibilidad de la participación creativa
de 'ejércitos de trolls', oportunidades para personalizar el contenido y reconfigurar
la estructura de las relaciones virtuales, y la participación activa 'de base' de los
público (en términos de creación activa de contenido propagandístico y difusión
activa), la sustancia básica de la amenaza en diversas etapas del conflicto entre
dos o más actores sigue siendo similar a épocas anteriores.
Sin embargo, con la ayuda de términos adaptados a los acontecimientos actuales,
podemos explicar los principales rasgos característicos: durante esta era de guerra
política, la propaganda y la desinformación sirven para debilitar y desestabilizar
sistemáticamente al adversario, incluida la lealtad de los ciudadanos en los países
democráticos. países a sus regímenes. Después de escalar a la guerra híbrida, el
objetivo pasa a ser la eliminación de una reacción eficiente al uso mixto de
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 97

fuerzas convencionales y no convencionales (como fue el caso durante la crisis


de Crimea). Y, finalmente, durante un conflicto convencional, los objetivos de la
propaganda y la desinformación son tradicionales, pero con nuevos medios para
debilitar el apoyo a la guerra en la retaguardia (en el "frente interno") y destruir la
moral de los soldados (en la línea del frente real o en puestos específicos en
instalaciones militares, por ejemplo, operadores de drones, etc.). En definitiva, los
objetivos en todas las etapas son: control y dominación del entorno de información,
desestabilización de la sociedad o del sistema, promoción de intereses específicos
y establecimiento de un nuevo orden. La radicalización y la apatía, si bien son
subproductos de estos objetivos, también son en gran medida compañeros de cama.

Referencias
Albrecht, S., Fielitz, M. y Thurston, N. (2019). Introducción. En M. Fielitz y N. Thurston
(Eds.), Culturas posdigitales de extrema derecha: acciones en línea y consecuencias
fuera de línea en Europa y EE. UU. (págs. 7­22). Bielefeld: Transcripción Verlag.

Instituto Americano de Ciencias Biológicas. (2017). La comunidad científica considera


enfoques para la desinformación climática. https://www.aibs.org/bioscience­press­
releases/171129_science_community_considers_approaches_to_climate_disinformation.html.
Consultado el 15 de febrero de 2020.
Benkler, Y., Faris, R. y Roberts, H. (2018). Propaganda en red: manipulación,
desinformación y radicalización en la política estadounidense. Oxford: Prensa de la
Universidad de Oxford.
Bittman, L. (1972). El juego del engaño: la inteligencia checoslovaca en la guerra política
soviética. Siracusa: Corporación de Investigación de la Universidad
ˇ de Siracusa.
Bittman, L. (2000). Mezinárodní dezinformace: Cerná propaganda, aktivní opatˇrení a tajné
akce [Desinformación internacional: propaganda negra, medidas activas y acciones
de cobertura]. Praga: Mladá fronta.
Bjørgo, T. y Horgan, J. (Eds.). (2009). Dejando atrás el terrorismo. Abingdón:
Rutledge.
Bjørgo, T. y Mareš, M. (Eds.). (2019). Vigilantismo contra inmigrantes y minorías. Abingdon:
Routledge.
Brodnig, I. (2019). Lügen im Netz: Wie Fake­News, Populisten und unkontrol­
lierte Technik uns manipulieren. Viena: Brändstätter.
Buchar, J. (2017). Anexe Krymu (Anexión de Crimea). En Šír, Jan et al. (Eds.), Ruská
agrese proti Ukrajinˇe [Agresión rusa hacia Ucrania] (págs. 94­113). Praga: Karolinum.

Buzan, B., Wæver, O. y de Wilde, J. (1998). Seguridad: un nuevo marco para el análisis.
Londres: Lynne Rienner.
Machine Translated by Google

98 M. MAREŠ Y P. MLEJNKOVÁ

Caiani, M. y Parenti, L. (2013). Grupos de extrema derecha europeos y americanos


e Internet. Abingdon: Routledge.
Campión, KK (2015). Bajo la sombra de las espadas: propaganda del hecho en la historia del terrorismo.
Tesis doctoral. Townsville: Universidad James Cook. https://researchonline.jcu.edu.au/48293.
Consultado el 14 de febrero de 2020.
Capoccia, G. (2005). Defender la democracia: reacciones al extremismo en la Europa de entreguerras.
Baltimore y Londres: The John Hopkins University Press.
Carmón, Y. (2004). Evaluación de la credibilidad de las amenazas de las 'Brigadas Abu Hafs Al­Masri'.
Washington: Instituto de Investigación de Medios de Oriente Medio. https://www.memri.org/reports/
assessing­credibility­abu­hafs­al­masri­brigades­threats. Consultado el 14 de febrero de 2020.
ˇ ˇ
Cerve nová, T. (2019). Estonsko: koncept psychologické obrany. [Estonia: Concepto de Defensa
Psicológica]. Tesis de licenciatura. Brno: Universidad Masaryk.
Chesney, B. y Citron, D. (2018). Deep Fakes: un desafío inminente para la privacidad, la democracia y
la seguridad nacional. Trabajo de investigación disponible en SSRN Electronic Journal. https://
papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954 . Consultado el 12 de febrero de 2020.

Conway, M. y Courtney, M. (2018). Extremismo violento y terrorismo en línea.


En 2017. Resumen del año: Red de Excelencia. Dublín: Red de excelencia VOX­Pol en investigación
sobre extremismo político violento. https://www.voxpol.eu/download/vox­pol_publication/
YiR­2017_Web­Version.pdf .
Consultado el 12 de febrero de 2020.

Cowan, D. y Cook, C. (2018). ¿Lo que hay en un nombre? Operaciones psicológicas versus operaciones
de apoyo a la información militar y un análisis del cambio organizacional. Revisión militar. https://
www.armyupress.army. mil/Journals/Military­Review/Online­Exclusive/2018­OLE/Mar/PSYOP/.

Consultado el 12 de febrero de 2020.

Cullen, PJ y Reichborn­Kjennerud, E. (2017). Proyecto de lucha contra la guerra híbrida del MCDC:
comprensión de la guerra híbrida, un proyecto de campaña de desarrollo de capacidades
multinacionales. Londres: Campaña de desarrollo de capacidades multinacionales. https://
assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/647776/
dar_mcdc_hybrid_warfare.pdf . Consultado el 12 de febrero de 2020.

Edney, K. (2014). La globalización de la propaganda china: poder internacional y cohesión política


interna. Nueva York: Palgrave Macmillan.
Emmers, R. (2007). Puesta en seguridad. En A. Collins (Ed.), Estudios de seguridad contemporáneos
(págs. 109­125). Oxford: Prensa de la Universidad de Oxford.
Centro Europeo de Excelencia para Contrarrestar las Amenazas Híbridas. (2017). ¿Qué es el COE
híbrido? https://ec.europa.eu/digital­single­market/en/news/code­practice­disinformation. Consultado
el 12 de febrero de 2020.
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 99

Comisión Europea. (2018). Código de prácticas sobre desinformación. https://


ec.europa.eu/digital­single­market/en/news/code­practice­disinformation .
Consultado el 12 de febrero de 2020.

Fromm, R. y Kernbach, B. (2001). Rechtsextremismus im Internet: Die neue Gefahr.


Múnich: Olzog Verlag.
Galeotti, M. (2016). La hidra de Putin: dentro de los servicios de inteligencia de Rusia.
Londres: Consejo Europeo de Relaciones Exteriores. https://www.ecfr.eu/page/­/
ECFR_169_­_INSIDE_RUSSIAS_INTELLIGENCE_SERVICES_
(WEB_AND_PRINT)_2.pdf. Consultado el 10 de febrero de 2020.
Gattinara, PC y Froio, C. (2019). Llegar 'correctamente' a las noticias: movilización de
base de extrema derecha y cobertura mediática en Italia y Francia. Política europea
comparada, 17 (5), 738–758. https://doi.org/10.1057/s41295­018­0123­4 .

Gerwehr, S. y Glenn, RW (2000). El arte de las tinieblas: engaño y operaciones


urbanas. Santa Mónica: Corporación RAND. https://www.rand. org/pubs/
monograph_reports/MR1132.html. Consultado el 12 de febrero de 2020.
Gregor, M. y Mlejnková, P. (2019). Encuesta sobre resiliencia de la información de la
sociedad checa: datos recopilados por la agencia Collect. Archivo de los Autores.
Hartig, F. (2016). Diplomacia pública china: el surgimiento del Instituto Confucio.
Londres y Nueva York: Routledge.
Howard, PN y Bradshaw, S. (29 de noviembre de 2019). China se une al orden global
de desinformación. El estratega. https://www.aspistrategist.org. au/china­se­une­the­
global­disinformation­order/. Consultado el 12 de febrero de 2020.
Hwang, T. (2019). Maniobra y manipulación: sobre la estrategia militar de la guerra de
información en línea. Carlisle: Instituto de Estudios Estratégicos.
Ingram, HJ (2016). Una breve historia de la propaganda durante los conflictos. La
Haya: Centro Internacional de Lucha contra el Terrorismo. https://icct.nl/publication/
a­brief­history­of­propaganda­during­conflict­a­lesson­for­counter­terrorism­str ategic­
communications/. Consultado el 12 de febrero de 2020.
Instituto para el Diálogo Estratégico. (2017). Aliados: El Kremlin, AfD, la extrema
derecha y las elecciones alemanas. Presione soltar.
Jandecková, V. (2018). Falešné hranice: Pˇríbˇehy akce „Kámen“ 1948–1951 [Falsas
fronteras: la historia de la acción “Piedra” 1948–1951]. Praga: Argo.
Janssen, E. y Sünkler, S. (2019). Hybride PsyOps: Info­Kriege und Mein­ungswaffen
als Teile modernen Konfliktaustragung. K­ISOM, 7 (6), 72–75.
Kaitseministerio. (2017). Concepto de seguridad nacional. http://www.kaitsemin
isteerium.ee/sites/default/files/elfinder/article_files/
national_security_concept_2017_0.pdf. Consultado el 12 de febrero de 2020.
Klapsis, A. (2015). Una alianza impía: la extrema derecha europea y la Rusia de Putin.
Bruselas: Centro Wilfried Martens de Estudios Europeos.
Machine Translated by Google

100 M. MAREŠ Y P. MLEJNKOVÁ

Kommando Cyber­ und Informationraum. (Dakota del Norte). https://www.bundeswehr.de/de/organisation/


cyber­und­informationsraum/kommando­und­organisation­cir/kommando­cyber­und­informationsraum .
Consultado el 20 de diciembre de 2020.
Krusten, M. (2019). Luchando contra las noticias falsas con Blockchain, E­Estonia. https://e­estonia.com/
fighting­fake­news­with­blockchain/. Consultado el 10 de febrero de 2020.
Laruelle, M. (Ed.). (2015). Eurasianismo y extrema derecha europea: remodelación
La relación Europa­Rusia. Lanham: Libros de Lexington.
Littler, M. y Lee, B. (Eds.). (2020). Extremismos digitales: lecturas sobre la violencia, la radicalización y
el extremismo en el espacio online. Cham: Palgrave Macmillan.
Lord, C. y Barnett, FC (1989). Introducción. En C. Lord & FC Barnett (Eds.), Guerra política y operaciones
psicológicas: repensar el enfoque estadounidense (págs. xi­xxii). Washington: Prensa de la Unidad
de Defensa Nacional, Centro de Información de Estrategia Nacional.

Macdonald, S., Jarvis, L., Chen, T. y Aly, A. (Eds.). (2016). Extremismo violento en línea: nuevas
perspectivas sobre el terrorismo e Internet. Abingdon: Routledge.
Mareš, M. (2017). Combatientes extranjeros en Ucrania: análisis de riesgos desde el punto de vista de la
OTAN. En K. Rekawek (Ed.), ¿ No sólo Siria? El fenómeno de los combatientes extranjeros en una
perspectiva comparada (págs. 31­39). Ámsterdam: IOS Press.

McFate, M., Holliday, R. y Damon, B. (2012). ¿Qué quieren saber realmente los comandantes? Lecciones
aprendidas del sistema de terreno humano del ejército de EE. UU. De Irak y Afganistán. En J.
Laurence y M. Matthews (Eds.), El manual de psicología militar (págs. 92­113). Oxford: Prensa de la
Universidad de Oxford.
Mediana. (2017). Výzkum pro volební studio CRˇ [Encuesta electoral para la Televisión Checa]. http://
www.median.eu/cs/wp­content/uploads/2017/10/Vyz kum_pro_volebni_studio.pdf. Consultado el 13
de febrero de 2020.
Mittler, B. (2008). ¿Propaganda popular? Arte y cultura en la China revolucionaria. Actas de la Sociedad
Filosófica Estadounidense, 152(4), 466–489.
Mochˇtak, M. y Holzer, J. (2017). Violencia electoral en la Rusia de Putin: autoritarismo moderno en la
práctica. Estudios de estados y sociedades en transición, 9(1), 35–52.

Myre, G. y Domonoske, C. (24 de mayo de 2017). ¿Qué significa cuando ISIS se atribuye la
responsabilidad de un ataque? Radio Pública Nacional. https://www.npr.org/sections/thetwo­way/
2017/05/24/529685951/what­does­it­mean­when­isis­claims­responsibility­for­an­attack .
Consultado el 10 de febrero de 2020.
O'Shaughnessy, N. (2004). Política y propaganda: armas de seducción masiva.
Manchester: Prensa de la Universidad de Manchester.
Panˇcík, J. y Baisa, V. (2019). Rastreador web de propaganda (software). Brno:
Facultad de Informática, Universidad Masaryk.
Misión Permanente de la República Checa ante las Naciones Unidas, la OSCE y otras organizaciones
internacionales en Viena. (2017). Los estudiantes checos ganaron el tercer lugar en la competencia
entre pares #UnitedCVE de la OSCE. https://www.mzv.cz/mission.
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 101

viena/en/latest/czech_students_won_3rd_place_in_osce.html. Consultado el 10 de febrero de


2020.
Pihelgas, M. (2015). Introducción. En M. Pihelgas (Ed.), Mitigar los riesgos que surgen de
los ciberataques con bandera falsa y sin bandera (págs. 6–7). Tallin: Centro de
Excelencia de Ciberdefensa Cooperativa de la OTAN. https://ccdcoe.org/uploads/
2018/10/False­flag­and­no­flag­20052015.pdf . Consultado el 10 de febrero de 2020.
Pihelgas, M. y Tammekänd, J. (2015). El taller. En M. Pihelgas (Ed.), Mitigar los riesgos
que surgen de los ciberataques con bandera falsa y sin bandera (págs. 24­36). Tallin:
Centro de Excelencia de Ciberdefensa Cooperativa de la OTAN. https://ccdcoe.org/
uploads/2018/10/False­flag­and­no­flag­20052015.pdf. Consultado el 12 de febrero de
2020.
Polyakova, A. y col. (2016). Los caballos de Troya del Kremlin: la influencia rusa en
Francia, Alemania y el Reino Unido. Washington: Consejo Atlántico. https://
www.atlanticcouncil.org/in­ Depth­research­reports/report/kremlin­trojan­horses/.
Consultado el 15 de febrero de 2020.
Polyakova, A. y col. (2017). Los caballos de Troya del Kremlin: la influencia rusa en Grecia,
Italia y España. Washington: Consejo Atlántico. https://www.atl anticcouncil.org/wp­
content/uploads/2017/11/The_Kremlins_Trojan_Hor∙ses_2_web_1121.pdf. Consultado
el 15 de febrero de 2020.
Polyakova, A. y col. (2018). Los caballos de Troya del Kremlin: la influencia rusa en
Dinamarca, Países Bajos, Noruega y Suecia. Washington: Consejo Atlántico. https://
www.atlanticcouncil.org/in­ Depth­research­reports/report/the­kremlins­trojan­horses­3­0/.
Consultado el 15 de febrero de 2020.
Rabasa, A. y Benard, C. (2015). Eurojihad: patrones de radicalización islamista y terrorismo
en Europa. Nueva York: Cambridge University Press.
Ramsay, G. y Robertshaw, S. (2019). Noticias sobre armas: RT, Sputnik y desinformación
dirigida. Londres: King's College de Londres. https://www.kcl. ac.uk/policy­institute/
assets/weaponising­news.pdf. Consultado el 20 de febrero de 2020.
Rawnsley, GD (2013). “Trabajo de pensamiento” y propaganda: diplomacia pública y
relaciones públicas chinas después de la plaza de Tiananmen. En J. Auerbach y R.
Castronovo (Eds.), Manual de estudios de propaganda de Oxford (págs. 147­162).
Oxford: Prensa de la Universidad de Oxford.
Reuters. (2019, 19 de agosto). Cuadro informativo: seguimiento de las campañas de lucha
contra la desinformación de Facebook en 2019. Reuters. https://www.reuters.com/
article/us­facebook­disinformation­factbox/factbox­track­facebooks­fight­against­disinf
ormation­campaigns­in­2019­idUSKCN1V91V4. Consultado el 9 de febrero de 2020.
Rossbach, Nueva Hampshire (2017). Defensa psicológica: vital para la capacidad de
defensa de Suecia. En HC Wiklund, D. Faria, B. Johansson y J. Öhrn­Lundin (Eds.),
Perspectiva estratégica 7: Perspectivas sobre la seguridad nacional en un nuevo
entorno de seguridad (págs. 45–52). Estocolmo: Agencia Sueca de Investigación de
Defensa.
Machine Translated by Google

102 M. MAREŠ Y P. MLEJNKOVÁ

Runzheimer, J. (1962). Der Überfall auf den Sender Gleiwitz im Jahre 1939.
Vierteljahrshefte für Zeitgeschichte, 10(4), 408–426.
Sakas, ME y Fendt, L. (5 de diciembre de 2019). La ciudad de Denver informará falsamente
sobre una emergencia climática. Radio pública de Colorado. https://www.cpr.org/2019/12/05/
climate­activists­used­disinformation­and­imitado­the­city­of­denver­to­falsely­report­a­
climate­emergency/ . Consultado el 8 de febrero de 2020.
Scheidt, M. (2019). La Unión Europea versus las campañas de desinformación externa en
medio de la guerra de información: ¿listas para la batalla?
Brujas: Colegio de Europa. https://www.coleurope.eu/study/eu­internati onal­relations­and­
diplomacy­studies/research­publications/eu­diplomacy­papers. Consultado el 12 de
febrero de 2020.
Schilk, F. (2017). Souveränität statt Komplexität: Wie das Querfront­Magazin COMPACT die
politische Legitimationskrise der Gegenwartbearbeitet.
Münster: UNRAST Verlag.
Schmid, A. (2013). Radicalización, desradicalización, contraradicalización: una discusión
conceptual y revisión de la literatura. Trabajo de investigación sobre ICCT.
La Haya: ICCT. https://www.icct.nl/download/file/ICCT­Schmid­Radicalisation­De­
Radicalisation­Counter­Radicalisation­March­2013.pdf . Consultado el 16 de febrero de
2020.
Comité Selecto de Inteligencia, Senado de los Estados Unidos. (2019). Campañas rusas de
medidas activas e interferencia en las elecciones estadounidenses de 2016 Volumen 2: El
uso de las redes sociales por parte de Rusia y opiniones adicionales. Washington: Senado
de los Estados Unidos. https://www.intelligence.senate.gov/sites/default/files/documents/
Report_Volume2.pdf . Consultado el 5 de febrero de 2020.
Shekhovtsov, A. (2017). Rusia y la extrema derecha occidental: Tango Noir. Londres:
Rutledge.
Shultz, RH (1989). Estrategias políticas para la guerra revolucionaria. En FC
Barnett & C. Lord (Eds.), Guerra política y operaciones psicológicas: repensar el enfoque
estadounidense. Washington: Prensa de la Unidad de Defensa Nacional, Centro de
Información de Estrategia Nacional.
Spruds, A., Rožukalne, A., Sedlenieks, K., Daugulis, M., Potjomkina, D. y Tölgyesi, B., et al.
(2016). El trolling de Internet como herramienta de guerra híbrida: el caso de Letonia. Riga:
OTAN Starcom CoE. https://www.stratcomcoe.org/internet­trolling­hybrid­warfare­tool­case­
latvia­0 . Consultado el 4 de febrero de 2020.
Comité Directivo de Derechos Humanos, Consejo de Europa. (2019). Guía de prácticas buenas
y prometedoras para conciliar la libertad de expresión con otros derechos y libertades, en
particular en sociedades culturalmente diversas.
Estrasburgo: Consejo de Europa.
Tufekci, Z. (10 de marzo de 2018). YouTube, el gran radicalizador. Los New York Times. https://
www.nytimes.com/2018/03/10/opinion/sunday/you tube­politics­radical.html. Consultado el
20 de febrero de 2020.
Machine Translated by Google

3 PROPAGANDA Y DESINFORMACIÓN COMO AMENAZA A LA SEGURIDAD 103

Vacca, J. (Ed.). (2019). Propaganda terrorista en línea, reclutamiento y radiación.


calización. Boca Ratón: CRC Press.
ˇ
República de Vláda Ceské. (2016). Auditoría de Seguridad Nacional. Praga: Ministerio de
Interior de la República Checa. https://www.mvcr.cz/cthh/clanek/audit­nar
odni­bezpecnosti. Consultado el 4 de febrero de 2020.
Wejkszner, A. (2016). Pa ´nstvo Islamiskie: Narodziny nowego kalifatu?. Varsovia:
Difín.
Zhirnov, E. (2003, 13 de enero). Desinformbyuro: 80 let sovietskoy
sluzhbe desinformación. Kommersant. https://www.kommersant.ru/doc/
358500. Consultado el 3 de febrero de 2020.
Machine Translated by Google

CAPÍTULO 4

Discurso de etiquetado

František Kasl

4.1 Introducción
El capítulo 7 de este volumen editado ofrece información sobre las medidas
actuales adoptadas por los países de la UE contra la desinformación y la
propaganda en el entorno en línea. Un aspecto crucial de estas medidas
legislativas o administrativas, que debe tenerse en cuenta, es su conformidad
con el marco jurídico europeo más amplio. Sobre sus componentes centrales
se ciernen los estándares de las sociedades democráticas europeas
consagrados conjuntamente en el Convenio Europeo de Derechos Humanos
(en adelante, "el Convenio"; TEDH 2019a) y respaldados por la jurisprudencia
del Tribunal Europeo de Derechos Humanos (TEDH) (TEDH 2019b ). ). Este
capítulo tiene como objetivo guiar al lector a través de la posición actual del
TEDH sobre la cuestión de las herramientas permitidas para combatir la desinformación y la

F. Kasl (B)
Instituto de Derecho y Tecnología, Facultad de Derecho, Universidad Masaryk, Brno,
República Checa Correo
electrónico: frantisek.kasl@law.muni.cz
URL: https://www.muni.cz/es/people/462266­frantisekkasl

© El autor(es), bajo licencia exclusiva para Springer Nature Switzerland 105


AG 2021 M. Gregor y P.
Mlejnková (eds.), Desafiando la propaganda y la desinformación en
línea en el siglo XXI, campañas políticas y comunicación, https://
doi.org /10.1007/978­3­030­58624­9_4
Machine Translated by Google

106 F. KASL

4.2 La desinformación en el contexto de la libertad de


expresión

La difusión de propaganda y desinformación constituye un entorno legal


desafiante, principalmente desde la perspectiva de etiquetar la permisibilidad
legal del contenido como un ejercicio de libertad de expresión.
Cuando se habla de desinformación en el contexto de la libertad de expresión,
a menudo chocan dos perspectivas valiosas sobre la información difundida. La
desinformación (ver Capítulo 1) se define principalmente en función de su carácter
engañoso, que representa la naturaleza deliberadamente fabricada de la
información sin tener en cuenta la verdad o los hechos disponibles, así como la
intención del autor de engañar a la audiencia promoviendo falsedades o
difundiendo. duda sobre hechos verificables (McGonagle 2017, 203). Es, por
tanto, la falta de veracidad y la insuficiente sinceridad de las intenciones del autor
las que permiten identificar la desinformación, entre otros contenidos.

Sin embargo, la categoría de desinformación o noticias falsas, una subcategoría


con particular relevancia en este contexto, abarca un amplio espectro de
contenido, que cubre temas que van desde inofensivos hasta ampliamente
impactantes (Katsirea 2018, 174). En cuanto a la clasificación de la desinformación
desde la perspectiva de la libertad de expresión, es el impacto del contenido lo
que es relevante para establecer una infracción de los derechos y libertades
fundamentales de los demás. El TEDH tiene una doctrina probada en el tiempo
con respecto a la difusión de información difamatoria por los medios tradicionales.
La principal distinción que se hace aquí es entre una acusación falsa sobre
hechos demostrables y juicios de valor subjetivos que forman opiniones, críticas
o especulaciones (Regules 2018, 15). La libertad de expresión periodística recibe
un amplio reconocimiento como componente central de una sociedad democrática,
que sirve como organismo de control público.1 Sin embargo, existen límites
reconocidos a través de los códigos éticos del periodismo desarrollados
tradicionalmente (Katsirea 2018, 171). Por lo tanto, la jurisprudencia del TEDH
opera con la expectativa de exactitud fáctica y verificación adecuada de las
fuentes por parte de los medios tradicionales.2 Como tal, las afirmaciones fácticas
demostrablemente falsas no reciben protección bajo la Convención (Regules 2018, 16). Ampliam

1 Sunday Times contra el Reino Unido, núm. 6538/74, §41, TEDH 1979; Observer and
Guardian contra Reino Unido, no 13585/88, §59, TEDH 1991.
2Tønsberg Blad AS y Marit Haukom c. Noruega, núm. 510/04, TEDH 2007; Bladet
Tromsø y Stensaas contra Noruega, núm. 21980/93, TEDH 1999.
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 107

A este respecto es la opinión de la Comisión de Venecia que establece un conjunto


de requisitos relevantes en el caso de una acusación de hecho difamatoria no
probada (Comisión de Venecia 2004). Por lo tanto, los contenidos que falsifican la
historia o niegan el Holocausto se encuentran entre los ejemplos clásicos de
expresiones mentirosas desprotegidas (Katsirea 2018, 177).
Sin embargo, este no es el problema habitual de las noticias falsas o el
contenido propagandístico. En lugar de difundir desinformación fáctica
demostrablemente falsa, las fuentes de dicho contenido proporcionan una
combinación más o menos sofisticada de descripciones fácticas abreviadas,
expresiones emocionales destacadas, fabulaciones especulativas y otras técnicas
de manipulación presentadas en detalle en capítulos anteriores. Esto presenta el
primer desafío a la clasificación de la desinformación en el marco de la libertad de
expresión. Debido a la manipulación a menudo meramente parcial de hechos
demostrables y al papel predominante del contenido que representa juicios de
valor, la aplicabilidad de la jurisprudencia disponible sobre la cobertura mediática
difamatoria es limitada. Además, dado que, en general, la mayoría de las noticias
de los medios consisten más en verdades socialmente acordadas y opiniones
subjetivas razonadas que en verdades absolutas probadas (Katsirea 2018, 176),
la cuestión de la veracidad en la desinformación es una cuestión de escala más
que de una evaluación bipolar. Por lo tanto, la mayor parte de la desinformación
debe percibirse como una forma de expresión protegida, a menos que se demuestre lo contrario.
Una consideración adicional de relevancia con respecto a la categoría de
discurso que representa la desinformación dada: el TEDH desarrolló a lo largo de
su jurisprudencia una jerarquía implícita de protección brindada al contenido
dependiendo de su propósito. Existe una tendencia claramente más fuerte a
otorgar protección a las expresiones de discurso político sobre el contenido
puramente comercial (Katsirea 2018, 173). Esto se refleja en particular a través del
margen de apreciación permitido, es decir, la libertad de las autoridades y los
tribunales nacionales para interpretar y limitar la protección proporcionada en virtud
de la Convención.3 Sin embargo, no está del todo claro qué nivel de protección en
esta jerarquía una pieza particular de desinformación debería recibir dada la
amplitud de posibles formas, contenidos y propósitos que constituyen estas
expresiones. Incluso si se puede argumentar que una cierta porción de noticias
falsas se genera principalmente con intenciones comerciales, más que políticas
(Katsirea 2018, 174), el objetivo de obtener ganancias no

3Markt Intern y Beermann c. Alemania, núm. 10572/83, TEDH 1990.


Machine Translated by Google

108 F. KASL

no excluye la expresión dada de la protección legal por defecto.4 Al mismo


tiempo, a pesar de que una gran parte de la desinformación más controvertida
se centra en cuestiones políticas, se requiere un examen más profundo y
específico del contenido particular para determinar su significado. naturaleza
como una forma valorada de expresión política democrática o más bien de
propaganda extranjera que constituye un abuso del marco protector de la
Convención.5
Por último, la intención del autor entra en juego a la hora de valorar su
buena fe en la difusión de la información facilitada. Las intenciones son de
carácter interno y subjetivo; Por lo tanto, sólo se dispone de pruebas indirectas
en este sentido. Si uno de los aspectos definitorios de la desinformación, en
comparación con la desinformación, es la intención de engañar por parte del
autor, existe una mala fe inherente relacionada con la difusión de
desinformación. Sin embargo, esto no significa que se pueda prescindir de la
evaluación de la buena fe, como sugiere Regules (2018, 16). Debe acreditarse
la mala fe, junto con la falsedad fáctica, para considerar desinformación el
contenido dado. Sin embargo, demostrar la mala fe puede no ser tan sencillo
en el caso de noticias falsas, especialmente si el contenido se basa en noticias
o fuentes anteriores. Si la intención del autor sólo puede verificarse
indirectamente, se trata de una cuestión de prueba que, por lo tanto, en un
caso particular debería excluir o permitir una defensa de la buena fe. La
confiabilidad de la información y las fuentes está cada vez más relativizada no
solo por las noticias falsas per se, sino en general a través de la democratización
de los medios y el entorno informativo en línea. Teniendo en cuenta el efecto
de las burbujas de filtro en los medios en línea (Flaxman et al. 2016), hay
suficiente espacio para argumentar sobre la base de buena fe de algunas
noticias falsas, lo que refleja la diversidad de perspectivas y opiniones
subjetivas compartidas libremente en una sociedad democrática. Esto plantea
entonces un desafío adicional a las medidas restrictivas contra contenidos etiquetados como
Para resumir este panorama inicial, la desinformación abarca una amplia
categoría de contenidos que pueden estar permitidos en virtud de la Convención
en grados muy variables. La versatilidad de este contenido tras una inspección
más cercana impide una clasificación sistemática; sin embargo, sí prevé tres

4Markt Intern y Beermann c. Alemania, núm. 10572/83, TEDH 1990.


5Kuhnen c. la República Federal de Alemania (inadmisible), núm. 12194/86, CEDH
1988.
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 109

Principales aspectos que indican la posición de determinados contenidos


catalogados como desinformación en el marco de la libertad de expresión:

• Probabilidad: En general, no se puede demostrar que la desinformación sea


falsa, pero contiene una mezcla de afirmaciones fácticas y juicios de valor
mal interpretados que pueden clasificarse como técnicas de manipulación.
La evaluación depende entonces de la presencia demostrable de
afirmaciones fácticas falsas en el
contenido particular. • Propósito: El alcance de la protección conforme a la
jurisprudencia del TEDH está influenciado por el propósito de la expresión.
Las noticias falsas tienen componentes de discurso político y comercial,
mientras que cada uno se encuentra en el espectro opuesto de la jerarquía.
Por lo tanto, la interpretación contextual del propósito del contenido
(co)determinará el alcance de la protección.
• Intención del autor: La buena fe del autor en las fuentes y finalidad del
contenido tiene relevancia para su protección. Aunque la desinformación
se caracteriza por la mala fe del autor, no existe evidencia directa posible
sobre la intención del autor, y las burbujas de filtro y otros aspectos de la
infosfera en línea pueden hoy constituir evidencia suficiente para una
defensa de buena fe en un caso particular. .

Esta discusión introductoria proporciona una indicación de la complejidad de ver


la desinformación desde la perspectiva de la libertad de expresión. Las siguientes
secciones proporcionarán una visión más detallada de los aspectos relevantes
que se insinúan o que se derivan de esta discusión.

4.2.1 Convenio Europeo de Derechos Humanos

Como ya se señaló, la Convención es un faro destacado en el marco europeo


de derechos y libertades fundamentales del individuo. Difícilmente se puede
exagerar su impacto unificador y armonizador en el enfoque para proteger estos
valores entre los estados miembros del Consejo de Europa. Gran parte de la
posición central dedicada a este marco se basa en la jurisprudencia integral del
TEDH, que a lo largo de los últimos 60 años (TEDH 2018) ha proporcionado una
interpretación orientadora sobre el alcance y la aplicación de las disposiciones
del Convenio. como su adaptación gradual a las nuevas tecnologías, sociales y
Machine Translated by Google

110 F. KASL

contextos políticos (Bychawska­Siniarska 2017, 9). El papel rector de la


jurisprudencia del TEDH en el contexto de la libertad de expresión permisible fue
reconocido explícitamente incluso por el Tribunal de Justicia de la Unión Europea
(TJUE)6. Como tal, la Convención y sus valores son una parte integral de los 47
instrumentos jurídicos. sistemas de los estados miembros del Consejo de Europa
(Comisión de Igualdad y Derechos Humanos 2017), que incluyen todos los
estados miembros de la UE, así como los estados adicionales de Europa en
general. De esta manera se establece el carácter vinculante de este tratado
internacional y su ineludible relevancia para el funcionamiento de las autoridades
públicas y la toma de decisiones de los tribunales nacionales en toda Europa (Bychawska­Siniar
Por todas estas razones, la jurisprudencia del TEDH merece especial atención al
considerar las medidas regulatorias permitidas por las instituciones europeas para
combatir la desinformación y la propaganda.
Cabe señalar además que, a pesar de una relación jurídica compleja y
prolongada entre la aplicación y el cumplimiento de la Convención y el marco de
la Unión Europea (Kuijer 2018), existe una estrecha superposición en la protección
brindada por estas estructuras legales para la libertad. de expresión. La
Convención fue la base de los valores consagrados en la Carta de Derechos
Fundamentales de la Unión Europea, que los alinea estrechamente (Lemmens
2001). Además, la actividad reciente del Parlamento Europeo indica una validez
continua de los esfuerzos hacia una interconexión más estrecha de estos marcos
legales supranacionales mediante la adhesión de la Unión Europea a la
Convención (Parlamento Europeo 2019). Debido a esta estrecha relación y a la
naturaleza básica de la Convención, este capítulo, siguiendo a otros académicos
(Sluijs 2012, 520), se centra predominantemente en la Convención y la
jurisprudencia del TEDH, al tiempo que reconoce la creciente relevancia
subsidiaria de la Carta de Derechos Humanos. Derechos Fundamentales de la
Unión Europea así como legislación constitucional o específica nacional. Luego,
la legislación de la UE se toma en consideración de manera más explícita solo en
la sección final cuando se analiza el marco existente para la (co)responsabilidad
de los proveedores de hosting.

6Buivids, C­345/17, §66, TJUE 2019, ECLI:EU:C:2019:122.


Machine Translated by Google

4 DISCURSO DE ETIQUETADO 111

4.2.2 Libertad de Expresión

La libertad de expresión constituye uno de los elementos centrales de la


Convención, consagrado en las disposiciones del artículo 10 y que estipula una
comprensión amplia del derecho fundamental individual a la libre expresión, así
como al acceso a la información. Se percibe como uno de los valores cardinales
europeos y se reitera en la mayoría de los documentos internacionales sobre
derechos humanos (Flauss 2009, 813). El tribunal lo describió como constituyendo
"uno de los fundamentos esenciales de una sociedad democrática y una de las
condiciones básicas para su progreso y para la realización personal de cada individuo".7
Es crucial resaltar en este punto que la jurisprudencia del TEDH sirve como
parte intrínseca de la estructura normativa de la Convención, formando un
conjunto de precedentes vinculantes con el estatus de normas jurídicas
imperativas que configuran el significado de las respectivas disposiciones como
tales. Esto permite que la Convención responda adecuadamente a la evolución
dinámica de las normas y valores, pero impone al lector un requisito adicional de
experiencia al buscar la interpretación de las disposiciones en las condiciones
actuales (Bychawska­Siniarska 2017, 10 ).

4.2.3 Doctrina de apreciación del margen

Parte de la calidad estructural del Convenio se refleja en la doctrina establecida


de apreciación del margen8 perseguida por el CEDH, que establece un grado de
discrecionalidad para las autoridades públicas y los tribunales nacionales con
respecto a la interpretación y aplicación del Convenio (Bychawska­Siniarska
2017, 10). Como tal, el margen difiere según las particularidades, como ocurre
con la protección de la libertad de expresión, cuyo margen es, según la
interpretación actual, en principio comparativamente bajo (Bychawska­Siniarska
2017, 10). Cualquier interferencia estatal con la libertad debe ser necesaria
mediante el cumplimiento de tres condiciones: la acción debe estar prescrita por
la ley, debe considerarse necesaria en una sociedad democrática y debe ser
proporcionada con respecto al objetivo perseguido (Greer 2000) . , 10). Estos
elementos de la llamada prueba de proporcionalidad se examinarán
detalladamente en una sección posterior de este capítulo.

7Lingens contra Austria, núm. 9815/82, §41, TEDH 1986.


8Handyside contra el Reino Unido, núm. 5493/72, §48, TEDH 1976.
Machine Translated by Google

112 F. KASL

4.2.4 Componentes de la libertad de expresión

El elemento constitutivo de la libertad de expresión más amplia es la libertad de


expresión a la que a menudo se hace referencia. Se basa en el principio de
proteger la libertad de cualquier individuo o comunidad de expresar opiniones e
ideas sin temor a represalias, censura o sanciones legales.
La posibilidad de expresar libremente las opiniones es una condición previa
necesaria para garantizar la libertad de conciencia (Olteanu 2015, 261). La libertad
de expresión, según lo dispuesto en el primer párrafo del artículo 10 de la
Convención, se compone de tres componentes constitutivos: la libertad de
mantener opiniones (libertad de pensamiento), la libertad de impartir información e
ideas (libertad de expresión) y la libertad de recibir información e ideas (libertad de
acceso).
La libertad de mantener opiniones es una condición previa lógica para otros
aspectos de la libre expresión. Su protección es general y casi absoluta, debido al
hecho de que es vista desde la perspectiva de la comunidad internacional como la
base de una sociedad democrática (Comité de Derechos Humanos de la ONU
2011).
En el contexto de la desinformación, presenta la justificación conceptual de la
existencia de la desinformación. Al sector público en un estado democrático no se
le permite imponer información unilateral o una interpretación de un evento
(Bychawska­Siniarska 2017, 13). Además, la diferencia entre disidencia, información
conspirativa y desinformación suele ser confusa y una cuestión de perspectiva
individual. La falta natural de información completa y el derecho de cada individuo
a una percepción e interpretación subjetiva de eventos o acciones proporcionan
una divergencia democrática de opiniones, pero también sirven como escudo
protector para los diseminadores de desinformación. Como se describe en el
Capítulo 1, existe una variedad de técnicas de manipulación que se pueden
emplear y grados de engaño asociados con la desinformación. Desde la perspectiva
jurídica, esta fina gradación puede marcar la diferencia entre el ejercicio de la
libertad fundamental y el abuso de su marco protector.

Sin embargo, la difusión de desinformación y propaganda va por su naturaleza


más allá de la mera libertad de pensamiento hasta su manifestación como
información compartida en la comunicación. Las dimensiones básicas de esta
libertad se relacionan con la gobernanza democrática y, por lo tanto, conciernen principalmente
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 113

libre competencia política9 y crítica al gobierno10 (Bychawska­Siniarska 2017,


14). Hay muchos matices de libertad de expresión que fueron considerados
por el TEDH en su jurisprudencia, ya sea en relación con opiniones políticas,
información sobre asuntos económicos,11 o manifestaciones de ideas
artísticas.12 La desinformación puede, en esencia, afectar a cualquiera de
estas categorías dadas que su contenido no se limite a un contexto particular.
El derecho del individuo a tener acceso a información e ideas debe
interpretarse en un sentido amplio, dando una base potencial al derecho a
tener acceso a la desinformación. Las opiniones e ideas de todos se forman en
gran medida a partir de aportaciones externas. Por lo tanto, nuestra capacidad
para hacer frente a información contradictoria o conceptos complejos es el
resultado de la exposición e interacción repetidas con piezas de información no
estructuradas y conflictivas, a partir de las cuales cada individuo forma su
visión subjetiva del mundo y sus opiniones sobre cuestiones y temas
particulares. En este contexto, combatir la desinformación o la propaganda
incluye medidas de educación y sensibilización (Barderi 2018, 7). Si la libertad
de expresión libera el potencial de la individualidad y la diversidad, el derecho
a acceder a la información es la base para el desarrollo individual del
pensamiento crítico (McPeck 2016). Sin embargo, el alcance de la libertad de
acceso se limita a las fuentes legales de información e ideas disponibles.13
Debido a la naturaleza inestablecida de las noticias falsas como expresiones,
no pueden verse como una base para su protección, sino simplemente como
una base para protegerlas. para la difusión lícita de opiniones y contenidos diversos.

9 Handyside contra el Reino Unido, núm. 5493/72, §42 y siguientes, TEDH 1976.

10Lingens contra Austria, núm. 9815/82, §34 y siguientes, TEDH 1986; ¸Sener c. Turquía,
núm. 26680/95, §25 y siguientes, TEDH 2000; Thoma contra Luxemburgo, núm. 38432/97, §32
y siguientes, TEDH 2001; Maronek c. Eslovaquia, núm. 32686/96, §46 y siguientes, TEDH 2001;
Dichand y otros c. Austria, núm. 29271/95, §25 y siguientes, TEDH 2002.
11Krone Verlag GmbH & Co. KG contra Austria (Nº 3), núm. 39069/97, §21 y siguientes,
TEDH 2003.

12Muller y otros c. Suiza, núm. 10737/84, §26 y siguientes, TEDH 1988.


13Osterreichische Vereinigung zur Erhaltung, Starkung und Schaffung c. Austria, núm.
39534/07, §28 y siguientes, TEDH 2013; Autronic AG contra Suiza, núm. 12726/87, §47, TEDH
1990.
Machine Translated by Google

114 F. KASL

4.2.5 Tipología del discurso

El discurso protegido por la Convención debe entenderse en un sentido amplio,


abarcando diversas formas de manifestación de ideas (incluidas, por ejemplo,
imágenes14 o acciones15) , así como sus formatos de expresión (incluidas,
por ejemplo, transmisiones de radio16 o documentos impresos17). En
consecuencia, diversos medios de producción, transmisión y distribución de
expresión están cubiertos por la libertad, tras el desarrollo de las tecnologías
de la información y la comunicación (Bychawska­Siniarska 2017, 18). La era
de Internet no solo ha traído nuevos formatos de expresión, sino también
nuevos desafíos en forma de plataformas globalizadas para compartir
información, que pueden restringir las libertades garantizadas a través de
medios tecnológicos controlados comercialmente (Oozeer 2014, 348). Esta
transformación tecnológica también puede verse como un facilitador crucial
que lleva a la creciente urgencia del problema de la desinformación.

4.2.5.1 Discurso de odio y otras formas de discurso no protegidas


Una categoría particular de discurso que debe tenerse en cuenta al discutir la
desinformación consiste en las formas establecidas de discurso sin protección,
es decir, contenido dirigido a la incitación a la violencia,18 la expresión de odio
hacia las minorías,19 o la negación del Holocausto o su abuso.20 El artículo
10 de la Convención no puede contener la exclusión explícita de estas
expresiones; sin embargo, la Convención debe leerse en su conjunto, lo que
pone en juego los artículos 14 y 17. El artículo 14 prohíbe la discriminación,
mientras que el artículo 17 impide cualquier interpretación de la Convención
que implique el derecho de cualquier parte a la destrucción o limitación de
cualquier derecho. derecho o libertad en virtud del Convenio en mayor medida
de lo que éste establece. Esto, de hecho, forma la base para las categorías
antes mencionadas de discurso desprotegido según lo establecido por la
jurisprudencia del TEDH (Bleich 2014, 292). De hecho, el discurso de odio puede requerir mu

14Muller y otros c. Suiza, núm. 10737/84, TEDH 1988. 15 Steel y otros


contra el Reino Unido, no. 24838/94, §88 y siguientes, TEDH 1998.
16 Groppera Radio AG y otros c. Suiza, núm. 10890/84, TEDH 1990.
17Handyside contra el Reino Unido, núm. 5493/72, TEDH 1976.
18 Sürek contra Turquía (núm. 3), núm. 24735/94, §40, TEDH 1999.

19Vejdeland y otros c. Suecia, núm. 1813/07, §8, TEDH 2012.


20PETA Deutschland contra Alemania, núm. 43481/09, §49, TEDH 2012.
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 115

de formas más allá del odio racial originalmente adjudicado.21 Estas incluyen el
odio étnico,22 la incitación a la violencia y el apoyo a una actividad terrorista,23 el
negacionismo y el revisionismo,24 el odio religioso,25 o las amenazas al orden
democrático26 (TEDH 2019c, 1–5 ). Dicho discurso puede contener una forma de
desinformación en el sentido de que está fabulizado o intencionalmente sesgado,
pero eso es esencialmente un atributo secundario, en esencia no relacionado con
la base para la exclusión del alcance del discurso protegido, como se estableció
anteriormente. El enfoque europeo del discurso de odio es, de hecho,
significativamente más complejo que el sistema paralelo desarrollado en Estados
Unidos (Bleich 2014, 284); sin embargo, eso también significa que la categoría de
discurso de odio es menos clara, y la evaluación según la Convención requiere una
consideración cuidadosa de las circunstancias específicas de cada caso (Bleich
2014, 294). En consecuencia, el discurso de odio difícilmente puede percibirse
como una categoría definitiva, similar a la desafiante clasificación de desinformación
establecida anteriormente. Además, estas dos categorías pueden superponerse,
pero dado que sus atributos indicativos difieren, la superposición es meramente
parcial. Además, es poco probable que las noticias falsas que contienen
expresiones de odio, en particular odio contra una minoría, constituyan los llamados
casos difíciles (Dworkin 1975) en el sentido de desafiar el marco que guía la
interpretación judicial. Sin embargo, como se estableció gradualmente a lo largo de
este capítulo, es probable que una gran parte de la desinformación constituya
"casos difíciles" debido a la falta de pautas claras para su resolución.

4.2.5.2 Conflicto de derechos o libertades fundamentales Los


casos previstos que establecen la exclusión de la protección del discurso de odio
debido a la infracción excesiva de la expresión de los derechos y libertades de
otros pueden verse como un extremo de un espectro. Sin embargo, la mayoría de
las situaciones relacionadas con el discurso de odio y las noticias falsas no califican
para tal extremo a pesar de presentar un conflicto obvio entre personas igualmente

21Glimmerveen y Haqenbeek c. Países Bajos, núm. 8348/78,8406/78, TEDH 1979.

22Pavel Ivanov c. Rusia, núm. 35222/04, TEDH 2007.


23Roj TV A/S c. Dinamarca, núm. 24683/14, TEDH 2018.
24Garaudy c. Francia, núm. 65831/01, TEDH 2003.
25 Norwood contra el Reino Unido, núm. 23131/03, TEDH 2004.
26B.H, MW, HP y GK c. Austria, núm. 12774/87, decisión de la Comisión
1989.
Machine Translated by Google

116 F. KASL

valoran los derechos y libertades fundamentales. De hecho, esta es la base de la


mayoría de los casos difamatorios relacionados con la libertad de expresión en los
medios (TEDH 2019d). Estos conflictos deben resolverse sobre la base de una
prueba de equilibrio. Esto da lugar a una restricción proporcional de los derechos
y libertades en cuestión. Este aspecto se considerará más a fondo a lo largo del
texto de este capítulo.

4.2.5.3 Restricciones permitidas bajo la Convención En


consecuencia, la mayoría de las expresiones que constituyen desinformación o
propaganda deben ser percibidas como bajo la protección del Artículo 10 de la
Convención. Esto significa que se permite restringir su difusión por parte de las
autoridades estatales dentro del margen de apreciación si se cumplen las
condiciones previstas por la Convención.

4.3 Restricciones permitidas a la libertad de expresión a


través de la acción estatal

Las restricciones a la libertad de expresión deben evaluarse en un contexto


particular; el artículo 17 del Convenio no permite ningún enfoque general para la
restricción de contenidos. Además, la igualdad de derechos protegida por la
Convención requiere que todas las acciones autoritativas restrictivas estén sujetas
a un acto de equilibrio de permisibilidad (Bychawska­Siniarska 2017, 32). Siguiendo
la jurisprudencia del TEDH, el papel central en el equilibrio de las libertades e
intereses en conflicto recae en la prueba de tres partes para juzgar la necesidad
de interferir con la libertad en una sociedad democrática.
Las condiciones acumulativas para que las autoridades nacionales puedan interferir
con la libertad de expresión son tres: (i) la interferencia está prescrita por la ley,27
(ii) está dirigida a la protección de uno de los intereses o valores enumerados en
el segundo párrafo del Artículo 10, 28 y (iii) es una medida necesaria en una
sociedad democrática.29
El cumplimiento de estas condiciones debe interpretarse de manera estricta
para proteger una amplia libertad de expresión. Bajo esta premisa,

27The Sunday Times contra el Reino Unido, no. 6538/74, §46 y siguientes, TEDH 1979.
28Handyside contra el Reino Unido, núm. 5493/72, §43–50, TEDH 1976.
29The Sunday Times contra el Reino Unido, no. 6538/74, §58 y siguientes, TEDH 1979.
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 117

En general, un caso límite debería adjudicarse a favor del individuo y su libertad, en lugar
de un reclamo de interés superior por parte del Estado.
(Rzepli'nski 1997, 2­3).
El enfoque restrictivo significa que no se permiten intereses o valores adicionales.
a los previstos en el Convenio deberían utilizarse como base para la
interferencia, y el contenido de los tres criterios antes mencionados debe
no deben interpretarse más allá de su significado ordinario (Comisión Europea de Derechos
Humanos 1977, 74). Esta posición del TEDH hacia
medidas que limiten la libertad de expresión son de gran relevancia para posibles
Medidas legislativas destinadas a luchar sistemáticamente contra la desinformación.
o propaganda.
Sin embargo, al margen de los criterios expresamente señalados en los párrafos
anteriores, el TEDH estableció en su caso más reciente
ley que se debe prestar cierta atención al contexto específico de la expresión (Bychawska­
Siniarska 2017, 12). Esto significa que la consideración puede
ser dado a su propósito particular, por ejemplo, político o comercial
(Katsirea 2018, 173); su forma de difusión, como los medios audiovisuales
o acceso en línea (Callamard 2017, 325–26); o su objetivo predominante
audiencia, por ejemplo, el público sin restricciones, incluidos niños,
o simplemente un grupo de interés particular (Bychawska­Siniarska 2017, 12).
Además, como se presentó al principio de este capítulo, algunos de los principales
Los aspectos que definen la desinformación, como la falsedad demostrable y la intención
de engañar, pueden considerarse relevantes en circunstancias contextuales. Estos se
dedujeron en su mayoría de casos de expresiones periodísticas controvertidas y
difamatorias, lo que se aproxima al contexto de las noticias falsas.
Los requisitos para mantener la base de la ética periodística mediante
ya se mencionaron los medios tradicionales; sin embargo, las noticias falsas son
predominantemente compartidas por los nuevos medios en el entorno en línea. Por lo tanto,
Además, debe tenerse en cuenta la posibilidad de ampliar
el requisito de mantener ciertos estándares periodísticos en línea
difusión de noticias también. Esta cuestión no es nada sencilla, dado que los medios de
comunicación en línea relevantes abarcan un espectro de temas significativamente más amplio.
y estructuras que los medios tradicionales. Probablemente haya poca disputa sobre
la aplicabilidad de los requisitos a las plataformas de noticias en línea de los medios de
comunicación tradicionales. Del mismo modo, los medios online con un contenido tradicional
proceso de creación (por parte de empleados o de otro modo limitado y responsable)
grupo) también probablemente se ajusten a los parámetros generales para la aplicabilidad de
estos requisitos. Sin embargo, una parte considerable de los considerados falsos
Machine Translated by Google

118 F. KASL

Las noticias no se originan en estas estructuras, sino a través de contenidos


generados por los usuarios y alojados en plataformas en línea establecidas para este fin.
Este enfoque moderno de la democratización de la creación de contenidos en línea
desafía la percepción tradicional del periodismo (Normahfuzah 2017) y también
altera la consideración de los requisitos aplicables. La fuente del contenido se diluye
entre una multitud de autores que no tienen ningún vínculo permanente con el
proveedor de alojamiento. El proveedor de hosting a menudo carece incluso de
información general sobre la identidad de los creadores del contenido y en muchos
casos se abstiene de cualquier función de moderación o edición del contenido
difundido.
El TEDH estableció en su jurisprudencia que los medios deben ser percibidos en
un sentido amplio, incluyendo también a otros que participan en un debate público
y no sólo a los medios tradicionales.30 Katsirea infiere de esta interpretación que
los nuevos medios en línea deben ser tratados de manera similar a los medios
tradicionales. periodistas tradicionales (Katsirea 2018, 173). Sin embargo, esto no
se puede deducir claramente de la jurisprudencia disponible. La posición de un
creador de contenido que contribuye a una plataforma de contenido generado por
el usuario puede variar mucho, desde un colaborador ocasional de un comentario o
enlace hasta un blogger habitual a la par de un periodista. En cualquier caso, la
multitud de creadores que contribuyen a la plataforma de alojamiento fragmenta los
roles. Por lo tanto, las relaciones predominantemente laxas entre los creadores de
contenidos y los proveedores de alojamiento no pueden compararse con las
estructuras presentes en los medios tradicionales para la revisión y edición de
contenidos. En consecuencia, el margen para exigir responsabilidad por los
contenidos a los usuarios individuales se reduce comparativamente. Esta es la base
para las consideraciones sobre la (co)responsabilidad de los proveedores de
hosting, que se discutirán en la sección final de este capítulo.

4.3.1 Interferencia estatal

La interferencia estatal que restringe la libertad de expresión debe entenderse


como cualquier forma de interferencia de cualquier autoridad en el poder público o
en el servicio público (Bychawska­Siniarska 2017, 34). Por tanto, se considerará tal
intromisión cualquier actuación de organismos públicos que conduzca a la limitación
de la accesibilidad a los contenidos. En general, la censura puede tener lugar antes
o después de que la expresión se haya puesto a disposición del público.

30 Steel y Morris contra el Reino Unido, núm. 68416/01, TEDH 2005.


Machine Translated by Google

4 DISCURSO DE ETIQUETADO 119

El TEDH percibe especialmente la censura previa a la publicación como una intervención


importante en la libertad de expresión, que, por lo tanto, debe aplicarse con especial
precaución (Bychawska­Siniarska 2017, 35). Por esta razón, aunque el artículo 10 del
Convenio no prohíbe tal medida per se, la interpretación establecida de conformidad con la
jurisprudencia del TEDH sólo ve un margen estrecho para su permisibilidad.31 Otra forma de
interferencia que puede entrar en consideración con respecto a la desinformación ­mación es
ordenar al autor que revele fuentes y documentos periodísticos bajo sanción.32 El TEDH,
hasta donde sabe el autor, no se ha ocupado hasta el momento de un caso específico relativo
a tales medidas contra un divulgador de desinformación, en particular con en lo que respecta
a la evaluación de la intensidad de las medidas adoptadas contra tales expresiones.

Sin embargo, la interferencia más adecuada probablemente constituiría una acción de


censura posterior a la publicación o la retirada de una expresión publicada del acceso público.
En tal caso, el impacto de la restricción relativa a la denegación de acceso y la eliminación de
contenidos publicados en línea parece menos invasivo que la mayoría de las interferencias
reprochadas por el TEDH en la jurisprudencia disponible. Estos también abarcan, además de
los casos de censura previa antes mencionados, la persecución penal por la expresión como
tal33, la confiscación de los medios a través de los cuales se difundió la información34 o la
prohibición de publicidad35, en particular política.36 Dependiendo de Según el contenido
específico de la desinformación o propaganda, algunas de estas interferencias más invasivas
pueden
considerarse relevantes junto con la censura posterior a la publicación, específicamente
la persecución criminal o la prohibición de la publicidad de ideas políticas extremistas.

Sin embargo, estos probablemente serían casos extremos, resueltos según las respectivas
leyes nacionales específicas.

31The Sunday Times contra el Reino Unido (núm. 2), núm. 13166/87, §51, TEDH 1991;
Observer and Guardian contra el Reino Unido, no. 13585/88, §59, TEDH 1991.
32Goodwin contra el Reino Unido, núm. 17488/90, §27, TEDH 1996.
33Castells c. España, núm. 11798/85, TEDH 1992.
34Muller y otros c. Suiza, núm. 10737/84, §28, TEDH 1988.
35Casado Coca c. España, núm. 15450/89, §49, TEDH 1994.
36TV Vest AS & Rogaland Pensjonistparti c. Noruega, núm. 21132/05, §63, CEDH
2008.
Machine Translated by Google

120 F. KASL

4.3.2 Prescrito por la ley

La primera condición relativa a la permisibilidad de la interferencia estatal es su


base en el derecho nacional. La medida debe aplicarse de conformidad con las
disposiciones jurídicas nacionales o, según el sistema jurídico del Estado, de
conformidad con el derecho consuetudinario, aun cuando la legitimidad
parlamentaria de la medida pueda desempeñar un papel en la justificación de la
restricción prevista en él. la Convención (Bychawska­Siniarska 2017, 39).
Por lo tanto, como tal, incluso los componentes no escritos del sistema de derecho
consuetudinario se perciben como una base relevante para la interferencia estatal
(Ajevski 2014, 125). El tribunal también mantiene, entre los aspectos relevantes
de la base jurídica, su accesibilidad pública y previsibilidad.37 A partir de estos
requisitos, las medidas basadas en reglamentos internos no publicados u otras
disposiciones sustitutivas en general no serían una base permisible para la
restricción de la libertad de expresión (Bychawska­Siniarska 2017, 42). A través
de este prisma, la mayoría de las leyes nacionales actuales contienen una base
general para las medidas contra la desinformación; sin embargo, la mayoría
carece de disposiciones reglamentarias suficientemente específicas.

4.3.3 Objetivo legítimo

Incluso con el respectivo marco legal vigente, su aplicación debe considerarse


con respecto a su objetivo. El TEDH "tiene una actitud muy relajada hacia las
afirmaciones de los Estados de perseguir un objetivo legítimo y de no exigir una
conexión muy estricta entre la acción estatal y el objetivo legítimo perseguido"
(Ajevski 2014, 126). Los objetivos que se persiguen mediante restricciones
legítimas a la libertad de expresión se enumeran en el párrafo 2 del artículo 10 de
la Convención.
Debido al amplio espectro de contenidos presentados bajo desinformación o
propaganda, se puede inferir un objetivo legítimo a partir de una multitud de bases
disponibles. Sin embargo, el mero carácter engañoso del contenido no es motivo
suficiente para restringirlo, a menos que pueda estar relacionado además con una
interferencia con uno de los intereses protegidos. Estos incluyen (i) seguridad
nacional, (ii) integridad territorial, (iii) seguridad pública, (iv) prevención del
desorden o delito, (v) protección de la salud o la moral, (vi) protección de la
reputación o los derechos de otros, (vii) la confianza en la información, o (viii) la
autoridad e imparcialidad del poder judicial.

37Leander c. Suecia, núm. 9248/81, §50, TEDH 1987.


Machine Translated by Google

4 DISCURSO DE ETIQUETADO 121

4.3.3.1 Seguridad Nacional


Las restricciones en interés de la seguridad nacional deben respetar las estrictas
límites establecidos por la jurisprudencia del TEDH.38 El tribunal sostuvo que, en general, es
innecesario impedir la divulgación de cierta información si ya
se ha hecho pública.39 La información de seguridad nacional no puede considerarse en
masivamente como confidencial para aplicar un acceso restringido a ella.40 La desinformación
ciertamente puede adquirir una cualidad que amenace los intereses de las autoridades nacionales.
seguridad; Sin embargo, la legitimidad de su restricción también debe tener en cuenta
consideración la naturaleza de los medios de difusión.41 En este sentido, los falsos
noticias compartidas a través de portales de mala reputación ampliamente conocidos por su propaganda o
Es poco probable que el contenido conspirativo represente una amenaza grave a los intereses.
de la seguridad nacional como tal, y una justificación adicional de la legitimidad
de este objetivo puede ser necesario.

4.3.3.2 Integridad territorial


Consideraciones similares se aplican al interés de la integridad territorial, que
se refiere principalmente a la difusión de propaganda separatista.42 El artículo
debe ser suficientemente capaz de incitar a la violencia o a la disidencia local para
infringir este interés.43 La mera unilateralidad de opiniones políticas o
interpretación de los hechos que formulan críticas al gobierno no
en sí misma justifica tal interferencia con la libertad de expresión.44 La naturaleza propagandística
o engañosa de la expresión debe resultar en un abuso de
derechos o promoción convincente de conductas contrarias al espíritu del
Convenio para permitir medidas restrictivas.45

38Observer and Guardian contra el Reino Unido, núm. 13585/88, TEDH 1991.
39Weber contra Suiza, núm. 11034/84, §49, TEDH 1990.
40¡Vereniging Weekblad Bluf! contra los Países Bajos, núm. 16616/90, §38 y siguientes, TEDH
1995.
41
Stoll contra Suiza, núm. 69698/01, §117 y siguientes, TEDH 2007.
42
Sürek y Ozdemir c. Turquía, núm. 26682/95, §49–50, TEDH 1999.
43
Sürek contra Turquía (núm. 3), núm. 24735/94, §40–41, TEDH 1999.
44
Sürek y Ozdemir c. Turquía, núm. 23927/94, 24277/94, §58 y siguientes, TEDH 1999.
45Kuhnen c. la República Federal de Alemania (inadmisible), núm. 12194/86, CEDH
1988.
Machine Translated by Google

122 F. KASL

4.3.3.3 Seguridad pública, prevención del desorden o delito, autoridad e


imparcialidad del poder judicial El
interés de la seguridad pública puede ser relevante para la desinformación que
causa pánico o sobre las funciones y la disponibilidad de servicios públicos, como
servicios de salud, transporte público o servicios básicos. utilidades. Otra posible
base es la interferencia con el interés del desorden o la prevención del delito,
expresiones previamente adjudicadas que alientan la desobediencia de las fuerzas
armadas,46 o el apoyo público al comportamiento criminal violento. También se
puede considerar que la desinformación relativa a investigaciones criminales de
alto perfil o el debilitamiento de la opinión pública de las autoridades policiales entra
en conflicto con este interés. Sin embargo, hasta el momento, según el conocimiento
del autor, no se dispone de la jurisprudencia respectiva. Sin embargo, se puede
establecer una analogía con las disputas relativas a expresiones que debilitan la
autoridad y la imparcialidad del poder judicial.47

4.3.3.4 Protección de la reputación o los derechos de otros


El conflicto con la reputación o los derechos de otros individuos está presente
principalmente en casos de contenido mediático difamatorio o casos menos
extremos de discurso de odio. Las manifestaciones de odio que constituyen la base
para la restricción de la libertad de expresión en esta forma incluyen expresiones
que apoyan el terrorismo,48 condonan crímenes de guerra,49 incitan a la
intolerancia religiosa,50 insultan a funcionarios estatales,51 o contienen
difamaciones odiosas52 (TEDH 2019c, 13­18). Las expresiones difamatorias fueron
discutidas parcialmente anteriormente en lo que respecta a los deberes y
responsabilidades de los periodistas en relación con su contenido y serán
profundizadas en la siguiente sección.

46
Saszmann contra Austria (inadmisible), núm. 23697/94, TEDH 1997.
47Kudeshkina c. Rusia, núm. 29492/05, §81, TEDH 2009.
48Leroy c. Francia, núm. 36109/03, TEDH 2008; Stomakhin c. Rusia, núm. 52273/07,
TEDH 2018.
49Lehideux e Isorni c. Francia, núm. 24662/94, TEDH 1998.
50˙ _
IA c. Turquía, núm. 42571/98, TEDH 2005.
51Otegi Mondragón c. España, núm. 2034/07, TEDH 2011; Stern Taulats y Roura Capellera
c. España, núm. 51168/15, 51186/15, TEDH 2018.
52Pihl c. Suecia (inadmisible), núm. 74742/14, TEDH 2017; Savva Terentyev c. Rusia,
núm. 10692/09, TEDH 2018.
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 123

4.3.3.5 Protección de la salud o la moral, confianza de la información Es poco


probable que las noticias falsas afecten a los demás intereses legítimos enumerados,
dado que la protección de la moral se refiere principalmente a expresiones artísticas
obscenas,53 y es poco probable que la información confidencial se divulgue como desinformación.

4.3.4 Necesario en una sociedad democrática

Incluso una acción basada en una base jurídica adecuada y que persiga un objetivo
legítimo no puede considerarse una restricción permisible de la libertad de expresión a
menos que se considere necesaria. Esta prueba de proporcionalidad en un sentido estricto
se percibe como la parte más importante de la prueba de proporcionalidad de tres partes
(Ajevski 2014, 126). La evaluación de la proporcionalidad refleja los principios que rigen
una sociedad democrática (Bychawska­Siniarska 2017, 44). Por lo tanto, la acción
restrictiva debe ser una reacción apropiadamente fuerte a una “necesidad social
apremiante”.54 En esencia, este es el aspecto sobre el cual se deciden la mayoría de los
casos del TEDH (Ajevski 2014, 126), y por lo tanto se formalizó parcialmente en el
jurisprudencia a través de un conjunto de principios interpretativos del significado de la
frase "necesario en una sociedad democrática".
Estos establecen lo siguiente:

El adjetivo "necesario" no es sinónimo de "indispensable", ni tampoco tiene


la flexibilidad de expresiones como "admisible", "ordinario", "útil", "razonable"
o "deseable"... los Estados contratantes disfrutan de un cierto pero no
margen ilimitado de apreciación en materia de imposición de restricciones,
pero corresponde a la Corte dar la decisión final sobre si son compatibles
con la Convención... la frase 'necesarias en una sociedad democrática'
significa que, para ser compatible con la Convención, la interferencia debe,
entre otras cosas, corresponder a una 'necesidad social apremiante' y ser
'proporcionada al objetivo legítimo perseguido'... [y que] aquellos párrafos
de los artículos de la Convención que prevén una excepción a un derecho
garantizado deben ser interpretado de manera restrictiva.55

53Muller y otros c. Suiza, núm. 10737/84, TEDH 1988; Vereinigung Bildender Kunstler
contra Austria, núm. 68354/01, TEDH 2007.
54The Observer and the Guardian contra el Reino Unido, núm. 13585/88, §40, CEDH
1991.
55 Silver y otros c. el Reino Unido, núm. 5947/72, 6205/73, 7052/75,
7061/75, 7107/75, 7113/75, 7136/75, §97, TEDH 1983.
Machine Translated by Google

124 F. KASL

Los principios guían al CEDH en casos específicos donde la consideración del


contenido de la expresión, las circunstancias de su difusión y el papel del autor
crean el contexto de su aplicación. Este contexto afecta entonces el margen de
apreciación disponible para las autoridades estatales de una manera que se
revela a lo largo de este capítulo. Por lo tanto, la clasificación de la expresión
como discurso político limita el margen de intervención estatal, mientras que la
identificación del autor como periodista acentúa los deberes de su parte para
conservar la libertad de expresión. En este sentido, las particularidades de un
determinado conjunto de noticias falsas o contenido propagandístico pueden
justificar medidas restrictivas proporcionadas, como la censura posterior a la
publicación, pero la variedad también establece límites a las medidas restrictivas
generalizadas o genéricas de expresiones categorizadas como desinformación
en un sentido más amplio. sentido.

4.4 Expresiones que infringen los derechos


o libertades fundamentales de otros

Como se mencionó anteriormente, al considerar el discurso en conflicto con las


libertades o derechos fundamentales de otros, la jurisprudencia desarrolló una
distinción importante entre el contenido que constituye hechos verificables y el
que es una mera suma de las opiniones de un autor. Esta distinción es muy
relevante porque, mientras que los hechos se pueden cotejar con las fuentes y
refutar, las opiniones incluyen juicios de valor que no pueden estar sujetos a
una prueba de verdad, y su restricción infringiría de hecho la libertad de
pensamiento como tal.56 De hecho, Los juicios de valor sobre cuestiones
políticas disfrutan de un nivel de protección aún mayor, ya que se perciben
como un componente crucial en una sociedad democrática (Bychawska­Siniarska
2017, 78). Esta perspectiva está detrás de algunos de los desafíos en la
calificación de las noticias falsas según la Convención, ya que a menudo caen
dentro de la zona gris de piezas especulativas o manipuladoras, que pueden
distorsionar los hechos pero lo hacen sin una fabulación completa. Por lo tanto,
si la libertad de expresión en forma de diversos juicios de valor personales sobre cuestiones po

56 Lingens c. Austria, núm. 9815/82, §46, TEDH 1986; Oberschlick contra Austria, núm.
11662/85, §63, TEDH 1991; Dichand y otros c. Austria, núm. 29271/95, §42, CEDH
2002.
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 125

nivel de protección, las autoridades en muchos casos carecen de un mecanismo


o marco confiable para distinguir entre estas categorías y necesitan limitar las
medidas restrictivas en consecuencia. Es principalmente el riesgo de falsos
positivos lo que actúa como obstáculo a la hora de legitimar algunas de las
medidas ampliamente adoptadas contra la desinformación y la propaganda. El
marco jurídico de la Convención puede proporcionar un mejor marco para restringir
las noticias falsas basándose en un conflicto con los derechos y libertades de
otros, caso por caso. Sin embargo, es poco probable que esto proporcione una
respuesta adecuada y oportuna al problema dada su magnitud actual.
La vía tradicional explorada con respecto a la veracidad de las acusaciones
se refiere al contenido periodístico considerado difamatorio por la parte afectada.
En principio, el autor de un comentario debe, en caso de disputa, demostrar que
sus afirmaciones difamatorias sobre los hechos se basan en la verdad; en otras
palabras, derivarse de fuentes verificables. Sin embargo, se requiere un equilibrio
más matizado. El papel de los medios de comunicación como "vigilancia pública"57
les otorga una posición particularmente importante con respecto a cuestiones de
interés público. En tal carácter, la jurisprudencia del TEDH58 estableció que el
mensaje o la voz alternativa puede ser más importante que el cumplimiento
adecuado de los estándares periodísticos, por ejemplo, la verificación exhaustiva de las fuentes.
No existe una definición específica de las cuestiones que constituyen un asunto
de interés público; sin embargo, la jurisprudencia dedujo este aspecto en diversas
situaciones relativas a cuestiones de dominio público59, relativas a cargos
públicos60 o a la
financiación pública61 . Esto no crea una base para noticias falsas per se, pero
indica que los requisitos de las funciones periodísticas se puede modificar
dependiendo del contexto de la expresión. Basándose en la jurisprudencia de los
tribunales superiores europeos,62 así como en el TEDH,63 la Comisión de Venecia identificó die

57Bergens Tidende y otros, núm. 26132/95, §57, TEDH 2000.


58 Thorgeirson c. Islandia, núm. 13778/88, §65, TEDH 1992.
59 Sürek c. Turquía (núm. 2), núm. 24122/94, TEDH 1999.

60Guja c. Moldavia, núm. 14277/04, TEDH 2008.


61˙ _
Izzettin Dogan y otros c. Turquía, núm. 62649/10, TEDH 2016.
62Reynolds v. Times Newspapers Limited, Tribunal Supremo del Reino Unido 1999;
caso Böll, Bundesverfassungsgericht 1998; No. I. US 156/99, Tribunal Constitucional de
la República Checa 2000; No. 1 BvR 1531/96, Tribunal Constitucional Federal de Alemania
1998; No. 2001/19, Tribunal Supremo de Noruega 2001; No. 144/1998, Tribunal
Constitucional de España 1998; No. 28/1996, Tribunal Constitucional de España 1996.
63Bladet Tromsø y Stensaas V. Noruega, núm. 21980/93, TEDH 1999.
Machine Translated by Google

126 F. KASL

factores centrales a considerar en este equilibrio. Estos incluyen, entre otros, la


gravedad de la acusación, su fuente, los intentos de verificarla, la urgencia del
asunto, el tono del artículo y las circunstancias de su publicación (Comisión de
Venecia 2004, 4). Además, los estándares periodísticos como tales no son un
conjunto unificado de principios universales, sino más bien un conjunto dinámico
de mejores prácticas que a su vez se está desarrollando en función de la
transformación del entorno mediático (Friend y Singer 2015). Se están realizando
esfuerzos particulares para hacer la transición de los requisitos previos
tradicionales del periodismo de calidad al entorno en línea (Chapman y Oermann
2019, 3). Los aspectos antes mencionados constituyen la base para una defensa
de buena fe, tal como lo reconoce la jurisprudencia del TEDH.64 Como resume
Bychawska­Siniarska, "Cuando un periodista o una publicación tiene un propósito
legítimo, el asunto es de interés público y se hicieron esfuerzos razonables".
para verificar los hechos, la prensa no será responsable incluso si los hechos
respectivos resultan ser falsos" (Bychawska­Siniarska 2017, 78).
La aceptación mesurada de acusaciones o rumores como parte de la prensa
está establecida en la jurisprudencia del TEDH.65 Sin embargo, existe una
distinción importante entre rumores o acusaciones inadecuadas basadas en
investigaciones periodísticas de buena fe y desinformación y propaganda. La
intención del autor de engañar o manipular a través de la expresión es contraria
al requisito de acción de buena fe y al deber de diligencia adecuado al evaluar
las fuentes (Comisión de Venecia 2004, 4). Como tal, es poco probable que una
defensa de buena fe de la desinformación como forma de expresión periodística
se sostenga ante una revisión judicial. Sin embargo, como ya se analizó
anteriormente en este capítulo, esta conclusión tiene sólo una relevancia limitada
en el contexto de los medios en línea, donde los estándares profesionales
aplicables a los periodistas no pueden extenderse fácilmente a todos los
comentaristas y colaboradores. Además, a pesar de la conclusión de que, en
principio, es probable que un caso contra una desinformación particular dirigida
a un individuo sea sólido, estas consideraciones jurídicas no pueden
transponerse directamente a medidas de las autoridades públicas para combatir
la desinformación o la propaganda mediante medidas de escala.

64Dalban c. Rumania, núm. 28114/95, §50, TEDH 1999.


65 Bladet Tromsø y Stensaas V. Noruega, núm. 21980/93, §59, TEDH 1999; Dalban
contra Rumania, núm. 28114/95, §49, TEDH 1999; Thorgeirson contra Islandia, núm.
13778/88, §65, TEDH 1992.
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 127

Reconociendo estas limitaciones, se está desarrollando un enfoque alternativo para


el entorno en línea. Esto se basa en explotar la posición única de los proveedores de
entornos en línea donde se comparte y difunde información. Las plataformas que
alojan contenidos generados por los usuarios se proyectaron durante mucho tiempo
en el papel neutral de meros proveedores de servicios de almacenamiento; sin
embargo, la creciente presión política y regulatoria (Fioretti 2018) los está colocando
cada vez más en el centro de atención como moderadores activos y contribuyentes a
la difusión y distribución de contenidos en línea. Por lo tanto, es a través del marco
legal de (co)responsabilidad de estos proveedores de hosting que se pueden tomar y
ampliar medidas que regulen la desinformación y la propaganda.

4.5 Supresión de la desinformación a través de


la responsabilidad del proveedor de hosting

Los beneficios regulatorios de imponer restricciones a la desinformación y la propaganda


a través de requisitos establecidos para los proveedores de hosting se originan en su
posición excepcionalmente fuerte en el sentido técnico. El proveedor de alojamiento
crea efectivamente el entorno en línea donde se difunde la información y los usuarios
pueden acceder a ella mediante la facilitación del almacenamiento de datos subyacente.
Por lo tanto, una entidad de este tipo está en una posición óptima para la supervisión
de contenidos almacenados, en particular si se tienen en cuenta los medios actuales
de análisis de big data y reconocimiento de contenidos. Por defecto, dicho proveedor
comparte la responsabilidad por el contenido con el usuario debido a su contribución a
la facilitación de la difusión. Sin embargo, los esfuerzos por fomentar la innovación y
el desarrollo de los servicios de Internet en la Unión Europea antes del cambio de
milenio llevaron a la adopción de la Directiva sobre comercio electrónico66 (Pearce y
Platten 2000, 363 y siguientes), que preveía una protección ­establecimiento activo de
excepciones a esta responsabilidad sobre la base de disposiciones de 'protección'.67
Una de ellas se aplica a los proveedores de alojamiento, es decir, plataformas para
contenido generado por el usuario, como redes sociales o diversos portales de noticias.

La directiva establece condiciones para la aplicación de un puerto seguro a los


proveedores de hosting que consisten en (i) ningún conocimiento real sobre el contenido ilícito,

66Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, sobre
determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el
comercio electrónico, en el mercado interior (Directiva sobre comercio electrónico).
67Art. 12­14 de la Directiva sobre comercio electrónico.
Machine Translated by Google

128 F. KASL

(ii) independencia del creador del contenido respecto del proveedor, y (iii)
eliminación rápida del contenido al obtener dicho conocimiento (a través del
llamado marco de señalización de 'aviso y acción').68 La aplicabilidad de esta
disposición protectora es Cada vez más desafiados con respecto a diversas
formas de servicios de alojamiento (Friedmann 2014, 148 et seq.; Husovec
2017b, 115 et seq.) y con respecto al impacto negativo de cuestiones
recientemente emergentes como la desinformación.
La presión sobre los principales proveedores de hosting es una combinación
de cooperación voluntaria con la Comisión Europea y el desarrollo gradual de
interpretaciones en su detrimento basadas en la jurisprudencia pertinente.
La descripción general de las acciones conjuntas y coordinadas de la UE contra
la desinformación (Comisión Europea 2019a) indica la creciente complejidad de
la red cooperativa y el desarrollo constante de la base de las medidas
implementadas por los proveedores de alojamiento de acuerdo con los impulsos
provenientes de la Comisión Europea.
Las señales iniciales de un cambio en el rumbo de la interpretación fueron
proporcionadas por el TJUE a través de su jurisprudencia69 ; sin embargo, fue
principalmente el TEDH el que sentó los precedentes cruciales para el enfoque
actual de la moderación de contenidos a través de la actividad de los proveedores
de plataformas. A pesar del control limitado de la plataforma sobre el contenido
generado por el usuario como tal, el TEDH consideró aplicable la participación
de la plataforma en la responsabilidad por dicho contenido (Husovec 2013, 109).
En este caso, la autoridad fue la decisión de la Gran Sala en el caso Delfi AS
contra Estonia.70 El tribunal concluyó que en caso de una acción insuficientemente
reactiva contra el contenido ilegal, el proveedor de la plataforma debe ser
considerado responsable y se permite una sanción adecuada según el Artículo
10. de la Convención. De esta manera se abrió un enfoque alternativo para frenar
la desinformación; en otras palabras, a través del papel moderador de los
proveedores de hosting (Husovec 2016, 17). Sin embargo, existen límites a la
presión que se puede ejercer sobre estos intermediarios. Como resultado de la
jurisprudencia posterior,71 sigue siendo esencial someter cada contenido a una
prueba de equilibrio que evalúe su impacto y permisibilidad a través de los criterios discutidos a

68Art. 14 de la Directiva sobre comercio electrónico.

69Google Francia SARL a Google, núm. C­236/08, C­237/08, C­238/08, TJUE 2010; L'Oréal y
otros, no. C­324/09, TJUE 2011.
70Delfi c. Estonia, núm. 64569/09, §147 y siguientes, TEDH 2015.

71Magyar Tartalomszolgaltatok Egyesulete e Index.hu Zrt c. Hungría, núm.


22947/13, §78 y siguientes, TEDH 2016.
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 129

para el conflicto entre derechos y libertades fundamentales (Consejo de Europa 2018, 7


y siguientes). Además, las obligaciones del proveedor deben ser proporcionales a su
tamaño y alcance, lo que significa que las pequeñas plataformas de medios desconocidas
para el público en general pueden tener una gestión menos estricta del contenido
generado por los usuarios que las de mayor renombre.72 La presión montado en las
plataformas no se limita a la difusión de desinformación y abarca diversas formas de
contenido ilícito ampliamente persistente, ya sea discurso de odio (Heldt 2019) o contenido
protegido por derechos de autor sin licencia (Comisión Europea 2019b).

Todas estas medidas regulatorias significan la creciente urgencia de una clasificación


y detección confiables de contenidos cuya difusión debe restringirse a los proveedores de
alojamiento. Sin embargo, la diversidad de formas que puede adoptar hace que ese
objetivo sea tenazmente difícil de alcanzar. Sin embargo, a menos que se hagan
esfuerzos suficientes para desarrollar herramientas y marcos para la clasificación e
identificación de dicho contenido en condiciones independientes y neutrales, el mecanismo
regulatorio probablemente tenga el efecto de inducir la censura privada a través de los
proveedores de alojamiento (Kuczerawy 2015, 46). Ya podemos ver el impacto negativo
de las aplicaciones inadecuadas del marco en Rusia a través de múltiples casos de
bloqueo colateral injustificado de contenidos de Internet (Husovec 2017a). Sin embargo,
la cuestión va más allá del alcance de la jurisdicción del TEDH y requiere una respuesta
global orquestada (Aswad 2018).

Esta es una perspectiva problemática no solo en lo que respecta al papel influyente


de las plataformas principales, sino también debido a la capacidad limitada de las
instituciones públicas para ejercer el control necesario sobre plataformas menores que
pueden desempeñar un papel desproporcionadamente grande en la difusión de desinformación.

4.6 Conclusiones
Este capítulo proporcionó una perspectiva legal adicional sobre el tema de la
desinformación y la difusión de propaganda a través del prisma de la libertad de expresión
bajo el Convenio Europeo de Derechos Humanos. En un primer momento se confrontó el
término desinformación con este marco legal y se discutieron las características que lo
definen. Los aspectos centrales establecidos como relevantes incluyen la demostrabilidad
de su falsedad, la calificación de su propósito y la revelación de la intención del autor. El
foco fue entonces

72Pihl c. Suecia (inadmisible), núm. 74742/14, §31, TEDH 2017.


Machine Translated by Google

130 F. KASL

Se centró en el papel paraguas de la Convención y la jurisprudencia del TEDH


en el entorno jurídico europeo y su relación con la Carta de Derechos
Fundamentales de la Unión Europea. Luego se presentaron al lector los
conceptos básicos de este marco, incluida la definición de libertad de expresión
como un derecho fundamental, sus componentes constitutivos y el papel de la
doctrina de apreciación del margen.
Un aspecto importante de la desinformación que se destaca a lo largo del
capítulo es su versatilidad y distintos grados de ilegalidad. Por esta razón, se
hizo continuamente hincapié en la aplicación de la escala en lugar de la
calificación bipolar. El marco de libertad de expresión funciona principalmente
como una contramedida contra la censura y la restricción forzada del debate
democrático. Esto exige entonces altos estándares de confiabilidad en las
medidas y herramientas destinadas a etiquetar el discurso como desinformación
o propaganda. Desde esta perspectiva jurídica, existe una sutil gradación en la
calificación de las expresiones, lo que puede marcar la diferencia entre el
ejercicio de una libertad fundamental y el abuso de su marco protector en virtud
de la Convención.
El texto posterior se refería a características relevantes de la expresión que
el TEDH está tomando en consideración al sopesar su protección bajo la
Convención. Hay formas extremas de expresión que están totalmente excluidas
de la protección, representadas principalmente por el discurso de odio
discriminatorio, pero la mayoría de las formas de expresión consideradas
desinformación estarán bajo la protección del artículo 10 de la Convención y,
por lo tanto, sólo pueden restringirse de conformidad con la interferencia
permitida. bajo este marco.
Tal restricción permisible debe pasar la prueba de proporcionalidad de tres
partes que establece que (i) la interferencia está prescrita por la ley, (ii) está
dirigida a la protección de uno de los intereses o valores enumerados en el
segundo párrafo del Artículo 10, y ( iii) es una medida necesaria en una
sociedad democrática. La jurisprudencia generalmente se inclina hacia una
interpretación restrictiva, que permite una amplia libertad de expresión.
Luego, el texto del capítulo sigue estos tres componentes centrales y
profundiza en su aplicabilidad con respecto a las medidas de lucha contra el
discurso etiquetado como desinformación o propaganda. La conclusión sobre
la interferencia del Estado es que los esfuerzos contra la desinformación
definida de manera amplia o genérica probablemente serían inadmisibles
según la Convención y, a este respecto, se debe evaluar las expresiones caso
por caso. Es principalmente el riesgo de falsos positivos lo que actúa como
obstáculo a la hora de legitimar algunas de las medidas más generalizadas.
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 131

El segundo escenario discutido es cuando el Estado brinda protección a los


individuos contra expresiones que infringen sus derechos o libertades fundamentales.
Se trata principalmente del ámbito ampliamente juzgado de disputas difamatorias
entre individuos y medios de comunicación. Se describen particularidades de este
escenario, como la importante distinción entre contenido que constituye hechos
verificables y aquel que es una mera suma de opiniones del autor. Luego se analiza
el fenómeno de la desinformación desde la perspectiva de las expresiones políticas;
en el contexto del papel de los medios de comunicación como "vigilancia pública";
así como con el reconocimiento de la moderna democratización de la creación de
contenidos en línea y los posteriores desafíos a los requisitos establecidos para el
mantenimiento de los estándares periodísticos. Una característica constitutiva de la
desinformación, la intención del autor de engañar o manipular, se destaca como un
elemento importante que está eliminando la opción de protección bona fide
comúnmente otorgada a los medios de comunicación en este contexto.

El principal problema con la configuración anterior es práctico, principalmente


debido a la escalabilidad limitada. Por este motivo, la vía predominante en la
actualidad para combatir la desinformación y la propaganda son las actuaciones de
los proveedores de servicios de hosting, dado que comparten con el usuario la
responsabilidad de los contenidos por su papel de facilitar su difusión. Las medidas
actualmente en vigor son en gran medida consecuencia de una presión equilibrada
de las autoridades europeas y la cooperación voluntaria de los mayores proveedores
de hosting, así como de una reciente interpretación restrictiva por parte de los
tribunales europeos de las disposiciones protectoras que protegen a estos
proveedores de dicha responsabilidad dentro de la Unión Europea. .
Sin embargo, existen límites a la presión que se puede ejercer sobre estos
intermediarios, especialmente las plataformas menores, que, sin embargo, pueden
desempeñar un papel desproporcionadamente importante en la difusión de
desinformación y propaganda. La evaluación de contenidos a través de las principales
plataformas crea además la amenaza de una censura privada indebida. Esto hace
que el desarrollo y la validación de herramientas analíticas y de detección en
condiciones independientes y neutrales sea una cuestión cada vez más crucial.
Machine Translated by Google

132 F. KASL

Bibliografía

Ajevski, M. (2014). La libertad de expresión en relación con los periodistas en el TEDH, la


Corte IDH y el Comité de Derechos Humanos: un estudio de fragmentación.
Revista Nórdica de Derechos Humanos, 32(2), 118–139. https://doi.org/10.
1080/18918131.2014.897797.
Aswad, EM (2018). El futuro de la libertad de expresión en línea. Revista de tecnología y
derecho de Duke, 17 (1), 26–70.
Barderi, D. (2018). Manual antirumores. Consejo Europeo.
Bleich, E. (2014). Libertad de expresión versus discurso de odio racista: explicando las
diferencias entre las regulaciones de los tribunales superiores en los EE. UU. y Europa.
Revista de estudios étnicos y migratorios, 40(2), 283–300. https://doi.org/
10.1080/1369183X.2013.851476 .
Bychawska­Siniarska, D. (2017). Protección del derecho a la libertad de expresión en virtud
del Convenio Europeo de Derechos Humanos: manual para profesionales del derecho.
Estrasburgo: Consejo de Europa. https://rm.coe.int/handbook­freedom­of­expression­eng/
1680732814. Consultado el 12 de diciembre de 2019.
Callamard, A. (2017). ¿Están los tribunales reinventando la regulación de Internet? Revista
Internacional de Derecho, Computación y Tecnología, 31(3), 323–339. https://doi. org/
10.1080/13600869.2017.1304603.
Chapman, M. y Oermann, M. (2019). Apoyar el periodismo de calidad a través de la
alfabetización mediática e informacional. MSI­JOQ. Consejo Europeo. https://rm.coe.int/
draft­version­of­msi­joq­study­report­rev­v6­2/168098ab74 .
Consultado el 12 de diciembre de 2019.

Consejo Europeo. (2018). Libertad de Expresión, Internet y Nuevas Tecnologías. Ficha


temática. Estrasburgo: Consejo de Europa. https://rm. coe.int/freedom­of­expression­
internet­and­new­technologies­14june2018­docx/16808b3530. Consultado el 12 de
diciembre de 2019.
Dworkin, R. (1975). Casos difíciles. Revista de derecho de Harvard, 88(6), 1057–1109. https://
doi.org/10.2307/1340249.
CEDH. (2018). Resumen 1959­2018. https://www.echr.coe.int/Documents/
Overview_19592018_ENG.pdf. Consultado el 12 de diciembre de 2019.
CEDH. (2019a). Convenio Europeo de Derechos Humanos: textos, convenios y protocolos
oficiales. https://www.echr.coe.int/Pages/home.aspx?p=basictexts&c= . Consultado el 12
de diciembre de 2019.
CEDH. (2019b). Tribunal Europeo de Derechos Humanos: TEDH, CEDH, noticias, información,
comunicados de prensa. https://echr.coe.int/Pages/home.aspx?p=home.
Consultado el 12 de diciembre de 2019.

CEDH. (2019c). Ficha informativa: discurso de odio. https://www.echr.coe.int/Docume nts/


FS_Hate_speech_ENG.pdf. Consultado el 12 de diciembre de 2019.
CEDH. (2019d). Ficha informativa: Protección de la reputación. https://www.echr.coe.int/
Documents/FS_Reputation_ENG.pdf . Consultado el 12 de diciembre de 2019.
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 133

Comisión de Igualdad y Derechos Humanos. (2017). ¿Qué es la Convención Europea de


Derechos Humanos? https://www.equalityhumanrights.com/en/what­eur opean­
convention­human­rights. Consultado el 12 de diciembre de 2019.
Comisión Europea. (2019a). Abordar la desinformación en línea. Mercado Único Digital—
Comisión Europea. https://ec.europa.eu/digital­single­market/en/tackling­online­
disinformation. Consultado el 12 de diciembre de 2019.
Comisión Europea. (2019b). Diálogo entre las partes interesadas sobre la aplicación del
artículo 17 de la Directiva sobre derechos de autor en el mercado único digital. Mercado
Único Digital—Comisión Europea. https://ec.europa.eu/digital­single­market/en/
stakeholder­dialogue­application­article­17­directive­copyright­digital­single­market.
Consultado el 12 de diciembre de 2019.
Comisión Europea de Derechos Humanos. (1977). Solicitud No. 6538/74— TIMES
NEWSPAPERS LTD. y otros contra el Reino Unido—Informe de la Comisión.
Estrasburgo: Comisión Europea de Derechos Humanos. https://hudoc.echr.coe.int/app/
conversion/pdf?library=ECHR&id= 001­73577&filename=THE%20SUNDAY%20TIMES%20v.
%20THE%20U NITED%20KINGDOM%20(NO.%201). pdf. Consultado el 12 de
diciembre de 2019.
Parlamento Europeo. (2019). Finalización de la adhesión de la UE al CEDH: Horario del
tren legislativo. https://www.europarl.europa.eu/legislative­train.
Consultado el 12 de diciembre de 2019.

Fioretti, J. (26 de abril de 2018). La UE aumenta la presión en las redes sociales por las
noticias falsas. Reuters. https://www.reuters.com/article/us­eu­internet­fakenews­
idUSKBN1HX15D. Consultado el 12 de diciembre de 2019.
Flauss, J.­F. (2009). El Tribunal Europeo de Derechos Humanos y Libertad de Expresión.
Revista de derecho de Indiana, 84 (3). https://www.repository.law.indiana.edu/ilj/vol84/
iss3/3 . Consultado el 12 de diciembre de 2019.
Flaxman, S., Goel, S. y Rao, JM (2016). Filtrar burbujas, cámaras de eco y consumo de
noticias en línea. Opinión pública trimestral, 80 (S1), 298–320. https://doi.org/10.1093/
poq/nfw006.
Friedmann, D. (2014). Hundir el puerto seguro con la certeza jurídica de la responsabilidad
estricta a la vista. Revista de derecho y práctica de propiedad intelectual, 9(2), 148–
155. https://doi.org/10.1093/jiplp/jpt227.
Friend, C. y Singer, J. (2015). Ética del periodismo online: tradiciones y transiciones.
Abingdon: Routledge.
Greer, S. (2000). El margen de apreciación: interpretación y discreción según el Convenio
Europeo de Derechos Humanos. Publicaciones del Consejo de Europa.

Heldt, A. (2019). Lectura entre líneas y números: un análisis de los primeros informes de
NetzDG. Revisión de políticas de Internet, 8(2). https://policyreview.info/articles/analysis/
reading­between­lines­and­numbers­analysis­first­netzdg­reports. Consultado el 12 de
diciembre de 2019.
Machine Translated by Google

134 F. KASL

Husovec, M. (2013). Normas del TEDH sobre la responsabilidad de los ISP como restricción
de la libertad de expresión. Documento académico de SSRN ID 2383148. Rochester: Red
de investigación en ciencias sociales. https://papers.ssrn.com/abstract=238 3148.
Consultado el 12 de diciembre de 2019.
Husovec, M. (2016). Monitoreo general de contenidos de terceros: ¿compatible con la libertad
de expresión? Revista de derecho y práctica de propiedad intelectual, 11, 17­20. https://
doi.org/10.1093/jiplp/jpv200.
Husovec, M. (2017a). [TEDH] Kharitonov contra Rusia: Cuando el bloqueo de sitios web sale
mal. Blog de derecho tecnológico de Huˇtko (blog). http://www.husovec. eu/2017/07/ecthr­
kharitonov­v­russia­when­website.html. Consultado el 12 de diciembre de 2019.

Husovec, M. (2017b). ¡Gorra agujereada! El TJUE perfora (todavía) otro agujero en los
puertos seguros de la Directiva de comercio electrónico. Revista de derecho y práctica de
propiedad intelectual, 12 (2), 115–125. https://doi.org/10.1093/jiplp/jpw203.
Katsirea, I. (2018). 'Noticias falsas': reconsideración del valor de las expresiones mentirosas
frente a la incertidumbre regulatoria. Revista de Derecho de Medios, 10 (2), 159–188.
https://doi.org/10.1080/17577632.2019.1573569.
Kuczerawy, A. (2015). Responsabilidad de los intermediarios y libertad de expresión:
novedades recientes en la iniciativa de notificación y acción de la UE. Revisión de
seguridad y derecho informático, 31 (1), 46–56. https://doi.org/10.1016/j.clsr.2014.11.004.
Kuijer, M. (2018). La desafiante relación entre el Convenio Europeo de Derechos Humanos y
el ordenamiento jurídico de la UE: consecuencias de un retraso en la adhesión. Revista
Internacional de Derechos Humanos, 1–13. https://doi.org/10.1080/13642987.2018.1535433.

Lemmens, P. (2001). La Relación entre la Carta de Derechos Fundamentales de la Unión


Europea y el Convenio Europeo de Derechos Humanos—Aspectos Sustantivos. Revista
de Derecho Europeo y Comparado de Maastricht, 8(1), 49–67. https://doi.org/
10.1177/1023263X0100800104.
McGonagle, T. (2017). 'Noticias falsas': ¿falsos miedos o preocupaciones reales? Revista
trimestral de derechos humanos de los Países Bajos, 35(4), 203–209. https://doi.org/
10.1177/092 4051917738685.
McPeck, JE (2016). Pensamiento crítico y educación. Abingdon: Routledge.
Normahfuzah, A. (2017). El declive de los medios de comunicación convencionales y los
desafíos de sumergirse en las nuevas tecnologías. ESharp, 25(1), 71–82. (Universidad de
Glasgow).
Olteanu, CN (2015). Algunas reflexiones sobre la libertad de expresión. En Conferencia
internacional Educación y creatividad para una sociedad basada en el conocimiento (págs.
261­264).
Oozeer, A. (2014). Internet y Redes Sociales: Libertad de Expresión en la Era Digital. Boletín
de derecho del Commonwealth, 40 (2), 341–360. https://doi.org/
10.1080/03050718.2014.909129 .
Machine Translated by Google

4 DISCURSO DE ETIQUETADO 135

Pearce, G. y Platten, N. (2000). Promoción de la sociedad de la información: la directiva


de la UE sobre comercio electrónico. Revista de Derecho Europeo, 6(4), 363–378.
https://doi.org/10.1111/1468­0386.00113.
Reglas, JM (2018). Documento de trabajo maestro MCEL 2018/8. Desinformación y
Libertad de Expresión. Un estudio sobre la regulación de las 'noticias falsas' en la Unión
Europea (Documento de trabajo principal). Maastricht: Centro de Derecho Europeo de
Maastricht. https://www.maastrichtuniversity.nl/sites/default/files/
mcel_master_working_paper_regules_20188_pdf.pdf . Consultado el 12 de diciembre de 2019.
Rzepli´nski, A. (1997). Restricciones a la expresión de opiniones o divulgación de
información sobre política interior o exterior del Estado. Consejo de Europa—Monitor/
Inf 1997. http://kryminologia.ipsir.uw.edu.pl/images/str onka/Pracownicy_publikacje/A.
%20Rzeplinski_Restriction%20to%20%20the% 20%20expression%20of%20opinions%20or
%20disclosure%20on%20information%20on%20domestic%20or%20%20foreign%20policy.pdf.
Consultado el 12 de diciembre de 2019.

Sluijs, JP (2012). De la competencia a la libertad de expresión: introducción del artículo 10


del CEDH en el debate sobre la neutralidad de la red europea. Revisión de la legislación
sobre derechos humanos, 12(3), 509–554. https://doi.org/10.1093/hrlr/ngsO5.
Comité de Derechos Humanos de la ONU. (2011). Observación General No. 34: Artículo
19: Libertades de Opinión y Expresión. Naciones Unidas. https://www2.ohchr. org/
english/bodies/hrc/docs/gc34.pdf. Consultado el 12 de diciembre de 2019.
Comisión de Venecia. (2004). Opinión de Amicus Curiae sobre la relación entre la libertad
de expresión y la difamación con respecto a acusaciones de hechos difamatorios no
probados según lo solicitado por el Tribunal Constitucional de Georgia. CDL­
AD(2004)011­e. Estrasburgo: Consejo de Europa. https://www.venice.coe.int/webforms/
docume nts/CDL­AD(2004)011­e.aspx. Consultado el 12 de diciembre de 2019.
Machine Translated by Google

Parte II
Machine Translated by Google

CAPÍTULO 5

Enfoques tecnológicos para la detección


Desinformación y manipulación en línea

Aleš Horák, Vít Baisa y Ondˇrej Herman

5.1 Introducción
El traslado de la propaganda y la desinformación al entorno online es posible
gracias a que en la última década los canales de información digital aumentaron
radicalmente su popularidad como fuente de noticias. La principal ventaja de
estos medios radica en la velocidad de creación y difusión de información. Esto,
por otro lado, inevitablemente añade presión, acelerando el trabajo editorial, la
verificación de hechos y el escrutinio de la credibilidad de las fuentes.

En este capítulo se ofrece una descripción general de los enfoques


informáticos para detectar desinformación y técnicas de manipulación basadas en varios

A. Horák (B) ∙ V. Baisa ∙ O. Universidad


Herman Masaryk, Brno, Chequia correo
electrónico: hales@fi.muni.cz

O. Herman
Correo electrónico: xherman1@fi.muni.cz

© El autor(es), bajo licencia exclusiva para Springer Nature Switzerland 139


AG 2021 M. Gregor y P.
Mlejnková (eds.), Desafiando la propaganda y la desinformación en
línea en el siglo XXI, campañas políticas y comunicación, https://
doi.org /10.1007/978­3­030­58624­9_5
Machine Translated by Google

140 A. HORÁK ET AL.

Se presentan los criterios. Nos concentramos en los aspectos técnicos de los métodos
automáticos que respaldan la verificación de hechos, la identificación de temas, el
análisis de estilos de texto o el filtrado de mensajes en los canales de redes sociales. La
mayoría de las técnicas emplean inteligencia artificial y aprendizaje automático con
extracción de características que combinan los recursos de información disponibles. El
siguiente texto especifica en primer lugar las tareas relacionadas con la detección
informática de manipulaciones y difusión de desinformación. La segunda sección
presenta métodos concretos para resolver las tareas del análisis, y la tercera sección
enumera conjuntos de datos actuales de verificación y evaluación comparativa publicados
y utilizados en esta área para evaluación y comparación.

5.2 Especificación de la tarea

Con el crecimiento de las publicaciones digitales y en las redes sociales, el origen de las
noticias distribuidas al público en general se puede realizar fácilmente y el proceso de
publicación de un mensaje a un amplio grupo de lectores se simplifica enormemente.
Esto abre nuevas posibilidades para que cualquier grupo de presión publique
desinformación o noticias con fines modificados, que se expresan de manera que
aparentemente sean aceptadas como informes objetivos de los acontecimientos actuales
(Woolley y Howard 2018). Por otro lado, la disponibilidad predeterminada de los textos
en formato digital en línea abre nuevas posibilidades para la detección de tales técnicas
persuasivas a través del análisis del contenido, el estilo del texto y su contexto más
amplio.
Los enfoques presentados suelen distinguir los dos aspectos principales de los textos
analizados: (a) si el texto es intencionalmente falso (desinformación, noticias falsas), o
(b) si el texto se refiere a un evento o situación real pero la forma y el contenido se
adapta a partir de una descripción objetiva por una razón (propaganda, manipulación).
Tenga en cuenta que la primera categoría generalmente no incluye la "desinformación",
es decir, textos que involuntariamente no son veraces, donde su autor está convencido
de que el mensaje es fiel (ver Capítulo 1).

5.2.1 Detección de noticias falsas

En general, un método técnico totalmente capaz de reconocer que un texto de entrada


contiene declaraciones falsas tendría que implementarse como un oráculo omnisciente.
En la práctica, la tarea de detección de noticias falsas utiliza varios
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA DETECTAR EN LÍNEA… 141

aspectos de segundo nivel del texto, que pueden manejarse mediante un análisis exhaustivo de los
datos disponibles (Kavanagh y Rich 2018). Detección de noticias falsas
Los enfoques incluyen:

• comprobación de hechos,

• análisis de credibilidad de la fuente,


• análisis del flujo de información, y
• reconocimiento del estilo manipulativo.

El enfoque de verificación o verificación de hechos implementa la forma más lógica


idea de verificar si un mensaje es verdadero o no, lo cual se asemeja a la
mismo proceso ejecutado por un experto humano: un periodista al procesar
la información de entrada, por ejemplo. En el enfoque automatizado, el
El texto primero debe analizarse utilizando el procesamiento del lenguaje natural (PLN).
Se identifican métodos y declaraciones o afirmaciones de hechos objetivos individuales. En
consecuencia, cada hecho individual es verificado, confirmado o refutado,
generalmente con una puntuación de confianza, comparando la afirmación con una fuente de
conocimiento predefinida, por ejemplo, gráficos de conocimiento construidos a partir de
textos de Wikipedia (Ciampaglia et al. 2015); conjuntos de datos manuales de hechos verificados
preparado por expertos humanos, como CNN Facts First o PolitiFact por el
Instituto Poynter (Hassan et al. 2017); o verificación colaborativa por parte de un
red de especialistas comprometidos, como CaptainFact o CrossCheck (Caza­lens et al. 2018). La
verificación colaborativa se puede utilizar en un sentido más amplio.
sentido del proceso de verificación de reclamos ya que la comunidad involucrada también puede
Juzgar la veracidad de las imágenes y el contenido de los vídeos, algo que aún no es realista con
herramientas automatizadas. En el proceso de simplificación y distribución
el proceso de anotación de hechos, Universidad de Duke y Google Research
(Adair et al. 2017) han publicado un estándar abierto titulado ClaimRe­view, que detalla cómo anotar
el resultado de verificar el historial de otra persona.
reclamos. Luego se agregan y utilizan las ClaimReviews accesibles en línea.
para la continua expansión de las bases de datos de verificación de hechos. Dado que la relación
El número de posibles errores en la cadena de procesamiento de hechos sigue siendo bastante alto, las
herramientas prácticas para la verificación de hechos suelen ofrecer múltiples fuentes de verificación de hechos.
y ofrecer los resultados automatizados como herramientas de soporte expertas donde el
La decisión final queda en manos del especialista humano. Explotar el apoyo a los hechos
Las herramientas se convirtieron en una parte tan importante de la preparación de noticias serias que un
Un estilo de edición completamente nuevo se ha definido como "computacional" o
'periodismo digital' (Caswell y Anderson 2019).
Machine Translated by Google

142 A. HORÁK ET AL.

El análisis de credibilidad de la fuente explota información sobre el origen del


texto. Por supuesto, este método puede tender a falsificar o interpolar la
identificación de la fuente, pero en los casos en que el autor del texto está
suficientemente documentado, la credibilidad de la fuente ofrece una información
importante. El caso más simple de análisis de fuentes consiste en consultar una
base de datos confiable de direcciones IP de Internet, ya que esta es la
información principal sobre dónde se originó un texto en línea. Un ejemplo de
dicha base de datos general (y las herramientas que la acompañan, por ejemplo,
extensiones de navegador web) es la herramienta Adblock Plus, que permite la
gestión de múltiples fuentes incluidas en listas negras (prohibidas) y blancas
(permitidas), incluidas listas creadas por la comunidad externa, como EasyList.
(Testamentos y Uzunoglu 2016). Los esfuerzos intensivos en la certificación de
fuentes amplían el simple juicio basado en la dirección con reglas de
transparencia para las mejores prácticas, que cubren el trabajo de citas y
referencias, la experiencia del reportero u otros indicadores de confianza. Aunque
esos enfoques pueden incluir análisis a través de herramientas automatizadas, el
aspecto principal de las decisiones de credibilidad está impulsado por expertos
humanos organizados en una iniciativa establecida, como Trust Project Indicators o la Internatio
Según Shearer (2018), más de dos tercios de los adultos estadounidenses
reciben noticias a través de redes sociales como Facebook, YouTube o Twitter.
Estas redes proporcionan información detallada sobre el proceso de compartir
cada mensaje a través de la red y así abren la posibilidad de un análisis del flujo
de información. Por ejemplo, TwitterTrails (Finn et al. 2014) utiliza el conocimiento
de la red Twitter sobre el autor, el tiempo de ráfaga y toda la línea de tiempo del
mensaje, los propagadores y otros actores relacionados con el mensaje (incluida
la audiencia), y comprueba si hay refutaciones del mensaje en el flujo. Vosoughi
et al. (2018) han demostrado que las noticias falsas se difunden sustancialmente
más rápido y llegan a más personas que las historias verdaderas; Mientras que
las noticias verdaderas más retuiteadas llegaron a unas mil personas, la misma
categoría de noticias falsas llegó a decenas de miles de lectores. El sistema de
análisis de Twitter Hoaxy de la Universidad de Indiana (Shao et al. 2016) ha
recopilado y publicado la Misinformation and Fact­Checking Diffusion Network,
que consta de más de 20 millones de retweets con marca de tiempo e
identificadores de usuario, lo que permite observar y cuantificar todos los
mensajes. fluye entre los usuarios de Twitter, incluida información estadística
importante sobre la actividad del usuario y la popularidad de la URL. Los datos
permiten distinguir a los usuarios de bots automatizados de personas reales, así
como identificar los centros de influencia o el origen de determinadas noticias
falsas.
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 143

La cuarta categoría de tareas de detección de noticias falsas se basa en el hecho


que la desinformación intencional a menudo se expresa con un expresivo específico
estilo para promover la manipulación prevista del lector. El reconocimiento de estilos
manipulativos también pertenece a las técnicas de detección.
descrito en la siguiente sección dedicada al reconocimiento de la propaganda
textos. En las noticias falsas, el estilo característico de las noticias suele formar una
indicador suplementario y se analiza en combinación con otros factores.
Volkova et al. (2017) diseñaron un modelo de red neuronal que procesa texto,
gráficos sociales y marcadores estilísticos que expresan prejuicios, subjetividad, capacidad de
persuasión y señales de fundamentos morales. Demostraron que las diferencias lingüísticas o estilísticas
El análisis mejoró significativamente los resultados.

5.2.2 Detección de técnicas de manipulación

En este capítulo, definimos noticias propagandísticas como textos que informan


sobre (al menos parcialmente) eventos o hechos verdaderos, pero utiliza elementos manipulativos específicos.
técnicas, enmarcando el contenido de los mensajes de una manera decidida para
promover objetivos políticos, económicos o de otro tipo (ver Capítulo 1). Algoritmos básicos
para detectar propaganda se publican desde hace más de ochenta
años (Instituto de Análisis de Propaganda 1938), naturalmente para procesar
por personas, no por máquinas. Las instrucciones presentaban siete técnicas estilísticas
(dispositivos de propaganda) utilizadas por los manipuladores en el texto, tales como
insultos, transferencias o carros. En los procedimientos de detección actuales, esta tarea
principal sigue siendo muy similar: identificar si algún
La técnica de manipulación del lector existe en el texto.1
Todos hemos conocido en algún momento el ejemplo más extendido de
textos propagandísticos simples: mensajes de correo electrónico spam o spam web (Metaxas
2010). A diferencia de las técnicas antispam, que se basan en la ponderación
puntuaciones de ocurrencia de palabras específicas y combinaciones de palabras, el estilo
La propaganda en las noticias se analiza con métricas complejas de estilometría
computacional. La cuestión de si el mensaje estudiado contiene
una técnica de manipulación específica o no se traslada aquí a la cuestión de si el mensaje
está escrito en un estilo específico utilizado habitualmente
con ese dispositivo de manipulación. Además de la detección del estilo de propaganda, se
utilizan métodos estilométricos para reconocer la atribución de autoría anónima.
o información personal sobre el autor del texto, como su

1Para obtener listas detalladas de las técnicas analizadas actualmente, consulte la Secc. 4.4 'Conjuntos de datos y
evaluación'.
Machine Translated by Google

144 A. HORÁK ET AL.

género, edad, educación o lengua materna (Neal et al. 2017). Los datos de entrada
para los métodos estilométricos están formados por una multitud de características
cuantitativas mensurables en el texto de entrada; además de las palabras y
combinaciones de palabras en sí, las métricas explotan información sobre las
estadísticas de longitud de palabras y oraciones, co­ocurrencias de clase mundial,
sintácticas. (sub)estructuras, emoticonos, errores tipográficos y gramaticales,
signos de puntuación, etc. Dentro de los algoritmos de reconocimiento de técnicas
manipulativas, estas características pueden complementarse con información
extraída de análisis de perfil de usuario o rasgos disponibles públicamente del
comportamiento de un usuario anterior, como calificaciones o fecha de registro (Peleschyshyn et
2016). En análisis detallados, especialmente cuando se buscan explicaciones
específicas, la tarea de identificación se orienta desde documentos completos
hasta oraciones individuales donde se debe descubrir una técnica de manipulación
(Da San Martino et al. 2019).

5.2.3 Generación de contenido ficticio

Los modelos de lenguaje son dispositivos probabilísticos que pueden predecir la


probabilidad de que una secuencia de palabras sea una frase correcta en un
idioma. Además de esta función, los modelos de lenguaje también se pueden
utilizar para generar texto artificial, que se asemeja a un texto escrito por un
humano. Hasta hace poco, los textos generados no podían "engañar" a un lector
humano si la secuencia generada era más larga que una o dos frases. Sin
embargo, en 2019, el grupo OpenAI publicó un nuevo modelo neuronal llamado
GPT­2 (Radford et al. 2019) que fue capaz de generar artículos periodísticos
coherentes de varios párrafos que suenan auténticos para el lector. La razón
principal de este cambio fue el crecimiento tanto de los datos utilizados para el
entrenamiento como del tamaño de la arquitectura de la red neuronal subyacente.
Después de esto, otros enfoques neuronales actuales, especialmente BERT
(Devlin et al. 2019) y Grover (Zellers et al. 2019), demostraron que era posible
generar noticias ficticias temáticamente predeterminadas que son muy difíciles de
distinguir de los periódicos reales generados por humanos. textos. Zellers et al.
(2019) mostraron que los textos de propaganda generados por Grover fueron
evaluados, en promedio, como de mejor estilo que la propaganda escrita por
humanos. En tal caso, la cuestión opuesta de decidir si un texto periodístico fue
escrito por un humano o generado como ficticio por una máquina se vuelve crucial.
Afortunadamente, las mismas técnicas utilizadas durante generaciones también
pueden utilizarse para la detección y, en esta tarea, alcanzan un rendimiento sobrehumano.
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 145

5.3 Especificación de métodos

La cantidad de información publicada en línea es muy grande y sigue creciendo a medida que
Internet se vuelve más disponible y los usuarios abandonan los canales de medios
establecidos para consumir y generar más contenido en línea.
La naturaleza inmediata de Internet, combinada con la enorme cantidad de contenido que
debe comprobarse en busca de influencias maliciosas, excluye cualquier posibilidad de
inspección manual de cualquier parte significativa del tráfico en línea antes de que se
propague entre más y más usuarios. Se han propuesto varios métodos automatizados para
monitorear y detectar las acciones de actores maliciosos en línea. En esta sección
presentamos un resumen de estos métodos.

Los métodos se pueden clasificar en términos generales en cuatro clases. (1) Los
métodos basados en la verificación de hechos inspeccionan el contenido informativo de los artículos.
La extracción automatizada de conocimiento está todavía en su infancia; por lo tanto, el
enfoque habitual es semiautomático, donde los hechos extraídos algorítmicamente son
verificados por anotadores humanos y luego cotejados con una base de conocimiento.
(2) Los métodos manipulativos de reconocimiento de estilos se basan en el supuesto de que
el engaño puede detectarse a partir de características superficiales del contenido. Las señales
incluyen, por ejemplo, vocabulario utilizado, sentimiento, lenguaje cargado, subjetividad y
otros. (3) Los métodos basados en la credibilidad de las fuentes se basan en la creencia de
que los usuarios y fuentes poco fiables tienen una mayor probabilidad de difundir información
engañosa. Se puede utilizar el filtrado colaborativo basado en datos de fuentes colectivas,
donde los usuarios votan sobre publicaciones o artículos. A partir de estas ruidosas votaciones
se pretende extraer una señal fiable a partir de la cual los carteles o las propias publicaciones
puedan clasificarse como maliciosos. Se basa una corriente de investigación estrechamente
relacionada. y (4) análisis del flujo de información. El objeto del estudio es el flujo de
información entre diferentes fuentes y usuarios y la interacción entre ellos.

Como la tarea de identificación de noticias falsas sólo se especifica de manera muy vaga
y no existe actualmente ningún conjunto de pruebas objetivas a gran escala de noticias falsas,
la comparación entre diferentes enfoques es difícil. En las siguientes secciones, describimos
los enfoques más comunes para la detección de engaños.
Machine Translated by Google

146 A. HORÁK ET AL.

5.3.1 Verificación de hechos

La verificación manual de datos por parte de expertos es una forma muy fiable de distinguir las
noticias falsas. Sin embargo, es muy laborioso y consume mucho tiempo y, por tanto, caro y
no escalable con la cantidad de información que se genera.

Además de los sitios web que difunden la verificación de datos proporcionada por expertos,
como Snopes, que es uno de los sitios web más antiguos que desacreditan mitos, o Hoax
Slayer, dedicado principalmente a combatir los engaños del correo electrónico y las redes
sociales, se han creado sitios web que pretenden proporcionar servicios de verificación de
datos de colaboración colectiva. que han aparecido recientemente, por ejemplo, CrossCheck, Trive o Fiskkit.
La tarea de verificación de hechos se puede dividir en dos pasos. El primer paso trata de la
extracción de hechos del texto y, en el segundo paso, la veracidad de estos hechos se verifica
con una base de conocimiento confiable; en otras palabras, una base de datos predefinida de
hechos verificados (humanos) en una máquina. formato legible. Un formato de representación
de conocimiento común es el triple SPO (sujeto­predicado­objeto) tal como se define en el
Marco de descripción de recursos (Klyne et al. 2014). Por ejemplo, la afirmación "La capital de
Francia es París" se representaría como (París–capital_de–Francia). El conocimiento puede
entenderse como un gráfico de conocimiento, donde los sujetos y objetos representan nodos y
los predicados forman vínculos entre estos nodos.

Los enfoques para la construcción de bases de conocimiento van desde Freebase (Bollacker
et al. 2008) o DBpedia (Auer et al. 2007), construidos manualmente , que extraen hechos
estructurados de Wikipedia, hasta Knowledge Vault (Dong et al. 2014), que extrae hechos de
contenido web y también proporciona la probabilidad de exactitud de los datos almacenados.
Estos recursos se centran principalmente en el conocimiento común sobre el mundo, que
cambia relativamente lentamente, mientras que la verificación de hechos recientes requiere
acceso a conocimiento actual y potencialmente cambiante.

Si bien una base de conocimientos puede ser universal y construirse en colaboración a


partir de muchas fuentes, el proceso de verificación de datos se limita a documentos
específicos. Aún no se ha creado ningún método automático fiable para extraer datos dignos
de verificación. Un posible enfoque hacia este fin ha sido descrito en Hassan et al. (2017). Los
autores crearon la plataforma de verificación de hechos ClaimBuster, que contiene un modelo
de detección de reclamos construido sobre un conjunto de datos etiquetados por humanos de
reclamos dignos de verificación. El sistema utiliza aprendizaje automático y procesamiento del
lenguaje natural de discursos en vivo, redes sociales.
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 147

medios y noticias para identificar afirmaciones fácticas que se comparan con una base
de datos de hechos verificados por profesionales.
La confirmación o refutación de hechos basada en una base de conocimientos
requiere una búsqueda sofisticada en la base de datos. Ciampaglia et al. (2015)
presentan un método para verificar afirmaciones específicas encontrando el camino
más corto entre nodos conceptuales en un gráfico de conocimiento de hechos extraídos
de los cuadros de información de Wikipedia. Los hechos publicados y generalmente
conocidos a menudo no están completamente cubiertos en una base de conocimientos
específica. Trivedi et al. (2018) describen LinkNBed, un marco capaz de procesar
eficazmente múltiples gráficos de conocimiento e identificar enlaces de entidades en
las bases de datos. La información de enlace permite entonces combinar los hechos
resultantes de diferentes bases de conocimiento.
La tarea compartida de extracción y verificación de hechos (FEVER) (Thorne et al.
2018) proporciona una comparación de 23 sistemas competidores para la verificación
automatizada de hechos. El conjunto de datos de referencia consta de 185.445
afirmaciones generadas por humanos, evaluadas manualmente con evidencia textual
de Wikipedia para determinar si son verdaderas o falsas. El participante con mejor
puntuación logró obtener un 64,21% de precisión en las reclamaciones correctamente
clasificadas. El enfoque descrito en Nie et al. (2019) mejora este resultado para obtener
un 66,49% de precisión.
La verificación de datos es posiblemente el método más fiable y preciso para
detectar noticias falsas; Los métodos automatizados actuales sirven principalmente
como herramientas de apoyo (avanzadas). Los enfoques que se pueden implementar
ahora deben ser asistidos por humanos, con anotadores que extraigan afirmaciones de
los artículos mientras se verifican automáticamente los hechos con un gráfico de conocimiento.

5.3.2 Reconocimiento de estilo manipulativo

El supuesto en el que se basan estos métodos es que la veracidad del texto puede
evaluarse a partir de sus características secundarias y no directamente de la semántica
del mensaje en sí. Se ha teorizado que el mecanismo es posiblemente subconsciente
(Zhou y Zhang 2008; Siering et al. 2016): si el autor sabe que una información es
engañosa o que su intención es maliciosa, cambiará la forma en que la publica. se
formula el mensaje. Esta teoría se ha confirmado en la práctica y se han ideado
muchos métodos exitosos basados en este enfoque.

La tarea general es predecir, para un artículo o publicación determinada, si es


engañoso o no. Los métodos más antiguos tienden a operar en toda la pieza
investigada, mientras que los enfoques recientes son más detallados y también
Machine Translated by Google

148 A. HORÁK ET AL.

Intente señalar los lugares exactos del texto en los que aparecen las técnicas engañosas.

Los métodos se basan en la maquinaria estándar de procesamiento del lenguaje natural


y aprendizaje automático en la que se ha estudiado ampliamente la clasificación de textos.
La tarea generalmente se especifica en un entorno supervisado. Se utiliza un corpus anotado
que consta de ejemplos representativos de publicaciones veraces y engañosas como
conjunto de entrenamiento para un clasificador de aprendizaje automático. El clasificador
intenta encontrar patrones en los datos de entrenamiento y luego puede predecir la
autenticidad de artículos nunca antes vistos.
A diferencia de los métodos más antiguos que entrenan a los clasificadores en varias
características extraídas manualmente del texto, que van desde medidas simples, como la
presencia de palabras o frases específicas, la cantidad de caracteres especiales, palabrotas,
errores ortográficos, longitud de las oraciones y Desde la proporción de verbos modales
hasta los complejos, como la postura del escritor hacia el tema discutido, su puntuación de
legibilidad o la estructura sintáctica del texto, los enfoques recientes emplean ampliamente
métodos de aprendizaje profundo en los que el clasificador opera directamente en el texto
fuente.
El principal problema de los métodos basados en estilos radica en la construcción de
conjuntos de datos estándar, ya que se ha demostrado que los humanos son deficientes a
la hora de detectar el engaño (Rubin 2010). Sin embargo, los métodos basados en el estilo
son un área de investigación muy activa, posiblemente por múltiples razones: no es
necesaria información externa, sólo el contenido en sí; los métodos de clasificación de textos
están bien estudiados en el procesamiento del lenguaje natural, con muchas aplicaciones
diferentes; y los métodos basados en estilos se generalizan bien y se pueden aplicar
fácilmente a datos nunca antes vistos de forma aislada. A continuación se presentan algunos
resultados interesantes de la detección de engaños basados en el estilo.
Uno de los primeros métodos se describe en Burgoon et al. (2003). Los autores pretenden
discriminar las comunicaciones de chat engañosas utilizando un clasificador de árbol de
decisiones sobre características simples extraídas del texto. Canción y col. (2012) describen
sus experimentos para detectar reseñas y ensayos engañosos agregando la estructura
sintáctica del texto a la secuencia de palabras y características de parte del discurso, y
señalan que las características sintácticas junto con los unigramas alcanzan la mayor
precisión. Chen et al. (2015) sugieren detectar contenido engañoso mediante la detección
2
de clickbait en titulares de artículos de noticias utilizando máquinas de vectores de soporte,
pero no proporcionan una evaluación rigurosa.
Rubin et al. (2015) analizan el uso de características basadas en la estructura retórica

2Hipervínculos o titulares elaborados para atraer la atención de manera engañosa.


Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 149

(Mann y Thompson 1987) para identificar noticias engañosas junto con un clasificador
basado en regresión logística. Si bien la precisión reportada es baja, los autores
afirman que esto podría deberse a la cantidad limitada de datos de entrenamiento. El
trabajo de Popoola (2017) evalúa las características de la teoría de la estructura
retórica frente a reseñas engañosas de Amazon y señala una correlación significativa.

Los experimentos de Rubin et al. (2016) describen un método predictivo para


discriminar entre artículos de noticias satíricos y veraces utilizando máquinas de
vectores de soporte basadas en el vocabulario de un artículo y características
adicionales que cuantifican el afecto negativo, el absurdo, el humor, la gramática y la
puntuación. La precisión obtenida es 0,90, recordemos 0,84. Reis et al. (2019)
comparan varios clasificadores en un gran conjunto de características extraídas del
conjunto de datos de BuzzFeed y concluyen que XGBoost (Chen y Guestrin 2016) y
Random Forests (Breiman 2001) proporcionan los mejores resultados en el contexto
de la clasificación de noticias falsas. Esto apoya las conclusiones de Fernández­
Delgado et al. (2014), que compara 179 clasificadores diferentes de aprendizaje
automático en un entorno más general. Si bien los enfoques descritos anteriormente
utilizan un conjunto diverso de clasificadores, las características extraídas se pueden
usar para entrenar cualquiera de los clasificadores presentados. De manera similar,
Horák et al. (2019) aplicaron una variedad de clasificadores al conjunto de datos
descrito en la Sección. 4.4.4, 'Conjunto de datos de técnicas de propaganda en
portales de noticias checos (conjunto de datos MU)', logrando una precisión de hasta
0,96 y ponderada F 1 0,85 con máquinas de vectores de soporte entrenadas utilizando descenso de
Una evaluación exhaustiva de Mitra et al. (2017) descubre palabras y frases que
se correlacionan con una percepción de alta o baja credibilidad de los informes de
eventos en Twitter. Si bien esta información no proporciona directamente una señal
relacionada con noticias falsas, puede usarse para evaluar cuán creíble y, por lo
tanto, peligrosa parecerá una publicación.
Los enfoques presentados hasta ahora procesan los textos de entrada en un
escenario de flujo de trabajo limitado. Primero, se analiza cada texto y se extrae un
conjunto de características preseleccionadas (binarias o numéricas) en forma de
filas de tabla. Todo el procesamiento automatizado funciona sólo con la tabla
resultante. Este enfoque revela y resume aspectos importantes del artículo informativo
de entrada, que a menudo son suficientes y necesarios para la decisión resultante.
Sin embargo, los métodos tabulares no son capaces de distinguir diferencias sutiles
en el significado según el orden de la información (por ejemplo, palabras) en el texto.
Esta es la razón por la que las arquitecturas de redes neuronales recurrentes (RNN),
como las redes de memoria a corto plazo (LSTM) (Hochreiter y Schmidhuber 1997),
se han diseñado para operar en
Machine Translated by Google

150 A. HORÁK ET AL.

secuencias de palabras en lugar de características tabulares simplemente extraídas


y son capaces de discriminar en función de dependencias de significado a larga
distancia en el contexto de entrada. El modelo de captura, puntuación e integración
(CSI) (Ruchansky et al. 2017) emplea un sistema híbrido complejo que utiliza
información sobre la participación y la fuente del usuario además del texto del
artículo y entrena una red neuronal recurrente con estos datos. La precisión reportada
en un conjunto de datos de Twitter para clasificar información falsa es 0,89.
Volkova et al. (2017) evalúan varias arquitecturas de redes neuronales profundas
frente a métodos tradicionales y encuentran una mejora significativa en la precisión
de la clasificación al incluir ciertas redes sociales y características lingüísticas. Los
modelos de redes neuronales presentados se beneficiaron enormemente de entradas
adicionales denominadas señales de sesgo (por ejemplo, expresiones de vacilación
y posibilidad, así como verbos asertivos, factivos o implicativos), señales de
subjetividad (palabras subjetivas y de opinión positivas y negativas), señales
psicolingüísticas. (lenguaje persuasivo y sesgado) y señales de fundamentos
morales (apelaciones a fundamentos morales, como cuidado y daño, justicia y
trampa, o lealtad y traición). Ajao et al. (2018) describen un modelo RNN para la
detección de noticias falsas en Twitter y logran una precisión de 0,82 en el conjunto
de datos PHEME (Zubiaga et al. 2016), superando el resultado anterior del estado
del arte.
La tarea compartida descrita en Da San Martino et al. (2019) evaluaron el
rendimiento de 25 sistemas para la detección de 18 técnicas engañosas diferentes
en artículos periodísticos y las ubicaciones específicas en las que aparecen.
Los enfoques más exitosos emplean el modelo de lenguaje BERT (representaciones
de codificador bidireccional de transformadores) (Devlin et al. 2019) para obtener
una representación abstracta del texto. El F 1 mejor reportado para identificar
técnicas engañosas a nivel de oración es 0,63. El mejor resultado para la obtención
de las localizaciones alcanza F 1 0,23. El conjunto de datos utilizado para la
formación y evaluación de las técnicas se describe en la Sección. 4.4.3, 'Conjunto
de datos para la detección detallada de propaganda (conjunto de datos QCRI)'.

5.3.3 Credibilidad de la fuente

Es mucho más probable que un artículo publicado en un sitio web poco confiable por
un usuario poco confiable no sea confiable. Desde esta perspectiva, la fiabilidad de
un artículo puede evaluarse independientemente de su contenido. En el análisis de
Silverman (2016), se muestra que una gran mayoría de noticias falsas provienen de
sitios web hiperpartidistas o de sitios web de noticias falsas que pretenden ser
medios de comunicación habituales. Por lo tanto, identificar sitios web spam puede ayudar a
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 151

identificar fuentes no confiables. Las métricas tradicionales de confiabilidad de sitios


web que habían sido utilizadas por los motores de búsqueda, como PageRank (Page
et al. 1999), no son útiles hoy en día ya que los spammers han logrado superarlas, por
lo que se necesitan nuevos enfoques.
El trabajo de Esteves et al. (2018) proporciona un método para evaluar la
credibilidad de los sitios de noticias aplicando varios métodos de aprendizaje
automático a indicadores, como el contenido del texto del artículo (por ejemplo,
categoría de texto, enlaces salientes, información de contacto o métricas de legibilidad)
y los metadatos del artículo (por ejemplo, el dominio del sitio web, la hora de la última
actualización o etiquetas HTML específicas). Los autores excluyen características
sociales, como la popularidad y la estructura de enlaces, ya que dependen de fuentes
de datos externas que pueden manipularse fácilmente y el acceso a la información a escala es costos
Otro enfoque intenta identificar robots y usuarios maliciosos automatizados que
difunden información engañosa. Mehta y col. (2007) caracterizan el comportamiento
de los usuarios de spam y los patrones de sus operaciones y proponen un método
estadístico para identificar a estos usuarios basado en la detección de valores atípicos.

Abbasi y Liu (2013) describen el algoritmo CredRank que cuantifica la credibilidad


del usuario. La idea principal es que los usuarios malintencionados cooperen y formen
grupos más grandes y coherentes en comparación con los usuarios normales, que
probablemente formen grupos más pequeños. Shu et al. (2017) diseñan un marco
para evaluar la credibilidad de las noticias basado en la relación entre el editor, la
noticia, la participación del usuario y los vínculos sociales entre los usuarios. Estas
métricas se obtienen de diferentes fuentes y luego la puntuación resultante se extrae
mediante métodos de optimización.

5.3.4 Análisis del flujo de información

Este enfoque se basa en los patrones en los que se propagan las noticias falsas: cómo
los usuarios y otras fuentes interactúan con ellas y cómo se comparten. Como la
información empírica real sobre la prevalencia de noticias falsas es escasa, los
estudios en este campo también suelen investigar rumores o noticias no confirmadas
que pueden identificarse más fácilmente.
Un concepto central para este enfoque es un árbol de propagación o cascada de
propagación (Wu et al. 2015; Vosoughi et al. 2018). El árbol consta de nodos, que
representan postes, y bordes, que conectan pares de postes. Los bordes representan
la relación entre las publicaciones; comúnmente es una parte o una respuesta a. La
raíz del árbol de propagación es la publicación original.
Machine Translated by Google

152 A. HORÁK ET AL.

Los patrones de propagación de las noticias falsas y los de las noticias habituales difieren.
Vosoughi et al. (2018) analizan la difusión de noticias verdaderas y falsas verificadas en
Twitter e informan que las falsedades se difunden significativamente más lejos, más rápido y
más ampliamente que la verdad. Este efecto fue aún más pronunciado en el caso de las
noticias políticas. Los autores informan que no observaron ninguna aceleración en la
propagación de noticias falsas debido al efecto de los bots, lo que sugiere que los humanos,
y no los bots, son la causa de la propagación más rápida de las noticias falsas.
noticias.
La debilidad inherente de estos métodos es su necesidad de observar primero el
comportamiento de una cantidad significativa de usuarios para poder emitir juicios, por lo que
su poder predictivo es bajo en las primeras etapas de difusión; Sólo se pueden obtener
predicciones fiables cuando la mayor parte del daño ya se ha producido.

5.4 Conjuntos de datos y evaluación

A pesar de la importancia de la tarea, sólo existen unos pocos conjuntos de datos adecuados
para evaluar métodos automáticos para el análisis y detección de propaganda. En esta sección
los describimos detalladamente.
En general, los conjuntos de datos son bastante pequeños, lo que se debe al proceso de
anotación, a menudo complejo. Los anotadores necesitan recibir una formación específica y
la anotación en sí también es muy tediosa. Los esquemas de anotación difieren, por lo que
los conjuntos de datos son difíciles de comparar, ya que cada uno de ellos tiene un propósito
diferente y es adecuado para diferentes tareas. Los conjuntos de datos también son
heterogéneos y no todos están en inglés.

5.4.1 Corpus de 2017 de confianza, sátira, engaño y propaganda (TSHP)

A los efectos del análisis del lenguaje de las noticias falsas, Rashkin et al. (2017) han
preparado un conjunto de datos que comprende artículos de once fuentes y etiquetados con
cuatro clases: confiables (artículos de Gigaword News; ver Graff y Cieri 2003), sátira (The
Onion, The Borowitz Report, Clickhole), engaño (American News, DC Gazette) y propaganda
(The Natural News, Activist Report), en conjunto 22.580 artículos periodísticos bastante
equilibrados entre clases. Los datos están disponibles para descargar (Rashkin nd; Rashkin
et al.
2017). El análisis lingüístico acompañado mostró que el nivel de confiabilidad de las noticias
se puede predecir mediante la detección de ciertos recursos del lenguaje, como subjetivos
(brillante), superlativos o adverbios de acción (tontamente).
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 153

5.4.2 Corpus QProp

Barrón­Cedeño et al. (2019) han creado un conjunto de datos que contiene 52 mil
artículos de más de cien fuentes de noticias. Los artículos están anotados a nivel de
documento con etiquetas "propagandísticas" (positivas) o "no propagandísticas"
(negativas). Si un artículo proviene de una fuente considerada "propagandística" por
Media Bias Fact Check (Media Bias/Fact Check nd), entonces se etiqueta como positivo.
Los autores también agregaron metainformación del proyecto GDELT (Base de datos
global de eventos, lenguaje y tono, ver Leetaru y Schrodt 2013). El corpus está disponible
para descarga (Barrón­Cedeño et al. 2019).

5.4.3 Conjunto de datos para la detección detallada de propaganda (conjunto de


datos QCRI)

El conjunto de datos se ha utilizado en la tarea compartida sobre detección detallada de


propaganda, organizada en 2019 como parte de la "Conferencia sobre métodos empíricos
en el procesamiento del lenguaje natural" y la " 9ª Conferencia internacional conjunta
sobre procesamiento del lenguaje natural". También se ha utilizado para el 'Caso Hack
the News Datathon: Detección de propaganda' celebrado en enero de 2019 y en el
'Semeval 2020' para la Tarea 11. Ha sido proporcionado por investigadores del Instituto
de Investigación en Computación de Qatar (QCRI).
Los autores trabajaron con propaganda definida como "cualquier información que se
moldee intencionalmente para fomentar una agenda predeterminada". La propaganda del
conjunto de datos se clasifica en los siguientes 18 tipos de técnicas de manipulación:

1. lenguaje cargado (vocabulario fuertemente positivo y negativo, cargado de


emociones); 2. insultos
o etiquetas (vinculando a los sujetos con palabras de miedo, odio, deseo y otras
emociones); 3. repetición (es decir,
'una mentira que se repite mil veces se convierte en
verdad');
4. exageración o minimización; 5. duda;
6. apelar
al miedo/prejuicio; 7. ondear
banderas (jugar con un fuerte sentimiento nacional, étnico, racial, cultural o político);
Machine Translated by Google

154 A. HORÁK ET AL.

8. simplificación excesiva causal (reemplazar un tema complejo por uno


causa);
9. consignas;
10. apelar a la autoridad;
11. falacia del blanco y negro, dictadura3 (eliminar muchas opciones con sólo dos
alternativas o incluso con una sola opción correcta); 12. Cliché que pone fin al
pensamiento (por ejemplo, "deja de pensar tanto" o "el
El Señor obra de maneras misteriosas');
13. qué pasa con el (no discutas, pero acusa a los oponentes de
hipocresía);
14. reductio ad Hitlerum (Hitler odiaba el chocolate, X odia el chocolate,
por lo tanto X es nazi);
15. pista falsa (desviar la atención introduciendo algo irrel­
evant);
16. unirse al carro (una forma de argumentum ad populum); 17.
ofuscación, vaguedad intencional y confusión (deliberadamente
lenguaje poco claro); y
18. hombre de paja (discutir con una proposición falsa y superficialmente similar
como si un argumento en contra de la proposición fuera un argumento en contra
de la proposición original).

Una explicación más detallada de las técnicas se describe en Da San Martino et al.
(2019). El conjunto de datos ha sido creado por una empresa privada llamada A Data
Pro y contiene 451 artículos recopilados de 48 medios de comunicación (372 de fuentes
propagandísticas y 79 de fuentes no propagandísticas). El conjunto de datos contiene
21.230 frases (350.000 palabras) con 7.485 casos de técnica de propaganda utilizada.
Los más comunes son el lenguaje cargado y los insultos/etiquetados.

La concordancia entre anotadores se evaluó con una medida gamma (Mathet et al.
2015) adecuada para tareas con anotaciones que contienen intervalos potencialmente
superpuestos. Para una anotación independiente de cuatro anotadores y seis artículos
= 0,31. Para mejorar este acuerdo bastante bajo, se cambió el esquema de anotación y
parejas de anotadores crearon una anotación final junto con un consolidador. Esto
arrojó un resultado significativamente mayor (hasta 0,76) cuando se midió entre un
anotador individual y la anotación consolidada apropiada.

3Esta técnica de manipulación a veces se denomina falso dilema.


Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 155

A continuación se muestra un ejemplo de oración con una anotación:

En una señal evidente de cuán 400estúpidas y mezquinas416 se han vuelto


las cosas en Washington estos días, Manchin fue invitado a Fox News el
martes por la mañana para discutir cómo él era uno de los únicos demócratas
en la cámara para el discurso sobre el Estado de la Unión y no parecía
Trump 635 mató a su abuela653.

Los tres fragmentos están etiquetados de la siguiente manera:

1. 400–416 lenguaje cargado; 2. 607–653


exageración o minimización; y 3. 635–653 lenguaje cargado.

5.4.4 Conjunto de datos sobre técnicas de propaganda en portales de noticias checos (conjunto
de datos MU)

Desde 2016, investigadores del Departamento de Ciencias Políticas de la Facultad de Estudios Sociales
de la Universidad de Masaryk (MU) han estado recopilando y anotando manualmente técnicas de
propaganda a nivel de documentos en artículos de cuatro medios de comunicación checos4 con un
frecuente sesgo prorruso y/o o contenido manipulador, ya que la investigación original se centró
principalmente en la propaganda prorrusa. Desde 2017, la anotación se ha hecho más detallada y las
técnicas también se han anotado a nivel de frase. Esto se logró utilizando un editor dedicado creado por
investigadores del Centro de Procesamiento del Lenguaje Natural de la Facultad de Informática de MU.

El conjunto de datos contiene atributos binarios y de valores múltiples; los atributos a nivel de frase
capturan la presencia de un cierto tipo de manipulación y los atributos a nivel de documento enmarcan
el contexto más amplio del artículo de noticias.

Los atributos a nivel de frase (con valores posibles) incluyen:

1. culpar (sí/no/no estoy seguro; acusar a alguien de algo); 2. etiquetado (sí/no/no estoy
seguro);

4www.sputnik.cz, www.parlamentnilisty.cz, www.ac24.cz, y www.svetkolemnas.info.


Machine Translated by Google

156 A. HORÁK ET AL.

3. argumentación (sí/no/no estoy seguro; ¿el texto contiene argumentos a


favor o en contra de una
proposición?); 4. emociones (indignación/compasión/miedo/odio/otros/no
estoy seguro); 5. demonizar (sí/no/no estoy seguro; forma extrema de
etiquetado negativo); 6. relativizar (sí/
no/no estoy seguro); 7. generar miedo (sí/no/no estoy seguro; apelar al miedo, la incertidumb
amenaza);
8. fabulación (sí/no/no estoy seguro; rumores e invenciones); 9. opinión
(sí/no/no estoy seguro; ¿contiene el texto la información claramente expresada?
opinión del autor?);
10. Ubicación (UE/República Checa/EE.UU./otro país/Rusia
/Eslovaquia/no estoy seguro);
11. fuente (sí/no/no estoy seguro; ¿la propuesta está respaldada por una
¿referencia?);
12. Rusia (ejemplo positivo/neutral/víctima/ejemplo negativo/héroe
/no estoy seguro; ¿Cómo se retrata a Rusia?);
13. perito (sí/no/no estoy seguro; ¿el hecho está corroborado por un perito?);
y
14. Actitud hacia un político (positiva/neutral/negativa/
aclamando/no estoy seguro).

Los atributos a nivel de documento incluyen:

15. tema (crisis migratoria/política interna/política exterior [diplo­macia]/


sociedad [situación social]/energía/política social/conflicto en Ucrania/
cultura/conflicto en Siria/política armamentista/economía [finanzas]/
conspiración/otro ); 16. género
(noticia/entrevista/comentario); 17. enfoque
(extranjero/nacional/ambos/no estoy seguro); y 18.
sentimiento general (positivo/neutral/negativo).

El conjunto de datos fue descrito en detalle en Horák et al. (2019) pero luego
se amplió con datos anotados de 2018. Contiene 5500 documentos de 2016,
1994 documentos de 2017 y 2200 documentos de 2018. Los documentos de 2016
están anotados por un anotador por artículo, pero antes de anotar había un fase
piloto en la que los anotadores fueron capacitados y probados, incluido el control
de múltiples rondas del
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 157

acuerdo entre anotadores.5 Los otros documentos han sido anotados por tres anotadores,
por lo que se puede medir el acuerdo entre anotadores. Si al menos dos anotadores acordaron
el valor de un atributo, se incluyó en el conjunto de datos final. El acuerdo porcentual general
ha rondado el 80%; sin embargo, como los atributos difieren en los conjuntos de valores, el
kappa de Cohen promedio (Cohen 1960) oscila entre 0,2 (relativización) y 0,7 (ubicación), lo
que muestra claramente la dificultad de la tarea de anotación.

Un ejemplo de datos anotados6:

Directora de cine Nvotová: ((Eslovaquia)ubicación=Eslovaquia está


podrida)etiquetado=sí, (su política tiene sus raíces brutales en la
corrupción.)argumentación=sí Presidente de la ( República
Checa)ubicación=República Checa Miloš Zeman dijo durante su discurso
inaugural que no había votantes en la categoría mejor y peor. ("El presidente
no debería calificar a los partidos políticos porque no hay partidos de mejor y peor categoría",)arg
Presidente Zeman.

5.4.5 Conjunto de datos para estudiar noticias falsas en portugués

Moreno y Bressan (2019) presentaron el corpus FACTCK.BR, un conjunto de datos para


estudiar noticias falsas. Contiene 1.309 afirmaciones en forma de párrafos (un texto breve)
que han sido verificadas por una de las nueve iniciativas brasileñas de verificación de datos.
Cada reclamo consta de los siguientes elementos:

1. URL de origen; 2.
autor de verificación de
hechos; 3. fecha de
publicación; 4. fecha en que se revisó el reclamo;

5 La confiabilidad entre codificadores se probó utilizando el kappa de Cohen. En total, se


realizaron cinco rondas de codificación piloto antes de que los resultados de cada variable fueran
satisfactorios. Lo más difícil fue encontrar la capacidad de los anotadores para identificar la
presencia de la opinión del autor en el texto (0,63), y la técnica manipulativa de relativización
(0,65) fue moderada, mientras que el nivel de acuerdo sobre la presencia de la técnica manipulativa
de etiquetado (0,89) fue fuerte (con la puntuación de otras variables en el medio).
6El conjunto de datos está en checo. El ejemplo fue traducido al inglés por los autores. El original checo es:
Režisérka Nvotová: Slovensko
ˇ je prohnilé, tamní politika má brutální koˇreny korupce. El presidente de la República
de Ceské, Miloš Zeman, bˇ ehem svého inauguraˇcního projevu prohlásil, že neexistují voliˇci první a druhé kategorie.
'Prezident by nemˇel známkovat politické strany, protože nejsou strany první a druhé kategorie', ˇrekl presidente
Zeman.
Machine Translated by Google

158 A. HORÁK ET AL.

5. la reclamación
misma; 6. título del artículo;
7. calificación de la veracidad;
8. mejor calificación (basada en varias calificaciones); y 9.
etiqueta de texto (varias agencias de verificación de datos utilizan diferentes etiquetas: falso,
verdadero, imposible de probar, exagerado, controvertido, inexacto, etc.).

Los elementos de datos de este conjunto de datos son textos breves pero, de hecho, la anotación
es a nivel de documento. Esto hace que este recurso sea similar al corpus Proppy.

5.4.6 Temas y emociones en el conjunto de datos de propaganda rusa

El estudio de Miller (2019) utilizó un conjunto de datos que consta de aproximadamente doscientos
mil tweets de 3814 cuentas de Twitter asociadas por Twitter con la Agencia de Investigación de
Internet con sede en Rusia (Popken 2018).
El mismo conjunto de datos se utilizó en la investigación del fiscal especial (2017­2019) sobre la
interferencia rusa en las elecciones estadounidenses de 2016. El conjunto de datos no contiene
anotaciones manuales, pero es útil para el análisis de temas, palabras clave y emociones en la
propaganda rusa en las redes sociales.

5.4.7 Corpus de noticias falsas de BuzzFeed­Webis 2016 Este conjunto

de datos, presentado en Potthast et al. (2017), contiene una muestra de publicaciones publicadas
en Facebook por nueve agencias de noticias cercanas a las elecciones estadounidenses de
2016. Cinco periodistas han verificado publicaciones y artículos vinculados de editoriales
convencionales, de izquierda y de derecha.
Contiene 1.627 artículos: 826 artículos convencionales, 356 de izquierda y 545 de derecha. Las
publicaciones se han etiquetado como en su mayoría verdaderas, una mezcla de verdadero y
falso, en su mayoría falsas y sin contenido fáctico si la publicación carecía de una afirmación fáctica.

5.4.8 Mentiroso

Wang (2017) recopiló 12.836 declaraciones breves etiquetadas por verificadores de hechos de
PolitiFact. Las declaraciones provienen de comunicados de prensa, entrevistas de radio o
televisión y discursos de campaña. Las etiquetas representan una variedad de veracidad
verificada que incluye "pantalones en llamas" (completamente falso), falso, apenas cierto, medio
cierto, mayoritariamente cierto y verdadero.
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 159

5.4.9 Conjunto de datos del detector

Este conjunto de datos (Risdal 2016) se ha recopilado de 244 sitios web clasificados mediante una
extensión de navegador BS Detector7 desarrollada para comprobar (y
notificar a los usuarios sobre) la veracidad de las noticias. Comprende los textos y metadatos.
de 12.999 puestos.

5.4.10 Credbank

Mitra y Gilbert (2015) obtuvieron de forma colaborativa un conjunto de datos de aproximadamente 60


millones de tweets que cubren el final de 2015. Los tweets han sido vinculados
a más de mil eventos noticiosos y cada evento ha sido evaluado para
credibilidad por 30 anotadores de Amazon Mechanical Turk (Tabla 5.1).

Tabla 5.1 Descripción general de conjuntos de datos y corpus

Nombre Datos + anotación Aprox. tamaño Lang

Artículos artículos web en cuatro clases 22.000 artículos es


de artículos de noticias en dos clases 52.000 artículos es
noticias del conjunto de datos TSHP Qprop QCRI etiquetados con manipulación 451 artículos es
técnicas
conjunto de datos MU artículos de noticias etiquetados con manipulación 9500 artículos cs
técnicas
Declaraciones FACTCT.BR clasificadas por veracidad 1300 párrafos 3800 punto

IRA twitter tweets no clasificados BuzzFeed tweets 1600 es


LIAR BS Facebook publica artículos es
detector declaraciones etiquetadas con páginas web 13.000 declaraciones Es
CREDBANK de veracidad en algunas categorías 13.000 publicaciones es
tweets vinculados a eventos clasificados por 60 millones de tuits es
credibilidad

Autores fuente

7BS aquí significa mierda.


Machine Translated by Google

160 A. HORÁK ET AL.

5.5 Resumen
En este capítulo, hemos resumido los últimos enfoques para el reconocimiento y
generación automática de noticias falsas, desinformación y textos manipuladores en
general. El progreso tecnológico en este ámbito acelera la dispersión de textos, imágenes
y vídeos ficticios a tal ritmo y calidad que las fuerzas humanas dejan de ser suficientes.
Por tanto, la importancia de contar con técnicas de detección de propaganda de alta
calidad aumenta significativamente.
Los análisis informáticos permiten identificar muchos aspectos de dicho mal uso de la
información basándose en el estilo del texto del mensaje, las características del flujo de
información, la credibilidad de la fuente o la verificación exacta de los hechos. Sin
embargo, las precauciones finales siempre quedan en manos de los propios lectores humanos.

Referencias
Abbasi, M.­A. y Liu, H. (2013). Medición de la credibilidad del usuario en las redes sociales.
En AM Greenberg, WG Kennedy y ND Nathan (Eds.), Computación social, modelado y
predicción conductual­cultural (págs. 441–448).
Apuntes de conferencias sobre informática. Berlín, Heidelberg: Springer Berlín
Heidelberg. https://doi.org/10.1007/978­3­642­37210­0_48.
Adair, B., Li, C., Yang, J. y Yu, C. (2017). Progreso hacia 'el Santo Grial': la búsqueda
continua para automatizar la verificación de datos. Evanston: Universidad del Noroeste.

Ajao, O., Bhowmik, D. y Zargari, S. (2018). Identificación de noticias falsas en Twitter con
modelos híbridos CNN y RNN. Actas de la 9ª Conferencia Internacional sobre Sociedad
y Redes Sociales: SMSociety '18. Nueva York: ACM Press. https://doi.org/
10.1145/3217804.3217917.
Auer, S., Bizer, C., Kobilarov, G., Lehmann, J., Cyganiak, R. e Ives, Z. (2007).
DBpedia: un núcleo para una web de datos abiertos. La Web Semántica, 4825, 722–
735. Apuntes de conferencias sobre informática. Berlín, Heidelberg: Springer Berlín
Heidelberg. https://doi.org/10.1007/978­3­540­76298­0_52.
Barrón­Cedeño, A., Jaradat, I., Da San Martino, G., & Nakov, P. (2019). Proppy:
organización de las noticias en función de su contenido propagandístico. Procesamiento
y gestión de la información, 56(5), 1849–1864. https://doi.org/10.1016/j.ipm.2019.03.005 .

Bollacker, K., Evans, C., Paritosh, P., Sturge, T. y Taylor, J. (2008). Freebase: una base de
datos gráfica creada en colaboración para estructurar el conocimiento humano. Actas
de la Conferencia Internacional ACM SIGMOD de 2008 sobre Gestión de Datos —
SIGMOD '08, 1247. Nueva York: ACM Press. https://doi.org/10.1145/1376616.1376746 .

Breiman, L. (2001). Bosques aleatorios. Aprendizaje automático, 45, 3–32. https://doi. org/
10.1023/a:1010933404324.
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 161

Burgoon, JK, Blair, JP, Qin, T. y Nunamaker, JF (2003). Detectar el engaño mediante el
análisis lingüístico. En C. Hsinchun, R. Miranda, D.
R. Zeng, C. Demchak, J. Schroeder y T. Madhusudan (Eds.), Informática de inteligencia
y seguridad, 2665, 91­101. Apuntes de conferencias sobre informática.
Berlín, Heidelberg: Springer Berlín Heidelberg. https://doi.org/10.1007/3­540­44853­5_7 .

Caswell, D. y Anderson, CW (2019). Periodismo computacional. En TP Vos, F. Hanusch,


D. Dimitrakopoulou, M. Geertsema­Sligh y A. Sehl (Eds.), The International
Encyclopedia of Journalism Studies (págs. 1–8). Wiley. https://doi.org/
10.1002/9781118841570.iejs0046 .
Cazalens, S., Lamarre, P., Leblay, J., Manolescu, I. y Tannier, X. (2018). Una perspectiva
de gestión de contenidos sobre la verificación de datos. Compañero de The Web
Conference 2018 en The Web Conference 2018 — WWW '18, 565–574.
Nueva York: ACM Press. https://doi.org/10.1145/3184558.3188727.
Chen, T. y Guestrin, C. (2016). XGBoost: un sistema escalable de impulso de árboles.
Actas de la 22.ª Conferencia internacional ACM SIGKDD sobre descubrimiento de
conocimientos y minería de datos: KDD '16, 785–794. Nueva York: ACM Press. https://
doi.org/10.1145/2939672.2939785.
Chen, Y., Conroy, Nueva Jersey y Rubin, VL (2015). Contenido en línea engañoso:
reconocer Clickbait como "noticias falsas". Actas del ACM de 2015 sobre el taller
sobre detección de engaño multimodal: WMDD '15, 15­19. Nueva York: ACM Press.
https://doi.org/10.1145/2823465.2823467.
Ciampaglia, GL, Shiralkar, P., Rocha, LM, Bollen, J., Menczer, F. y Flam­mini, A. (2015).
Verificación de hechos computacional de redes de conocimiento.
MÁS UNO, 10(6), e0128193. https://doi.org/10.1371/journal.pone.012 8193.

Cohen, J. (1960). Un coeficiente de acuerdo a las escalas nominales. Medición educativa


y psicológica, 20(1), 37–46. https://doi.org/10.1177/001 316446002000104.

Da San Martino, G., Barrón­Cedeño, A., & Nakov, P. (2019). Hallazgos de la tarea
compartida NLP4IF­2019 sobre detección detallada de propaganda. Actas del
segundo taller sobre procesamiento del lenguaje natural para la libertad en Internet:
censura, desinformación y propaganda, 162–170. Stroudsburg: Asociación de
Lingüística Computacional. https://doi.org/10.18653/v1/D19­5024 .

Da San Martino, G., Yu, S., Barrón­Cedeño, A., Petrov, R. y Nakov, P. (2019).
Análisis detallado de la propaganda en artículos periodísticos. Actas de la Conferencia
de 2019 sobre métodos empíricos en el procesamiento del lenguaje natural y la
novena conferencia conjunta internacional sobre procesamiento del lenguaje natural
(EMNLP­IJCNLP), 5640–5650. Stroudsburg: Asociación de Lingüística Computacional.
https://doi.org/10.18653/v1/D19­1565.
Machine Translated by Google

162 A. HORÁK ET AL.

Devlin, J., Chang, M.­W., Lee, K. y Toutanova, K. (2019). BERT: Entrenamiento previo de
transformadores bidireccionales profundos para la comprensión del lenguaje. Actas de la
Conferencia Anual de 2019 del Capítulo Norteamericano de la Asociación de Lingüística
Computacional (NAACL 2019). Asociación de Lingüística Computacional.

Dong, X., Gabrilovich, E., Heitz, G., Horn, W., Lao, N. y Murphy, K., et al.
(2014). Bóveda de conocimientos: un enfoque a escala web para la fusión de conocimientos
probabilísticos. Actas de la vigésima conferencia internacional ACM SIGKDD sobre
descubrimiento de conocimientos y minería de datos: KDD '14, 601–10. Nueva York: ACM
Press. https://doi.org/10.1145/2623330.2623623.
Esteves, D., Reddy, AJ, Chawla, P. y Lehmann, J. (2018). Menospreciar la fuente: indicadores de
confiabilidad para ofuscar noticias falsas en la Web. Actas del primer taller sobre extracción y
verificación de hechos (FEVER), 50–59. Stroudsburg: Asociación de Lingüística Computacional.
https://doi. org/10.18653/v1/W18­5508.

Fernández­Delgado, M., Cernadas, E., Barro, S., & Amorim, D. (2014). ¿Necesitamos cientos de
clasificadores para resolver problemas de clasificación del mundo real?
La Revista de Investigación sobre Aprendizaje Automático, 15(1), 3133–3181.
Finn, S., Metaxas, PT y Mustafaraj, E. (2014). Investigando la propagación de rumores con
TwitterTrails. ArXiv.
Graff, D. y Cieri C. (2003). Gigapalabra en inglés. PMA2003T05. Descarga Web.
Filadelfia: Consorcio de datos lingüísticos. https://doi.org/10.35111/0z6y­q265.

Tumbas, L. (2016). Límites no trazados. Estudios de periodismo, 1 al 19 de junio.


https://doi.org/10.1080/1461670X.2016.1196602.
Hassan, N., Arslan, F., Li, C. y Tremayne, M. (2017). Hacia la verificación de hechos automatizada:
detección de afirmaciones fácticas dignas de verificación por parte de ClaimBuster. Actas de
la 23ª Conferencia Internacional ACM SIGKDD sobre Descubrimiento de Conocimiento y
Minería de Datos — KDD '17, 1803–1812. Nueva York: ACM Press. https://doi.org/
10.1145/3097983.3098131.
Hochreiter, S. y Schmidhuber, J. (1997). Memoria a largo plazo. Computación neuronal, 9 (8),
1735­1780. https://doi.org/10.1162/neco.1997.9.8. 1735.

Horák, A., Baisa, V. y Herman, O. (2019). Conjunto de datos de referencia para la detección de
propaganda en textos de periódicos checos. Actas de avances recientes en el procesamiento
del lenguaje natural, RANLP 2019, 77–83. Varna: INCOMA Ltd.
Instituto de Análisis de Propaganda. (1938). Cómo detectar propaganda. Boletín de la Asociación
Estadounidense de Profesores Universitarios, 24 (1), 49–55.
Kavanagh, J. y Rich, M. (2018). Decadencia de la verdad: una exploración inicial del papel cada
vez menor de los hechos y el análisis en la vida pública estadounidense. Corporación RAND.
https://doi.org/10.7249/RR2314.
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 163

Klyne, G., Carroll, JJ y McBride, B. (25 de febrero de 2014). RDF 1.1 Conceptos y
sintaxis abstracta. https://www.w3.org/TR/rdf11­concepts/. Consultado el 1 de
diciembre de 2019.
Leetaru, K. y Schrodt, PA (2013). GDELT: Datos globales sobre eventos, ubicación y
tono, 1979­2012. Convención Anual de la ISA, 2, 1–49.
Mann, WC y Thompson, SA (1987). Teoría de la estructura retórica: una teoría de la
organización del texto. Universidad del Sur de California, Instituto de Ciencias de la
Información.
Mathet, Y., Widlöcher, A. y Métivier, J.­P. (2015). El método unificado y holístico
Gamma (γ) para la medida y alineación del acuerdo entre anotadores. Lingüística
computacional, 41 (3), 437–479. https://doi.org/10.
1162/COLI_a_00227.
Mehta, B., Hofmann, T. y Fankhauser, P. (2007). Mentiras y propaganda: detección de
usuarios de spam en el filtrado colaborativo. Actas de la 12ª Conferencia
Internacional sobre Interfaces de Usuario Inteligentes: IUI '07, 14. Nueva York: ACM
Press. https://doi.org/10.1145/1216295.1216307.
Metaxas, PT (2010). Spam web, propaganda social y evolución de las clasificaciones
en los motores de búsqueda. En J. Cordeiro y J. Filipe (Eds.), Tecnologías y
sistemas de información web, 45, 170–182. Apuntes de conferencias sobre
procesamiento de información empresarial. Berlín, Heidelberg: Springer Berlín
Heidelberg. https://doi.org/10.1007/978­3­642­12436­5_13 .
Molinero, DT (2019). Temas y emociones en la propaganda rusa en Twitter. Primer
lunes, 24 (5). https://doi.org/10.5210/fm.v24i5.9638.
Mitra, T. y Gilbert, E. (2015). Credbank: un corpus de redes sociales a gran escala con
anotaciones de credibilidad asociadas. Actas de la Novena Conferencia
Internacional AAAI sobre Web y Redes Sociales. Prensa AAAI.
Mitra, T., Wright, GP y Gilbert, E. (2017). Un modelo de lenguaje parsimonioso de
credibilidad en las redes sociales en eventos dispares. Actas de la Conferencia
ACM de 2017 sobre trabajo cooperativo y computación social asistidos por
computadora: CSCW '17, 126–145. Nueva York: ACM Press. https://doi.org/
10.1145/2998181.2998351 .
Moreno, J. y Bressan, G. (2019). FACTCK.BR: Un nuevo conjunto de datos para
estudiar noticias falsas. Actas del 25º Simposio brasileño sobre multimedia y la
Web: WebMedia '19, 525–527. Nueva York: ACM Press. https://doi.org/10.
1145/3323503.3361698.
Neal, T., Sundararajan, K., Fatima, A., Yan, Y., Xiang, Y. y Woodard, D. (2017).
Técnicas y aplicaciones de estilometría topográfica. Encuestas de informática ACM,
50(6), 1–36. https://doi.org/10.1145/3132039.
Nie, Y., Chen, H. y Bansal, M. (2019). Combinación de extracción y verificación de
hechos con redes de coincidencia semántica neuronal. Actas de la Conferencia
AAAI sobre Inteligencia Artificial, 33 (julio), 6859–6866. https://doi.org/10.1609/
aaai.v33i01.33016859 .
Machine Translated by Google

164 A. HORÁK ET AL.

Page, L., Brin, S., Motwani, R. y Winograd, T. (1999). El PageRank Cita­tion Ranking: poner
orden en la Web. El PageRank Citation Ranking: poner orden en la Web.

Peleschyshyn, A., Holub, Z. y Holub, I. (2016). Métodos de manipulación de detección en tiempo


real en comunidades en línea. XI Congreso Internacional Científico y Técnico Ciencias de la
Computación y Tecnologías de la Información (CSIT 2016), 15­17. IEEE. https://doi.org/
10.1109/STC­CSIT.2016.758 9857.

Popken, B. (2018). Twitter eliminó 200.000 tweets de trolls rusos. Léelos aquí. NBC News, 14.
https://www.nbcnews.com/tech/social­media/now­available­more­200­000­deleted­russian­
troll­tweets­n844731.
Popoola, O. (2017). Uso de la teoría de la estructura retórica para la detección de reseñas falsas
en línea. Actas del sexto taller sobre avances recientes en RST y formalismos relacionados,
58–63. Stroudsburg: Asociación de Lingüística Computacional. https://doi.org/10.18653/v1/
W17­3608.
Potthast, M., Kiesel, J., Reinartz, K., Bevendorff, J. y Stein, B. (2017).
Una investigación estilométrica sobre noticias hiperpartidistas y falsas. Preimpresión de ArXiv.
ArXiv:1702.05638.
Radford, A., Wu, J., Child, R., Luan, D., Amodei, D. y Sutskever, I. (2019).
Los modelos de lenguaje son estudiantes multitarea sin supervisión. Reporte técnico.
AbiertoAi.
Rashkin, H., Choi, E., Jang, JY, Volkova, S. y Choi, Y. (2017). Verdad de distintos matices:
análisis del lenguaje en noticias falsas y verificación de hechos políticos. Actas de la
Conferencia de 2017 sobre métodos empíricos en el procesamiento del lenguaje natural,
2931–2937. Stroudsburg: Asociación de Lingüística Computacional. https://doi.org/10.18653/
v1/D17­1317.
Reis, JCS, Correia, A., Murai, F., Veloso, A., Benevenuto, F. y Cambria, E. (2019). Aprendizaje
supervisado para la detección de noticias falsas. Sistemas inteligentes IEEE, 34 (2), 76–81.
https://doi.org/10.1109/MIS.2019.2899143.
Risdal, M. (2016). Ser realista sobre las noticias falsas. Texto y metadatos de fuentes de noticias
falsas y sesgadas en la web. Descarga Web. Kaggle Inc. https://www.kaggle.com/mrisdal/fake­
news Rubin , VL (2010). Sobre el engaño y
la detección del engaño: análisis de contenido de creencias declaradas mediadas por
computadora. Actas de la Sociedad Estadounidense de Ciencia y Tecnología de la Información,
47 (1), 1–10. https://doi.org/10.1002/meet.14504701124 .

Rubin, VL, Conroy, Nueva Jersey y Chen, Y. (2015). Hacia la verificación de noticias: métodos
de detección de engaños en el discurso informativo. Conferencia Internacional de Hawái
sobre Ciencias de Sistemas.
Rubin, V., Conroy, N., Chen, Y. y Cornwell, S. (2016). ¿Noticias falsas o verdad?
Uso de señales satíricas para detectar noticias potencialmente engañosas. Actas de la
Machine Translated by Google

5 ENFOQUES TECNOLÓGICOS PARA LA DETECCIÓN EN LÍNEA… 165

Segundo taller sobre enfoques computacionales para la detección de engaños, 7­17 .


Stroudsburg: Asociación de Lingüística Computacional. https://doi.org/10.18653/v1/
W16­0802 .
Ruchansky, N., Seo, S. y Liu, Y. (2017). CSI: un modelo híbrido profundo para la detección de
noticias falsas. Actas de la ACM de 2017 sobre la Conferencia sobre gestión de la
información y el conocimiento: CIKM '17, 797–806. Nueva York: ACM Press. https://doi.org/
10.1145/3132847.3132877.
Shao, C., Ciampaglia, GL, Flammini, A. y Menczer, F. (2016). Hoaxy: una plataforma para
rastrear información errónea en línea. Actas de la 25ª Conferencia Internacional Compañera
sobre la World Wide Web: WWW '16 Companion, 745–750. Nueva York: ACM Press.
https://doi.org/10.1145/2872518.2890098 .

Esquilador, E. (2018). Uso de noticias en plataformas de redes sociales 2018. Pew Research
Centro.
Shu, K., Wang, S. y Liu, H. (2017). Explotación de la triple relación para obtener noticias falsas
Detección. Preimpresión de ArXiv ArXiv:1712.07709.
Siering, M., Koch, J.­A. y Deokar, AV (2016). Detección de comportamientos fraudulentos en
plataformas de financiación colectiva: el papel de las señales lingüísticas y basadas en
contenido en contextos estáticos y dinámicos. Revista de sistemas de información de
gestión, 33 (2), 421–455. https://doi.org/10.1080/07421222.2016.1205930.
Silverman, C. (16 de noviembre de 2016). Este análisis muestra cómo las noticias virales
falsas sobre elecciones superaron a las noticias reales en Facebook. Noticias de BuzzFeed.
https://www.buzzfeednews.com/article/craigsilverman/viral­fake­election­news­outperformed­
real­news­on­facebook . Consultado el 1 de diciembre de 2019.
Song, F., Ritwik, B. y Yejin, C. (2012). Estilometría sintáctica para la detección de engaños.
Actas de la 50ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 2:
Artículos breves), 171–175. Isla de Jeju: Asociación de Lingüística Computacional.

Thorne, J., Vlachos, A., Cocarascu, O., Christodoulopoulos, C. y Mittal, A.


(2018). La tarea compartida de extracción y verificación de hechos (FEVER). Actas del
primer taller sobre extracción y verificación de hechos (FEVER), 1–9. Stroudsburg:
Asociación de Lingüística Computacional. https://doi. org/10.18653/v1/W18­5501.

Trivedi, R., Sisman, B., Dong, XL, Faloutsos, C., Ma, J. y Zha, H.
(2018). LinkNBed: aprendizaje de representación de múltiples gráficos con vinculación de entidades.
Actas de la 56ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 1:
Artículos extensos), 252–262. Stroudsburg: Asociación de Lingüística Computacional.
https://doi.org/10.18653/v1/P18­1024.
Volkova, S., Shaffer, K., Jang, JY y Hodas, N. (2017). Separando hechos de ficción: modelos
lingüísticos para clasificar publicaciones de noticias sospechosas y confiables en Twitter.
Actas de la 55ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 2:
Artículos breves), 647–653. Stroudsburg:
Machine Translated by Google

166 A. HORÁK ET AL.

Asociación de Lingüística Computacional. https://doi.org/10.18653/v1/P17­2102 .

Vosoughi, S., Roy, D. y Aral, S. (2018). La difusión de noticias verdaderas y falsas en línea.
Ciencia, 359(6380), 1146­1151. https://doi.org/10.1126/science. aap9559.

Wang, WY (2017). 'Mentiroso, mentiroso pantalones en llamas': un nuevo conjunto de datos de


referencia para la detección de noticias falsas. Actas de la 55ª Reunión Anual de la
Asociación de Lingüística Computacional (Volumen 2: Artículos breves), 422–426.
Stroudsburg: Asociación de Lingüística Computacional. https://doi.org/10. 18653/v1/P17­2067.

Testamentos, CE y Uzunoglu, DC (2016). Qué son (y qué no son) los bloqueadores de anuncios
Haciendo. 2016 Cuarto taller del IEEE sobre temas de actualidad en sistemas y tecnologías
web (HotWeb), 72–77. IEEE. https://doi.org/10.1109/HotWeb. 2016.21.

Woolley, SC y Howard, PN (Eds.). (2018). Propaganda computacional: partidos políticos,


políticos y manipulación política en las redes sociales.
Oxford: Prensa de la Universidad de Oxford.
Wu, K., Yang, S. y Zhu, KQ (2015). Detección de falsos rumores en Sina Weibo mediante
estructuras de propagación. 2015 IEEE 31.ª Conferencia Internacional sobre Ingeniería de
Datos, 651–662. IEEE. https://doi.org/10.1109/ICDE.2015. 7113322.

Zellers, R., Holtzman, A., Rashkin, H., Bisk, Y., Farhadi, A. y Roesner, F., et al.
(2019, mayo). Defensa contra las noticias falsas neuronales. ArXiv.
Zhou, L. y Zhang, D. (2008). Siguiendo huellas lingüísticas. Comunicaciones de la ACM, 51(9),
119. https://doi.org/10.1145/1378727.138 9972.

Zubiaga, A., Liakata, M. y Procter, R. (2016). Aprendizaje de la dinámica de los informes durante
las últimas noticias para la detección de rumores en las redes sociales. preimpresión de
arXiv arXiv:1610.07363.
Machine Translated by Google

CAPÍTULO 6

Análisis forense proporcionado de la


desinformación y la manipulación

Radim Polˇcák y František Kasl

6.1 Introducción
El desarrollo de capacidades tecnológicas para la detección de manipulación
y desinformación en línea descrito en el capítulo anterior abre nuevas
posibilidades para el despliegue de estas técnicas. Sin embargo, la
adopción de estas herramientas para la acción autorizada requiere
además su incorporación adecuada en los marcos regulatorios existentes. Para persegu

R. Polˇcák ∙ F. Kasl (B)


Instituto de Derecho y Tecnología, Facultad de Derecho, Universidad Masaryk, Brno,
Chequia correo
electrónico: frantisek.kasl@law.muni.cz
URL: https://www.muni.cz/es/people/462266­frantisek­kasl

R. Polˇcák
Correo electrónico:
polcak@muni.cz URL: https://www.muni.cz/es/people/21177­radim­polcak

© El autor(es), bajo licencia exclusiva para Springer Nature Switzerland 167


AG 2021 M. Gregor y P.
Mlejnková (eds.), Desafiando la propaganda y la desinformación en
línea en el siglo XXI, campañas políticas y comunicación, https://
doi.org /10.1007/978­3­030­58624­9_6
Machine Translated by Google

ˇ
168 R. POLCÁK Y F. KASL

Para reprimir la difusión de desinformación y propaganda en línea, se deben recopilar


pruebas electrónicas permitidas a partir de los datos disponibles y evaluar su contenido.
Esto sólo puede lograrse si se tienen en cuenta las particularidades del entorno virtual en
línea, así como distinguir las características de los datos, la información y la evidencia
electrónica.

6.2 Datos, información y evidencia


6.2.1 Descubrimiento en línea

El término virtual se utiliza en el lenguaje cotidiano como lo opuesto a real. Como señaló
Lévy (1998), ese uso es bastante problemático. Cuando un fenómeno se virtualiza,
significa que todavía existe pero ahora en otra forma posible. Por lo tanto, la virtualización
significa cambiar la forma preservando al mismo tiempo la existencia y las propiedades
centrales del fenómeno respectivo.

En este volumen editado, nos ocupamos de la desinformación y manipulación en


línea. Estos fenómenos parecen ser sólo formas virtualizadas de desinformación o
manipulación fuera de línea, ya conocidas con diferentes nombres como propaganda y
alarmismo, entre otros términos. Si bien la manipulación en línea sigue siendo la misma
que su contraparte fuera de línea, por su naturaleza, la forma virtualizada la convierte en
una amenaza social relativamente nueva que abordar (Royster 2017). No es solo la
naturaleza inmaterializada de la manipulación en línea, sino también la eficiencia de sus
respectivos medios, la escala del impacto o la disponibilidad y variedad de opciones
dañinas (Waldman 2018) lo que hace que la forma virtualizada de este fenómeno sea un
objeto relativamente nuevo y específico. de atención científica.

En el ámbito jurídico, la virtualización a menudo no implica la necesidad inmediata de


cambiar el contenido de las respectivas normas jurídicas. Las leyes sustantivas se
elaboran principalmente para cubrir el núcleo de los fenómenos sociales problemáticos,
y las nuevas formas de tales fenómenos no necesariamente hacen que las leyes
existentes queden obsoletas (Easterbrook 1996). Este es también el caso de las normas
jurídicas sustantivas que regulan la manipulación o el discurso de odio, que en esencia
todavía son capaces de hacer frente a formas de mala conducta en línea (Vojak 2017).
Sin embargo, el fondo es sólo una parte de la esencia de la cobertura jurídica de
fenómenos sociales problemáticos. El otro elemento esencial es el procedimiento.
Incluso se considera un requisito indiscutible de la moralidad (y
Machine Translated by Google

6 FORENSES PROPORCIONALES... 169

legalidad) de la ley que los derechos sustantivos están respaldados por procedimientos que
son adecuados para hacerlos cumplir efectivamente (Fuller 1969).
El descubrimiento y análisis forense de pruebas representa la base de cada procedimiento
legal. El objetivo principal del procedimiento probatorio es proporcionar hechos para su posterior
consideración jurídica. Si bien las herramientas y mecanismos de descubrimiento permiten la
identificación y recopilación de hechos procesalmente relevantes, el consiguiente análisis
forense conduce al producto procesal final: la evidencia.

El alcance de las personas cuyos derechos podrían estar en juego en el descubrimiento y


el procesamiento posterior de la evidencia es a menudo mucho más amplio que solo las partes
de un caso respectivo y podría incluir incluso a múltiples personas sin conexión alguna con las
partes o el caso como tal. semejante.
En este sentido, los casos relacionados con Internet suelen ser mucho más complejos que
asuntos similares fuera de línea, ya que pueden involucrar a usuarios de servicios de la
sociedad de la información que operan a escalas sin precedentes. En consecuencia, el alcance
de las personas cuyos derechos podrían verse afectados por una investigación, descubrimiento
o uso posterior de evidencia representa una de las razones clave por las que el descubrimiento
electrónico representa una disciplina procesal relativamente separada (Browning 2011).

La segunda razón, y aún más obvia, para abordar el descubrimiento electrónico (o la


evidencia electrónica) como una disciplina específica es la naturaleza técnica de la evidencia y
de sus soportes. No existe diferencia ni especialidad en la forma en que la evidencia electrónica
representa información que sirve al tribunal en el descubrimiento de hechos. Más bien, lo que
es fundamentalmente diferente es la representación de información fáctica relevante desde el
punto de vista procesal en combinación con el asunto (o más bien la medida) en la que se
basa esta información. En este caso, la evidencia está representada por datos que están fijados
en soportes físicos o (mucho más a menudo) en diversos servicios de la sociedad de la
información (Wortzman y Nickle 2009).

La tercera razón por la que se considera evidencia electrónica es resultado específico de


las dos anteriores. La multitud de partes interesadas cuyos derechos podrían verse afectados
en el descubrimiento y posterior uso de pruebas electrónicas podría, gracias a la naturaleza de
Internet, incluir a nacionales o residentes de múltiples jurisdicciones. De manera similar,
también podría surgir una situación multijurisdiccional en materia de descubrimiento (e
independientemente de la nacionalidad o ubicación de las partes interesadas) debido al hecho
de que los datos relevantes se procesan dentro de un servicio de la sociedad de la información
que se opera desde el extranjero. En concreto, en el caso de manipulación o desinformación
online, es bastante común que los perpetradores y/o la audiencia afectada residan en
Machine Translated by Google

ˇ
170 R. POLCÁK Y F. KASL

la Unión Europea, mientras que los proveedores de servicios que procesan y almacenan los
datos respectivos se encuentran en el extranjero, principalmente en los Estados Unidos.
En estos casos, el descubrimiento y procesamiento de evidencia electrónica podría ser no
solo técnicamente difícil sino también legalmente engorroso, ya que los estándares
generales de protección de la privacidad, libertad de expresión o juicios justos pueden diferir
sustancialmente entre jurisdicciones (Svantesson 2015 ).
En cualquier caso, no todas las características específicas del descubrimiento electrónico
son, en comparación con el descubrimiento fuera de línea, completamente problemáticas.
La naturaleza de los efectos secundarios de las redes hace que el mercado de contenidos
generados por el usuario (CGU) para los servicios de la sociedad de la información
utilizados actualmente para la comunicación masiva, como Twitter, Facebook, etc., tenga
una fuerte tendencia hacia la monopolización. El resultado es relativamente pocos actores
del mercado cuyos servicios se utilizan para la manipulación coordinada o la desinformación,
en caso de que surja dicha conducta (Yoo 2012).
Al mismo tiempo, cualquier forma de actuación en línea, independientemente de sus
objetivos, alcance o medios utilizados, es técnicamente relativamente compleja y deja una
cantidad bastante sustancial de datos como rastro. Incluso una simple publicación en Twitter
genera una cantidad considerable de metadatos en varios proveedores de servicios que,
aunque no identifiquen a un usuario en particular, pueden procesarse de manera forense.
Si están disponibles y se analizan adecuadamente, estos metadatos pueden generar una
imagen mucho más rica del comportamiento respectivo y su contexto que cualquier cosa
que conozcamos del mundo fuera de línea.

6.2.2 El juego de la proporcionalidad

Los Estados europeos brindan una protección de los derechos fundamentales sin
precedentes en ningún otro lugar del mundo. La teleología fundamental centrada en la
persona de las leyes del Consejo de Europa y de las leyes de la Unión Europea significa
que todas las leyes e instituciones jurídicas se construyen y funcionan fundamentalmente
sobre la base de los derechos humanos.
Como lo señalaron los académicos de derecho más influyentes y lo dictaminaron
instancias constitucionales y similares en toda la Unión Europea, los derechos fundamentales
difieren de las normas legales estándar (Alexy 1996). Proporcionan, de manera similar a
las normas, órdenes deónticos, pero su ámbito de aplicación no está adecuadamente
definido.
Las normas se aplican si se cumplen sus hipótesis, mientras que, por el contrario,
cuando no se cumplen sus hipótesis, no se aplican. Así, las normas tienen dos estados
simples, dependiendo del cumplimiento fáctico de sus hipótesis: aplicar (totalmente) o no
aplicar (Alexy 2000).
Machine Translated by Google

6 FORENSES PROPORCIONALES... 171

En ese sentido, los derechos fundamentales no funcionan como normas sino más
bien como principios legales. Todos ellos se aplican de forma permanente y simultánea,
por lo que no es posible afirmar que algún derecho fundamental se aplica en su totalidad
o no se aplica en absoluto. Todos se aplican todo el tiempo, pero con diferente intensidad.
El dilema ontológico básico en el caso de las normas jurídicas es el cumplimiento de
sus hipótesis. Por el contrario, los principios, incluidos los derechos fundamentales,
dependen ontológicamente de su intensidad relativa en relación con otros principios.
Entonces es común que los tribunales superiores midan la intensidad de los principios en
conflicto y elijan el que tiene la relevancia más intensa.

Mientras que la colisión de normas se resuelve mediante la posterioridad y la


especialidad empírica y lógica, los principios en colisión se clasifican según diversas
doctrinas de proporcionalidad. Mientras que instancias constitucionales o similares en
diferentes estados utilizan enfoques doctrinales ligeramente diferentes, la evaluación
proporcional de los principios siempre depende de qué tan intensos sean los respectivos
principios ad hoc y si todos los principios en juego han sido protegidos en la máxima
medida posible (Alexy 2000).
Implica que no existe una jerarquía a priori de principios jurídicos y, por tanto, no
existe una jerarquía general de derechos fundamentales. También implica que, si bien en
un caso se prefiere un principio a otro (por ejemplo, la privacidad a la libertad de
expresión), no constituye un precedente para casos futuros.
Además, indica que los principios que no se han considerado de máxima relevancia
(intensidad) todavía se aplican ad hoc, pero no son dominantes. Esto es muy importante
para el descubrimiento electrónico y la práctica forense posterior porque limita el alcance
y el uso de la recopilación y el procesamiento de datos. En los casos en los que el
descubrimiento electrónico es legalmente posible (es decir, cuando es posible invadir la
privacidad, la propiedad u otros derechos mediante la recopilación o el procesamiento de
datos), sigue siendo necesario proteger estos derechos en la máxima medida posible.
Por lo tanto, los instrumentos procesales que permiten el descubrimiento electrónico
siempre van acompañados de salvaguardias legales, institucionales y técnicas que
prevén la mínima intrusión posible de los derechos respectivos.

6.2.3 Datos e información

El mayor desafío en el descubrimiento de la manipulación o desinformación en línea se


basa en la distinción general entre datos e información.
La comprensión metodológica de esta diferencia se remonta a la
Machine Translated by Google

ˇ
172 R. POLCÁK Y F. KASL

raíces de la cibernética y al trabajo de Norbert Wiener (1965). Su investigación del


mecanismo que organiza la vida le llevó a comprender la verdadera naturaleza de
la información, que es, sencillamente, lo opuesto a la entropía.

La comprensión científicamente correcta de la información es, por tanto, un


proceso inducido de reducción de la entropía en un sistema respectivo. En
consecuencia, la información debe entenderse como un proceso y no como un elemento estático.
Por lo tanto, la presencia o el nivel de información puede descubrirse en un sistema
determinado sólo con el tiempo porque la información es un cambio positivo en el
nivel organizacional de dicho sistema. La ausencia de información o la presencia de
desinformación o ruido también pueden detectarse sólo con el tiempo, ya que
suponen, por el contrario, un aumento de la entropía.
Implica que utilizar información como sinónimo de datos no es del todo correcto.
No existe información errónea, información dañina o incluso sobrecarga de
información, porque la información sólo puede tener un impacto positivo en el
sistema objetivo.
Los datos, por el contrario, no tienen valor informativo per se. Los datos pueden
convertirse en información o desinformación, dependiendo de su calidad, la calidad
del sistema objetivo y muchas otras variables.
Por supuesto, es posible adivinar con cierto grado de probabilidad el potencial
informativo de ciertos datos, principalmente sobre la base de experiencias previas.
Incluso las leyes contra la desinformación o el discurso de odio surgieron de
experiencias previas con este tipo de conducta (McGoldrick y O'Donnell 1998).
Dadas las implicaciones pasadas, la sociedad ha aprendido que estas formas de
comunicación pública causan caos y, por tanto, no son bienvenidas. Sin embargo,
no hay forma de adivinar al cien por cien cómo afectarán determinados datos a un
sistema objetivo a menos que realmente entren en él.
La incapacidad general de adivinar exactamente el potencial entrópico informativo
de los datos es obviamente importante, concretamente para el contenido de las
medidas legales contra la manipulación o la desinformación que se analizan a lo
largo de este libro. Desde el punto de vista procesal, esta dificultad afecta
principalmente a la precisión de la evaluación de qué datos y cómo se pueden
demostrar y probar una conducta ilegal. Si se los reduce hasta los huesos, los
investigadores y todos los actores consiguientes en los procedimientos legales se
encuentran frente a millones de ceros y unos de disponibilidad altamente variable y
deben adivinar si podrían informar (u organizar) el procedimiento respectivo y cómo
(Polcak y Svantesson 2017).
Cuanto más amplios y menos comprensibles son los datos, más dependemos
de tecnologías avanzadas en términos de su interpretación. Convertir datos en
Machine Translated by Google

6 FORENSES PROPORCIONALES... 173

La información adecuada para servir como prueba en los procedimientos legales era
tradicionalmente una tarea principalmente para algoritmos interpretativos que hacían que
dichos datos fueran comprensibles para los humanos. El descubrimiento electrónico consistió,
además de encontrar datos relevantes, principalmente en leer y mostrar los significados
respectivos simplemente transformando lógicamente todos esos ceros y unos en una salida
legible por humanos. Si dejamos de lado herramientas muy específicas, como la esteganografía,
este proceso fue en su mayor parte relativamente simple y empíricamente verificable.
Con la creciente complejidad semántica y subjetiva del sustrato del descubrimiento
electrónico, los algoritmos existentes, puramente lógicos y verificables deben complementarse
con herramientas que sean significativamente más poderosas, pero menos precisas y
explicables. Si asumimos que un caso típico de manipulación o desinformación intencionada
en línea podría consistir en una serie de acciones que utilizan multitud de modos de
comunicación y canales de difusión, es obvio que los datos de que disponen los investigadores
son extremadamente amplios e incoherentes. Además, también debemos asumir que la imagen
de las respectivas acciones nunca podrá estar completa debido a dificultades técnicas y legales
para obtener todos los datos y metadatos relevantes.

Como resultado, no solo necesitamos herramientas altamente sofisticadas para interpretar


adecuadamente estructuras de datos amplias e inconsistentes, sino también medios para llenar
adecuadamente posibles vacíos o imprecisiones (Polcak 2019).
El cambio de algoritmos relativamente simples y verificables, que convierten los datos en
información procesalmente relevante, a herramientas altamente complejas, sofisticadas y
naturalmente inexplicables es inevitable. Si los procedimientos legales deben cumplir su
propósito de respaldar normas jurídicas sustantivas, no hay otra manera que aceptar este
inevitable nivel de incertidumbre y falta de capacidad para explicar las respectivas herramientas
forenses y analíticas simplemente porque no hay otra manera de descubrir y analizar los datos.
en cuestión.
En cualquier caso, la principal limitación a la hora de implementar herramientas forenses
inexplicables (o menos explicables) basadas típicamente en el aprendizaje profundo es, al
menos en Europa continental, principalmente psicológica. Las leyes procesales europeas
ofrecen a los tribunales posibilidades muy amplias para elegir y procesar los medios de prueba.
Por lo tanto, es posible, sin necesidad de actualizaciones significativas del derecho procesal,
trabajar en los tribunales con pruebas generadas por sistemas forenses autónomos. Sin
embargo, los tribunales todavía están acostumbrados a confiar en la interpretación de hechos
basados en computadora, principalmente a través de algoritmos que pueden explicarse de
manera completa y lógica y verificarse empíricamente. Todavía no es habitual que un tribunal
trabaje con pruebas generadas por un algoritmo cuyo funcionamiento resulta incomprensible
no sólo para el propio tribunal sino para cualquier ser humano.
Machine Translated by Google

ˇ
174 R. POLCÁK Y F. KASL

6.3 Evidencia Electrónica de


Desinformación y Manipulación

Los desafíos descritos anteriormente, ligados a la complejidad de trabajar con


evidencia electrónica, se ven exacerbados aún más por los obstáculos legales que
surgen del hecho de que la conducta en línea no está limitada por la jurisdicción.
Por tanto, la cooperación transfronteriza en la obtención de pruebas electrónicas es
a menudo inevitable.

6.3.1 Marco legal para la recopilación y evaluación de datos electrónicos


Pruebas en la Unión Europea

Los problemas relacionados con la desinformación y la propaganda en línea se


crean predominantemente en un contexto multijurisdiccional y requieren cooperación
internacional en la búsqueda de pruebas electrónicas. Es probable que las huellas
digitales de las acciones de manipulación en cuestión se originen en una fuente
ubicada en el extranjero y se difundan a través de un servicio o plataforma
perteneciente a otra jurisdicción. Además, es probable que la evidencia particular
en forma de datos registrados en un servidor se almacene en servidores de servicios
en la nube distribuidos por todo el mundo. Es esta característica extraterritorial de
la conducta en línea la que plantea un obstáculo importante para las autoridades
que luchan por frenar las actividades delictivas en el ciberespacio, ya sean
cuestiones de comercio ilegal en la web oscura, incidentes de ciberseguridad o la
difusión de desinformación.
En los instrumentos de que disponen los poderes públicos para luchar contra las
técnicas de manipulación se pueden observar dos enfoques principales. El primero
tiene como objetivo directo sancionar la conducta y perseguir penalmente al autor
del delito. El segundo se refiere a la limitación indirecta del impacto del contenido
difundido mediante la aplicación de la (co)responsabilidad del proveedor de servicios
de Internet (ver Capítulo 4). Estas dos direcciones están en gran medida
entrelazadas en una red de procedimientos específicos determinados por la
conducta de que se trata y la estructura de los sujetos de que se trata. Como tal, la
lucha contra la desinformación o el discurso de odio en las principales plataformas
de redes sociales como Facebook, Twitter y YouTube se diferencia en las medidas
procesales adecuadas de la restricción de la distribución de propaganda de los
medios de comunicación menores en línea, ya sean locales (por ejemplo, aeronet.cz)
o internacional (por ejemplo, nwoo.org).
La investigación y persecución de conductas ilegales en línea depende en gran
medida de la asistencia legal mutua (en adelante denominada MLA) brindada.
Machine Translated by Google

6 FORENSES PROPORCIONALES... 175

por los tribunales y las autoridades policiales del país en cuestión.


Sin embargo, este mecanismo persistentemente formalizado para solicitar y
obtener pruebas para investigaciones y enjuiciamientos penales no es adecuado
para el tipo de pruebas electrónicas que buscan las autoridades en materia de
desinformación o propaganda.

6.3.1.1 Asistencia legal mutua La


cooperación entre las autoridades de los países involucrados bajo MLA se
comunica y coordina en principio a través de los respectivos ministerios de
justicia, sin contacto o comunicación directa entre los tribunales o departamentos
involucrados en niveles inferiores. Esto a menudo conduce a un proceso frágil y
engorroso, que puede prolongar significativamente la investigación o el
enjuiciamiento. Para acelerar los procesos de asistencia judicial recíproca y
aumentar la eficiencia de las investigaciones y enjuiciamientos transfronterizos,
numerosos países han celebrado acuerdos bilaterales o multilaterales
relacionados con el marco de asistencia judicial recíproca. Éstos, por un lado,
establecen una obligación mutua de prestar asistencia si así se solicita y, por
otro, fijan normas procesales que uniforman la comunicación y los pasos del
proceso. La cooperación en toda Europa a este respecto estuvo y sigue estando
a la vanguardia, iniciada mediante la ratificación del Convenio Europeo sobre
Asistencia Mutua en Materia Penal (en lo sucesivo, el 'Convenio Europeo') por
parte de los estados miembros del Consejo de Europa (Consejo de Europa
2019a). . El tratado ha estado en vigor desde 1962 y actualmente está ratificado
por 50 países, incluidos los países no miembros Chile, Israel y Corea del Sur
(Consejo de Europa 2019b). El marco de la Convención Europea experimentó
una revitalización gradual, primero a través del Protocolo Adicional de 1978
(Consejo de Europa 1978) y, más tarde, a través del Segundo Protocolo Adicional
en el cambio de milenio (Consejo de Europa 2001b). El desarrollo de los
mecanismos de cooperación procesal se vio respaldado además por la unificación
de calificaciones que constituyen un delito en el entorno en línea (Consejo de
Europa 2019c). Esto se proporcionó a través del Convenio sobre la
Ciberdelincuencia (Consejo de Europa 2001a), que entró en vigor en 2004, y su
protocolo posterior sobre las expresiones de racismo y xenofobia en línea
(Consejo de Europa 2003), que entró en vigor en 2006.

Para el contexto de esta publicación, es relevante que la Convención


Europea ha representado desde marzo de 2000 el principal instrumento de
cooperación con las autoridades encargadas de hacer cumplir la ley en Rusia.
Machine Translated by Google

ˇ
176 R. POLCÁK Y F. KASL

Federación (Consejo de la Unión Europea 2012). Esta relación es desafiante en


muchos niveles, lo que también impacta la cooperación mutua en asuntos legales
(Comité de Asuntos Exteriores 2019). Los esfuerzos anteriores para estrechar la
cooperación judicial en asuntos civiles, penales y comerciales fueron suspendidos
tras la anexión ilegal de Crimea por parte de Rusia (Servicio de Acción Exterior de la
Unión Europea, 2019). Sin embargo, se puede ver un avance positivo en el hecho
de que la Federación de Rusia ratificó el Segundo Protocolo Adicional al Convenio
Europeo, que entró en vigor el 1 de enero de 2020 (Consejo de Europa 2019d).

Dentro de la Unión Europea, el marco legal para la cooperación judicial y policial


se fortaleció significativamente entre la mayoría de los estados miembros a través
del Acervo de Schengen (Comunidades Europeas 2000). El siguiente avance
importante en el establecimiento de un entorno eficiente para la asistencia judicial
recíproca dentro de la Unión Europea fue el establecimiento del Convenio del 29 de
mayo de 2000 sobre asistencia mutua en materia penal entre los Estados miembros
de la Unión Europea (denominado en adelante Convenio de la UE). ) (Red Judicial
Europea 2011a). El progreso observado en este tratado también se refiere a los
términos recientemente acordados para la cooperación en la interceptación de
telecomunicaciones, según lo establecido en los artículos 17 a 22 del tratado (Red
Judicial Europea 2011b, 2). La Convención de la UE sigue siendo la base de la
asistencia judicial recíproca dentro de la Unión Europea, lo que permite una
cooperación transfronteriza comparativamente amplia y ágil entre las autoridades
encargadas de hacer cumplir la ley de los estados miembros. Sin embargo, las
crecientes demandas de una rápida recopilación de pruebas, en particular pruebas
electrónicas, han llevado a la priorización de instrumentos de reconocimiento mutuo
(por ejemplo, la Orden Europea de Investigación), que ha ido reemplazando
gradualmente la necesidad de aplicar un marco de asistencia judicial recíproca entre
los estados miembros de la UE. (Comisión Europea 2019a).
Sin embargo, la naturaleza internacional de los asuntos globalizados, así como
la naturaleza sin fronteras del ciberespacio, requieren cada vez más marcos
eficientes para la cooperación con países no pertenecientes a la UE, en particular
con Estados Unidos, donde están incorporados la mayoría de los principales actores
de la industria tecnológica. De los esfuerzos por una cooperación actualizada y
armonizada entre los Estados Unidos y los Estados miembros de la UE, que no
estaría sujeta a diversos tratados bilaterales, surgió el Acuerdo de Asistencia Legal
Mutua de 2003 entre la Unión Europea y los Estados Unidos de América (en adelante
denominado el 'Acuerdo MLA UE­EE.UU.') (Unión Europea 2003), que entró en vigor
el 1 de febrero de 2010 (Comisión Europea 2019a). El acuerdo fue en muchos
sentidos una formalización armonizada
Machine Translated by Google

6 FORENSES PROPORCIONALES... 177

de marcos acordados bilateralmente, así como acciones cooperativas establecidas en


forma de equipos de investigación conjuntos (Consejo de la Unión Europea 2011,
24­25). Uno de los resultados de esta cooperación más estrecha es que Estados
Unidos es hoy uno de los principales receptores de solicitudes de asistencia judicial
mutua para acceder a evidencia electrónica por parte de los estados miembros de la
UE (Comisión Europea 2019b).
Sin embargo, debido al creciente énfasis en las pruebas electrónicas, el marco del
Acuerdo MLA entre la UE y los EE. UU. se ha vuelto cada vez más inadecuado, ya
que no profundiza en este tema en particular (Tosza 2019, 271). Por esta razón, los
nuevos esfuerzos de los representantes de la UE apuntan a una cooperación más
estrecha directamente con los proveedores de servicios de Internet (Comisión Europea 2019b).
Actualmente, obtener pruebas electrónicas de un proveedor de servicios de Internet
con sede en los Estados Unidos lleva en promedio diez meses, mientras que el
objetivo de las negociaciones actuales es desarrollar un mecanismo de cooperación
que permitiría reducir este período a diez días (Comisión Europea 2019b). Actualmente
existe una cooperación voluntaria con proveedores de servicios de Internet con sede
en EE. UU.; sin embargo, esto cubre solo datos ajenos al contenido y está sujeto a
decisiones de cumplimiento caso por caso por parte del proveedor de servicios de
Internet (Comisión Europea 2019b).
Estos esfuerzos se están desarrollando en paralelo al establecimiento de nuevos
instrumentos de reconocimiento mutuo para pruebas electrónicas actualmente
aplicables o desarrollados dentro de la Unión Europea, a saber, la Orden Europea de
Investigación y, en particular, las Órdenes Europeas de Presentación y Conservación
propuestas.

6.3.1.2 Orden europea de investigación La


cooperación dentro de la Unión Europea ha ido aumentando gradualmente mucho
más allá del marco de la asistencia judicial recíproca. Se siguen desarrollando multitud
de herramientas prácticas, ya sea en el marco de la Red Judicial Europea (Red Judicial
Europea 2019a) o a través de otros mecanismos europeos de armonización o
reconocimiento (Consejo de la Unión Europea 2017). Estos se refieren a numerosas
áreas específicas de actividad criminal (Red Judicial Europea 2019b) , incluida la lucha
contra el discurso de odio (Consejo de la Unión Europea 2008).

El elemento central de los mecanismos existentes para la recopilación y el acceso


a pruebas electrónicas dentro de la Unión Europea es el marco de la Orden Europea
de Investigación (EIO) establecido a través de la Directiva 2014/41/UE del Parlamento
Europeo y del Consejo, de 3 de abril de 2014, sobre la Orden de Investigación en
materia penal
Machine Translated by Google

ˇ
178 R. POLCÁK Y F. KASL

(en adelante denominada 'Directiva EIO') (Unión Europea 2014), que los
estados miembros debían implementar en mayo de 2017. Como se indica en
el sitio web de Eurojust1 (Unión Europea 2016) , 'Desde el 15 de septiembre
de 2018, todos los Estados miembros adoptan participar en la OEI con
excepción de Dinamarca e Irlanda» (Eurojust 2019). Sin embargo, la
implementación y realización del marco bajo las leyes nacionales de los
estados miembros enfrenta desafíos diversos y persistentes (Papucharova
2019, 174). Un ejemplo particular de tal desafío es la ausencia de un efecto
armonizador en el marco sobre la admisibilidad de la prueba (Siracu­sano
2019, 85 et seq.). El desafío posterior es una tensión entre la eficiencia de tal
instrumento de cooperación transnacional y las variaciones procesales
inherentes en las leyes nacionales (Daniele y Calvanese 2018, 353 et seq.).

Como se resume con más detalle en la descripción general de las


características clave del marco, proporciona un único instrumento integral,
que reemplazó las cartas rogatorias utilizadas anteriormente y simplificó y
aceleró la investigación criminal transfronteriza, ya que permite la comunicación
directa entre las autoridades judiciales en los Estados miembros involucrados
y establece plazos estrictos para reunir las pruebas solicitadas (Eurojust 2018).
La principal simplificación proporcionada a través del marco EIO es el
reconocimiento de la solicitud. De conformidad con el artículo 9 de la Directiva
OEI, «la autoridad de ejecución reconocerá una OEI, transmitida de
conformidad con la presente Directiva, sin necesidad de ninguna formalidad
adicional, y garantizará su ejecución del mismo modo y bajo las mismas
modalidades que si la medida de investigación en cuestión hubiera sido
ordenada por una autoridad del Estado de ejecución, a menos que dicha
autoridad decida invocar uno de los motivos de no reconocimiento o de no
ejecución o uno de los motivos de aplazamiento previstos en la presente
Directiva». Esto en sí mismo presenta una mejora significativa del
procedimiento y proporciona un impulso a la velocidad de la investigación. Sin
embargo, la implementación del contacto directo entre las autoridades
judiciales no elimina la relevancia del papel facilitador proporcionado por
Eurojust, en particular cuando se coordinan casos multilaterales complejos
(Guerra y Janssens 2019, 46 y siguientes).
Además, la celeridad y prioridad asignada a la medida investigativa será
igual a la de un caso interno y dentro de plazos

1Agencia de Ciberseguridad de la Unión Europea.


Machine Translated by Google

6 FORENSES PROPORCIONALES... 179

establecido en el artículo 12 de la Directiva EIO. La decisión sobre el reconocimiento


o ejecución de la OEI se tomará a más tardar 30 días después de su recepción. Las
medidas de investigación posteriores se llevarán a cabo en un plazo de 90 días, a
menos que concurran motivos de aplazamiento en virtud del artículo 15.
El instrumento cubre todo el proceso de investigación, comenzando con el rápido
congelamiento de las pruebas y terminando con la transferencia final a las
autoridades solicitantes (Papucharova 2019, 170). Artículo 12, párr. 2 prevé el
respeto de circunstancias urgentes que justificarían un plazo procesal más corto; sin
embargo, aun así, la utilidad de la EEI para pruebas electrónicas dinámicas o
transitorias sigue siendo limitada en la práctica.
Ramos enfatizó acertadamente que la OEI representa "un importante paso
adelante en la cooperación judicial en lo que respecta a la recopilación
transfronteriza de pruebas" (Ramos 2019, 53). Sin embargo, también sirve como
ejemplo de los obstáculos que aún persisten para la investigación transfronteriza
que depende de pruebas electrónicas. El marco simplifica el acceso a pruebas
electrónicas transfronterizas; sin embargo, no fue diseñado con aplicabilidad a dicha
evidencia per se (Tosza 2019, 273). Los legisladores europeos son conscientes de
estos límites y han buscado desde 2017 la adopción de un reglamento que
establezca mecanismos específicos destinados a la rápida recopilación y acceso a
pruebas electrónicas (Unión Europea 2018a).

6.3.1.3 Propuesta de Órdenes Europeas de Producción y Conservación

Un procedimiento óptimo para la recopilación de pruebas electrónicas requiere un


número mínimo de nodos entre la autoridad investigadora y la entidad en posesión
de los datos respectivos. Los avances en los marcos de cooperación a través de la
asistencia mutua para la EIO fueron señalados por una reducción de entidades en
ambos países involucrados que tuvieron que participar en el procedimiento. El
concepto más nuevo dentro de la legislación de la UE, que debería eliminar las
barreras de jurisdicción múltiple para una investigación efectiva basada en evidencia
electrónica, prevé el acceso directo de la autoridad investigadora en un estado
miembro a proveedores privados de servicios de Internet en otro estado miembro.
Esto significaría una dimensión completamente nueva de la investigación de
conductas criminales en línea; sin embargo, los instrumentos para una estrecha
cooperación público­privada transfronteriza siguen siendo cuestionados en múltiples
niveles (Robinson 2018, 347 y siguientes).
La propuesta de Reglamento sobre las órdenes europeas de presentación y
conservación de pruebas electrónicas en materia penal (Unión Europea
Machine Translated by Google

ˇ
180 R. POLCÁK Y F. KASL

2018b) se introdujo mediante procedimiento legislativo ordinario el 18 de abril de


2018 y sigue en curso, actualmente en el Consejo de la Unión Europea (Unión
Europea 2019). A pesar de la necesidad urgente de esta nueva generación de
instrumentos legislativos que respondan a la continua digitalización de la sociedad
moderna, actualmente persiste la desunión con respecto a algunos de los
elementos constitutivos del marco. Durante las deliberaciones legislativas surgieron
solicitudes de numerosas modificaciones de la propuesta original. Por lo tanto,
hasta el momento no hay certeza sobre la redacción final de las disposiciones que
establecen estos mecanismos.
Como tal, el último resultado de los procedimientos legislativos del 11 de junio de
2019 (Consejo de la Unión Europea 2019) servirá como base para la siguiente
breve descripción y comentario.
Los contornos básicos del marco son que un tribunal, fiscal u otra autoridad
competente en procesos penales puede emitir una orden para preservar o producir
pruebas electrónicas específicas directamente a un proveedor de servicios de
Internet en otro Estado miembro si se cumplen las condiciones establecidas en el
reglamento ( Chankova y Voynova 2018, 121 y siguientes).
Estos incluyen la gravedad del delito penal, la naturaleza de los datos, la necesidad
o la proporcionalidad. El principal aspecto progresivo de la orden de presentación
es su rapidez, ya que actualmente se espera que el destinatario transmita la
prueba electrónica solicitada dentro de los diez días siguientes a la recepción de
una orden válida; en situaciones de emergencia, incluso en tan solo seis horas
(Consejo de la Unión Europea 2019, 36). Esto supondría una mejora gigantesca
con respecto al plazo actualmente aplicable de 120 días en virtud de la EIO. La
orden de conservación tiene entonces como objetivo la conservación de los datos
solicitados sin demoras indebidas durante 60 días, a menos que la autoridad
solicitante los prolongue válidamente (Consejo de la Unión Europea 2019, 38).
Esto ayudaría entonces a resolver la cuestión de la temporalidad de ciertos tipos
de pruebas electrónicas, que de otro modo sería, en principio, inalcanzable para
las autoridades investigadoras.
El primer aspecto que aún se desarrolla en la propuesta es el alcance de los
proveedores de servicios de Internet a los que se aplicará. Según la redacción
actual, si este alcance se entendiera de manera amplia, abarcaría todas las formas
de servicios de alojamiento, incluida la computación en la nube (Consejo de la
Unión Europea 2019, 6). El alcance del reglamento cubre los servicios prestados
en la Unión Europea (Consejo de la Unión Europea 2019, 8). Se debe prestar
especial consideración a la limitación de la responsabilidad penal debido a la
libertad de prensa y la libertad de expresión en otros medios (Consejo de la Unión
Europea 2019, 11­12). Relevante para el
Machine Translated by Google

6 FORENSES PROPORCIONALES... 181

La velocidad del procedimiento es el requisito recientemente introducido de contar


con la validación judicial necesaria antes de que se emita la orden (Consejo de la
Unión Europea 2019, 14). La autenticidad y validez del pedido se establecerá
mediante un certificado (Consejo de la Unión Europea 2019, 15); sin embargo, la
especificación de la emisión y transmisión de los certificados aún sigue siendo un
tema de debate (Consejo de la Unión Europea 2019, 29). Sin embargo, la cuestión
central que aún requiere mayor consenso es el enfoque del reembolso de los costos
resultantes de la orden (Consejo de la Unión Europea 2019, 40).

6.3.2 Enfoque proporcional al análisis forense digital de la desinformación


y la propaganda

Los mecanismos funcionales para la recopilación y preservación de pruebas


electrónicas proporcionan la base necesaria para la investigación y adjudicación de
actividades en línea. Sin embargo, como acertadamente lo expresó Boddington, "la
evidencia es ciega y no puede hablar por sí misma, por lo que necesita un intérprete
para explicar lo que significa o podría significar" (Boddington 2016, 14).

6.3.2.1 El papel de los profesionales forenses digitales Este


papel recae en los profesionales del análisis forense digital (DFA), quienes combinan
en su experiencia (a) las habilidades de un analista con conocimientos en los
aspectos técnicos de los procesos de datos ejecutados por dispositivos y redes
informáticas. con (b) un enfoque de investigación para identificar pruebas de
conducta delictiva, y (c) la necesaria conciencia de los prerrequisitos legales para
los debidos procedimientos y las pruebas admisibles en los tribunales (Boddington
2016, 20). Como intérprete, el perito forense proporciona al tribunal una opinión
científica, que debe respetar normas estrictas, incluida la imparcialidad de la
evaluación, evitando una conclusión juzgadora; la presentación de toda la gama de
explicaciones razonables; y bases probatorias apropiadas para su punto de vista
presentado (Boddington 2016, 15). De esta manera, los profesionales forenses
digitales desempeñan un papel crucial en la transformación de los datos recopilados
en evidencia electrónica utilizable en un tribunal de justicia. Debido a su creciente
importancia a este respecto, se presta especial atención a la formulación de los
principios del DFA. Estas son entonces la base para el desarrollo de mejores
prácticas, que consagran procesos sólidos y bien establecidos, que conducen a un
examen forense que satisface los requisitos legales y proporciona una interpretación
precisa y confiable (Boddington 2016, 20; Daniel y Daniel 2011, 26) . ).
Machine Translated by Google

ˇ
182 R. POLCÁK Y F. KASL

6.3.2.2 Principios fundamentales del análisis forense digital Las


mejores prácticas de DFA se desarrollan constantemente, ya que deben reflejar
la naturaleza dinámica del entorno tecnológico respectivo. Sin embargo, los
principios fundamentales son de naturaleza más permanente y proporcionan
principios generales para los debidos procedimientos. En el centro de toda
investigación forense se encuentra el Principio de Intercambio de Lockard: "Cada
contacto deja rastro" (Watson y Jones 2013, 10). Este axioma se refleja entonces
en un énfasis generalizado en la interacción cautelosa con la evidencia.
Ampliamente reconocida en el contexto europeo (ENISA 2015, 5) como cuerpo
de referencia es la Guía de buenas prácticas para pruebas electrónicas basadas
en computadora publicada y actualizada por la Asociación de Jefes de Policía del
Reino Unido (ACPO; Association of Chief Police Officers 2014). ). Los principios
de DFA contenidos en el mismo son los siguientes:

• Principio 1: Ninguna medida adoptada por los organismos encargados de hacer cumplir la ley o
sus agentes debe cambiar los datos conservados en una computadora o en un medio de
almacenamiento en los que posteriormente se pueda basar en los tribunales.
• Principio 2: En circunstancias en las que una persona considere necesario
acceder a datos originales conservados en una computadora o en un medio
de almacenamiento, esa persona debe ser competente para hacerlo y poder
brindar evidencia que explique la relevancia y las implicaciones de
sus acciones. • Principio 3: Se debe crear y preservar una pista de auditoría u
otro registro de todos los procesos aplicados a la evidencia electrónica
basada en computadora. Un tercero independiente debería poder examinar
esos procesos y lograr el mismo resultado. •
Principio 4: La persona a cargo de la investigación (el oficial del caso) tiene la
responsabilidad general de garantizar que se cumplan la ley y estos
principios (Asociación de Jefes de Policía 2014, 4).

Estos cuatro principios resumen la esencia del manejo legal y permisible de la


evidencia electrónica. Sin embargo, se debe tener en cuenta la naturaleza
dinámica del entorno en línea, ya que la aplicación a nuevos contextos tecnológicos
puede resultar desafiante. Un ejemplo de tal entorno puede verse en la
investigación de evidencia electrónica basada en la nube o la investigación en
tiempo real de evidencia transmitida a través de una red (Watson y Jones 2013,
10).
Machine Translated by Google

6 FORENSES PROPORCIONALES... 183

Los principios antes mencionados se amplían en otras mejores prácticas


ampliamente observadas, como la Evidencia electrónica de 2015: una guía básica
para socorristas, publicada por ENISA (2015). Los cinco principios formulados bajo
este marco reiteran y profundizan los requisitos establecidos en la guía ACPO.
Destacan la centralidad de la preservación de la integridad de los datos en todas
las etapas del proceso. Debido a la naturaleza volátil de los datos digitales, la
cadena de custodia es esencial para establecer la autenticidad de la evidencia.
Con respecto a esta pista de auditoría, la necesidad de detalle es crucial (ENISA
2015, 7). Dados los riesgos de modificación relacionados con cualquier manipulación
de la evidencia electrónica, los datos deben ser manejados únicamente por un
especialista con el equipo adecuado lo más temprano posible en el proceso de
investigación (ENISA 2015, 7–8). El papel interpretativo asignado a estos
especialistas requiere entonces una formación adecuada y constante, que sigue
siendo un requisito previo para afrontar con éxito los retos que surgen continuamente
relacionados con la investigación de nuevas formas de evidencia electrónica. Sin
embargo, la experiencia técnica del perito forense es inadecuada a menos que se
complemente con una orientación jurídica clara que garantice la legalidad del
proceso y la admisibilidad de las pruebas (ENISA 2015, 8).

Otros ejemplos de materiales que brindan información sobre las mejores


prácticas aplicables incluyen el Manual de mejores prácticas para el examen
forense de tecnología digital de ENFSI2 de 2015 (2015) o las Directrices sobre
3
ciencia forense digital para el personal de la OLAF de 2016 (OLAF 2016).

6.3.2.3 Desafíos del Análisis Forense Digital


de desinformación y propaganda A
pesar de la convergencia de principios y mejores prácticas en el campo de DFA, la
fragmentación y la falta de estandarización persisten como un desafío.
Esto sigue siendo cierto particularmente con respecto a la estandarización de las
herramientas analíticas y la unificación de la terminología y los procesos analíticos
(Boddington 2016, 17).
La certificación se utiliza ampliamente, ya sea para software forense o para las
habilidades de los profesionales forenses. Sin embargo, en ambos casos suele
faltar la verdadera autoridad de la certificación. Como lo resume Huber: “Es
importante comprender que la certificación no significa dominio.

2Red Europea de Institutos de Ciencias Forenses.


3Oficina Europea Antifraude.
Machine Translated by Google

ˇ
184 R. POLCÁK Y F. KASL

Simplemente significa que una organización externa ha validado que un individuo ha


cumplido con los estándares mínimos definidos por la organización. De hecho, la
certificación ni siquiera significa necesariamente competencia profesional” (Huber
2010). Lo mismo ocurre con las herramientas forenses. Boddington enfatiza que "la
certificación de software forense para confirmar la solidez forense no se prueba
amplia y formalmente" (Boddington 2016, 18). Vincze añade que “los fabricantes de
hardware y software patentados ofrecen formación y certificaciones para sus productos
individuales. Sin embargo, a pesar del rápido aumento en el número de exámenes
forenses digitales y el escrutinio experimentado por otras disciplinas forenses,
todavía no existe un estándar para las certificaciones de examinadores forenses
digitales. Por lo tanto, los investigadores que trabajan con evidencia digital tienen
calificaciones variadas e inciertas (Vincze 2016, 187). Esto conduce entonces a una
versatilidad en los enfoques adoptados por los profesionales forenses digitales,
incluido el uso de herramientas forenses digitales no validadas o de código abierto,
cuyos límites a menudo quedan ocultos para los destinatarios de la opinión del
experto (Boddington 2016, 18). Esta oscuridad con respecto a los fundamentos de
DFA se ve reforzada aún más por la complejidad técnica, a menudo inevitable, de los
datos y procesos interpretados. En tales condiciones, proporcionar análisis totalmente
confiables sigue siendo un estándar en gran medida inalcanzable para los
profesionales forenses digitales (Boddington 2016, 19).
El análisis forense digital de la desinformación y la propaganda está plagado en
su mayoría de males similares a los de otras áreas especializadas de esta disciplina,
en algunos aspectos incluso más agudos. La evidencia electrónica almacenada como
datos en los servidores de la red del proveedor de servicios de Internet es frágil y
susceptible de alteración o pérdida. Más que en el caso de las pruebas electrónicas
estándar almacenadas en medios de almacenamiento informático, el almacenamiento
en servidores basados en la nube puede verse amenazado por la disponibilidad
temporalmente limitada de registros de datos (Karie y Venter 2015, 888). Esto
conduce entonces a una ventana limitada de oportunidades para la recopilación de
evidencia electrónica, delineada por la disponibilidad técnica de los datos y el tiempo
que lleva desarrollar los procesos cooperativos transfronterizos (Karie y Venter 2015 ,
888). . Los obstáculos legales se pueden ver además no solo en lo que respecta a los
aspectos procesales, sino también en la creciente desalineación entre el marco legal
para el delito cibernético y los modelos forenses digitales y procedimientos de
investigación disponibles (Karie y Venter 2015, 889). Es probable que esta disparidad
se amplíe aún más por la fragmentación en la práctica de los profesionales forenses
debido a la frecuente incompatibilidad entre herramientas heterogéneas de DFA
(Karie y Venter 2015, 888). Estas herramientas a menudo están diseñadas para cumplir un propósito
Machine Translated by Google

6 FORENSES PROPORCIONALES... 185

y Venter 2004, 3), lo que significa que pueden proporcionar sólo una parte del
análisis. Con la creciente complejidad de los temas analizados, las
incompatibilidades entre las herramientas seleccionadas presentan un desafío
cada vez mayor. Por lo tanto, esto otorga una importancia creciente a los
procesos adecuados de estandarización y validación de herramientas forenses (Craiger et al. 200
A menos que los procesos y técnicas empleados cumplan con estándares
científicos probados, no deberían ser aceptables como base para la prueba en
procesos penales (Karie y Venter 2015, 889).

6.3.2.4 Detección de desinformación y propaganda en línea mediante


herramientas analíticas
automatizadas Una herramienta analítica automatizada para etiquetar cierto
contenido mediante metadatos cualitativos podría resultar un instrumento eficaz
para combatir la desinformación y la propaganda en línea. Sin embargo, como se
presenta a lo largo de esta publicación, el desarrollo de una herramienta de este
tipo debe abordar desafíos en múltiples niveles, que van desde la calificación e
identificación de técnicas de manipulación relevantes y su manifestación en un
conjunto de datos, hasta el desarrollo confiable de una herramienta de este tipo
en el basado en el aprendizaje automático que proporciona resultados
suficientemente convincentes para minimizar los resultados falsos a un nivel
aceptablemente bajo. Además de estos desafíos, deben reconocerse los límites al
uso de una herramienta derivados de los requisitos legales. Este capítulo
proporcionó una visión general de la percepción de los datos como evidencia
electrónica, enfocándose en sus atributos conceptuales únicos, desafiando los
marcos procesales para la recopilación internacional y el papel específico de los
especialistas de DFA en traducir sus cualidades a un lenguaje reconocible en los
tribunales. Cualquier implementación de una herramienta analítica automatizada
en estos procesos debe insertarse de manera compatible en estos marcos y, en
principio, su impacto estará limitado por su estructura. Si una herramienta analítica
automatizada proporciona una evaluación del contenido con respecto a las
expresiones reconocidas de técnicas de manipulación, se deben tener en cuenta
los límites del valor informativo de dicha evaluación.
Entonces, el principal desafío que hay que afrontar es la posible susceptibilidad
del algoritmo al sesgo. Independientemente de las medidas tomadas durante la
curación del conjunto de datos, la evaluación del contenido es interpretativa y,
por lo tanto, se ve afectada por la percepción subjetiva del individuo.
Esto proporciona un equilibrio inevitable entre la neutralización del prejuicio
introducido a través del conjunto de datos de aprendizaje y el valor informativo,
que puede derivarse de las técnicas de manipulación utilizadas.
Machine Translated by Google

ˇ
186 R. POLCÁK Y F. KASL

en el contenido (Caliskan et al. 2017, 183). Aparte de este problema, existen otras
posibles deficiencias del conjunto de datos que pueden afectar la objetividad de la
evaluación, "como el sesgo de confirmación, el sesgo de resultado, el sesgo de
punto ciego, la heurística de disponibilidad, las ilusiones de agrupamiento y los
efectos de tendencia" (Završnik 2019, 11).
Estos pueden eliminarse parcialmente mediante el papel intermediario de un
especialista de DFA con suficiente conocimiento experto de los datos y el algoritmo
para interpretar con seriedad la evaluación proporcionada y ayudar a la autoridad
que toma las decisiones a evitar la falacia del aura algorítmica de objetividad
( Završnik 2019, 13). En este sentido, cualquier herramienta analítica automatizada
debe verse simplemente como tal, es decir, simplemente como un aporte informativo
para la evaluación y resolución de la situación basándose en una imagen completa
y no como una sugerencia objetiva preformulada para calificar el caso.

6.4 Conclusiones
Este capítulo presentó un conjunto de componentes del marco regulatorio destinado
a la recolección y uso de evidencia electrónica. Por lo tanto, la atención se centró
en los requisitos legales previos para la utilización en un tribunal de justicia de los
resultados proporcionados por las herramientas de detección de manipulación y
desinformación en línea, que se describieron en el capítulo anterior.
En un primer momento se destacó la particularidad de la forma virtual de los
fenómenos centrales, distinguiendo datos de información y formulando lo que
constituye evidencia electrónica. La siguiente sección reflejó el hecho de que las
acciones autorizadas tomadas contra la difusión de desinformación o propaganda
deben seguir los respectivos requisitos procesales, lo que plantea un desafío
particular para las entidades nacionales de aplicación de la ley debido a la calidad
sin fronteras del entorno en línea. Se presentaron brevemente los avances hacia la
superación de estos obstáculos. Se dedicó especial atención a los esfuerzos
encaminados a lograr procedimientos efectivos y oportunos para la cooperación
transfronteriza en la recopilación de pruebas electrónicas, ejemplificados por los
últimos esfuerzos de la Unión Europea hacia la adopción del Reglamento sobre las
órdenes europeas de entrega y conservación de pruebas electrónicas. prueba en
materia penal. La tercera y última perspectiva introducida en este contexto fue el
papel de los profesionales forenses digitales en la mediación del valor informativo
de los datos recopilados y los resultados de las herramientas de detección de
manipulación y desinformación en línea.
Machine Translated by Google

6 FORENSES PROPORCIONALES... 187

A lo largo del capítulo se extraen varias conclusiones con respecto a aspectos


particulares de este tema. En primer lugar, la complejidad de fenómenos como la
desinformación o la propaganda requiere el desarrollo y la aplicación de
herramientas analíticas y de detección que operan con datos incompletos y deben
operar inevitablemente con un nivel no despreciable de incertidumbre y falta de
explicabilidad. En principio, estas herramientas pueden utilizarse en un tribunal de
justicia según las leyes procesales europeas vigentes; sin embargo, es probable
que su adopción sólo pueda facilitarse con éxito con la ayuda de testigos expertos:
los profesionales forenses digitales.
Además, la lucha eficaz contra la desinformación y la difusión de propaganda
en línea requiere procedimientos rápidos y sencillos para la recopilación
transfronteriza de pruebas electrónicas. Estos deben vincular a la autoridad
investigadora con el proveedor de servicios de Internet en posesión de los datos
con el mínimo retraso e intermediación posible. Se demostró que tales instrumentos
se debaten actualmente dentro de la Unión Europea. Sin embargo, no sólo no
existen todavía, sino que la cooperación con otros Estados, en particular con los
Estados Unidos y la Federación Rusa, sigue siendo procesalmente engorrosa y
requiere mucho tiempo, lo que limita el potencial para la realización de las
actividades ilegales en línea en cuestión. por parte de las autoridades públicas.

La conclusión final se refiere a los desafíos a la validación de los resultados de


las herramientas de detección de propaganda y desinformación como parte de un
análisis forense digital. A pesar de que existen principios generales ampliamente
reconocidos, los detalles específicos de la estandarización y certificación de
herramientas forenses digitales a menudo están fragmentados. Dado que es
probable que los resultados de estas herramientas requieran mediación e
interpretación por parte de los profesionales forenses digitales para llegar a un
tribunal de justicia, se deben desarrollar más enfoques transparentes y confiables
para probar y evaluar estas herramientas de detección y análisis.

Bibilografía

Alexy, R. (1996). Teoría del discurso y derechos humanos. Ratio Juris, 9(3), 209–
235.
Alexy, R. (2000). Sobre la estructura de los principios jurídicos. Ratio Juris, 13(3), 294–
304.
Arthur, KK y Venter, HS (2004). Una investigación sobre herramientas informáticas
forenses. En Actas de la AISS de 2004 (págs. 1 a 11). Sociedad de Computación IEEE
Machine Translated by Google

ˇ
188 R. POLCÁK Y F. KASL

Editores. https://digifors.cs.up.ac.za/issa/2004/Proceedings/Full/060. pdf. Consultado el 30


de noviembre de 2019.
Asociación de Jefes de Policía. (2014). Guía de Buenas Prácticas para la Prueba Electrónica
Informática. Versión de lanzamiento oficial 4.0. Asociación de Jefes de Policía. https://
www.7safe.com/docs/default­source/default­document­library/
acpo_guidelines_computer_evidence_v4_web.pdf. Consultado el 30 de noviembre de 2019.

Boddington, R. (2016). Análisis forense digital práctico. Birmingham: Paquete


Publicación: cuenta de libros electrónicos.
Browning, JG (2011). Buscando la suciedad digital: descubrimiento y uso de evidencia de sitios
de redes sociales. Revisión de la ley de ciencia y tecnología de SMU, 14 (3), 465–496.

Caliskan, A., Bryson, JJ y Narayanan, A. (2017). La semántica derivada automáticamente de


los corpus lingüísticos contiene sesgos similares a los humanos. Ciencia, 356(6334), 183–
186. https://doi.org/10.1126/science.aal4230.
Chankova, D., Voynova, R. (2018). Hacia una nueva regulación europea para el manejo de
pruebas electrónicas. Revisión de la ley entre Estados Unidos y China, 15 (3), 121­129.
Comisión de Asuntos Exteriores. (2019). Informe sobre el estado de las relaciones políticas
UE­Rusia. Bruselas: Parlamento Europeo. http://www.europarl.europa. eu/doceo/document/
A­8­2019­0073_EN.html. Consultado el 30 de noviembre de 2019.
Consejo Europeo. (1978). Protocolo Adicional al Convenio Europeo sobre Asistencia Judicial
en Materia Penal: Serie de Tratados Europeos No. 99.
Estrasburgo: Consejo de Europa. https://rm.coe.int/1680077975. Consultado el 30 de
noviembre de 2019.
Consejo Europeo. (2001a). Detalles del Tratado No.185: Convenio sobre Ciberdelincuencia.
https://www.coe.int/en/web/conventions/full­list. Consultado el 30 de noviembre de 2019.
Consejo Europeo. (2001b). Segundo Protocolo Adicional al Convenio Europeo sobre
Asistencia Mutua en Materia Penal. https://www.coe.int/fr/web/conventions/full­list .
Consultado el 30 de noviembre de 2019.
Consejo Europeo. (2003). Detalles del Tratado No.189: Protocolo Adicional a la Convención
sobre Delito Cibernético, relativo a la Penalización de Actos de Carácter Racista y
Xenófobo Cometidos a través de Sistemas Informáticos. https://www. coe.int/en/web/
conventions/full­list. Consultado el 30 de noviembre de 2019.
Consejo Europeo. (2019a). Convenio de Budapest y normas afines. https://www.coe.int/en/
web/cybercrime/the­budapest­convention.
Consultado el 30 de noviembre de 2019.

Consejo Europeo. (2019b). Detalles del Tratado No.030: Convenio Europeo sobre Asistencia
Mutua en Materia Penal. https://www.coe.int/en/web/conventions/full­list/­/conventions/
treaty/030 . Consultado el 30 de noviembre de 2019.
Consejo Europeo. (2019c). Federación de Rusia ratifica el Segundo Protocolo Adicional al
Convenio Europeo sobre Asistencia Mutua en Materia Penal. Comité de Expertos sobre el
funcionamiento de los convenios europeos
Machine Translated by Google

6 FORENSES PROPORCIONALES... 189

de Cooperación en Materia Penal (PC­OC) (blog). https://www.coe. int/en/web/


transnational­criminal­justice­pcoc/home/­/asset_publisher/ 1f469eJfgY9m/content/
russian­federation­ratifies­the­ second­additional­pro tocol­to­the­european­convention­
on­mutual ­asistencia­en­materia­penal.
Consultado el 30 de noviembre de 2019.

Consejo Europeo. (2019d). Cuadro de Firmas y Ratificaciones del Tratado 030: Convenio
Europeo sobre Asistencia Mutua en Materia Penal. https://www.coe.int/en/web/
conventions/full­list/­/conven tions/treaty/030/signatures?p_auth=uJ11NBHx. Consultado
el 30 de noviembre de 2019.
Consejo de la Unión Europea. (2008). Decisión marco 2008/913/JAI del Consejo, de 28 de
noviembre de 2008, sobre la lucha contra determinadas formas y expresiones de racismo
y xenofobia mediante el derecho penal. Diario Oficial de la Unión Europea, 328. http://
data.europa.eu/eli/dec_framw/2008/913/oj/eng . Consultado el 30 de noviembre de 2019.

Consejo de la Unión Europea. (2011). Manual sobre la aplicación práctica de los acuerdos
de extradición y asistencia jurídica mutua UE­EE.UU. 8024/11.
Bruselas: Consejo de la Unión Europea. https://www.statewatch.org/news/2011/mar/eu­
council­eu­usa­mla­handbook­8024­11.pdf . Consultado el 30 de noviembre de 2019.

Consejo de la Unión Europea. (2012). Cooperación UE­Rusia en Materia Penal 14316/1/12


REV 1. Bruselas: Consejo de la Unión Europea. https://www.statewatch.org/news/2012/
oct/eu­council­rus sia­criminal­matters­14316­rev1­12.pdf. Consultado el 30 de noviembre
de 2019.
Consejo de la Unión Europea. (2017). Instrumentos de la Unión Europea en el ámbito del
Derecho penal y textos afines. Bruselas: Consejo de la Unión Europea. https://
www.consilium.europa.eu/media/32557/eu­instrumen tsdecember2017.pdf. Consultado
el 30 de noviembre de 2019.
Consejo de la Unión Europea. (2019). Reglamento del Parlamento Europeo y del Consejo
sobre Órdenes Europeas de Presentación y Conservación de Pruebas Electrónicas en
Materia Penal—Enfoque General 10206/19. Bruselas: Consejo de la Unión Europea.
https://eur­lex.europa.eu/legal­content/EN/TXT/PDF/?
uri=CONSIL:ST_10206_2019_INIT&from=EN . Consultado el 30 de noviembre de 2019.

Craiger, P., Swauger, J., Marberry, C., Hendricks, C. (2006). Validación de Herramientas
Forenses Digitales. En P. Kanellis, E. Kiountouzis, N. Kolokotronis, D.
Martakos (Eds.), Crimen digital y ciencia forense en el ciberespacio (págs. 91­105).
Hershey, PA: Grupo de ideas. https://doi.org/10.4018/978­1­59140­872­7.ch005 .

Daniel, L. y Daniel, L. (2011). Análisis forense digital para profesionales jurídicos:


comprensión de la evidencia digital desde la orden judicial hasta la sala del tribunal.
Waltham, MA: Syngress.
Machine Translated by Google

ˇ
190 R. POLCÁK Y F. KASL

Daniele, M. y Calvanese, E. (2018). Recopilación de pruebas. En R. Kostoris (Ed.), Manual


de procedimiento penal europeo (págs. 353–391). Cham: Springer.
Easterbrook, FH (1996). El ciberespacio y la ley del caballo. Chicago, IL: Foro Legal de la
Universidad de Chicago.
ENFSI. (2015). Manual de Mejores Prácticas para el Examen Forense de Tecnología Digital.
ENFSI­BPM­FIT­01. http://enfsi.eu/wp­content/uploads/
2016/09/1._forensic_examination_of_digital_technology_0.pdf . Consultado el 30 de
noviembre de 2019.
ENISA. (2015). Evidencia electrónica: una guía básica para los socorristas. https://
www.enisa.europa.eu/publications/electronic­evidence­a­basic­guide­for­first­responders.
Consultado el 30 de noviembre de 2019.
Eurojust. (2018). Orden Europea de Investigación. http://www.eurojust.eur opa.eu/doclibrary/
corporate/Infographics/European%20Investigation%20O rder/2018­European­Investigation­
Order.pdf. Consultado el 30 de noviembre de 2019.
Eurojust. (2019). Orden Europea de Investigación. http://www.eurojust.europa. eu/Practitioners/
operativeal/EIO/Pages/EIO.aspx. Consultado el 30 de noviembre de 2019.
Comisión Europea. (2019a). Asistencia jurídica mutua y extradición https://ec.europa.eu/info/
ción. law/cross­border­cases/judicial­cooper ation/types­judicial­cooperation/mutual­
legal­assistance­and­extradition_en.
Consultado el 30 de noviembre de 2019.

Comisión Europea. (2019b). Preguntas y respuestas: Mandato para la cooperación UE­


EE.UU. en materia de pruebas electrónicas. Comunicados de prensa. https://europa.eu/
rapid/press­release_MEMO­19­863_en.htm . Consultado el 30 de noviembre de 2019.
Comunidades Europeas. (2000). El acervo de Schengen: Convenio que aplica el Acuerdo
de Schengen de 14 de junio de 1985 entre los gobiernos de los Estados de la Unión
Económica del Benelux, la República Federal de Alemania y la República Francesa sobre
la abolición gradual de los controles en sus fronteras comunes. Diario Oficial de la Unión
Europea 239, 19– 62. https://eur­lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX%3A4
2000A0922%2802%29%3AEN%3AHTML. Consultado el 30 de noviembre de 2019.

Red Judicial Europea. (2011a). Texto íntegro del Convenio de 29 de mayo de 2000 sobre
asistencia judicial en materia penal entre los Estados miembros de la Unión Europea.
Biblioteca Judicial. https://www.ejn­crimjust.europa.eu/ejn/libdocumentproperties/EN/16 .
Consultado el 30 de noviembre de 2019.
Red Judicial Europea. (2011b). Informe Explicativo del Convenio MLA 2000. Biblioteca
Judicial. https://www.ejn­crimjust.europa.eu/ejn/lib documentproperties/EN/575.
Consultado el 30 de noviembre de 2019.
Red Judicial Europea. (2019a). Herramientas prácticas para la cooperación judicial. https://
www.ejn­crimjust.europa.eu/ejn/EJN_Home.aspx. Consultado el 30 de noviembre de
2019.
Machine Translated by Google

6 FORENSES PROPORCIONALES... 191

Red Judicial Europea. (2019b). Áreas específicas de delitos Instrumentos jurídicos


(adoptados por la UE). Biblioteca Judicial. https://www.ejn­crimjust.europa.eu/ejn/
libcategories/EN/170/­1/­1/­1 . Consultado el 30 de noviembre de 2019.
Unión Europea. (2003). Acuerdo de Asistencia Jurídica Mutua entre la Unión Europea y los
Estados Unidos de América. Diario Oficial de la Unión Europea L, 181/34. https://eur­
lex.europa.eu/LexUriServ/LexUri Serv.do?uri=OJ:L:2003:181:0034:0042:en:PDF.
Consultado el 30 de noviembre de 2019.
Unión Europea. (2014). Directiva 2014/41/UE del Parlamento Europeo y del Consejo, de 3
de abril de 2014, sobre la Orden Europea de Investigación en Materia Penal. https://eur­
lex.europa.eu/legal­content/EN/TXT/?uri= celex%3A32014L0041. Consultado el 30 de
noviembre de 2019.
Unión Europea. (2016). Eurojust. https://europa.eu/european­union/about­eu/agencies/
eurojust_en. Consultado el 30 de noviembre de 2019.
Unión Europea. (2018a). Procedimiento Interno: Propuesta de Reglamento sobre Órdenes
Europeas de Presentación de Pruebas Electrónicas y Directiva sobre Representación
Legal. Eur­Lex. https://eur­lex.europa.eu/legal­content/EN/PIN/?uri=COM:2018:225:FIN .
Consultado el 30 de noviembre de 2019.
Unión Europea. (2018b). Propuesta de Reglamento del Parlamento Europeo y del Consejo
sobre órdenes europeas de presentación y conservación de pruebas electrónicas en
materia penal. COM/2018/225 final­ 2018/0108 (COD). https://eur­lex.europa.eu/legal­
content/ES/TXT/? uri=COM%3A2018%3A225%3AFIN. Consultado el 30 de noviembre
de 2019.
Unión Europea. (2019). Procedimiento: COM (2018) 225: Propuesta de Reglamento del
Parlamento Europeo y del Consejo sobre las órdenes europeas de presentación y
conservación de pruebas electrónicas en materia penal.
Asuntos finales. Eur­Lex. https://eur­lex.europa.eu/legal­content/ES/HIS/?
uri=COM:2018:225:FIN. Consultado el 30 de noviembre de 2019.
Servicio de Acción Exterior de la Unión Europea. (2019). La Unión Europea y la Federación
de Rusia. Bruselas: SEAE. https://eeas.europa.eu/head quarters/sede­homepage/35939/
european­union­and­russian­federation_en.
Consultado el 30 de noviembre de 2019.

Más completo, LL (1969). La moralidad del derecho. Londres: Yale University Press.
Guerra, JE y Janssens, M.­C. (2019). Desafíos jurídicos y prácticos en la aplicación de la
orden europea de investigación: resumen de la reunión de Eurojust del 19 al 20 de
septiembre de 2018. Eucrim: Foro de las asociaciones europeas de derecho penal, 1,
46–53.
Huber, E. (13 de noviembre de 2010). Certificación, Licenciamiento y Acreditación en
Forense Digital. Un puñado de dongles: blog sobre ciberdelincuencia y ciencia forense
digital de Eric Huber (blog). https://www.afodblog.com/2010/11/certification­lic ensing­
and.html. Consultado el 30 de noviembre de 2019.
Machine Translated by Google

ˇ
192 R. POLCÁK Y F. KASL

Karie, NM y Venter, HS (2015). Taxonomía de desafíos para la ciencia forense digital. Revista de Ciencias
Forenses, 60, 885–893. https://doi.org/10. 1111/1556­4029.12809.

Levy, P. (1998). Convertirse en virtual: realidad en la era digital. Nueva York, NY:
Pleno de Comercio.
McGoldrick, D. y O'Donnell, T. (1988). Leyes sobre discurso de odio: coherencia con las leyes nacionales e
internacionales de derechos humanos. Estudios jurídicos, 18 (4), 453–485.

OLAF. (2016). Directrices sobre procedimientos forenses digitales para el personal de la OLAF . https://
ec.europa.eu/anti­fraud/sites/antifraud/files/guidelines_en.pdf.
Consultado el 30 de noviembre de 2019.

Papucharova, G. (2019). Breves perfiles de diferentes regulaciones nacionales de órdenes europeas de


investigación en la Unión Europea. Conferencia Internacional sobre Organización basada en el
Conocimiento, 25(2), 169–175. https://doi.org/10. 2478/kbo­2019­0075.

Polcak, R. y Svantesson, D. (2017). Soberanía de la Información. Cheltenham:


Eduardo Elgar.
Polčak, R. (2019). Respaldo Procesal e Institucional a la Transparencia en la Tramitación Algorítmica de
Derechos. Revista de Derecho y Tecnología de la Universidad de Masaryk, 13(2), 401–414.

Ramos, JAE (2019). La orden europea de investigación y su relación con otros instrumentos de cooperación
judicial. Foro de la Asociación Europea de Derecho Penal 2019(1), 53–60. https://doi.org/10.30709/
eucrim­2019­004 .

Robinson, G. (2018). La propuesta de evidencia electrónica de la Comisión Europea. Euro­


Revisión general de la ley de protección de datos (EDPL), 4(3), 347–352.
Royster, LK (2017). Noticias falsas: soluciones políticas a la epidemia en línea.
Revisión de la ley de Carolina del Norte, 96(1), 270–[vi].
Siracusano, F. (2019). La Orden Europea de Investigación para la Recogida de Pruebas en el Extranjero.
En T. Raharaci y R. Belfiore (Eds.), Justicia penal de la UE: derechos fundamentales, procedimientos
transnacionales y la Fiscalía Europea (págs. 85­101). Cham: Springer.

Svantesson, D. (2015). La Santísima Trinidad de las ficciones jurídicas que socavan la aplicación del
derecho a Internet global. Revista Internacional de Derecho y Tecnología de la Información, 23(3), 219–
234.
Tosza, ST (2019). Recopilación transfronteriza de pruebas electrónicas: asistencia jurídica mutua, sus
deficiencias y soluciones. En D. Flore & V. Franssen (Eds.), Société Numérique et Droit Pénal. Bélgica,
Francia y Europa: Bruy­lant. http://dspace.library.uu.nl/handle/1874/384506. Consultado el 30 de
noviembre de 2019.
Machine Translated by Google

6 FORENSES PROPORCIONALES... 193

Vincze, EA (2016). Desafíos en la ciencia forense digital. Práctica e investigación policial, 17


(2), 183–194. https://doi.org/10.1080/15614263.2015.112 8163.

Vojak, B. (2017). Noticias falsas: la mercantilización del discurso en Internet.


Revista de derecho internacional occidental de California, 48 (1), 123–158.
Waldman, AE (2018). El mercado de las noticias falsas. Universidad de Pensilvania
vania Revista de Derecho Constitucional, 20(4), 845–870.
Watson, DL y Jones, A. (2013). Procesamiento y procedimientos forenses digitales:
cumplimiento de los requisitos de ISO 17020, ISO 17025, ISO 27001 y requisitos de
mejores prácticas. Waltham, MA: Syngress.
Wiener, N. (1965). Cibernética: o control y comunicación en el animal y la máquina. Cambridge,
MA: Prensa del Instituto de Tecnología de Massachusetts.

Wortzman, S. y Nickle, S. (2009). Obtención de Pruebas Electrónicas Relevantes. Advocates'


Quarterly, 36(2), 226–268.
Yoo, CS (2012). Cuando Antimonopolio se encontró con Facebook. Revisión de la ley de George Mason,
19(5), 1147­1162.
Završnik, A. (2019). Justicia algorítmica: algoritmos y big data en entornos de justicia penal.
Revista europea de criminología. https://doi.org/10.1177/1477370819876762 .
Machine Translated by Google

CAPÍTULO 7

Respuestas institucionales de los países europeos

Jan Hanzelka y Miroslava Pavlíková

7.1 Introducción
Tras el inicio del conflicto ucraniano en 2014, se identificaron campañas de
desinformación en varios países europeos. Acontecimientos como la campaña
Brexit '#leave' influyeron en las operaciones parlamentarias en Europa (en
Alemania o Francia, por ejemplo) o escándalos de medidas activas internas,
como el del Partido de la Libertad de Austria (FPÖ) que destacó la necesidad
de contrarrestar tales tácticas y proteger objetivos: estados nacionales y
estructuras supranacionales. Las dinámicas de las operaciones de influencia y
las formas de difusión de desinformación son muy rápidas, flexibles y aún más
difíciles de mantener.
Como reacción a las últimas campañas de propaganda disruptivas en Europa,
las instituciones de algunos países se han centrado en contramedidas.
Algunos incluyen el establecimiento de órganos gubernamentales especiales,
la instalación de grupos de trabajo especiales, nuevas leyes y cooperación activa.

J. Hanzelka ∙ M. Pavlíková (B)


Departamento de Ciencias Políticas, Facultad de Estudios Sociales, Universidad Masaryk, Brno,
Chequia

© El autor(es), bajo licencia exclusiva para Springer Nature Switzerland 195


AG 2021 M. Gregor y P.
Mlejnková (eds.), Desafiando la propaganda y la desinformación en
línea en el siglo XXI, campañas políticas y comunicación, https://
doi.org /10.1007/978­3­030­58624­9_7
Machine Translated by Google

196 J. HANZELKA Y M. PAVLÍKOVÁ

entre gobiernos, partidos políticos, medios de comunicación, organizaciones no


gubernamentales y el mundo académico. Sin embargo, determinadas contramedidas, la voluntad
de las autoridades y la idoneidad de las medidas difieren. Este capítulo analiza
cómo los países europeos abordan la desinformación maliciosa en línea y
propaganda. Evaluaremos las contramedidas de las autoridades e instituciones estatales
europeas contra la guerra de información, especialmente las buenas
ejemplos y enfoques específicos de países concretos. El texto se centra
sobre las lecciones aprendidas de la interferencia electoral y la preparación de determinados
países, teniendo en cuenta también medidas a largo plazo.
De acuerdo con los enfoques mencionados, hemos formulado un marco categórico para el
análisis de contramedidas institucionales, que
Luego se utiliza para analizar los casos de varios países europeos.
Los actores que pretenden defenderse de las campañas de propaganda y desinformación
necesitan estudiar los casos, las tecnologías y las tecnologías más recientes.
tácticas para contrarrestar eficazmente estas actividades hostiles. Aunque podemos
percibimos esfuerzos de coordinación a nivel internacional, todavía hay
Hay muchas diferencias entre los Estados europeos en sus enfoques sobre las
contramedidas. Hay buenos ejemplos de preparación, respuestas activas, así como
así como la coordinación y el intercambio de buenas prácticas entre los estados. En
Por otro lado, algunos actores todavía tienen mucho que aprender. En este capítulo, nosotros
Se centrará en tres ejemplos de toda Europa: El caso de Dinamarca.
demuestra un país que tiene una posición de liderazgo en la formulación de contramedidas;
En Europa central, la República Checa es un ejemplo de
un país que está "a mitad de camino"; y el país del sudeste europeo
de Bulgaria revela un país con medidas apenas perceptibles. Los tres
Los países son miembros de la Unión Europea y la OTAN. Sin embargo,
Los tres tienen enfoques diferentes para desafiar la propaganda y la desinformación y, por
lo tanto, hacen evidente cuán diferentes actitudes políticas,
Diferentes historias y diferentes posiciones iniciales pueden afectar el enfoque.
hacia contramedidas.

7.2 Marco de Análisis: Institucional


Contramedidas contra operaciones de influencia

En la siguiente sección se presenta un marco con tipos de respuestas institucionales.


para el análisis complejo de estudios de casos. En este capítulo,
A menudo se utilizan operaciones de influencia en lugar de desinformación y propaganda.
mencionado, aunque este concepto es más complejo y también abarca
otras actividades (ver Capítulo 1). La razón es el uso que hacen los estados europeos de
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 197

operaciones de influencia en sus proclamas y documentos. Las contramedidas contra la


desinformación y la propaganda suelen formar parte de un plan más amplio.
paquete cubierto bajo el paraguas de operaciones de influencia.
Las categorías particulares se derivan de los ejemplos de contramedidas más viables
que se encuentran en diferentes países europeos y existentes.
marcos, que han sido evaluados como relevantes y actuales. El
propuesta marco de Brattberg y Maurer (2018) de Carnegie
El Fondo para la Paz Internacional sirve de inspiración al considerar buenos ejemplos
de países europeos elegidos (Alemania,
Suecia, Francia y Países Bajos). Se centra en la resiliencia y la legalidad.
medidas, declaraciones públicas y la educación de los votantes en lo que respecta
campañas de desinformación. También sugieren capacitar y educar a los partidos
políticos, llevar a cabo un diálogo entre el gobierno y los medios, involucrar a los medios
empresas para mitigar las amenazas y, finalmente, compartir las lecciones aprendidas
así como mejores prácticas para apoyar la cooperación internacional. Además,
los autores sugieren advertir claramente a los ciudadanos sobre posibles interferencias,
promover la verificación ciudadana de hechos y el periodismo de investigación, e instar
partidos políticos para afirmar que no utilizarán robots de redes sociales. Este
En general, podría cubrir la evitación de campañas negativas y el uso de desinformación,
así como hacer hincapié en la transparencia (ver Flamini y
Tardáguila 2019). El análisis se inspira en segundo lugar en la categorización
del Ministerio de Asuntos Exteriores de Dinamarca, que presentó 11 iniciativas para
contrarrestar operaciones de influencia hostil. Además de lo antes mencionado
respuestas, Dinamarca sugiere el establecimiento de un comité intergubernamental
grupo de trabajo para fortalecer el seguimiento de la desinformación, capacitar a oficiales
de comunicación y reforzar las actividades de los servicios de inteligencia (Ministerio de
Asuntos Exteriores de Dinamarca 2018).
La siguiente sección presentará categorías particulares y sus
medidas. Además, se presentarán ejemplos del uso real de contramedidas.
explicado centrándose en los países europeos. Estos ejemplos han sido
elegidos en función de la disponibilidad de información y la posible efectividad de las
contramedidas. El objetivo es centrarse en lo bueno o incluso en lo mejor.
prácticas. Sin embargo, es obvio que algunas contramedidas son únicas.
y la evaluación de la efectividad necesita distancia histórica. De acuerdo con
un índice de la Iniciativa de Política Europea del Open Society Institute (2018, en:
Mackintosh y Kiernan 2019) que mide la posverdad
fenómeno en los países, los países escandinavos, Estonia y el
Holanda ocupa el primer lugar. Si es posible y está disponible, buenos ejemplos de estos
Los países se describen con más profundidad. Además de los países europeos, nosotros
Machine Translated by Google

198 J. HANZELKA Y M. PAVLÍKOVÁ

centrarse también en el nivel supranacional. También se evaluarán las contramedidas de


la Unión Europea y la OTAN, incluidas las acciones de
determinados países europeos respecto de estas entidades supranacionales. Nosotros
Considere esta como una de las categorías para el análisis, y se enumera en la Tabla 7.1.

7.2.1 Acciones con el Público

La institución de una advertencia clara resuena especialmente con el secreto


servicios u otros organismos gubernamentales en términos de su impacto en la seguridad.
En ocasiones, los servicios secretos pueden presentar advertencias sobre graves
cuestiones de seguridad o presentar amenazas reales en sus informes públicos anuales.
Las advertencias de los servicios secretos podrían tener mayor valor para el público que las
proclamaciones de otras autoridades. En los Países Bajos, por ejemplo, el
Informe público anual 2018 del Servicio General de Inteligencia y Seguridad
(Algemene Inlichtingen­ en Veiligheidsdienst en holandés) mencionó encubierto

Cuadro 7.1 Categorización de las contramedidas institucionales contra la influencia


operaciones

Categoría Actividades

Acciones con el público Advertencias claras


Declaraciones públicas
Educación electoral
educación de partidos
Medidas estatales Establecimiento de órganos ministeriales especiales o
otras instituciones estatales
Educación de los empleados
Medidas legales Implementación de medidas legales
Cooperación con empresas
Acciones con los medios Capacitar a los responsables de comunicación.

Fortalecer el seguimiento de la desinformación


Apoyar el periodismo de investigación.
Acciones con partidos políticos Instar a los partidos a cumplir con la cultura política
Organizar capacitaciones para partidos políticos y
activistas
Contramedidas directas Operaciones de información contra actores hostiles
Presión diplomática
Acciones con entidades supranacionales Cooperación
Únase a los grupos de trabajo

Únase a las discusiones


Aceptar recomendaciones

Autores fuente
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 199

influencia y manipulación de la percepción pública por parte de Rusia y China


(Servicio General de Inteligencia y Seguridad 2018). También informó sobre la
vigilancia por parte del grupo de hackers ruso Cozy Bear, tras lo cual atribuyeron
públicamente un ataque a Rusia (Brattberg y Maurer 2018).
En un informe público de marzo de 2019, el Servicio de Inteligencia Exterior de
Estonia (Valisluuveramet) advirtió sobre la amenaza rusa antes de las elecciones
parlamentarias europeas, revelando que Francia, Alemania e Italia eran los
principales objetivos (Servicio de Inteligencia Exterior de Estonia 2019 ; Observador
de la UE 2019). . El informe también considera como parte integral las amenazas
cibernéticas por parte de los servicios secretos rusos, además de la mención de
las actividades de los trolls. Un reciente informe estonio también destaca que
"China es cada vez más activa en operaciones de influencia y propaganda".
También se destaca la propaganda del Estado Islámico en Europa. En mayo de
2019, la Oficina Federal para la Protección de la Constitución (Bundesamt für
Verfassungsschutz) en Alemania advirtió contra el gobierno austriaco (diciendo
que no se podía confiar en él) debido a sus vínculos con Rusia y un posible flujo
de información entre ellos (Stone 2019). ). Toda la advertencia se deriva de las
actividades del entonces partido gobernante FPÖ, de los rusos y de las
negociaciones sobre la producción de una cobertura mediática favorable.
Naturalmente, gobiernos, políticos y otras altas autoridades estatales hicieron
muchas advertencias claras o atribuciones públicas. El presidente francés
Emmanuel Macron, el entonces secretario de Asuntos Exteriores británico, Boris
Johnson, y la canciller alemana, Angela Merkel, advirtieron contra la interferencia
rusa en los procesos electorales (Brattberg y Maurer, 2018).
Esto podría estar relacionado con declaraciones públicas y educación electoral,
que a menudo utilizan los gobiernos o autoridades. Un ejemplo interesante se
puede encontrar en el claro etiquetado por parte del gobierno francés de Sputnik y
RT como medios pro­Kremlin, y su posterior exclusión de las conferencias de
prensa en el Palacio del Eliseo, así como su negativa regular a cubrir eventos
oficiales (EUvsDisinfo 2019). La Agencia Sueca de Contingencias Civiles,
dependiente del Ministerio de Defensa, lanzó una campaña de concientización
para la educación pública sobre la propaganda (Robinson et al. 2019). En un
documento de 20 páginas llamado Si llega la crisis o la guerra, hay un capítulo
sobre información falsa con consejos fáciles de escribir y preguntas interactivas
(Agencia Sueca de Contingencias Civiles, 2018). El gobierno también planeó
enseñar a los niños de las escuelas primarias cómo reconocer las noticias falsas (Roden 2017).
También apareció un enfoque gubernamental similar en Finlandia (Charlton 2019).
CNN calificó a Finlandia como un país que está ganando la guerra contra las
noticias falsas (Mackintosh y Kiernan, 2019). La lucha contra las fake news del gobierno
Machine Translated by Google

200 J. HANZELKA Y M. PAVLÍKOVÁ

El programa se basa en la participación interdepartamental, el aprendizaje de las


mejores prácticas de todo el mundo y un enfoque ascendente que comienza con el
sistema educativo del país1 (KennyBirch 2019). Las campañas públicas
gubernamentales en el Reino Unido se han intensificado después del caso Skripal.
Poco después del ataque, el gobierno del Reino Unido creó equipos de
comunicación que informaron al público sobre las tácticas de manipulación rusas.
Actualmente, el gobierno británico está iniciando una campaña pública centrada en
empoderar a los ciudadanos para que reconozcan la desinformación y tomen
conciencia de sus efectos maliciosos. La campaña comenzó con el tema del
sarampión y la vacunación contra él.

7.2.2 Medidas estatales

Las medidas estatales se refieren principalmente a la formación de órganos


gubernamentales o estatales especiales, el fortalecimiento del papel de las
instituciones en la lucha por las operaciones de influencia y otras disposiciones
intragubernamentales. En algunos países, se han creado grupos de trabajo
especiales u otros órganos ministeriales para contrarrestar las operaciones. En
2017, como reacción a las actividades rusas, el gobierno danés creó un grupo de
trabajo interministerial para contrarrestar estas campañas. Este organismo especial
coordina los esfuerzos de todo el gobierno y de los servicios nacionales de
inteligencia y seguridad daneses (EUvsDisinfo 2018). En Suecia, por ejemplo, se
ha creado una autoridad de defensa psicológica (psykologiskt försvar). Esta
autoridad se centra en contrarrestar la desinformación y aumentar la resistencia de
la población a las operaciones de influencia. En los Países Bajos, el Coordinador
Nacional de Seguridad y Contraterrorismo recibió en 2019 responsabilidades
relacionadas con la detección de operaciones de influencia dirigidas por potencias estatales extran
En la República Checa, el Ministerio del Interior creó el Centro Contra el Terrorismo
y las Amenazas Híbridas para realizar actividades analíticas y de expertos,
incluidas campañas de desinformación (Ministerio del Interior de la República
Checa, 2017). Sus actividades siguen siendo en su mayoría clasificadas. Mientras
tanto, en Ucrania se fundó todo un ministerio centrado en la política de información.
El ministerio se creó para luchar contra los ataques informativos (Interfax­Ucrania
2014). En 2019, presentó un libro blanco sobre operaciones de información contra
Ucrania (Bila kniga specialnih informaci­jnih operacij proti Ukra|ni, véase Ministerio
de Política de Información de Ucrania).

1Por ejemplo, el proyecto para escuelas llamado '¡Hechos, por favor!'.


Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 201

2018) considerando las operaciones de influencia de Rusia en el país entre 2014 y


2018 (Agencia de Información Independiente de Ucrania de Noticias 2019).

En cuanto a la educación de los empleados públicos, Finlandia lanzó un programa


para contrarrestar la propaganda dirigida a los funcionarios gubernamentales. El
programa enfatiza la importancia de crear una nueva narrativa que destaque los
valores finlandeses y una "historia finlandesa" (KennyBirch 2019). En Suecia, la
Agencia de Contingencias Civiles elaboró un manual para contrarrestar las
operaciones de información que podrían tener como objetivo a los trabajadores del
servicio público (Klingová y Milo 2018). Contrarrestar las actividades de influencia
de la información: un manual para comunicadores (Agencia Sueca de Contingencias
Civiles 2019) proporciona técnicas y consejos sobre cómo contrarrestar las
operaciones de influencia de la información, incluida la preparación de las
organizaciones para una respuesta rápida y eficaz.

7.2.3 Medidas legales

Centrarse en las medidas legales tomaría un capítulo completo o incluso un libro


(consulte los Capítulos 4 y 6 para conocer el nivel europeo de medidas legales), por
lo que cubriremos solo leyes especiales que reaccionan a la desinformación. En
Italia, por ejemplo, los ciudadanos pueden utilizar un servicio especial en línea donde
es posible denunciar noticias falsas a la policía (Robinson et al. 2019). Tras el
abandono de esta medida, en 2017 se presentó un proyecto de ley que proponía
penas para la difusión de noticias falsas. En 2017, Alemania aprobó una ley llamada
NetzDG que pretende combatir las noticias falsas y el discurso de odio en Internet.
Según esta ley, las plataformas de redes sociales tienen 24 horas después de recibir
un informe para eliminar una publicación que viole la ley alemana. Además, obliga a
las redes a revelar las identidades de quienes están detrás de las publicaciones. La
ley se ha convertido en un tema de discusión sobre violaciones de la libertad de expresión (Bleiker y
En 2018, el parlamento francés aprobó una ley relacionada con las campañas
electorales, según la cual la jurisdicción electoral tiene la responsabilidad de decidir
sobre la retirada de materiales manipulativos de Internet. Sin embargo, debe haber
pruebas de que dicho material se difundió intencionalmente a gran escala con la
intención de interferir e interrumpir las elecciones (Rozgonyi 2018).

Sin embargo, estas medidas legales tienen algunas debilidades. En primer lugar,
mezclan contenidos terroristas, discursos de odio y actos que forman parte de
operaciones de influencia. Sin embargo, las operaciones de influencia pueden exigir
enfoques diferentes a los de la propaganda terrorista. En segundo lugar, el
Machine Translated by Google

202 J. HANZELKA Y M. PAVLÍKOVÁ

Las medidas legales se centran en el contenido y no abordan las herramientas y


técnicas para influir, por ejemplo, el uso de cuentas falsas, bots y algoritmos.

Actualmente, podemos ver una tendencia en los esfuerzos de los gobiernos


europeos para lograr la cooperación de Facebook y Google en el caso de problemas
sociales negativos.2 Los esfuerzos generales, como el trabajo sistemático para
"detener la desinformación y las noticias falsas", pueden ser visto. En los 'Estándares
comunitarios' de Facebook hay un párrafo que dice: 'También existe una delgada línea
entre noticias falsas y sátira u opinión. Por estos motivos, no eliminamos las noticias
falsas de Facebook, sino que reducimos significativamente su distribución mostrándolas
más abajo en la sección de noticias. El artículo es parte de una estrategia más amplia
de Facebook para manejar las noticias falsas (Facebook 2019). Esta solución depende
de la problemática identificación de noticias falsas sin una investigación profunda y una
verificación de hechos. Intentan evitar acusaciones de persecución política por parte
de determinados grupos de opinión, que de otro modo se enfrentarían a la eliminación
de contenidos. En ciertos países (Facebook 2020), Facebook tiene socios externos de
verificación de datos. Allí, los socios reciben capacitación para evaluar la veracidad
de una publicación y, en el caso de noticias falsas, utilizan herramientas predefinidas
para limitar las contribuciones disponibles o prohibir la monetización (Facebook 2020).
Google tiene una iniciativa similar, que se describe en el documento técnico Cómo
Google lucha contra la desinformación (Google 2019). La iniciativa de Google se basa
en clasificar y etiquetar contenidos, y los resultados se reflejan en el algoritmo de
búsqueda. Las noticias menos creíbles son menos relevantes en una búsqueda.
Google declara que "da la bienvenida a un diálogo constructivo con los gobiernos, la
sociedad civil, el mundo académico y las salas de redacción" (Google 2019).

7.2.4 Acciones con los Medios

La cooperación con los medios podría desempeñar un papel clave en el control del
flujo de desinformación, así como en la promoción de la alfabetización mediática.
Bélgica ofrece un ejemplo de enfoque activo del gobierno hacia los medios de
comunicación. El Ministerio flamenco de Educación y Formación patrocina Média
Animation ASBL, un recurso de educación mediática que se centra en la alfabetización
mediática en las escuelas, así como para políticos y otros tomadores de decisiones (Kremlin Watch 20

2Un ejemplo es el problema del discurso de odio y la legislación alemana actual, que
intenta delegar la responsabilidad de este tema en los proveedores de redes sociales
(Hanzelka y Kasl 2018).
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 203

Animación de Medios ASBL 2020). El gobierno sueco también expresó su voluntad


de cooperar con los medios de comunicación cuando, junto con la emisora de
televisión nacional sueca, invirtió en una plataforma digital que proporciona
verificación automática de datos y noticias de una manera que cruza las fronteras de
las burbujas de filtro. En Letonia podemos encontrar un ejemplo que apoya el
periodismo de investigación desde 2017. El nuevo programa se lanzó bajo los
auspicios del Ministerio de Cultura y ha apoyado financieramente unos 20 proyectos
(Robinson et al. 2019). Otro ejemplo interesante de enfoque hacia los medios de
comunicación se puede encontrar en Estonia. Sus políticos y funcionarios de la
administración afirman que nunca conceden entrevistas a los medios de comunicación
controlados por el Estado ruso (Sternstein, 2017). Algunos países también deben
ocuparse de sus minorías rusas y de la necesidad de medios de comunicación en
idioma ruso; esto es especialmente relevante en los países bálticos. Estonia inició
su propio canal en ruso en 2015. Esta represión de las fuentes en ruso con
conexiones con el gobierno ruso también es una estrategia que algunos países
implementan para proteger a las minorías. En Lituania, por ejemplo, el gobierno sacó
del aire RTR­Planeta, dirigido por el gobierno ruso (PressTV 2017; Sternstein 2017).

7.2.5 Acciones con Partidos Políticos

Hay muchas discusiones sobre la educación de los votantes sobre la desinformación,


pero poco se dice sobre la educación de los partidos políticos. Además, como lo
demostró, por ejemplo, el referéndum sobre el Brexit3, los partidos políticos podrían
desempeñar un papel importante en la difusión de desinformación. Sin embargo,
sólo se pueden encontrar unos pocos ejemplos de este tipo de mejora de la cultura política.
Los partidos políticos alemanes firmaron un "acuerdo de caballeros" antes de las
elecciones de 2017. Afirmaron que no utilizarían la información filtrada con fines
políticos ni utilizarían robots de redes sociales (Brattberg y Maurer 2018). En
Finlandia, la educación de los partidos políticos es parte de una estrategia
interdepartamental.4 La administración electoral bajo el Ministerio

3Por ejemplo, la conexión entre el Partido Independiente del Reino Unido (UKIP) de
extrema derecha y la empresa Cambridge Analytica que utiliza big data de Facebook para
producir una campaña microdirigida (ver Capítulo 2) (Scott 2018).
4El llamado enfoque de todo el gobierno también cubre la coordinación del monitoreo,
la evaluación y la gestión de amenazas híbridas. Un embajador gubernamental especial
garantiza la cooperación entre las instituciones y el sector privado, y un grupo interministerial
se ocupa de las operaciones de influencia (Klingová y Milo 2018).
Machine Translated by Google

204 J. HANZELKA Y M. PAVLÍKOVÁ

El Ministerio de Justicia organizó cursos de formación contra la desinformación para


partidos políticos y candidatos. Las capacitaciones se llevan a cabo en varias regiones
para que estén disponibles para todos. La formación debería ayudar a los candidatos
a reconocer y denunciar sospechas de desinformación y mejorar su ciberseguridad
(France 24 2019; KennyBirch 2019).

7.2.6 Contramedidas directas

Consideramos necesario mencionar también la contrapropaganda en tiempo real como


respuesta gubernamental. Tras el envenenamiento del agente doble Sergei Skripal,
muchos países europeos expulsaron a sus diplomáticos rusos. Esto representa un
ejemplo típico de contramedida directa a nivel estatal.
No se tomó ninguna medida como ésta en relación con una campaña de propaganda
hostil. Sin embargo, se pueden identificar otras formas de reacciones directas.
El soporte informático del presidente francés Macron, en respuesta a una filtración de
documentos y conversaciones dentro de su equipo de campaña, alimentó a los
atacantes con información falsa para degradar el valor del contenido filtrado (Brattberg
y Maurer 2018; Mohan 2017). Esta reacción se preparó de antemano y el personal de
campaña anticipó el pirateo de sus computadoras; Se formularon diferentes escenarios
a medida que los activistas se dieron cuenta de la amenaza de interferencia
(EUvsDisinfo 2019).

7.3 Acciones de la Unión Europea y la OTAN

7.3.1 Unión Europea

Se trata de una evolución del enfoque conjunto contra la desinformación a nivel de la


UE; Se pueden encontrar ejemplos de grupos de trabajo, organismos especiales que
luchan contra las operaciones de influencia, nuevas leyes y cooperación con los medios
de comunicación. Existe un grupo de trabajo conjunto a nivel de la Unión Europea que
se creó en 2015. El grupo de trabajo East StratCom se ocupa de las campañas de
información rusas y presenta planes de comunicación estratégica. El equipo está
formado por personal contratado de las instituciones de la UE o está adscrito por los
Estados miembros de la UE. El presupuesto del grupo de trabajo existe dentro del
presupuesto de la UE y de los de sus estados miembros. (Acción Exterior de la Unión Europea 2018).
Una de las actividades más visibles del grupo de trabajo es el proyecto 'EUvs­Disinfo',
que 'identifica, recopila y expone casos de desinformación originados en medios de
comunicación pro­Kremlin que se extienden por toda la UE y
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 205

"Países de la Asociación Oriental". Las actuales capacidades de seguimiento


del proyecto "también descubren la desinformación difundida en los Balcanes
occidentales y en los países vecinos del sur de la UE". El proyecto publica en
15 idiomas, se actualiza cada semana y distribuye un boletín semanal
(EUvsDisinfo, sf). Además del Grupo de Trabajo East StratCom, se creó el
Grupo de Expertos de Alto Nivel (HLEG) sobre Noticias Falsas y Desinformación
en Línea.
Una encarnación de estas contramedidas directas es una de las Acción
Plan contra los pilares del Plan contra la Desinformación: el Sistema de Alerta
Rápida (RAS; Comisión Europea 2019a; Acción Exterior de la Unión Europea
2019). En la práctica, el RAS debería funcionar como una plataforma en línea
donde los estados miembros y las instituciones comparten su experiencia y
conocimientos y preparan acciones comunes. También pretende cooperar con
la OTAN, el G7 y otros socios (Comisión Europea 2019a). La primera reunión
tuvo lugar el 18 de marzo de 2019 y el RAS ha estado operativo desde entonces.
Todos los estados miembros han designado puntos de contacto e instituciones
(Parlamento Europeo 2019a). Sin embargo, es necesario implementar y probar
mejor el sistema. Hay algunas críticas sobre su funcionamiento. Por ejemplo,
Emmott et al. (2019) cita a un funcionario de la UE que destaca que el sistema
apenas se utiliza. Kalenský (2019) destaca que el problema podría ser que el
RAS no está disponible para periodistas e investigadores, por lo que no es transparente.
En lo que respecta a las acciones con los medios de comunicación, cada
vez se hace más esfuerzo por tomar en serio la cooperación. En el marco del
Plan de Acción contra la Desinformación, la Acción Exterior de la Unión Europea
(2018) movilizó una alianza de periodistas y verificadores de datos con
gobiernos, la sociedad civil y académicos. La Unión Europea invierte en nuevas
tecnologías para la verificación de contenidos (programa Horizonte 2020) y
apoya el Observatorio Social de Desinformación y Análisis de Redes Sociales
(SOMA), que permite compartir mejores prácticas entre verificadores de datos
(Comisión Europea 2019a; Emmott et al. 2019). Del 18 al 22 de marzo de 2019,
la Comisión Europea celebró la Semana de la Alfabetización Mediática con el
objetivo de "crear conciencia sobre la importancia de la alfabetización mediática en toda la UE
Una de las actividades fue una conferencia de alto nivel donde se presentaron
las mejores prácticas (Comisión Europea 2019b). La cooperación entre la Unión
Europea y las empresas de medios se ha producido con redes como Facebook,
Twitter y YouTube, incluido el acuerdo sobre el Código de prácticas sobre
desinformación, publicado en septiembre de 2018 para combatir la
desinformación y las cuentas falsas en sus plataformas (Emmott et al.
2019). Según el código, Facebook, por ejemplo, informó
Machine Translated by Google

206 J. HANZELKA Y M. PAVLÍKOVÁ

Más de 1,2 millones de acciones en la Unión Europea por violación de políticas


en anuncios y contenidos. El Código de prácticas sobre desinformación se elaboró
en el contexto de iniciativas anteriores de la UE para luchar contra los contenidos
ilegales, el discurso de odio y el terrorismo en el entorno en línea. En mayo de
2016, Facebook, Microsoft, Twitter y YouTube acordaron con la Comisión un
Código de Conducta de la UE para contrarrestar el discurso de odio ilegal en
línea, que establece las reglas de cooperación y la metodología de evaluación de
contenidos para contrarrestar la propagación del discurso de odio ilegal en línea. .
En septiembre de 2017, la Comunicación sobre la lucha contra los contenidos
ilegales en línea estableció otras directrices y principios para la colaboración entre
plataformas en línea, autoridades nacionales, estados miembros y otras partes
interesadas relevantes en la lucha contra los contenidos ilegales en línea. En
marzo de 2018, la Recomendación sobre medidas para abordar eficazmente el
contenido ilegal en línea se centró en los llamados a medidas proactivas por parte
de los proveedores, pero también mencionó la importancia de la verificación
humana. En septiembre de 2018, la Comisión Europea propuso el Reglamento
sobre la prevención de la difusión de contenidos terroristas en línea, que contiene
medidas más estrictas contra los contenidos terroristas, por ejemplo, la "regla de
una hora" para retirar los contenidos terroristas fuera de línea tras una orden de
los responsables. autoridades nacionales (Servicio de Investigación del Parlamento Europeo 201

7.3.2 OTAN

A nivel de la OTAN, una iniciativa especial llamada Centro de Excelencia en


Comunicaciones Estratégicas (Stratcom CoE) tiene las actividades más visibles
para contrarrestar la desinformación. Dentro de la estructura de la OTAN tiene
una posición específica y es una organización militar internacional acreditada por
la OTAN. Los Centros de Excelencia son 'organizaciones militares internacionales
que capacitan y educan a líderes y especialistas de países miembros y socios de
la OTAN' (Centro de Excelencia de Comunicaciones Estratégicas de la OTAN
2020a). La institución no forma parte de la estructura de mando de la OTAN ni
está subordinada a otra entidad de la OTAN. El centro se creó tras la Cumbre de
Gales de 2014 y su objetivo principal es contribuir a la comunicación estratégica
de la alianza, donde se incluyen investigaciones sobre operaciones de influencia
y desinformación. También organiza conferencias y seminarios, publica estrategias
y apoya los ejercicios de la OTAN (Centro de Excelencia de Comunicaciones
Estratégicas de la OTAN 2020b). En lo que respecta a la cooperación de los
gobiernos nacionales, 'la decisión de unirse a un centro depende de cada país de
la OTAN. El Centro de Excelencia StratCom de la OTAN
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 207

tiene catorce miembros de la Alianza, más los países no pertenecientes a la


OTAN, Suecia y Finlandia' (Foster 2019). Los empleados superiores del centro
son ciudadanos letones, estonios y polacos; El resto del personal proviene del
Reino Unido, Bélgica y Alemania.
Otra organización importante de la OTAN que opera en el tema de la defensa
cibernética y de la información es el Centro de Excelencia Cooperativa de
Ciberdefensa de la OTAN (Centro de Excelencia Cooperativa de Ciberdefensa
de la OTAN 2020). Aunque está más centrada en la ciberdefensa, las
operaciones en el ciberespacio, dada su complejidad, no podrían considerarse
sin un contexto más amplio, donde las operaciones de influencia ocupan
posiciones insustituibles.
En 2016, se creó el Centro Europeo de Excelencia para Contrarrestar las
Amenazas Híbridas, una iniciativa conjunta de la Unión Europea y la OTAN. El
centro está formado por los estados miembros de la Unión Europea y la OTAN.
El centro aspira a ser "un centro internacional para profesionales y expertos"
que ayudará a los estados miembros y a las instituciones en la defensa contra
amenazas híbridas. También quiere compartir prácticas entre estados y ser un
facilitador neutral entre la Unión Europea y la OTAN (El Centro Europeo de
Excelencia para Contrarrestar las Amenazas Híbridas 2019).

7.4 Estudios de caso


Centrado a través del marco analítico mencionado anteriormente, este capítulo
ilustra tres enfoques diferentes para abordar la desinformación y la propaganda
a través de tres estudios de caso espaciados geográficamente desde Europa
occidental hasta Europa oriental. Este hecho es importante en el contexto de la
campaña de información prorrusa, que es responsable de una de las mayores
proporciones en la difusión de desinformación y propaganda en los tres países.
El caso occidental de Dinamarca revela un país con una posición de
liderazgo en contramedidas. En el caso de Europa central, la República Checa
es un ejemplo de un país que está "a mitad de camino", con instituciones
establecidas, cooperación internacional y voluntad política para luchar contra la
desinformación y la propaganda. El último caso, procedente de Bulgaria, país
del sudeste europeo, representa un país que no dispone de medidas eficaces.
Por supuesto, esta no es una lista exhaustiva de países y posibles
contramedidas. Se podrían cubrir muchos otros casos. Sin embargo, creemos
que estos estudios de caso muestran una amplia gama de enfoques presentes
incluso en países cultural y políticamente similares (al menos desde una
perspectiva global): los tres países son miembros de la Unión Europea.
Machine Translated by Google

208 J. HANZELKA Y M. PAVLÍKOVÁ

y la OTAN. Sin embargo, los tres tienen diferentes enfoques para desafiar la
propaganda y la desinformación, y se puede ver cómo diferentes actitudes políticas,
diferentes historias y diferentes posiciones de partida pueden afectar el enfoque de las
contramedidas.

7.4.1 Dinamarca: Luchando ambiciosamente contra la desinformación


7.4.1.1 Situación actual Entre las
amenazas dentro del dominio cibernético, el Servicio de Inteligencia de Defensa
Danés (2019) considera a Rusia, China, Irán y Corea del Norte como las más activas.
En comparación con otros estados europeos, Dinamarca se opone firmemente a las
operaciones de influencia rusas. Expulsó a los diplomáticos rusos tras el asunto
Skripal, y el país también se opuso firmemente a los incidentes en el estrecho de
Kerch (Scarsi 2019). En las campañas hostiles de desinformación, a menudo se
presenta a Dinamarca como un típico país occidental en decadencia moral,
especialmente debido a su modelo de Estado liberal.
En 2018, el gobierno danés presentó 11 iniciativas centradas en sus elecciones
para contrarrestar la influencia extranjera hostil. Estos incluyen un grupo de trabajo,
capacitación para oficiales de comunicación, fortalecimiento del trabajo de los servicios
de inteligencia, preparación para emergencias, asesoramiento a partidos y líderes
políticos, diálogo con los medios de comunicación y actualizaciones de su legislación
(Ministerio de Relaciones Exteriores de Dinamarca 2018).

7.4.1.2 Respuestas institucionales El


Servicio de Inteligencia de Defensa de Dinamarca mencionó claramente en su reciente
informe anual, DDIS Intelligence Risk Assessment 2019, la amenaza de las operaciones
cibernéticas y de influencia rusas, que se despliegan contra objetivos bien definidos.
El informe también describe a China y sus actividades cibernéticas y de espionaje con
esfuerzos para recopilar información sobre un adversario como una amenaza para
Dinamarca. También se pueden encontrar advertencias claras de otros organismos o
autoridades estatales (ver EUvsDisinfo 2018).
Como señala el Parlamento Europeo (2019b) , el Ministerio de Asuntos Exteriores
es la principal salvaguarda de la democracia danesa frente a la influencia extranjera.
En 2019, el ministerio lanzó un programa reforzado de monitoreo de la desinformación
como parte del nuevo plan de acción del gobierno (Ministerio de Relaciones Exteriores
de Dinamarca 2020).
Como parte de sus 11 iniciativas, el gobierno danés lanzó un grupo de trabajo
interministerial para coordinar esfuerzos contra la desinformación. Los ministerios
coordinarán entre sí sus respuestas y el reconocimiento de
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 209

amenazas (Baumann y Hansen 2017). Dinamarca considera que las amenazas


cibernéticas no sólo son perturbaciones mediante códigos hostiles, sino también
operaciones de influencia con énfasis en la desinformación y la propaganda. El Centro
Danés de Seguridad Cibernética es una autoridad nacional de seguridad informática,
un servicio de seguridad de redes y un centro nacional de excelencia, con la misión
de "asesorar a las autoridades públicas danesas y a las empresas privadas que
apoyan funciones vitales para la sociedad sobre cómo prevenir, contrarrestar y
protegerse contra los ciberataques» (Cyber Security Intelligence 2020a; Baumann y
Hansen 2017). El centro también considera el papel de las noticias falsas y las redes
sociales y lo cubre en su análisis de noticias (Cyber Security Intelligence 2020b).
En cuanto a la educación de los empleados, Dinamarca planea capacitar a los
funcionarios de comunicación de las autoridades gubernamentales sobre el manejo
continuo de la desinformación (Ministerio de Relaciones Exteriores de Dinamarca
2020). Un ejemplo interesante de esta educación de los empleados estatales es la
formación de soldados daneses sobre cómo combatir la desinformación. El plan fue
parte del ejercicio militar de la OTAN en Estonia en 2017 (EUvsDis­info 2017a; Just
y Degn 2017). El país pretende, en lo que respecta a los medios de comunicación,
iniciar un diálogo para encontrar modelos de cooperación (Parlamento Europeo
2019b). También vale la pena mencionar el documental Factory of Lies, emitido por la
Danish Broadcasting Corporation, que explora las llamadas granjas de trolls
administradas por el Kremlin (EUvsDisinfo 2018).

Dinamarca no adopta un enfoque estricto con respecto a la regulación de la


propaganda. En cambio, el país considera que es mejor fortalecer la sociedad civil
(Parlamento Europeo 2019b). Cuando se trata de contramedidas directas, se insta a
los empleados de la embajada danesa a monitorear los medios y burlarse de las
historias manipuladoras sobre Dinamarca. Se les dio un gran grado de libertad para
trabajar ofensivamente a nivel local y de medios sociales, sin necesidad de
coordinación desde Copenhague.
Dinamarca es un miembro activo del Centro de Excelencia de Comunicaciones
Estratégicas de la OTAN. La cooperación a nivel supranacional se considera parte
de su estrategia contra las campañas de influencia extranjera (The Danish Government
2018). Dinamarca fue uno de los actores que participaron en las críticas a las
actividades del East StratCom Task Force, especialmente por su categorización
mediática. Este evento también contribuyó a cuestionar la membresía danesa (para
más información, ver Kulager 2017).
Machine Translated by Google

210 J. HANZELKA Y M. PAVLÍKOVÁ

7.4.1.3 Conclusión
Dinamarca describió 11 iniciativas para luchar contra las operaciones de influencia
que cubren todos los aspectos. Su enfoque apunta más al papel de la sociedad
civil que a las herramientas represivas. Sin embargo, Dinamarca es muy directa al
nombrar y advertir sobre actividades adversas. El país ha establecido su propio
grupo de trabajo y trabaja en la cooperación interministerial. También cuenta con
un centro enfocado en ciberamenazas; sin embargo, su enfoque es más complejo
y considera también operaciones de influencia. Dinamarca tiene un gran marco y
un plan para hacer frente a la propaganda hostil, lo que podría ser una inspiración
para otros países europeos. Su implementación aún está en sus inicios, por lo que
los próximos años demostrarán su efectividad.

7.4.2 República Checa: a mitad de camino


7.4.2.1 Situación actual La
República Checa es actualmente la más amenazada por las operaciones de
inteligencia rusas y chinas, incluida la guerra de información (ver Servicio de
Información de Seguridad 2019). Hay una gran cantidad de los llamados medios
de desinformación con sentimientos pro­Kremlin que toman información de fuentes
estatales rusas, así como de otros medios de desinformación. Por lo tanto, la
mayoría de estas plataformas checas no tienen ningún vínculo con el Estado ruso
y, en cambio, desempeñan el papel de simpatizantes. La República Checa, así
como otros estados europeos, se ha convertido en el objetivo de una sofisticada
campaña de ciberespionaje por parte de un grupo de piratas informáticos que se
cree pertenece al GRU ruso. En 2019, se reveló que un ciberataque al Ministerio
checo de Asuntos Exteriores tenía indicadores que conducían a este grupo (Lipská
2019). También está el papel activo del "Castillo" en las operaciones de influencia
rusas y chinas, encarnado por el presidente Miloš Zeman. Socava públicamente
las advertencias sobre las actividades rusas realizadas por el Servicio Checo de
Información de Seguridad (BIS) y él mismo desempeña un papel importante en las
campañas de desinformación (véanse Dolejší 2019; Procházková 2018).

7.4.2.2 Respuestas institucionales


En marzo de 2019, el director del servicio civil de inteligencia nacional BIS, Michal
Koudelka, destacó que Rusia podría interferir, también a través de una campaña
de desinformación, en las elecciones parlamentarias de la UE (Kundra 2019; Brolík
2019). Los últimos informes anuales de este servicio advierten contra
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 211

Los servicios secretos rusos y su estrategia híbrida para influir en los procesos de toma de
decisiones, así como en las acciones de influencia chinas (Security Information Service
2019). Aparecen advertencias y declaraciones en todo el mundo político.
esfera. El Ministro del Interior, Jan Hamáˇcek (del Partido Socialdemócrata Checo), advirtió
contra la desinformación y destacó su importancia para
El presidente ruso, Vladimir Putin, recomendó a los ciudadanos comprobar
información y discutirla con sus familiares (Dragoun 2019). Alguno
Los partidos de oposición también participan en el proceso de alerta, aunque con
un discurso diferente. El Partido Cívico Democrático, por ejemplo, destacó el papel de Rusia
en la elección del presidente Zeman y en el futuro.
amenaza5 (ver ODS 2018).
El Ministerio de Defensa checo también participa en las advertencias a la
público, aunque sobre todo a través de individuos, algo que a veces es criticado por el propio
ejército checo. El general Petr Pavel destacó la
amenazaˇ de Rusia para la República Checa (iRozhlas 2018). general de brigada
Karel Rehka ( 2017) escribió un libro llamado Informaˇcní válka (Información
guerra) para académicos, el público y profesionales militares que es, por
Por ejemplo, parte de la literatura recomendada para cursos militares en el
Universidad de Defensa.
En 2019, la Agencia Nacional de Seguridad Cibernética y de la Información
(NÚKIB; Národní úˇrad pro kybernetickou a informaˇcní bezpeˇcnost in
Checo) publicó una advertencia contra el uso de tecnologías chinas.
empresas Huawei y ZTE (2019a). Esta advertencia también está vinculada a
la amenaza de operaciones de influencia china en la República Checa. lo mas
Una medida estatal visible es el establecimiento por parte del Ministerio del Interior de
el Centro Contra el Terrorismo y las Amenazas Híbridas para actividades analíticas y de
expertos, incluidas campañas de desinformación. El centro está activo en
Twitter, donde se centra en la desinformación real en Internet checa
(Ministerio del Interior de la República Checa 2017). Como el centro
Benedikt Vangeli, subrayó, refutar la desinformación sólo incluye
entre el 5 y el 9 por ciento de sus actividades (Janáková 2018). por lo tanto, nosotros
Supongamos que muchas de sus actividades son de naturaleza secreta por alguna razón.
Aunque sus actividades aún no se han hecho públicas, el centro sigue
funciones hoy.

5Por el contrario, el Partido Comunista está desacreditando cualquier interferencia rusa (ver KSCMˇ
2017).
Machine Translated by Google

212 J. HANZELKA Y M. PAVLÍKOVÁ

La educación de los empleados se manifiesta a través de cursos para militares en


la Universidad de Defensa, donde se imparten cursos sobre guerra cibernética y de
información. NÚKIB organiza actividades educativas para estudiantes en universidades
donde también puede contratar a sus futuros empleados (especialmente en la
Universidad de Masaryk). La agencia también organiza ejercicios de guerra cibernética
y de información (11 en 2018), por ejemplo, para el personal militar checo, el Sistema
de Rescate Integrado Checo y la Oficina Checa de Estadística. NÚKIB describe sus
actividades como un ejemplo de gobierno en su conjunto, destacando la importancia
de una estrecha cooperación entre instituciones (Agencia Nacional de Seguridad
Cibernética y de la Información, 2019b).
Considerando las contramedidas directas, es difícil analizar si éstas cubren
predominantemente actividades de los servicios secretos. No se sabe públicamente si
estos servicios participan en actividades de operación directa de información.
Sin embargo, en 2019 se creó el Comando de Operaciones Cibernéticas y de
Información dependiente del Ejército de la República Checa. En su sitio web oficial se
afirma que el comando también llevará a cabo operaciones en el espacio de
información (Ejército de la República Checa 2019). Incluso si la descripción se centra
principalmente en actividades defensivas, también es relevante considerar las
ofensivas.
De las entrevistas con las autoridades podemos concluir que la República Checa
es muy sensible a todo lo relacionado con la libertad de expresión y las etiquetas de
desinformación y puede ser la razón por la que el país es cuidadoso con la regulación
de contenidos.
A nivel supranacional, la República Checa puede considerarse activa y responsable.
El país participa en el Grupo de Trabajo East StratCom. El grupo de trabajo coopera
con el país pero también directamente con los ministerios y el sector empresarial. La
República Checa es miembro del Centro de Excelencia Cooperativa de Ciberdefensa
de la OTAN desde su ingreso en 2018. Participa activamente en las actividades del
centro, logrando, por ejemplo, excelentes resultados en ejercicios de ciberseguridad.
Desde 2019, la comisaria reelecta de la UE, Vˇera Jourová, obtuvo la cartera de
valores y transparencia, que también se ocupa de la desinformación. Como parte de
su nuevo mandato, está trabajando en un nuevo plan de acción de la UE en el que se
etiqueta abiertamente a Rusia como una amenaza.6

6 Entrevista con funcionarios de la UE.


Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 213

7.4.2.3 Conclusión La
República Checa tiene un amplio espectro de actividades de operaciones de
contrainfluencia. Los servicios secretos y los funcionarios militares, así como las
autoridades estatales, enfatizan estas amenazas. Se hace especialmente en relación
con las acciones hostiles de Rusia. El país también ha creado un organismo especial
que se ocupa de las amenazas híbridas, algo único en el contexto de Europa central.
En el frente educativo, NÚKIB tiene un papel en la educación de los ciudadanos; sin
embargo, su atención se centra principalmente en cuestiones de ciberseguridad. No
existe una estrecha cooperación o acercamiento con los medios de comunicación y
los proveedores de redes sociales. La República Checa participa activamente en la
cooperación internacional y se toma en serio las amenazas de las operaciones de
influencia. Los funcionarios estatales interesados a menudo mencionan una
subestimación de la comunicación estratégica a nivel estatal, así como de su
coordinación con entidades supranacionales. Junto con una mejor implementación en
el sistema educativo estatal y modificaciones a su marco legal, estos son los desafíos que enfrentará
venir.

7.4.3 Bulgaria: desunión interna a través de influencias externas


7.4.3.1 Situación actual Cuando
se habla de desinformación y propaganda en la Bulgaria actual, se relaciona
principalmente con las estrategias informativas rusas que intentan influir en la
orientación política del país de Occidente a Oriente, mostradas con mayor frecuencia
a través de la desinformación sobre los burócratas de la UE. y las 'prohibiciones de
la UE' sobre productos alimenticios y bebidas populares (Cheresheva 2017). Bulgaria
también sospecha que Rusia apoya a los vigilantes antimigrantes con equipos y
retórica antimusulmana (Fiott y Parkes, 2019). Una de las conexiones más significativas
con el problema de la desinformación fue el caso de los documentos filtrados del
Partido Socialista Búlgaro (BSP) (sucesor del Partido Comunista Búlgaro, véase
Mavrodieva 2019) que describían su estrategia para las elecciones presidenciales de
2016. Durante las elecciones presidenciales, Leonid Reshetnikov, director del Instituto
Ruso de Estudios Estratégicos, se reunió con representantes del BSP para tratar de
optimizar su estrategia electoral, donde supuestamente instruyó al BSP sobre la
distribución de noticias falsas y la mala interpretación de las elecciones. encuestas
(EUvsDisinfo 2017b). En realidad, las elecciones presidenciales fueron ganadas por
el candidato del BSP, Rumen Radev, conocido por su postura prorrusa (Tsolova
2016). La siguiente sección describe el contexto de
Machine Translated by Google

214 J. HANZELKA Y M. PAVLÍKOVÁ

la creación de desinformación y propaganda y las medidas activas aplicadas contra ella.

Bulgaria es un actor específico en la cuestión de la desinformación y la propaganda.


Por un lado, es miembro de la Unión Europea y de la OTAN, pero también, por otro, está
vinculado a Rusia. La desunión en las relaciones de Bulgaria con Rusia estuvo presente
en el pasado y todavía está presente hoy. Puede encontrar aquí fuertes tendencias
prorrusas de políticos destacados, así como la presencia de un discurso antiruso. Esto se
aplica tanto a la esfera política como a los ciudadanos comunes. Uno de los últimos casos
que exacerbó las relaciones entre Rusia y Europa fue el envenenamiento del agente doble
Sergei Skripal y su hija. Bulgaria fue uno de los países que no expulsó a los diplomáticos
rusos como reacción; el gobierno búlgaro consideró insuficientes las pruebas de la
participación rusa en el ataque (de Carbonnel y Tsolova 2018).

Los ciudadanos también reconocieron esta decisión. Según una encuesta, el 88 por ciento
de los encuestados estaba en contra de la expulsión (Mediapool.bg 2018).
Los canales e instrumentos de propaganda prorrusos son similares a los que
conocemos en otros países europeos, lo que implica utilizar redes sociales y difundir
noticias falsas, pero también granjas de trolls (Colborne 2018).
El principal discurso propagandístico prorruso en Bulgaria se refiere al declive cultural
europeo bajo el peso de la inmigración de la UE y la política títere. La Unión Europea es
vista como una construcción de Estados Unidos y la OTAN, y se percibe que está muriendo
lentamente. En contraste, Rusia se está fortaleciendo a pesar de la agresión occidental,
especialmente a través de la adhesión a los valores tradicionales. Las organizaciones
cívicas búlgaras, las organizaciones sin fines de lucro y los medios de comunicación son
entonces sólo títeres o agentes extranjeros de Occidente (Milo et al.
2017). El nombre de George Soros se presenta en el país como patrocinador de
organizaciones que promueven el sentimiento político occidental en Bulgaria.

7.4.3.2 Respuestas institucionales En la


categoría de acción con medidas públicas y estatales, es difícil crear contramedidas
centradas en la desinformación que surjan de la estrategia de desinformación rusa debido
a la división entre las elites políticas en relación con la posición rusa. El parlamento adoptó
un informe de 2015 sobre seguridad nacional que menciona a Rusia en el contexto de
sus crecientes capacidades militares y la desestabilización del este de Ucrania y los
países del Cáucaso, pero no hay información directa sobre una campaña de desinformación
prorrusa (BTA 2015 ). . El riesgo de propaganda y desinformación tampoco se menciona
en el informe anual
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 215

informes públicos (SANS 2020) de la Agencia Estatal de Seguridad Nacional (SANS) para
los años 2016, 2017 y 2018. Pero en todos los informes de 2016, existe un riesgo no
especificado para Bulgaria como "objeto de un servicio de inteligencia grave". interés de
los países, que ven a la Unión y la Alianza como amenazas a su propia seguridad" (SANS
2016).
No existen medidas, procedimientos o leyes legales específicos que estén
específicamente dirigidos contra la desinformación y la propaganda. Sin embargo, existen
artículos legales relacionados con las elecciones (ver Bayer et al. 2019) que podrían
usarse potencialmente para contrarrestar las noticias falsas, la propaganda y la
desinformación, así como regulaciones relativas al uso del financiamiento de campañas
en códigos/leyes electorales. Por ejemplo, los artículos 165, 166 y 167 del Código Electoral
de Bulgaria de 2014 definen y restringen la cantidad y las fuentes de dinero que se pueden
gastar en la financiación de campañas electorales.
El artículo 168, por su parte, establece que un partido, una coalición o un comité de
nominaciones no recibirá donaciones de determinadas fuentes, como donantes anónimos,
personas jurídicas e instituciones religiosas (Código Electoral de Bulgaria 2014 ).

Además, es difícil encontrar una contribución directa de Bulgaria a nivel supranacional.


Bulgaria, como Estado miembro de la UE, tiene información disponible y la posibilidad de
cooperar en el Servicio Europeo de Acción Exterior, así como en el Grupo de Trabajo East
StratCom, pero no hay pruebas de que aproveche estas oportunidades. El grupo de trabajo
East StratCom había señalado en varios casos la situación en Bulgaria. Bulgaria tampoco
participa en el Centro Europeo de Excelencia para Contrarrestar las Amenazas Híbridas
(2019).

Lamentablemente no hay señales de actividad estatal con los medios de comunicación,


partidos políticos, o en contramedidas directas.

7.4.3.3 Conclusión
Bulgaria es un ejemplo de un país que, a pesar de tener cooperación internacional con la
Unión Europea y la OTAN y sus estados miembros, tiene medidas activas muy limitadas
contra la propaganda y la desinformación. El elemento clave de esto es la relación de
algunos actores políticos búlgaros con Rusia. Este ejemplo muestra que la desinformación
y la propaganda son cuestiones altamente politizadas y, sin el apoyo de las elites políticas
locales, los esfuerzos a nivel internacional son ineficientes. En este caso, todas las medidas
dirigidas a la desinformación prorrusa son problemáticas, pero todavía hay lugar para
medidas centradas más ampliamente: en las campañas electorales en general, la
corrupción, etc.
Machine Translated by Google

216 J. HANZELKA Y M. PAVLÍKOVÁ

Es posible que con una presión más fuerte por parte de Rusia, sea más fácil
encontrar la voluntad política para una postura clara contra la desinformación.
Expulsar a diplomáticos rusos en enero de 2020 por acusaciones de espionaje
en octubre de 2019 y negarse a conceder una visa a un agregado de defensa
ruso entrante posiblemente pueda provocar que la situación se revierta. La
relación entre Bulgaria y Rusia puede empeorar por el hecho de que los fiscales
búlgaros acusaron a tres rusos del intento de asesinato de un traficante de
armas y a otros dos búlgaros cuyo envenenamiento está siendo investigado por
Sofía por posibles vínculos con el ataque con agente nervioso de 2018 a Skripal
(Reuters 2020).

7.5 Conclusión
El enfoque de las instituciones nacionales europeas ante la desinformación y la
propaganda cubre un amplio espectro de contramedidas. Juntos, es posible
formular un marco conjunto y aplicarlo a actores específicos para evaluar sus
capacidades. Se eligieron Dinamarca, la República Checa y Bulgaria debido a
sus diferentes estados de desarrollo de contramedidas a la desinformación y la
propaganda. Este enfoque debería ayudar a comprender mejor los problemas
de la lucha contra la desinformación y presentar la aplicación del marco
propuesto en la práctica.
Se han formulado siete categorías de respuestas institucionales estatales
contra la desinformación y la propaganda. El primer grupo de contramedidas
son las acciones con medidas públicas y estatales, que cubren las contramedidas
más comunes en Europa, y es posible identificarlas en todos nuestros casos. El
segundo grupo de contramedidas son las medidas legales, las acciones con los
medios de comunicación y las acciones con los partidos políticos. Estos son
más complejos y exigen una legislación procesada y una estrategia coherente a
largo plazo. Por estos motivos, podemos ver estas contramedidas en países que
están liderando el desarrollo de medidas contra la desinformación, como en
Finlandia o Dinamarca. Las categorías finales son contramedidas directas y
acciones con entidades supranacionales. Son los más problemáticos debido a
la falta de información pública sobre ellos.
Estas categorías están estrechamente relacionadas con los servicios de
seguridad y la diplomacia, y sólo podemos identificar actos públicos, como la
expulsión de diplomáticos o iniciativas públicas en organizaciones internacionales
como la OTAN o la Unión Europea.
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 217

En definitiva, este capítulo introduce un marco analítico en el que analizar


un conjunto de contramedidas contra la desinformación como parte de
operaciones de influencia, y le ha dado al investigador la oportunidad de
describir el tema en su complejidad y, por tanto, estudiar las consecuencias.
fortalezas y debilidades del sistema. El marco analítico y su uso se
demostraron a escala limitada. Se recomienda una investigación más
detallada, específicamente en la recopilación de datos mediante el uso de
entrevistas con directores de campañas políticas, especialistas, autoridades
estatales de alto nivel y expertos.

Bibliografía

Algemene Inlichtingen­ en Veuligheidsdiest. Ministerie Binnenlandse Zaken en


Koninkrijksrelaties. (2018). Espionaje en ongewenste inmenging.
Informe. https://www.aivd.nl/onderwerpen/jaarverslagen/jaarverslag­2018/spionage .
Consultado el 15 de noviembre de 2019.
Ejército de la República Checa. (2019). Velitelství kybernetických sil a informaˇcních
operací [Jefe de Operaciones Cibernéticas y de Información]. http://www.acr.army. cz/
struktura/generalni/kyb/velitelstvi­kybernetickych­sil­a­informacnich­ope raci­214169/.
Consultado el 15 de noviembre de 2019.
Baumann, A. y Hansen, AR (10 de septiembre de 2017). Danmark får ny kommandocentral
mod desinformación. https://www.mm.dk/tjekdet/artikel/danmark­faar­ny­
kommandocentral­mod­misinformation . Consultado el 15 de noviembre de 2019.

Bayer, J., et al. (2019). Desinformación y propaganda: impacto en el funcionamiento del


Estado de derecho en la UE y sus Estados miembros. Departamento Temático de
Derechos de los Ciudadanos y Asuntos Constitucionales. http://www.eur oparl.europa.eu/
RegData/etudes/STUD/2019/608864/IPOL_STU(201 9)608864_EN.pdf. Consultado
el 15 de noviembre de 2019.
Bleiker, C. y Brady, K. (30 de junio de 2017). El Bundestag aprueba una ley para multar a
las empresas de redes sociales por no eliminar el discurso de odio.
Deutsche Welle. https://www.dw.com/en/bundestag­passes­law­to­fine­soc ial­media­
companies­for­not­deleting­hate­speech/a­39486694. Consultado el 15 de noviembre
de 2019.
Brattberg, E. y Maurer, T. (2018). Interferencia electoral rusa: la respuesta europea a las
noticias falsas y los ataques cibernéticos. Fondo Carnegie para la Paz Internacional.
https://carnegieendowment.org/2018/05/23/russian­election­interference­europe­s­
counter­to­fake­news­and­cyber­attacks­pub­76435. Consultado el 15 de noviembre
de 2019.
Brolík, T. (3 de mayo de 2019). Šéf BIS: Rusko se nám pokusí vmˇešovat do voleb [Director
del Servicio de Inteligencia de Seguridad: Rusia intentará inmiscuirse en
Machine Translated by Google

218 J. HANZELKA Y M. PAVLÍKOVÁ

Nuestras Elecciones]. Respeto. https://www.respekt.cz/politika/sef­bis­rusko­se­u­nas­pokusi­


vmesovat­do­eurovoleb. Consultado el 15 de noviembre de 2019.
BTA. (2015, 1 de septiembre). El Parlamento adopta un informe sobre seguridad nacional en
2015. Agencia de Noticias de Bulgaria. http://www.bta.bg/en/c/DF/id/1408996.
Consultado el 15 de noviembre de 2019.

Charlton, E. (21 de mayo de 2019). Cómo lucha Finlandia contra las noticias falsas : en el aula.
Foro Economico Mundial. https://www.weforum.org/age nda/2019/05/how­finland­is­fighting­
fake­news­in­the­classroom. Consultado el 15 de noviembre de 2019.

Cheresheva, M. (12 de diciembre de 2017). Informes falsos sobre prohibiciones de la UE


inflaman a los búlgaros. Perspectiva balcánica. https://balkaninsight.com/2017/12/12/myths­
about­tough­eu­bans­scare­bulgarians­12­11­2017/. Consultado el 15 de noviembre de 2019.
Colborne, M. (9 de mayo de 2018). Hecho en Bulgaria: propaganda prorrusa. Historia de coda.
https://codastory.com/disinformation­crisis/foreign­proxies/made­in­bulgaria­pro­russian­
propaganda. Consultado el 15 de noviembre de 2019.
Inteligencia de seguridad cibernética. (2020a). https://www.cybersecurityintelligence. com/centre­
for­cyber­security­cfcs­3071.html. Consultado el 4 de marzo de 2020.
Inteligencia de seguridad cibernética. (2020b). Los editores difunden noticias falsas. https://
www.cybersecurityintelligence.com/blog/publishers­spread­fake­news–4756 . HTML.
Consultado el 4 de marzo de 2020.
Servicio de Inteligencia de Defensa de Dinamarca. (2019). Evaluación de riesgos de inteligencia
2019. Una evaluación de los acontecimientos en el extranjero que impactan en la seguridad
danesa . https://fe­ddis.dk/SiteCollectionDocuments/FE/Efterretningsmaessige Risikovurderinger/
Intelligence%20Risk%20Assessment%202019.pdf. Consultado el 15 de noviembre de 2019.

de Carbonnel, A. y Tsolova, T. (29 de marzo de 2018). Los viejos vínculos con Rusia pesan en la
decisión búlgara en el caso de envenenamiento de espías. Reuters. https://www.reu ters.com/
article/us­britain­russia­bulgaria/old­ties­with­russia­weigh­on­bul garian­decision­in­spy­
poisoning­case­idUSKBN1H52BR. Consultado el 15 de noviembre de 2019.

Ministerio de Asuntos Exteriores de Dinamarca. (2018, 7 de septiembre). El gobierno danés


presenta un plan con 11 iniciativas destinadas a fortalecer la resiliencia danesa frente a las
campañas de influencia. Gorjeo. https://bit.ly/2HV3ja1.
Consultado el 15 de noviembre de 2019.

Dolejší, V. (8 de mayo de 2019). CIA mu dala cenu, Zeman oznaˇcil za „ˇcuˇckaˇre“. Proˇc šéfa
BIS už potˇretí nejmenuje prezident generálem [Fue premiado por la CIA, Zeman lo etiquetó
como aficionado. Por qué el Director del Servicio de Seguridad e Información no será
ascendido por tercera vez a General].
Seznam zprávy. https://www.seznamzpravy.cz/clanek/cia­mu­dala­cenu­zeman­oznacil­za­
cuckare­proc­sefa­bis­uz­potreti­nejmenuje­prezident­gen eralem­71687. Consultado el 15
de noviembre de 2019.
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 219

Dragoun, R. (3 de mayo de 2019). Hamáˇcek varoval pˇred dezinformacemi. Euro­volby jsou pro
Putina klíˇcové, ˇríká analytic [Hamáˇcek advirtió contra la desinformación. Analista dice que las
elecciones europeas son cruciales para Putin]. Aktualne.cz. https://zpravy.aktualne.cz/zahranici/
evropsky­parlam ent/volby­budou­cilem­dezinformatoru­varoval­hamacek/r~5dd9119e6d8e
11e9b2a00cc47ab5f122/. Consultado el 15 de noviembre de 2019.

Código electoral de Bulgaria. (2014). https://www.venice.coe.int/webforms/doc uments/default.aspx?


pdffile=CDL­REF(2014)025­e. Consultado el 15 de noviembre de 2019.
Emmott, R., Carbonnel, A. y Humphries, C. (16 de marzo de 2019). ¿Quién quemó Notre Dame?
Bruselas persigue las noticias falsas a medida que se acercan las elecciones de la UE. Reuters.
https://ru.reuters.com/article/worldNews/idUKKC N1SM0LA. Consultado el 15 de noviembre de
2019.
Servicio de Inteligencia Exterior de Estonia. (2019). Seguridad internacional y Estonia 2019. https://
www.valisluureamet.ee/pdf/raport­2019­ENG­web. pdf. Consultado el 15 de noviembre de 2019.

Observador de la UE. (2019, 13 de marzo). Espías estonios advierten a la UE sobre la amenaza rusa
a la seguridad. https://euobserver.com/foreign/144389. Consultado el 15 de noviembre de 2019.
Comisión Europea. (2019a). Plan de Acción Contra la Desinformación. Informe de progreso. https://
ec.europa.eu/commission/sites/beta­political/files/fac tsheet_disinfo_elex_140619_final.pdf.
Consultado el 15 de noviembre de 2019.
Comisión Europea. (2019b). Semana Europea de la Alfabetización Mediática. https://ec. europa.eu/
digital­single­market/en/news/european­media­literacy­week.
Consultado el 15 de noviembre de 2019.

Parlamento Europeo. (2019a). Respuesta dada por el vicepresidente Mogherini en nombre de la


Comisión Europea. http://www.europarl.europa.eu/doceo/document/P­8­2019­001705­
ASW_EN.html . Consultado el 15 de noviembre de 2019.
Parlamento Europeo. (2019b). Abordaje automatizado de la desinformación. Panel sobre el futuro de
la ciencia y la tecnología Centro europeo de ciencia y medios.
Servicio de Investigación del Parlamento Europeo. https://www.europarl.europa.eu/RegData/
etudes/STUD/2019/624278/EPRS_STU(2019)624278_EN . pdf. Consultado el 15 de
noviembre de 2019.
Servicio de Investigación del Parlamento Europeo. (2019). Regular la desinformación con inteligencia
artificial. https://www.europarl.europa.eu/RegData/etu des/STUD/2019/624279/
EPRS_STU(2019)624279_EN.pdf. Consultado el 15 de noviembre de 2019.

Acción Exterior de la Unión Europea. (2018). Preguntas y respuestas sobre el grupo de trabajo East
StratCom. https://eeas.europa.eu/head quarters/headquarters­homepage/2116/­questions­and­
answers­about­the­east­stratcom­task­force_en. Consultado el 15 de noviembre de 2019.

Acción Exterior de la Unión Europea. (2019). Ficha informativa: Sistema de alerta rápida. https://
eeas.europa.eu/head quarters/head quarters­Homepage_en/59644/ Ficha informativa:
%20Rapid%20Alert%20System. Consultado el 15 de noviembre de 2019.
Machine Translated by Google

220 J. HANZELKA Y M. PAVLÍKOVÁ

UEvsDisinfo. (2017a, 25 de julio). Dinamarca educará a los soldados para combatir la desinformación.
https://euvsdisinfo.eu/denmark­to­educate­soldiers­in­combatting­disinformation/. Consultado el 15
de noviembre de 2019.
EuvsDisinfo. (2017b, 28 de marzo). Noticias falsas y elecciones en Bulgaria. https://euvsdisinfo.eu/fake­
news­and­elections/ . Consultado el 15 de noviembre de 2019.
UEvsDisinfo. (2018, 10 de septiembre). La defensa de Dinamarca contra la desinformación. https://
euvsdisinfo.eu/denmarks­defence­against­disinformation/. Consultado el 15 de noviembre de 2019.

UEvsDisinfo. (2019, 6 de mayo). Luchar contra la desinformación a la francesa. https://euv sdisinfo.eu/


tackling­disinformation­a­la­francaise/. Consultado el 15 de noviembre de 2019.
UEvsDisinfo. (Dakota del Norte). Acerca de. https://euvsdisinfo.eu/about/. Consultado el 15 de noviembre.
2019.
Facebook. (2019). Estándares comunitarios: noticias falsas. https://www.facebook. com/communitystandards/
false_news. Consultado el 15 de noviembre de 2019.
Facebook. (2020). Verificación de datos en Facebook: lo que los editores deben saber. https://
www.facebook.com/help/publisher/182222309230722. Consultado el 15 de noviembre de 2019.

Fiott, D. y Parkes, R. (2019). Proteger a Europa: la respuesta de la UE a las amenazas híbridas. París:
Instituto de Estudios de Seguridad de la Unión Europea. https://www. iss.europa.eu/sites/default/files/
EUISSFiles/CP_151.pdf. Consultado el 15 de noviembre de 2019.

Flamini, D., & Tardáguila, C. (2019). Una primera mirada a las recomendaciones de la OEA sobre
mejores prácticas contra la desinformación electoral, Parte 2. https://www.poynter.org/fact­checking/
2019/a­first­look­at­the­oass­recommendati ons­ para­mejores­practicas­contra­la­desinformación­
electoral­parte­2/. Consultado el 15 de noviembre de 2019.

Fomentar, H. (2019). #StrongerWithAllies: Conozca al letón que lidera la lucha de la OTAN contra las
noticias falsas. Washington: Consejo Atlántico. https://www.atl anticcouncil.org/blogs/new­atlanticist/
strongerwithallies­latvian­leads­nato­s­fight­against­fake­news/. Consultado el 15 de noviembre de
2019.
Francia 24. (2019, 13 de abril). Los anuncios electorales instan a los finlandeses a "pensar por sí mismos"
en medio del temor a las noticias falsas. https://www.france24.com/es/20190413­anuncios­electorales­
urge­finns­think­yourself­amid­fake­news­fears. Consultado el 15 de noviembre de 2019.
Google. (2019). Cómo lucha Google contra la desinformación. https://kstatic.googleuse rcontent.com/files/
388aa7d18189665e5f5579aef18e181c2d4283fb7b0d4
691689dfd1bf92f7ac2ea6816e09c02eb98d5501b8e5705ead65af653cdf940 71c47
361821e362da55b. Consultado el 15 de noviembre de 2019.
Hanzelka, J. y Kasl, F. (2018). Sekuritizace a právní nástroje pro boj s projevy nenávisti na internetu v
Nˇemecku [Securitización e instrumentos jurídicos para luchar contra el ciberodio en Alemania]. Acta
Politológica, 10(3), 20–46. https://doi.org/10.14712/1803­8220/15_2018.
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 221

Interfax­Ucrania. (2014). Poroshenko: La principal tarea del Ministerio de Información es repeler los
ataques informativos contra Ucrania. https://en.interfax.com.ua/news/economic/238615.html .
Consultado el 15 de noviembre de 2019. iRozhlas. (2018, 8 de ˇ
noviembre). Petr Pavel: Aktivity Ruska jsou pro Cesko vˇ etší hrozba než terorismus [Petr Pavel: Las
actividades rusas son para la República Checa una amenaza más grave que el terrorismo]. https://
www.irozhlas.cz/zpravy­domov/petr­pavel­rusko­hrozba­nato_1811081818_cen . Consultado el 15
de noviembre de 2019.

Janáková, B. (23 de marzo de 2018). Centrum proti terorismu vyvrátilo za rok 22 dezinformací. Má i jiné
úkoly [El Centro Contra el Terrorismo desmintió 22 desinformaciones en el último año. También
tiene otras tareas]. Idnes. https://www. idnes.cz/zpravy/domaci/dezinformace­hoaxy­fake­news­
centrum­proti­ter orismu­a­hybridnim­hrozbam­cthh­ministerstvo­vnitra­lu.A180314_105400_
domaci_bja. Consultado el 15 de noviembre de 2019.

Just, AN y Degn, SF (17 de julio de 2017). Danske soldater skal beskyttes mod noticias falsas de Rusia.
DR. https://www.dr.dk/nyheder/politik/danske­sol dater­skal­beskyttes­mod­fake­news­fra­rusland.
Consultado el 15 de noviembre de 2019.
Kalenský, J. (2019). Evaluación de las elecciones de la UE: aún quedan muchas lagunas. Portal de
desinformación. https://disinfoportal.org/evaluación­de­las­electiones­de­la­ue­many­gaps­still­
remain/ . Consultado el 15 de noviembre de 2019.
KennyBirch, R. (3 de diciembre de 2019). Cómo Finlandia acaba con las noticias falsas.
Apolítico. https://apolitical.co/en/solution_article/how­finland­shuts­down­fake­news. Consultado el
15 de noviembre de 2019.
Klingová, K. y Milo, D. (2018). Boj proti hybridným hrozbám v krajinách EÚ: príklady dobrej praxe [Lucha
contra las amenazas híbridas en los países de la UE: ejemplos de buenas prácticas]. Bratislava:
GLOBSEC. Consultado el 15 de noviembre de 2019.
Vigilancia del Kremlin. (2020). Bélgica. Condados comparados. https://www.kremlinwa tch.eu/countries­
compared­states/belgium/.
ˇ Consultado el 15 de noviembre de 2019.
KSCM. (2017). ¿Ovlivnila hybridní válka o lithiové baterie volby? Konspiraˇcní teorie versus fakta
[¿La guerra híbrida contra las baterías de litio afectó las elecciones?
Teoría de la conspiración versus hechos]. https://www.kscm.cz/cs/aktualne/med ialni­vystupy/
komentare/ovlivnila­hybridni­valka­o­lithiove­baterie­volby­kon spiracni. Consultado el 15 de
noviembre de 2019.
Kulager, F. (17 de abril de 2017). Información escrita bajo lup: Sådan spreder Ruslands dagsorden sig i
Danmark. Zetland. https://www.zetland.dk/his torie/sOXVEKv3­aOZj67pz­3bd93. Consultado el 15
de noviembre de 2019. ˇ
Kundra, O. (13 de marzo de 2019). Reditel BIS: Rusko má zájem ovlivnit evropské volby [Director del
Servicio de Seguridad e Información: Rusia tiene interés en influir en las elecciones europeas].
Respeto. https://www.respekt.cz/politika/bis­evropske­volby . Consultado el 15 de noviembre de 2019.

Lipská, J. (13 de agosto de 2019). Byl to útok cizí státní moci, uvedl NÚKIB k napadení server ˚u
ministerstva zahraniˇcí [La Autoridad Cibernética Nacional dice sobre
Machine Translated by Google

222 J. HANZELKA Y M. PAVLÍKOVÁ

Ciberataque al Ministerio de Relaciones Exteriores: fue un ataque a un actor estatal extranjero].


Seznam zprávy. https://www.seznamzpravy.cz/clanek/byl­to­utok­cizi­statni­moci­rekl­nukib­k­
napadeni­serveru­ministerstva­zahranici­77215.
Consultado el 15 de noviembre de 2019.

Mackintosh, E. y Kiernan, E. (18 de mayo de 2019). Finlandia está ganando la guerra contra las
noticias falsas. Lo que se ha aprendido puede ser crucial para la democracia occidental. CNN.
shorturl.at/clFX4. Consultado el 15 de noviembre de 2019.
Marsden, C. y Meyer, T. (2019). Regular la desinformación con inteligencia artificial. https://
www.europarl.europa.eu/RegData/etudes/STUD/2019/624279/EPRS_STU(2019)624279_EN.pdf .
Consultado el 15 de noviembre de 2019.
Mavrodieva, I. (2019). Bulgaria. En O. Eibl & M. Gregor (Eds.), Treinta años de campañas políticas
en Europa central y oriental. Londres: Palgrave.
Animación de medios ASBl. (2020). https://media­animation.be/. Consultado el 3 de marzo.
2020.
Mediapool.bg (6 de abril de 2018). Ppoyqvane: Blgapite ca colidapni c Pyci po clyqa “Ckpipal”.
Grupo de medios. https://www.mediapool.bg/prouchvane­balgarite­sa­solidarni­s­rusiya­po­
sluchaya­skripal­news277716.html. Consultado el 15 de noviembre de 2019.

Milo, D., Klingová, K. y Hajdu, D. (2017). Tendencia GLOBSEC 2017: mensajes contradictorios y
señales de esperanza desde Europa central y oriental. Bratislava: Instituto de Política GLOBSEC.
https://www.globsec.org/wp­content/uploads/2017/09/globsec_trends_2017.pdf . Consultado el
15 de noviembre de 2019.
Ministerio de Asuntos Exteriores de Dinamarca. (2020). Salvaguardias reforzadas contra la influencia
extranjera en las elecciones y la democracia danesas. https://um.dk/en/news/newsdisplaypage/?
newsid=1df5adbb­d1df­402b­b9ac­57fd4485ffa4 .
Ministerio de Política de Información de Ucrania. (2018). Bila kniga specialnih informa­ cijnih
operacij proti Ukra|ni 2014–2018. https://mip.gov.ua/files/pdf/white_book_2018_mip.pdf .
Consultado el 15 de noviembre de 2019.
Ministerio del Interior de la República Checa. (2017). Centro Contra el Terrorismo y las Amenazas
Híbridas. https://www.mvcr.cz/cthh/clanek/centre­against­terrorism­and­hybrid­threats.aspx .
Consultado el 15 de noviembre de 2019.
Mohan, M. (9 de mayo de 2017). Fugas de Macron: la anatomía de un hack. BBC. https://
www.bbc.com/news/blogs­trending­39845105. Consultado el 15 de noviembre de 2019.

Agencia Nacional de Seguridad Cibernética y de la Información. (2019a). Software i hardware


spoleˇcností Huawei a ZTE je bezpeˇcnostní hrozbou [ El software y el hardware de Huawei y
ZTE son una amenaza para la seguridad]. https://www.govcert.cz/cs/informacni­servis/hrozby/
2680­software­i­hardware­spolecnosti­huawei­a­zte­je­bezpecnostni­hrozbou/ . Consultado
el 15 de noviembre de 2019.
Agencia Nacional de Seguridad Cibernética y de la Información. (2019b). Informe sobre el estado
de la ciberseguridad en la República Checa en 2018. https://www.nukib.cz/cs/informacni­servis/
publikace/ . Consultado el 15 de noviembre de 2019.
Machine Translated by Google

7 RESPUESTAS INSTITUCIONALES DE LOS PAÍSES EUROPEOS 223

Centro de Excelencia de Comunicaciones Estratégicas de la OTAN. (2020a). PREGUNTAS MÁS FRECUENTES .


https://www.stratcomcoe.org/faq . Consultado el 15 de noviembre de 2019.
Centro de Excelencia de Comunicaciones Estratégicas de la OTAN. (2020b). Sobre nosotros. https://
www.stratcomcoe.org/about­us. Consultado el 15 de noviembre de 2019.
ODS. (2018). Alexandra Udženija: Respekt k výsledku voleb pˇrece neznamená, že mají lidé mlˇcet
[Alexandra Udženija: El respeto a los resultados electorales no significa que la gente deba guardar
silencio]. https://www.ods.cz/cla nek/16828­respekt­k­vysledku­voleb­prece­neznamena­ze­maji­lide­
mlcet.
Consultado el 15 de noviembre de 2019.

Pulsa televisión. (28 de febrero de 2017). Alemania ayudará a los países bálticos a establecer medios
de comunicación en ruso. https://www.presstv.com/Detail/2017/02/28/512397/ Germany­
Russianlanguage­media­Baltic­states. Consultado el 15 de noviembre de 2019.
Procházková, P. (17 de octubre de 2018). Výrok prezidenta Zemana o Noviˇcoku se stal samostatnou
kapitolou v Kapesním pr ˚uvodci po ruské propagandˇe [Los comentarios del presidente Zeman
sobre el Novichok se ha convertido en un nuevo capítulo de la guía de bolsillo de la propaganda
rusa]. Nový deník. https://denikn.cz/1864/prezident­zeman­se­stal­samostatnou­kapitolou­v­kapesnim­
pruvodci­po­ruske­propagande/ . Consultado el 15 de noviembre de 2019.
ˇ
Rehka, K. (2017). Informaˇcní válka [Guerra de la información]. Praga: Academia.
Reuters. (2020, 24 de enero). Bulgaria expulsa a dos diplomáticos rusos por espionaje. https://
www.reuters.com/article/us­bulgaria­russia/bulgaria­exp els­two­russian­diplomats­for­espionage­
idUSKBN1ZN10K. Consultado el 17 de febrero de 2020.

Robinson, O., Coleman, A. y Sardarizadeh, S. (2019). Un informe de iniciativas contra la desinformación.


Comisión Electoral y de Tecnología de Oxford. https://comprop.oii.ox.ac.uk/wp­content/uploads/sites/
93/2019/08/A­Report­of­Anti­Disinformation­Initiatives . Consultado el 15 de noviembre de 2019.

Roden, L. (13 de marzo de 2017). Los niños suecos aprenderán codificación informática y cómo detectar
noticias falsas en la escuela primaria. El local. https://www.thelocal. se/20170313/los­niños­suecos­
aprenden­codificación­informática­y­cómo­detectar­noticias­falsas­en­la­escuela­primaria.
Consultado el 15 de noviembre de 2019.
Rozgonyi, K. (2018). El impacto del desorden informativo (desinformación) en las elecciones. Comisión
Europea para la Democracia a través del Derecho. https://www.venice.coe.int/webforms/documents/
default.aspx?pdffile=CDL­LA(2018)002­e . Consultado el 15 de noviembre de 2019.

SANS. (2016). Informe Anual 2016. Agencia Estatal de Seguridad Nacional. http://www.dans.bg/images/
stories/Information/Doklad_DANS_2016_en. pdf. Consultado el 15 de noviembre de 2019.

SANS. (2020). Informes anuales. Agencia Estatal de Seguridad Nacional. http://www. dans.bg/en/
report­23012018­sec­en. Consultado el 21 de febrero de 2020.
Machine Translated by Google

224 J. HANZELKA Y M. PAVLÍKOVÁ

Scarsi, A. (29 de enero de 2019). Dinamarca pide a la UE que actúe contra Putin: FURIA de
Copenhague ante el 'comportamiento agresivo' de Rusia. Expresar. https://bit.ly/2UbQqPF .
Consultado el 15 de noviembre de 2019.
Scott, M. (30 de junio de 2018). Cambridge Analytica funcionó para grupos Brexit, dice un ex
empleado. Político. https://www.politico.eu/article/cambridge­analytical­leave­eu­ukip­brexit­
facebook/ . Consultado el 15 de noviembre de 2019.
Servicio de Información de Seguridad. (2019). Informe Anual del Servicio de Información de
Seguridad. https://www.bis.cz/public/site/bis.cz/content/vyrocni­zpravy/en/ar2018en.pdf.pdf .
Consultado el 15 de noviembre de 2019.
Sternstein, A. (2017). Lecciones de Estonia para luchar contra la desinformación rusa. https://
www.csmonitor.com/World/Passcode/2017/0324/Estonia­s­lessons­for­fighting­Russian­
disinformation. Consultado el 15 de noviembre de 2019.
Stone, J. (20 de mayo de 2019). No se puede confiar el servicio de inteligencia al gobierno
austriaco debido a sus vínculos con la extrema derecha, advierte el servicio de seguridad
alemán. Independiente. https://www.independent.co.uk/news/world/europe/austria­germany­
intell igence­security­services­russia­bfv­a8921966.html. Consultado el 15 de noviembre de 2019.
Agencia Sueca de Contingencias Civiles. (2018). Si llega la crisis o la guerra. http://
www.documentcloud.org/documents/4481608­Om­Krisen­Eller­Kriget­Kommer­
Engelska.html#document/p1 . Consultado el 15 de noviembre de 2019.
Agencia Sueca de Contingencias Civiles. (2019). Contrarrestar las actividades de influencia de
la información: un manual para comunicadores. https://www.msb.se/RibData/Filer/pdf/
28698.pdf . Consultado el 15 de noviembre de 2019.
El gobierno danés. (2018). Estrategia de política exterior y de seguridad de Dinamarca 2019­2020.
https://www.dsn.gob.es/sites/dsn/files/2018_Denmark%20F
oreign%20and%20security%20policy%20strategy%202019­2020.pdf. Consultado el 15 de
noviembre de 2019.
El Centro Europeo de Excelencia para Contrarrestar las Amenazas Híbridas. (2019).
Fechas de incorporación de los Estados miembros del CoE híbrido. https://www.hybridcoe. fi/
wp­content/uploads/2019/12/Joining­Dates­Alfabetic­Order­1.pdf.
Consultado el 3 de febrero de 2020.

El Centro de Excelencia Cooperativa de Ciberdefensa de la OTAN. (2020). https://ccdcoe.org/


about­us/ . Consultado el 15 de noviembre de 2019.
Tsolova, T. (11 de noviembre de 2016). El voto búlgaro muestra que Rusia se está ganando los
corazones en el flanco oriental de la UE. Reuters. https://www.reuters.com/article/us­bul garia­
election­russia/bulgarian­vote­shows­russia­wining­hearts­on­eus­eas tern­flank­
idUSKBN13611H. Consultado el 15 de noviembre de 2019.
Agencia de noticias independiente de Ucrania. (2019, 12 de febrero).
El Ministerio de Política de Información de Ucrania presenta el “Libro Blanco” de operaciones
de información contra Ucrania. https://www.unian.info/politics/10443192­ukraine­s­ministrie­
of­information­policy­presents­white­book­of­info­ops­against­ukraine . htm. Consultado el
15 de noviembre de 2019.
Machine Translated by Google

CAPÍTULO 8

Iniciativas de la sociedad civil


Desinformación: Experiencias de Central
Países europeos

Jonáš Syrovátka

8.1 Introducción
Uno de los hitos más importantes del debate sobre la desinformación y al que
se hace referencia constantemente fue la situación tras el derribo del vuelo
MH17 de Malaysian Airlines en junio de 2014 en el este de Ucrania.
En consecuencia, una masa de desinformación inundó literalmente Internet y
complicó así la capacidad de juzgar lo que realmente había sucedido. A pesar
de eso, la naturaleza, las causas y los culpables del incidente se revelaron con
bastante rapidez y se identificaron y desacreditaron una serie de historias falsas.
El papel clave en este desarrollo lo desempeñó la organización Bellingcat,
compuesta por periodistas de investigación independientes que pusieron todas las piezas

J. Syrovátka (B)
Departamento de Ciencias Políticas, Facultad de Estudios Sociales, Universidad Masaryk, Brno,
Chequia correo
electrónico: syrovatka10@seznam.cz

© El autor(es), bajo licencia exclusiva para Springer Nature Switzerland 225


AG 2021 M. Gregor y P.
Mlejnková (eds.), Desafiando la propaganda y la desinformación en
línea en el siglo XXI, campañas políticas y comunicación, https://
doi.org /10.1007/978­3­030­58624­9_8
Machine Translated by Google

226 J. SYROVÁTKA

de esta trágica historia juntos y la presentamos al público (Bellingcat 2019).

Sin embargo, la famosa historia de Bellingcat y el incidente del MH17 representa


sólo uno de los muchos ejemplos de iniciativas de la sociedad civil que abordan la
desinformación. En los últimos años, varias entidades, desde organizaciones de la
sociedad civil (OSC) ya establecidas hasta personas apasionadas de toda Europa,
comenzaron a centrarse en este fenómeno. Esta ola de actividad comprende
iniciativas variadas, como los voluntarios de los Elfos Bálticos que exponen trolls y
perfiles falsos en las redes sociales, verificadores de datos de la organización
ucraniana StopFake o activistas de la iniciativa Stop Funding Hate que intentan
convencer a las empresas privadas de que no hagan publicidad en sitios web.
difundir discursos de odio o teorías de conspiración.
Un intento de proporcionar una descripción exhaustiva de todas las iniciativas de
la sociedad civil que abordan la desinformación en un solo capítulo sería demasiado
descriptivo, demasiado largo y más confuso que una guía telefónica. El autor, sin
embargo, tampoco tiene la intención de optar por el enfoque opuesto, que sería
seleccionar los casos más interesantes. Sobre todo porque esta perspectiva estrecha
trae consigo el peligro de sacar una historia de su contexto original, no permitiendo
explicar adecuadamente sus éxitos así como las limitaciones de su aplicación en
otros entornos.
Por lo tanto, este capítulo intenta encontrar un camino intermedio entre ambos
enfoques mencionados y describir todas las iniciativas relevantes para abordar la
desinformación lanzadas por la sociedad civil en los países de Europa central.
Se dedicará atención específica a la República Checa, Hungría, Polonia y Eslovaquia.
Esta limitación geográfica, que, como se explicará, es bastante lógica en relación
con el tema en cuestión, permitirá una descripción (todavía relativamente) precisa
de los enfoques aplicados para abordar la desinformación por parte de los distintos
actores de la sociedad civil. Sin embargo, el capítulo tiene mayores ambiciones y se
centra también en la identidad y dinámica de las actividades de la sociedad civil en
los países analizados. Al hacerlo, podría comentar no sólo sobre los propios actores
de la sociedad civil sino también sobre el contexto en el que operan.

Esta perspectiva ha demostrado ser relevante. Los hallazgos del capítulo


muestran que el contexto importa, ya que se identificaron diferencias significativas
entre los actores de la sociedad civil que abordan la desinformación en los países analizados.
Si bien, por un lado, existe un intenso debate en el que participan una amplia
variedad de actores que elaboran enfoques innovadores sobre el tema en la
República Checa y Eslovaquia, en Hungría y Polonia, por otro lado, el tema de la
desinformación atrae una atención limitada, lo que resulta en una bajo número de
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 227

actividades dedicadas a ello, así como la elección de estrategias bastante conservadoras


para abordar esta cuestión. Este hallazgo cuestiona en cierta medida la posibilidad de
transportar las experiencias a diferentes países y recuerda la importancia de evaluar
adecuadamente los contextos locales.

8.2 Sociedad civil y desinformación en la comprensión y


la literatura actuales

Una sociedad civil vibrante, activa y audaz se percibe como un elemento clave de un
sistema político democrático. Algunas teorías incluso la consideran una de las
condiciones necesarias para la existencia de la democracia (Diamond y Morlino 2005).
A pesar de la resonancia de este término, su definición sigue siendo controvertida, lo
cual no es tan sorprendente dada no sólo la heterogeneidad de los diversos actores de
la sociedad civil sino también el hecho de que este tema ha atraído la atención de los
científicos sociales sólo hace relativamente poco tiempo. Sin embargo, entre todas las
definiciones, el énfasis más fuerte se pone en el papel de la sociedad civil como
equilibrio del poder del Estado, su heterogeneidad y su naturaleza voluntaria.
A los efectos de este texto, la sociedad civil se entiende como una "esfera de
instituciones, organizaciones e individuos ubicados entre la familia, el Estado y el
mercado en la que las personas se asocian voluntariamente para promover el interés
común" (Anheier 2013, 22).
Entre las muchas áreas en las que la sociedad civil podría promover intereses
comunes, el ámbito de la seguridad es uno de los más interesantes, especialmente
porque este área solía considerarse reservada para las instituciones estatales, como el
ejército, la policía o los servicios de inteligencia, en los Estados Unidos. pasado. Sin
embargo, esta visión ha sido cuestionada y algunos académicos en estudios de
seguridad hoy ponen más énfasis en un espectro más amplio de amenazas, incluida la social (Collins 2
Desde este punto de vista, obviamente, el papel de la sociedad civil en la seguridad se
está volviendo tan importante como el papel de las intuiciones estatales. Este hecho ha
sido reflejado por varios autores que han evaluado el papel que podrían desempeñar
los actores de la sociedad civil en el ámbito de la seguridad. Por ejemplo, se ha
argumentado que la sociedad civil es sensible a los diversos cambios que ocurren en la
sociedad y, por lo tanto, podría servir como un sistema de alerta temprana contra
amenazas futuras (Anheier 2013). Sin embargo, los actores de la sociedad civil también
son vistos como actores importantes en la formulación de políticas de seguridad porque
brindan retroalimentación y recomendaciones a las instituciones estatales activas en el
ámbito de la seguridad, así como a los tomadores de decisiones políticas. Al mismo
tiempo, se ha puesto énfasis en su importante papel como guardianes de las políticas
de seguridad del Estado, advirtiendo contra ellas en caso de que sean consideradas una amenaza.
Machine Translated by Google

228 J. SYROVÁTKA

al sistema democrático (Caparini et al. 2006). La tesis subyacente de este capítulo es


que las reacciones de la sociedad civil ante el fenómeno de la desinformación representan
un estudio de caso ejemplar de su capacidad para promover intereses comunes en el
ámbito de la seguridad.
Un ejemplo ilustrativo de esta tesis es el caso ucraniano, en el que las instituciones
estatales no estaban bien preparadas para el enfrentamiento con la Federación Rusa
que comenzó en 2014. Además de en otros ámbitos, la sociedad civil ucraniana pudo
movilizarse y defenderse en el ámbito de la información. , que representó una parte
importante del conflicto, a partir de amenazas de propaganda y campañas de
desinformación lanzadas por el adversario (para un relato detallado de estas iniciativas,
ver Gerasymchuk y Maksak 2018). Dado que las iniciativas ucranianas para abordar la
desinformación operaban en el laboratorio de la guerra de información, a menudo se
utilizan como modelos para actores de la sociedad civil en otros países (por ejemplo,
Pesenti y Pomerantsev 2016). De hecho, la sociedad civil comenzó a ser percibida como
una parte indispensable del esfuerzo para abordar la desinformación (ver Nimmo 2015;
Fried y Polyakova 2018). Partiendo de esta suposición, en los años siguientes se
lanzaron en toda Europa una serie de iniciativas de la sociedad civil destinadas a exponer
y abordar la desinformación; entre muchos otros, es posible nombrar el EU DisinfoLab
con sede en Bruselas, el Bellingcat con sede en el Reino Unido, el Hamilton 68 del
German Marshall Fund y el Digital Forensic Research Lab del Atlantic Council. La
relevancia de estas iniciativas fue reconocida a nivel político como se manifiesta, por
ejemplo, en su mención en el Plan de Acción de la Unión Europea contra la Desinformación
(Comisión Europea 2018).

La lista de iniciativas lanzadas para combatir la desinformación podría durar mucho


tiempo. Sin embargo, enumerar los innumerables actores de la sociedad civil que han
surgido en los últimos años en toda Europa (o incluso en todo el mundo) y las estrategias
que han empleado contra la desinformación no sería útil para comprender el tema. Por
el contrario, esta lista no sólo nunca podría estar completa o actualizada dado el vibrante
desarrollo en esta área, sino que además tampoco podría (especialmente con un
espacio tan limitado) contextualizar adecuadamente las iniciativas presentadas.

Este problema podría resolverse seleccionando cuidadosamente las iniciativas más


conocidas. Sin embargo, el autor está convencido de que este enfoque habría aportado
poco valor, ya que sus actividades ya han sido descritas en otra parte.

Por lo tanto, el autor ha tratado de encontrar un camino intermedio y describir las


iniciativas de la sociedad civil que han surgido en un grupo seleccionado de países centrales.
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 229

Países europeos: República Checa, Hungría, Polonia y Eslovaquia.


Esta reducción del alcance de la investigación puede defenderse con varios
argumentos. En primer lugar, es un intento de encontrar un compromiso
razonable entre la variedad de ejemplos presentados y su descripción
adecuada dentro del espacio proporcionado por este capítulo. La segunda
razón, bastante pragmática, es el conocimiento del autor del desarrollo de la
sociedad civil checa en la lucha contra la desinformación1 y la red de contactos
con otros investigadores de los países analizados. Estos antecedentes
permitieron al autor realizar una evaluación meticulosa de la situación en la
región. En tercer lugar, los análisis en los países elegidos proporcionan una
perspectiva comparativa interesante. Aunque tienen especificidades
nacionales, esta perspectiva es posible de aplicar debido al hecho de que los
países analizados son hasta cierto punto similares: la misma posición
geográfica entre Europa occidental y oriental, una historia similar simbolizada
por la democratización después de la caída del Telón de Acero. , la integración
en estructuras políticas occidentales (como la OTAN y la Unión Europea), el
surgimiento de fuerzas populistas y nacionalistas en los últimos años y la
percepción de la Federación de Rusia como parte de su área de influencia
más amplia. Al mismo tiempo, sin embargo, como también muestra este
capítulo, es posible presenciar una serie de diferencias en el campo al que
está dedicado este volumen editado; por ejemplo, las respectivas sociedades
civiles tienen diferentes niveles de interés en el tema de la desinformación,
diferentes percepciones de este fenómeno y utilizan diferentes estrategias
para abordarlo. Por lo tanto, una reducción del alcance de la investigación no
sólo permitirá una descripción de las iniciativas existentes sino también su adecuada contex
Este tipo de contribución es muy necesaria ya que la perspectiva
comparada falta en la literatura existente dedicada a las iniciativas de la
sociedad civil que abordan la desinformación, y no solo en Europa central. La
mayoría de las publicaciones dedicadas a este tema fueron realizadas por
OSC locales, lo que trae consigo ciertas deficiencias. El contenido de estos
estudios no está en duda, pero conviene resaltar ciertas limitaciones en su
uso como fundamento de la investigación académica. En primer lugar, está la
falta de metodología, así como un procedimiento de evaluación y edición poco
transparente que no permite, por ejemplo, entender por qué ciertos ejemplos
de prácticas fueron elegidos para su presentación y otros no.

1El autor trabaja como director de programas de proyectos relacionados con la desinformación y las
comunicaciones estratégicas en el grupo de expertos Instituto de Estudios de Seguridad de Praga, con sede
en la República Checa.
Machine Translated by Google

230 J. SYROVÁTKA

Esta limitación está íntimamente relacionada con una segunda, que radica en el
razonamiento pragmático de estas publicaciones. Esto da como resultado (desde la
perspectiva completamente legítima de las OSC) la ambición de no proporcionar un análisis
en profundidad de los actores de la sociedad civil y sus acciones, sino más bien una
selección de los ejemplos más interesantes a seguir. Esta tendencia se ve aún más
fortalecida por los múltiples objetivos de estas publicaciones, que suelen estar dedicadas
exclusivamente a los actores de la sociedad civil, así como a otros temas que dificultan el
análisis en profundidad y predefinen las perspectivas en las que se entienden las acciones
de la sociedad civil.
Ejemplos de estudios producidos por OSC que mapean las actividades de la sociedad
civil en la lucha contra la desinformación son los siguientes: El grupo de expertos checo
Centro Europeo de Valores para la Política de Seguridad describió las actividades de la
sociedad civil en los estados occidentales en un estudio de contramedidas contra las
operaciones subversivas del Kremlin (Kremlin Watch 2018) , así como en The Prague
Manual, que presenta las mejores prácticas para contrarrestar las influencias extranjeras
malignas (Janda y Víchová 2018). La CSO checa Nesehnutí mapeó la propaganda pro­
Kremlin en Europa central y oriental y varias iniciativas en su contra (Dufkova y
Hofmeisterova, 2018). El grupo de expertos ucraniano Prism publicó otro estudio, también
centrado en la misma región y su resiliencia contra la desinformación y que mencionaba
proyectos en el área de alfabetización mediática (Damarad y Yeliseyeu 2018). El grupo de
expertos eslovaco GLOBSEC Policy Institute también publicó un estudio centrado
únicamente en los jóvenes y la alfabetización mediática, así como en proyectos que intentan
mejorarla en Europa central y los países de los Balcanes occidentales (Hajdu y Klingová,
2018).

Las actividades de las iniciativas de la sociedad civil que luchan contra la desinformación
también se han convertido ya en objeto de un escrutinio bastante crítico por parte de
investigadores académicos que han señalado su influencia en el discurso público sobre
este tema. Sus estudios se centran en la identidad y las interacciones de los actores
elegidos de la sociedad civil. Aunque estas investigaciones están menos interesadas en
las prácticas, aún proporcionan relatos interesantes de los actores en esta área.
Lamentablemente, por el momento, siguen limitándose a la República Checa y centrándose
en un período entre 2014 y 2016; por lo tanto, no pueden captar la evolución reciente
(Daniel y Eberle 2018; Kohút y Rychnovská 2018).

En resumen, hay razones importantes por las que los investigadores deberían centrarse
más en la cuestión actualmente poco estudiada de los actores de la sociedad civil que
abordan la desinformación. En primer lugar, este ejemplo representa un interesante estudio
de caso de movilización de la sociedad civil en el ámbito de la seguridad, que hasta ahora era
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 231

muy recientemente visto como reservado a las instituciones estatales. Investigaciones


futuras pueden producir hallazgos interesantes sobre el papel de la sociedad civil en
las sociedades democráticas en general. En segundo lugar, este tipo de investigación
puede resultar extremadamente útil para preservar las iniciativas de la sociedad civil.
Dado que las iniciativas actualmente existentes no están mapeadas adecuadamente,
es muy probable que, en el agitado ambiente de las OSC con muy bajo nivel de
memoria institucional, se pierda la experiencia acumulada. Aportar más claridad a los
proyectos ya existentes también contribuye a la eficiencia en la planificación de
actividades futuras por parte de las propias OSC y en la organización de redes que
permitirán un reparto eficaz del trabajo. En tercer lugar, es necesario aportar más
claridad al papel de los actores de la sociedad civil en la toma de decisiones. Dado
que las OSC pueden tener un impacto en el discurso público sobre la desinformación
y (posiblemente también) en cómo las instituciones estatales y los formuladores de
políticas elaboran medidas para abordar este fenómeno, deberían estar sujetas al
escrutinio público como cualquier otro actor involucrado en el proceso de toma de decisiones.

8.3 ¿Cómo investigar la sociedad civil de


forma adecuada y ética?

Como ya se mencionó, el concepto de sociedad civil sigue siendo vago y, por lo tanto,
no es fácil decidir qué iniciativas pueden considerarse parte de esta categoría. Este
obstáculo es aún más problemático dado que la propia sociedad civil es heterogénea
y comprende una serie de actores diversos, desde activistas individuales centrados
en las comunidades locales hasta grandes OSC que operan a nivel internacional. Otro
obstáculo en el mapeo de la sociedad civil es su dinamismo, lo que resulta en cambios
en su tema de interés y, en consecuencia, en sus actividades. Este hecho fue bastante
profundo en el área investigada de la desinformación, que en muchos casos no era
un campo de interés primario sino complementario entre los actores descritos.

El autor decidió superar el desafío de los límites poco claros del concepto aplicado
creando un conjunto de datos de actores que se declararon activos en el área de la
desinformación y están basados en los países analizados. La actividad en este ámbito
no significa sólo comentar el tema de vez en cuando, sino más bien un interés
constante y a largo plazo en el tema.
Si bien el capítulo intenta brindar un relato complejo de las iniciativas en los países
analizados, el autor no puede garantizar que algunas de las iniciativas de la sociedad
civil no hayan sido omitidas. Sin embargo, dada su experiencia personal y consultas
con expertos de los países analizados, se atreve
Machine Translated by Google

232 J. SYROVÁTKA

afirmar que el capítulo presenta a todos los actores cuyas actividades son relevantes y
están teniendo resultados tangibles e influencia en los debates y las comunidades locales.
El capítulo pretende analizar no sólo las actividades y estrategias de los actores de la
sociedad civil sino también la dinámica del debate sobre el tema de la desinformación
en los países analizados. Este conocimiento proporcionará una mayor comprensión del
contexto en el que operan estos actores. La dinámica del debate se evaluará a partir del
número de actores de la sociedad civil que han comenzado a involucrarse en actividades
para combatir la desinformación a lo largo del tiempo.
El desarrollo dinámico de los actores de la sociedad civil complica la evaluación de en
qué momento comenzaron a interesarse por un tema en particular.
Sin embargo, para nuestros propósitos, esta categoría se medirá según el año de su
primera producción pública: publicar una investigación, un artículo o un libro; realizar
cierta actividad; o lanzar un sitio web—fue identificado.
Aún más problemático es evaluar si todavía están activos en la zona. Por lo tanto, la
atención se centra únicamente en el año en que un actor de la sociedad civil se volvió
activo en la lucha contra la desinformación; su eventual cese de actividades en este
campo se mencionará sólo si es posible probarlo.
Al evaluar la identidad de un actor de la sociedad civil, se utilizó la metodología de
Anheier (2013) para identificar individuos, organizaciones e instituciones. Esta
categorización permitió la inclusión en el conjunto de datos de otros dos tipos de actores
cuya afiliación con la sociedad civil podría cuestionarse: periodistas y académicos. Estos
actores fueron cruciales para el debate sobre la desinformación en los países analizados,
por lo que su exclusión del conjunto de datos oscurecería los resultados de la
investigación. Al mismo tiempo, se debe entender su especificidad y, por lo tanto, se
tratan como categorías separadas en el capítulo. En cuanto a los actores "normales" de
la sociedad civil, su inclusión en el conjunto de datos está condicionada por un interés
autoproclamado, consistente y a largo plazo en el área. Por lo tanto, el conjunto de datos
incluirá, por ejemplo, solo aquellos periodistas que escriben sobre desinformación de
forma regular y han intentado hacer avanzar el debate sobre este tema a través de sus
propios proyectos (por ejemplo, de investigación). En resumen, las categorías descritas
en el capítulo son las siguientes:

• individuos: personas o grupos informales más pequeños establecidos para abordar


la desinformación a través de diversos
medios; • organizaciones (OSC): entidades organizadas y estructuradas con una
amplia área de interés que han agregado el tema de la desinformación a su agenda;
y
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 233

• instituciones: instituciones establecidas que operan independientemente del Estado,


incluidas

– medios de comunicación (medios o periodistas individuales que estuvieron o están activos


en el debate sobre la desinformación) y
– el mundo académico (universidades, instituciones de investigación o investigadores
individuales afiliados a instituciones académicas que participaron o participan
activamente en el debate sobre la desinformación).

Antes de presentar la investigación en sí, cabe señalar que este tipo de ámbito requiere
ciertas consideraciones éticas. Dado que la desinformación podría ser un arma útil para
actores no democráticos nacionales o extranjeros, se podría argumentar que describir a
quienes abordan este fenómeno los pone en peligro, especialmente cuando se nombran
organizaciones e individuos y se describen sus actividades. A pesar de esa comprensión de
este argumento, el autor no lo considera una limitación en esta investigación. Dado que los
datos presentados en el capítulo se basan únicamente en fuentes abiertas (en la mayoría de
los casos publicadas por los propios actores de la sociedad civil investigados), el capítulo no
menciona nada que las organizaciones investigadas no estarían dispuestas (y tal vez incluso
ansiosas) a comunicar al público. .

Si bien las preocupaciones de seguridad ciertamente deben considerarse seriamente en el


contexto de regímenes autoritarios, la situación en los países de Europa central, a pesar de
cierta reacción indiscutible contra los principios democráticos en algunos de ellos, todavía
está lejos de ser grave. Como tal, no es necesario anonimizar a los defensores de la sociedad
civil (Freedom House 2019).

8.4 Actores de la sociedad civil que luchan


contra la desinformación en Europa Central
Ya a primera vista resulta evidente que los debates en cada país difieren.
La disimilitud afecta a todas las variables categoriales observadas: el momento en el que la
mayoría de los actores se involucraron en el abordaje de este tema y la identidad de los
actores de la sociedad civil, así como sus actividades (Fig. 8.1).
Generalmente, es posible distinguir dos grupos entre los países analizados. En el
primero, formado por la República Checa y Eslovaquia, es posible identificar la participación
de un gran número de actores de la sociedad civil en la lucha contra la desinformación (30 en
la República Checa y 26 en Eslovaquia). Las identidades de los actores involucrados son
muy diversas y
Machine Translated by Google

234 J. SYROVÁTKA

8
7
6
CZ
5
HU
4
pl
3
SL
2
1
0
Previo 2014 2015 2016 2017 2018 2019
2014

Fig. 8.1 Número de iniciativas de la sociedad civil recientemente establecidas que abordan la
desinformación por año ( Autor de la fuente)

comprende casi todas las categorías cubiertas en el capítulo. En ambos países,


el debate también tuvo una dinámica similar: alcanzó su punto máximo en la
República Checa en 2015­16, y el año siguiente en Eslovaquia. Dada la amplia
variedad de actores de la sociedad civil involucrados, es posible encontrar
diversas estrategias y enfoques para abordar la desinformación. También vale la
pena mencionar que la sociedad civil en la República Checa y Eslovaquia estimula
actividades relacionadas con la desinformación en toda la región, ya que las OSC
locales inician proyectos transfronterizos relacionados con este tema, y las
iniciativas de estos países se copian en otros lugares.
La situación en el segundo grupo, formado por Hungría y Polonia, es muy
diferente. El número de actores de la sociedad civil que luchan contra la
desinformación es menor (6 en Hungría y 14 en Polonia). Además, el tema de la
desinformación no suele ser el interés principal de los actores de la sociedad civil
presentados, sino más bien una actividad secundaria (a menudo causada
únicamente por la participación en proyectos realizados en cooperación con
socios de la República Checa o Eslovaquia). Esta situación ha llevado a la
aplicación de un conjunto limitado de estrategias para abordar la desinformación
que a menudo no son tradicionales, no van más allá del objetivo de un proyecto
particular o están condicionadas por la identidad del actor de la sociedad civil.
Una ligera diferencia entre Hungría y Polonia es la intensidad del debate como tal.
Mientras que en el caso de Hungría no es posible indicar ningún punto de inflexión
a partir del cual la sociedad civil haya comenzado a interesarse por este tema, en
el caso de Polonia esto ocurrió en 2017 (Fig. 8.2).
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 235

35

30
6
25 11
Academia
4
20 9 Medios de comunicación

7
15 Organización
4 Individual
10
6 15
13
5 3
2 4
0 1

CZ HU pl SK

Fig. 8.2 Identidad de los actores de la sociedad civil en países individuales ( Autor fuente)

Estas diferencias ilustran claramente que incluso en una región tan coherente, los
factores internos claramente importan. Por lo tanto, el resto del capítulo ofrecerá una
mirada más cercana a las sociedades civiles separadas de los países de Europa
central, describiendo a los actores individuales y sus actividades y estrategias más
importantes.

8.4.1 República Checa

El número de actores de la sociedad civil que luchan contra la desinformación en la


República Checa fue el más alto entre los países analizados: 30 en total.
Como se ve en la figura 8.1, el número de actores de la sociedad civil incluidos en el
conjunto de datos se disparó en 2015, cuando siete nuevos individuos y organizaciones
se volvieron activos. Esta tendencia continuó el año siguiente, cuando otros seis
nuevos actores se involucraron en la lucha contra la desinformación. El interés en las
cuestiones de la desinformación sigue siendo alto incluso ahora, como lo ilustra el
hecho de que todavía están surgiendo nuevas iniciativas: cinco nuevos actores de la
sociedad civil se activaron en 2018 y otros seis en 2019. La identidad de los actores
de la sociedad civil es la más heterogénea de todas. los países analizados. En el
conjunto de datos están presentes 13 personas, siete OSC, cuatro actores de los
medios de comunicación y seis actores del mundo académico. El nivel particularmente
alto de participación de universidades e institutos de investigación en las iniciativas
que luchan contra la desinformación es único en el contexto de la región de Europa
Central. Esta variedad de actores ha dado lugar a diferentes estrategias, incluida la
investigación, la verificación de hechos, las actividades educativas, la promoción
política y el periodismo de investigación. También se hizo un importante esfuerzo por crear plataforma
Machine Translated by Google

236 J. SYROVÁTKA

varios actores de la sociedad civil involucrados en este tema podrían interactuar.


Además, el debate checo sobre la desinformación es único debido a la existencia
de actores de la sociedad civil que presentan una reflexión crítica sobre el discurso
actual sobre este tema y, por lo tanto, ha estimulado un debate sobre la legitimidad
y eficacia de las iniciativas aplicadas.
Individuos e iniciativas más pequeñas y bastante informales de la sociedad
civil comenzaron a involucrarse en el tema de la desinformación incluso antes de
que este tema se convirtiera en una parte importante de la agenda pública. Antes
de 2014, es posible identificar dos iniciativas que, en el momento de su fundación,
no necesariamente se consideraban que luchaban contra la desinformación, pero
que ya aplicaban las estrategias utilizadas actualmente para abordar este
fenómeno más adelante: El sitio web Hoax (creado en 2000 ) tiene como objetivo
advertir a los usuarios sobre diversos engaños, correos en cadena y otros
contenidos de Internet que podrían poner en peligro al usuario y que no están de
acuerdo con las directrices de netiqueta (Hoax, sf), y el proyecto 'Demagog'
(lanzado en 2012) se centra en el hecho ­control de debates políticos (Demagog CZ, sf).
Una característica distintiva fueron los individuos (así como otros actores de la
sociedad civil) que comenzaron a abordar la desinformación después de 2015 con
un fuerte énfasis en la dimensión de seguridad del fenómeno, que también se
considera estrechamente interconectado con las operaciones de influencia rusa
lanzadas contra los Estados occidentales después de la inicio del conflicto en
Ucrania en 2014. La influencia de estos acontecimientos en el debate checo la
ilustra Roman Máca, un blogger independiente que comenzó a escribir sobre la
situación en Ucrania y luego se interesó en describir y exponer varias plataformas
y grupos que difunden desinformación relacionada con Ucrania en la República Checa.
En el momento de escribir este artículo, en enero de 2020, todavía trabaja en este
tema como director de programas en el grupo de expertos Instituto para la Política
y la Sociedad (Instituto para la Política y la Sociedad, sin fecha), dirigido por el
partido político checo. ANO. Otra iniciativa, lanzada en 2015, es el sitio web
Manipulátoˇri (Manipuladores), que crea conciencia sobre el tema de la
desinformación, así como la verificación de hechos y el lanzamiento de proyectos
de investigación más pequeños (Manipulátoˇri 2020). Uno de los fundadores de
Manipulátoˇri, Petr Nutil, publicó el libro Média, lži a pˇríliš rychlý mozek (Medios,
mentiras y un cerebro demasiado rápido) centrado en cuestiones de manipulación
en línea, propaganda y alfabetización mediática en 2018 (Nutil 2018). . Antes del
lanzamiento de la publicación de Nutil, se publicaron otros tres libros centrados
en la desinformación. El primero fue Pr ˚umysl lži—Propaganda, konspirace a
dezinformaˇcní válka (La industria de la mentira: propaganda, conspiración y
guerra de desinformación), de la experta en relaciones públicas Alexandra Alvarová, quien tambi
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 237

conferencias públicas dedicadas a estos temas (Rozsypal 2019). La segunda contribución al


debate fue el libro Informaˇcní válka (Guerra de información) del
ˇ coronel del ejército checo
Karel Rehka, que se centró en la cuestión de la desinformación y la propaganda en lasˇ
operaciones militares (Rehka 2017). El tercer caso, publicado en 2018, representa un libro
popular llamado Nejlepší kniha o fake news, dezinformacích a manipulacích!!! (¡¡¡El mejor libro
sobre noticias falsas, desinformación y manipulación!!!) escrito por los académicos Miloš
Gregor, Petra Vejvodová y sus estudiantes (Gregor et al. 2018). El mismo año, basándose en
un ejemplo de los países bálticos, un grupo de activistas inició el movimiento cívico Ceští
elfové (Elfos checos) centrado en mapear la difusión de desinformación
ˇ a través de correos
en cadena y trolls de redes sociales. El seguimiento dedicado a estos temas se publica
mensualmente (Romea 2018). Al mismo tiempo, la cuestión de la desinformación también
atrajo mayor atención en el sector privado. František Vrábel, director general de la empresa
Semantic Visions, que se dedica al análisis de código abierto, empezó a estar más presente
en los medios al presentar sus investigaciones relacionadas con la desinformación (Semantic
Visions 2019). En 2019, Jakub Kalenský, ex miembro del Grupo de Trabajo de East Stratcom2,
se mudó de Bruselas a Praga y, como miembro principal del Laboratorio de Investigación
Forense Digital del Consejo Atlántico, comenzó a contribuir también al debate checo. Otro
libro centrado en la desinformación, V síti (dez)informací (En la red de (des)información) del
consultor de relaciones públicas Jiˇrí Táborský, se centró en las técnicas de manipulación y la
situación actual en el espacio de la información (Táborský 2019). También se lanzaron dos
iniciativas más: '#jsmetu' (#wearehere), cuyo objetivo es disminuir la polarización del debate
en las redes sociales inspirada en un ejemplo de Suecia (#JsmeTu, sin fecha), y 'Publicidad
justa', para crear conciencia. sobre anuncios en línea en plataformas conocidas por difundir
desinformación mediante la publicación de ejemplos en su cuenta de Twitter similares a los
de la organización estadounidense Sleeping Giants (Cemper 2019).

Con el tiempo, el tema de la desinformación comenzó a atraer la atención


de varias OSC establecidas centradas en temas de seguridad, medios de
comunicación o derechos humanos, y que incluyeron en su cartera varios
proyectos relacionados con este tema. El ejemplo más destacado de este
enfoque es el Centro Europeo de Valores para la Política de Seguridad (EVCSP) de las OSC, q

2Un departamento del Servicio Europeo de Acción Exterior encargado de abordar la desinformación.
mación.
Machine Translated by Google

238 J. SYROVÁTKA

La entrada en el ámbito de la desinformación en 2015 cambió significativamente


el desarrollo de toda la organización, especialmente con el lanzamiento de su
programa "Kremlin Watch" en 2016, centrado en crear conciencia sobre el
tema de las operaciones de influencia rusa. EVCSP puso la cuestión de la
desinformación en el centro de su agenda. Debido a este hecho, EVCSP se
convirtió no solo en una autoridad públicamente aclamada en el tema, sino
también en una contraparte de las instituciones estatales, por ejemplo, mientras
redactaba la Auditoría de Seguridad Nacional de 2016 (Ministerio del Interior
de la República Checa 2016). Otra OSC que entró en escena en 2015 fue el
Instituto de Estudios de Seguridad de Praga, que con el tiempo cambió su
enfoque del papel de la desinformación en las operaciones de influencia rusas
a la investigación de la influencia de la desinformación en las elecciones
checas y el área de comunicación estratégica. nicaciones (Instituto de Estudios
de Seguridad de Praga, sf). La bien establecida Asociación de OSC para
Asuntos Internacionales, que se centra en la investigación y la educación en el
área de las relaciones internacionales, comenzó a involucrarse en la lucha
contra la desinformación en 2016 mediante el lanzamiento de una versión
checa de la iniciativa ucraniana 'StopFake' (StopFake, nda ); también se
convirtió en socio de investigación en proyectos internacionales enfocados en
esta área. El rápido desarrollo de la sociedad civil también atrajo la atención
de las OSC, que facilitaron la financiación y la creación de redes entre diversos
actores de la sociedad civil.3 El ejemplo más notable es un proyecto de la
Open Society Foundation Prague (OSF), centrado en las actividades de
influencia rusa en la República Checa. y Eslovaquia y que se lanzó en 2016.
Además de financiar proyectos relacionados con este tema, OSF también
intentó crear una red entre organizaciones activas en esta área, realizó su
propia investigación y organizó eventos. El programa concluyó en 2018 y OSF
ya no está activo en esta área (Nadace OSF, sf). Otra OSC, que es al mismo
tiempo donante financiero, es el Fondo de Dotación para el Periodismo
Independiente, que ha apoyado varios proyectos centrados en la desinformación
desde su creación en 2016 (NFNŽ, sf). Una de las mayores OSC checas,
People in Need, que se centra principalmente en la ayuda humanitaria y los
derechos humanos, ya había comenzado a llevar a cabo proyectos contra la desinformación

3El capítulo tiene en cuenta sólo las OSC con presencia en la República Checa (y, respectivamente,
en otros países analizados) y que participaron activamente en la creación de la red de actores de la
sociedad civil nacional. Por lo tanto, no se menciona a los donantes extranjeros (como el Fondo
Nacional para la Democracia de Estados Unidos) a pesar de que desempeñaron un papel importante
en la configuración del debate sobre la desinformación en Europa central.
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 239

(Jeden svˇet na školách, sf). Sin embargo, también ha comenzado recientemente


a participar en eventos que facilitan la red de actores de la sociedad civil interesados
en este tema, por ejemplo, organizando la conferencia 'Cyber Dialogue' en 2019
(Cyber Dialogue 2019). En 2018, la OSC Transitions, centrada principalmente en
la educación de periodistas, se involucró en la lucha contra la desinformación
mediante el lanzamiento de una serie de conferencias y talleres sobre alfabetización
mediática para personas mayores (Transitions 2018).
Las dinámicas actividades de la sociedad civil checa relacionadas con la lucha
contra la desinformación no pasaron desapercibidas para los medios debido, en
parte, al hecho de que los propios periodistas desempeñaron un papel importante
en el debate sobre este fenómeno. El periodista de investigación Ondˇrej Kundra
(que trabaja para el semanario Respekt) comenzó a escribir extensamente sobre
desinformación en 2015 y llevó a cabo una investigación en profundidad sobre el
famoso sitio web de conspiración Aeronet (Kundra 2015). Otros actores involucrados
en escribir sobre desinformación fueron el portal de noticias Hlídací Pes (Watch
Dog), especialmente en su sección de noticias dedicada a los intereses rusos en la
República Checa, y el portal de noticias Neovlivní (Sin influencia), que publicó en
2016 una de las primeras listas de sitios web que difunden desinformación (Neovlivní 2016).
Otro periodista que contribuyó al debate sobre la desinformación es Jakub Zelenka,
que en 2018 recibió un premio de periodista joven por el proyecto 'Dezinformace:
Co pro vás znamenají lži?' (Desinformación: ¿Qué significan las mentiras para ti?)
(Poljakov et al. 2017).
Como en otros países analizados, las universidades también desempeñaron
un papel en la lucha contra la desinformación. Cabe destacar que esto no significa
que "sólo" realizaron investigaciones académicas sobre este tema, sino que
principalmente buscaron entrar activamente en el debate público sobre este tema.
La Universidad de Masaryk comenzó a investigar sobre este tema en 2016.
El entorno de esta universidad también permitió la creación de dos iniciativas
estudiantiles centradas en crear conciencia sobre estos temas y potenciar el
pensamiento crítico y la alfabetización mediática entre los jóvenes mediante la
introducción de las actividades educativas 'Zvol si info' (Elige la información;
establecida en 2016). ) y 'Fakescape' (establecido en 2018). Estos dos proyectos
se separaron posteriormente de la universidad y ahora funcionan de forma
independiente. Además, fue en esta universidad donde se lanzó en 2019 el
proyecto 'Dezimatrix', destinado a realizar investigaciones multidisciplinarias sobre
la desinformación (Dezimatrix, sf). Ese mismo año, la Universidad Palacký de
Olomouc lanzó el proyecto 'Euforka' centrado en informar sobre la Unión Europea
y desacreditar la desinformación.
Machine Translated by Google

240 J. SYROVÁTKA

relacionado con este tema. Esta iniciativa involucró posteriormente a otras


universidades checas (Universidad Palacky Olomouc 2019). Investigadores del
Instituto de Relaciones Internacionales, institución de investigación supervisada por
el Ministerio de Asuntos Exteriores, publicaron un artículo en 2018 sobre el debate
checo sobre las amenazas híbridas (en el que la desinformación era uno de los
temas principales) y reflejaba la argumentación y el desarrollo de sus actores. (Daniel
y Eberle 2018). La amplia red de bibliotecas de la República Checa desempeñó un
papel importante en la creciente conciencia sobre el fenómeno de la desinformación
y en la promoción del pensamiento crítico. Por ejemplo, en 2019, la Biblioteca de
Moravia en Brno lanzó el proyecto 'Používej mozek' (Usa tu cerebro), compuesto por
una serie de conferencias dedicadas al pensamiento crítico y la alfabetización
mediática (Winkler y Pazdersky, sf).

8.4.2 Hungría

El número de actores de la sociedad civil húngara que luchan contra la desinformación


fue el más bajo de todos los países analizados (seis en total). Dado el bajo número
de actores de la sociedad civil, no es posible rastrear ninguna dinámica en el debate
sobre este tema (ver Fig. 8.1). Sin embargo, al observar la escala de tiempo, es
posible observar que la investigación sobre el tema de la desinformación ya había
comenzado en 2010, cuando la CSO Political Capital lanzó proyectos de investigación
centrados en teorías de conspiración antisemitas. Este ejemplo es bastante ilustrativo
ya que muestra que las raíces y el enfoque del debate sobre la desinformación en
Hungría son diferentes a los de la República Checa. Mientras que la sociedad civil
checa percibió la desinformación como un fenómeno externo relacionado con las
operaciones de influencia rusa en Europa después de 2014, los actores húngaros
estaban más interesados en aquellas que se originaban en el entorno interno. Esto
es especialmente cierto en el caso de los medios (que representan a tres actores de
la sociedad civil en total), que generalmente comenzaron como sitios de noticias
independientes con énfasis en reportajes de investigación relacionados con temas
internos y luego agregaron el tema de la desinformación a sus agendas.
Del mismo modo, como en el caso checo, la difusión de bulos en Internet ya
había llamado la atención de la sociedad civil a principios del milenio. El sitio web
Urbanlegends ya había comenzado a mapear este tipo de historias en 2004
(Urbanlegends, sf). Sin embargo, la desinformación como amenaza a la seguridad
o, más ampliamente, como un fenómeno que podría poner en peligro la democracia,
no se introdujo hasta más tarde. Como se mencionó, uno de los actores clave en
este debate fue CSO Political Capital, que se centró en investigar temas relacionados
con políticas y que ya había comenzado a centrarse en
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA ENFRENTAR LA DESINFORMACIÓN... 241

ellos en 2010. Desde entonces, esta OSC lleva a cabo proyectos de investigación
centrados en campañas de propaganda y desinformación extranjeras (en
particular, rusas) y nacionales (Political Capital 2019). El Centro CSO para la
Integración y la Democracia Euroatlántica (sf) fue una organización asociada en
varios proyectos centrados únicamente en la guerra de información rusa entre
2016 y 2018.
Como se mencionó anteriormente, la atención de los medios dedicados al
fenómeno de la desinformación está relacionada principalmente con otras
disfunciones del gobierno húngaro, como la corrupción o el debilitamiento de las
instituciones democráticas. Un caso ilustrativo es un grupo de informes de
investigación del sitio web Átlátszó (Transparente), que comenzó a estar activo
en 2011 y proclama que su misión es principalmente reportajes de investigación,
trabajando con denunciantes y otros profesionales de vigilancia. Sin embargo, en
2017, Átlátszó añadió una nueva sección de propaganda gubernamental a su sitio
web centrada en la libertad de prensa y las campañas de desinformación locales
(Átlátszó, sf). Se podría contar una historia similar sobre otros medios de
comunicación, como Direkt36, creado en 2015 (Direkt36, sin fecha), o K­Monitor,
que llevó a cabo talleres sobre desinformación en 2019 (K­Monitor 2019). Estas
publicaciones de los medios se centraron principalmente en reportajes de
investigación, pero luego agregaron también el tema de la desinformación y la
propaganda a sus agendas.

8.4.3 Polonia

Como muestra la figura 8.1 , la dinámica de las iniciativas de la sociedad civil


polaca que abordan la desinformación alcanzó su punto máximo en 2017, con
catorce en total durante el período cubierto. El número de actores es bajo dado
que Polonia es más grande que los otros tres países juntos. La representación
proporcional de las OSC entre las categorías de actores de la sociedad civil es la
más alta de todos los países analizados. Sin embargo, para las OSC polacas la
desinformación sigue siendo un tema de interés bastante secundario en el que se
han involucrado principalmente debido a la participación en proyectos
transfronterizos o al interés de investigadores individuales. Estos factores
probablemente contribuyeron al hecho de que varias de las iniciativas que se
describen a continuación ya no estén activas. Otro rasgo destacable del debate
polaco sobre la desinformación es la diferente percepción del fenómeno. Si bien
las OSC suelen investigarlo en el contexto de las operaciones de influencia rusas,
la mayoría de los medios se han centrado en aquellas de origen nacional. Estas diferentes interp
Machine Translated by Google

242 J. SYROVÁTKA

y el contexto de desinformación ha dado lugar a que se apliquen diferentes


estrategias para abordar este problema.
Como en otros países, individuos e iniciativas más pequeñas de la sociedad
civil comenzaron a involucrarse primero en abordar la desinformación. En el
ámbito polaco, en 2014 se lanzó el proyecto de inspiración eslovaca 'Demagog'
con el fin de verificar los debates políticos (Demagog PL, sf), así como la rama
polaca de la iniciativa ucraniana 'StopFake' (StopFake, ndb).
En 2015 se lanzó la iniciativa 'Rosyjska V kolumna w Polsce' (Quinta columna rusa
en Polonia) con el objetivo de aumentar la conciencia sobre la propaganda rusa
en Polonia y desacreditar la desinformación.
Sin embargo, la iniciativa se detuvo en 2019 después de que el fundador del
proyecto fuera demandado por afirmaciones publicadas en el sitio de Facebook del
proyecto (WirtualneMedia 2019). En 2018 se lanzó la iniciativa 'Wojownicy
Klawiatury' (Luchadores de teclados) con el objetivo de desacreditar la
desinformación relacionada con la Unión Europea y promover una imagen positiva
de la misma (Partycypacja Obywatelska 2019).
La participación de las OSC polacas en la lucha contra la desinformación, como
se mencionó anteriormente, es inestable. La historia más reveladora es la de la
Cyber­security Foundation, cuya misión es aumentar la conciencia sobre diversas
amenazas relacionadas con el ciberespacio. Debido a esta especialización, puso
en marcha dos proyectos con el objetivo de concienciar sobre este tema: en 2015,
la cuenta de Twitter 'Disinfo Digest', que denuncia y desmiente la desinformación
en el entorno informativo, y, en 2017, un proyecto con un objetivo similar llamado '
Infoops Polonia' (Instituto de Varsovia 2018). Sin embargo, ambos proyectos fueron
supervisados por Kamil Basaj, quien dejó la fundación en 2018, deteniendo
efectivamente sus actividades relacionadas con la desinformación. Más tarde,
Basaj fundó su propia organización, INFO OPS Polska (Fundacja INFO OPS
Polska, sin fecha). Al igual que en la República Checa, las OSC polacas
establecidas y activas en la investigación sobre relaciones internacionales y
seguridad no adoptaron el tema de la desinformación en su agenda. Por ejemplo,
el Centro de Relaciones Internacionales llevó a cabo varios proyectos centrados
en la investigación de la desinformación en relación con las operaciones de
influencia rusa a partir de 2015, pero la mayoría de ellos dependían de la actividad
de un investigador, Antoni Wierzejskii (Centrum Stosunków Mi˛edzynarodowych ,
sin fecha). De manera similar, el Centro de Estudios Orientales, cuyo enfoque en
la política y la sociedad rusas podría haber llevado a un mayor interés en la
desinformación en relación con las operaciones de influencia rusas, aparte de
varios comentarios sobre este tema, no participó en el debate polaco. sobre la
desinformación. La única excepción es el Centro de Propaganda y Desinformación.
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 243

Análisis; Fundado en 2017, investiga la propaganda rusa (Centrum Analiz Propagandy i


Dezinformacji, sf). También cooperó con la Fundación Casimir Pulaski, que aumentó la
conciencia sobre el tema de la desinformación al incluirlo en la agenda del Foro de
Seguridad de Varsovia en 2018 y 2019 (Fundación Casimir Pulaski 2019).

Como la mayoría de las iniciativas polacas mencionadas anteriormente, el interés de


los medios se centró principalmente en la dinámica de este fenómeno en el debate
político interno. La única excepción a esta tendencia es el sitio de noticias
CyberDefence24, lanzado en 2016. Se centra principalmente en cuestiones relacionadas
con la seguridad y ha desempeñado un papel activo en aumentar la conciencia sobre
las operaciones de influencia rusa (CyberDefence 24, sf). Al igual que en Hungría,
algunas publicaciones en los medios fueron iniciadas por periodistas de investigación
centrándose en las malas prácticas gubernamentales y sólo más tarde agregaron el
tema de la desinformación a su cartera. Un ejemplo ilustrativo es el portal de noticias
independiente OKO.press, creado en 2017 centrado en el periodismo de investigación;
comenzó a escribir regularmente sobre desinformación en 2019 (OKO.press, sf). De
manera similar, la Fundación Reporteros, que brinda principalmente capacitación en
medios, inició su propio trabajo de investigación centrado en diversos temas, incluida la
desinformación, en 2016 (Fundacja reporterow, sf). El canal de televisión privado TVN24
lanzó el proyecto 'Kontakt24' en 2018 con el objetivo de abordar la desinformación local
mediante la promoción del periodismo de calidad y la verificación de datos (Kontakt 24,
sin fecha).

8.4.4 Eslovaquia

Entre los países analizados, Eslovaquia representa probablemente el ejemplo más


interesante. El número total de actores de la sociedad civil que luchan contra la
desinformación es el segundo más alto (26 en total). Aunque el año más dinámico en el
debate eslovaco sobre la desinformación fue 2017, cabe señalar que estuvo
estrechamente relacionado con otros temas que la sociedad civil ya había abordado, a
saber, el extremismo de derecha, que está en aumento en el país. El número de
personas e iniciativas más pequeñas que abordan la desinformación es el mayor de los
cuatro países analizados (15 en total) y comprende una amplia variedad de actores,
desde activistas civiles y blogueros independientes hasta desarrolladores de TI y
expertos en relaciones públicas. Debido a esta vitalidad, Eslovaquia podría considerarse
un centro de iniciativas de la sociedad civil que luchan contra la desinformación, a partir
de las cuales ideas y estrategias se están difundiendo por toda la región. Dada la
similitud de los idiomas, los hallazgos y resultados de los proyectos eslovacos se utilizan
predominantemente en
Machine Translated by Google

244 J. SYROVÁTKA

República Checa. Al mismo tiempo, Eslovaquia posee una vibrante comunidad


de OSC centradas en la investigación de cuestiones relacionadas con la seguridad
que han incorporado el tema de la desinformación en sus agendas. La innovación
del enfoque eslovaco para abordar la desinformación reside no sólo en el uso de
tecnologías digitales en su investigación del fenómeno, sino principalmente en la
capacidad de abordar la desinformación como tal y atacar las raíces de este
fenómeno mediante la promoción de la alfabetización mediática. desradicalizar a
la juventud o utilizar el humor.
Una de las corrientes en las que se inspiró el debate eslovaco sobre la
desinformación fueron las actividades centradas en monitorear a los extremistas
de derecha. Un ejemplo interesante de acción de la sociedad civil es el del
jubilado y ex ingeniero Ján Benˇcík, quien en 2012 empezó a descubrir en su
blog varias redes de conspiradores, principalmente relacionados con grupos de
extrema derecha. Más tarde, Benˇcík fue premiado por el presidente eslovaco.
por sus activas en 2016 (Deutsche Welle 2017). Otro actor importante fue el
periodista de investigación independiente Radovan Bránik, que mapea los
movimientos de extrema derecha y otras cuestiones relacionadas con la seguridad
(Bránik 2020). El papel de las teorías de conspiración entre los extremistas de
derecha eslovacos también fue un tema de interés para el politólogo Gregorij
Mesežnikov (IVO, sin fecha).4 Todos los individuos antes mencionados siguen
activos en el debate eslovaco sobre la desinformación y desempeñaron un papel
importante no sólo en sus inicios sino también en su desarrollo posterior.
'Demagog', una iniciativa que se ha centrado en la verificación de datos de
debates políticos desde su lanzamiento en 2010 (Demagog SK, sf), ha servido
como una importante inspiración para futuros proyectos en la región. Un punto de
inflexión significativo en el debate eslovaco sobre la desinformación se produjo
cuando el profesor de secundaria Juraj Smatana compiló la primera lista de sitios
web que difunden propaganda y desinformación prorrusas en 2015, enmarcando
así el debate sobre este tema (Šnídl 2015). En consecuencia, en 2016, el experto
en relaciones públicas Ján Urbanˇcík lanzó el sitio web Konšpirátori.sk
(Conspiradores) con el objetivo de socavar los beneficios obtenidos con los
anuncios en línea en sitios web que difunden contenidos problemáticos, incluida
la desinformación. Esta iniciativa también tuvo huella internacional ya que el navegador online c

4Según la categorización elegida, Radovan Bránik (como periodista) y Gregorij


Mesežnikov (como académico) deberían presentarse por separado como personas que
luchan contra la desinformación. Sin embargo, se mencionan aquí juntos porque es lógico
desde una perspectiva cronológica y ambos individuos son sólo ejemplos de actores de la
sociedad civil en su categoría dada.
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA ENFRENTAR LA DESINFORMACIÓN... 245

para proveedores comerciales (Sblog 2018). La lista de sitios web creada por
Konspirátori.sk también fue utilizada por la empresa de alojamiento web WebSupport,
que creó el complemento BS Detector de Google Chrome (ver Capítulo 5) en 2017
advirtiendo contra los sitios que difunden contenido problemático (Bullshit Detector,
sf). También se utilizaron medios digitales avanzados en el proyecto 'Blbec.online'
(Jerk.online), que extrae contenidos en tiempo real de páginas de Facebook
conocidas por difundir desinformación. Al hacerlo, ha podido advertir contra aquellos
que se vuelven virales desde 2017 (Blbec.online, sf). Otro proyecto digno de mención
que utiliza tecnologías digitales para combatir la desinformación es 'Checkbot', un
complemento de Facebook que ayuda a los usuarios a desacreditar la desinformación
en línea; fue producido por un equipo dirigido por Peter Janˇcárik de la empresa de
relaciones públicas Seesame en 2019 (Insight 2019). Varias iniciativas de la
sociedad civil abordaron el tema de manera más proactiva y comenzaron a desafiar
directamente la difusión de desinformación. Este es el caso del grupo #somtu
(#Iamhere), que, desde su creación en 2017, ha tenido como objetivo disminuir la
polarización en los debates en las redes sociales (Mikušoviˇc 2017). Slovenskí
elfovia (duendes eslovacos) comenzaron a estar activos en 2018 y, inspirados por
sus homólogos bálticos, se han centrado en exponer a los trolls en las redes sociales
(Brenier 2019). Como se mencionó, varias iniciativas intentaron abordar la cuestión
de la desinformación de manera más amplia, centrándose en las razones por las
que se induce a la gente a creerla. De manera similar, como en otros países
analizados, se lanzaron proyectos educativos centrados en la alfabetización
mediática ('Zmudri' (Get Wise) en 2018 (Zmudri, sin fecha)) y en la sensibilización
sobre el tema: 'Infosecurity' en 2019 (Infosecurity, sin fecha). .
Dado el estrecho vínculo entre la desinformación y el extremismo de derecha,
también se lanzaron varias iniciativas destinadas a desradicalizar a la juventud y
contrarrestar las narrativas extremistas y conspirativas: En 2016, el proyecto 'Mladi
proti fašismu' (Juventud contra el fascismo) (Mladi proti fašismu, sf) y, un año
después, el proyecto 'Sebavedome Slovensko' (Eslovaquia segura de sí misma)
(Sebavedome, nd). Una estrategia utilizada por la sociedad civil eslovaca se
diferencia de la de otros países cubiertos por el uso del humor y el sarcasmo para
ridiculizar las teorías de conspiración y sus diseminadores. Las dos iniciativas más
populares de este tipo son las páginas de Facebook 'Preco ludem hrabe' (Por qué
la gente se vuelve loca), lanzada en 2014, y 'Zomri' (Muere), lanzada en 2016.

El elevado número de actividades de la sociedad civil dirigidas por grupos más


pequeños e informales se refleja en la igualmente activa comunidad de OSC. La
primera OSC que empezó a centrarse en el tema de la desinformación fue Memo98,
que ha estado monitoreando el espacio de información antes de las elecciones en varios
Machine Translated by Google

246 J. SYROVÁTKA

países a nivel mundial desde 1998 (Memo98, sf). La rama eslovaca del Open Society Fund
inició proyectos centrados en abordar el discurso de odio en 2014 (Open Society Foundation
2015). Después de 2015, básicamente todas las OSC eslovacas que se ocupaban de
cuestiones relacionadas con la seguridad llevaron a cabo al menos un proyecto relacionado
con la desinformación, entendido principalmente en el contexto de las operaciones de
influencia rusa. El Instituto Eslovaco de Política de Seguridad lanzó el sitio web Antipropaganda
sobre este fenómeno en 2015 (Antipropa­ganda, sf). El Instituto de Política GLOBSEC
comenzó a involucrarse en el debate sobre la desinformación en 2015 y se convirtió en uno
de los faros de la investigación sobre este tema en Europa central. Sus recursos permitieron
a esta OSC realizar varios estudios de alcance internacional, como la encuesta de opinión
GLOBSEC Trends, que mapea la opinión pública sobre cuestiones políticas y de seguridad
en los países de Europa del Este. Se ha convertido en un importante creador de redes, con
una red transfronteriza de contactos, y en un promotor del debate sobre la desinformación,
especialmente al incluirlo en la agenda de la Cumbre GLOBSEC Tatra (Globsec, sf). En 2016,
el Instituto de Política Estratégica organizó varios eventos públicos sobre la guerra híbrida en
el flanco oriental de la OTAN y la guerra de información en Ucrania (Instituto de Política
Estratégica, sin fecha). Entre los proyectos llevados a cabo por la Asociación Eslovaca de
Política Exterior, el más significativo fue la plataforma informal del Foro Eslovaco contra la
Propaganda, creada en 2017 y que proporciona un espacio para que varios activistas se
reúnan y un centro para futuros proyectos de cooperación (Foro Eslovaco contra la
Propaganda , sin fecha). El Centro para Asuntos Europeos y del Atlántico Norte publicó un
análisis sobre la guerra de información como herramienta de la política exterior rusa en 2017
(Centro para Asuntos Europeos y del Atlántico Norte, 2019) y, en 2018, la rama eslovaca de
la OSC People in Need lanzó el proyecto 'Nenávistný skutok' (Acto lleno de odio) en el que
participan abogados que procesan casos de incitación al odio en Internet (Clovek v ohrozeni,
sf).

8.5 Resumen
Las actividades en curso de iniciativas de la sociedad civil que luchan contra la desinformación
representan un método ejemplar para estudiar las posibilidades y limitaciones de la
participación ciudadana activa en el ámbito de la seguridad. Existe un amplio consenso entre
expertos, funcionarios estatales y políticos sobre el hecho de que los individuos, organizaciones
e instituciones de la sociedad civil son actores importantes para superar los desafíos
relacionados con el actual desorden informativo y (en algunos casos) toman en cuenta sus
hallazgos. mientras
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 247

tomar decisiones políticas. Teniendo en cuenta las declaraciones anteriores, sorprende


lo poco que se ha hecho para proporcionar relatos sistemáticos de las iniciativas de la
sociedad civil que abordan la desinformación.
A pesar de la cantidad de similitudes entre los países analizados, el capítulo presenta
dos historias muy diferentes del enfoque de la sociedad civil hacia la desinformación.
Existe un vibrante debate sobre este tema en la República Checa y Eslovaquia, donde
los actores locales de la sociedad civil no sólo investigan el tema (normalmente con un
fuerte énfasis en las operaciones de información rusas) sino que también son capaces
de idear diversas soluciones innovadoras; formar coaliciones y redes, incluidas las
transfronterizas; lograr objetivos particulares; y en algunos casos también influyen en los
procesos de formulación de políticas. En ambos países, el tema de la desinformación se
ha integrado en las agendas de las OSC ya existentes centradas en la investigación de
cuestiones relacionadas con la seguridad, así como en las universidades.

Por el contrario, para la sociedad civil de Hungría y Polonia la cuestión de la


desinformación tiene una importancia bastante secundaria y no atrae mucha atención.
Para algunos actores de la sociedad civil (principalmente de los medios de comunicación),
la desinformación no se percibe como una amenaza externa sino más bien como producto
de una mala práctica gubernamental interna. Por supuesto, esto puede estar relacionado
con la situación política interna de estos países. El pequeño número de actores
involucrados y la importancia secundaria del tema complican la construcción de
coaliciones estables entre varios actores, lo que resulta en un menor número de proyectos
con menor sostenibilidad. Además, las estrategias elegidas para abordar la desinformación
tienden a ser bastante tradicionales y predeterminadas por la identidad de los actores.
La cantidad de enfoques e iniciativas es más bien producto de la cooperación
transfronteriza y no de un interés genuino en el tema por parte de los actores nacionales.

Las marcadas diferencias entre los actores de la sociedad civil en los países
analizados muestran que el interés en el tema de la desinformación y las estrategias para
abordar este fenómeno dependen en gran medida del contexto local. Este hecho debe
tenerse en cuenta al intentar trasplantar estas experiencias de lucha contra la
desinformación a diferentes contextos sociopolíticos fuera de Europa central. Este
capítulo proporciona evidencia convincente de que un enfoque único no es adecuado ni
siquiera dentro de una región coherente y, por lo tanto, se necesita un enfoque más
matizado respaldado por una investigación adecuada. Antes de encontrar formas
comunes de abordar la desinformación, es necesario comprender las especificidades y
el contexto nacional y asegurarse de que todos los actores de la sociedad civil perciban
el problema de la misma manera, lo que no siempre es así, incluso en países bastante
similares de Europa central. .
Machine Translated by Google

248 J. SYROVÁTKA

Agradecimientos El autor desea agradecer a Lóránt Gy˝ori, Marta Kowalska, Tomáš Kriššák, Jakub Tomášek y
Veronika Víchova por sus valiosos conocimientos.

Bibliografía

#JsmeTu. (#Estamos aquí). (Dakota del Norte). https://www.jsmetu.org/. Consultado el 3 de febrero.


2020.

Anheier, H. (2013). Sociedad Civil: “Medición, Evaluación, Política”. Londres:


Taylor y Francisco.
Antipropaganda. (Dakota del Norte). O nás [Acerca de nosotros]. https://antipropaganda.sk/o­nas/.
Consultado el 3 de febrero de 2020.

Átlátszó. (Dakota del Norte). Acerca de nosotros, Recaudación de fondos. https://english.atlatszo.hu/about­us­


fundraising/. Consultado el 24 de noviembre de 2019.
Bellingcat. (2019, 19 de junio). Identificación de los separatistas vinculados al derribo del MH17. Reino Unido y
Europa. https://www.bellingcat.com/news/uk­and­europe/2019/06/19/identifying­the­separatists­linked­to­the­
downing­of­mh17/ .
Consultado el 24 de noviembre de 2019.
ˇ
Blbec.online. (Dakota del Norte). Monitoring Extrémistov Na Sociálnych Sietach [Seguimiento de los extremistas
en las redes sociales]. https://blbec.online/preco. Consultado el 3 de febrero de 2020.

Branik, R. (2020). Blog.sme.sk. https://branik.blog.sme.sk/. Consultado el 3 de febrero.


2020.

Brenier, V. (13 de agosto de 2019). Slovenskí elfovia sa prihlásili k odstráneniu propagandistického videa
Kotlebovcov [Los elfos eslovacos anunciaron que son responsables de la eliminación del vídeo
propagandístico del partido político de Kotleba]. INFOSEGURIDAD.SK. https://infosecurity.sk/domace/livia­
a­elf ovia/. Consultado el 3 de febrero de 2020.

Detector de mierda. (Dakota del Norte). https://www.websupport.sk/en/bullshit­detector.


Consultado el 3 de febrero de 2020.

Caparini, M., Fluri, P. y Molnár, F. (2006). La sociedad civil y el sector de la seguridad: conceptos y prácticas en
las nuevas democracias. Münster: iluminado.
Fundación Casimir Pulaski. (2019). Sobre la desinformación del margen del Foro de Seguridad de Varsovia.
https://pulaski.pl/es/sobre­la­desinformación­del­margen­de­varsovia­foro­de­seguridad­2/. Consultado el 3
de febrero de 2020.
Cemper, J. (2019, 15 de noviembre). Projekt Fair Advertising upozor ˇnuje na nevhodnou inzerci na konspiraˇcních
webech. Spoleˇcnosti už reagují [Proyecto de publicidad justa llama la atención sobre la publicidad en sitios
de conspiración. Las empresas ya están respondiendo]. Manipulátoˇri. https://manipulatori.cz/pro jekt­fair­
advertising­upozornuje­na­nevhodnou­inzerci­na­konspiracnich­web ech­spolecnosti­uz­reaguji/. Consultado
el 3 de febrero de 2020.
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 249

Centro para la Integración y la Democracia Euroatlántica. (Dakota del Norte). Evaluación de las herramientas
de poder blando del Kremlin en Europa Central. http://ceid.hu/assessment­of­kre mlins­soft­power­tools­in­
central­europe/. Consultado el 24 de noviembre de 2019.
Centro de Asuntos Europeos y del Atlántico Norte. (2019). Guerra de información. http://www.cenaa.org/en/
research/information­warfare/news. Consultado el 3 de febrero de 2020.

Centrum Analiz Propagandy i Dezinformacji. (Dakota del Norte). Sobre la Fundación. https://
capd.pl/en/mission­and­goals. Consultado el 3 de febrero de 2020.
Centrum Stosunków Mi˛edzynarodowych. (Dakota del Norte). Proyectos. http://csm.org.pl/en/projects .

ˇ Consultado el 3 de febrero de 2020.


Clovek v ohrozeni. (Dakota del Norte). Na ˇco slúži táto stránka [El propósito de esta página web]. https://
nenavistnyskutok.sk/blog/co­je­ns. Consultado el 3 de febrero de 2020.
Collins, A. (2010). Estudios de seguridad contemporáneos. Oxford: Universidad de Oxford
Prensa.

Diálogo cibernético. (2019). Ciberdiálogo: ciudadanos activos contra las falsificaciones y el odio en línea. https://
www.cyberdialogue.cz/. Consultado el 24 de noviembre de 2019.
Ciberdefensa24. (Dakota del Norte). Bezpiecze ´nstwo Informacyjne CyberDefence24.Pl. https://
www.cyberdefence24.pl/bezpieczenstwo­informacyjne/. Consultado el 3 de febrero de 2020.

Damarad, V. y Yeliseyeu, A. (Eds.). (2018). Índice de resiliencia a la desinformación.


Kyiv: Prisma ucraniano.
Daniel, J. y Eberle, J. (2018). Guerreros híbridos: transformando la seguridad checa a través del conjunto de
la 'guerra híbrida rusa'. Sociologicky Casopis, 54(6), 907–931.

Demagogo CZ. (Dakota del Norte). O Nás [Quiénes somos]. https://demagog.cz/stranka/o­nas.


Consultado el 3 de febrero de 2020.

Demagogo PL. (Dakota del Norte). Stowarzyszenie. https://demagog.org.pl/stowarzyszenie­demagog­pierwsza­


w­polsce­organizacja­factcheckingowa/. Consultado el 3 de febrero de 2020.

Demagogo SK. (Dakota del Norte). O Nás [Quiénes somos]. https://demagog.sk/o­nas/. Accedido
3 de febrero de 2020.

Deutsche Welle. (2017, 13 de junio). Blogs de pensionistas eslovacos contra los neonazis. https://www.dw.com/
en/slovak­pensioner­blogs­against­neo­nazis/av­396 26676. Consultado el 3 de febrero de 2020.

Dezimatriz. (Dakota del Norte). Nuevas formas de prevenir la desinformación. https://www.dezimatrix.org/ .


Consultado el 3 de febrero de 2020.
Diamante, LJ y Morlino, L. (2005). Evaluación de la calidad de la democracia.
Baltimore: Prensa de la Universidad Johns Hopkins.
Directo36. (Dakota del Norte). Conexión rusa. https://www.direkt36.hu/en/category/
orosz­kapcsolatok/. Consultado el 3 de febrero de 2020.
Machine Translated by Google

250 J. SYROVÁTKA

Dufkova, K. y Hofmeisterova, P. (Eds.). (2018). Características de la propaganda pro­Kremlin en Europa


central y oriental y ejemplos prácticos de cómo abordarla. Brno: Nesehnutí.

Comisión Europea. (2018). Plan de Acción contra la Desinformación. Bruselas: Alto Representante de la
Unión para Asuntos Exteriores y Política de Seguridad.
Casa de la libertad. (2019). Libertad en el Mundo 2019. https://freedomhouse. org/report/freedom­world/
freedom­world­2019. Consultado el 3 de febrero de 2020.
Fried, D. y Polyakova, A. (2018). Defensa Democrática contra la Desinformación.
Washington: Consejo Atlántico.
Fundacja INFO OPS Polonia. (Dakota del Norte).
´ Fundacja Info Ops Polska. Projekt Na Rzecz Zapewnienia
Bezpiecze ´nstwa Srodowiska Informacyjnego . http://infoops.pl/.
Consultado el 3 de febrero de 2020.

Reportero de Fundacja. (Dakota del Norte). Sobre nosotros. https://fundacjareporterow.org/es/abo


ut­nosotros/. Consultado el 3 de febrero de 2020.

Gerasymchuk, S. y Maksak, H. (2018). Ucrania: Índice de resiliencia a la desinformación. Índice de


resiliencia a la desinformación. http://prismua.org/en/english­ukr aine­disinformation­resilience­index/.
Consultado el 3 de febrero de 2020.
Secglobal. (Dakota del Norte). Proyectos. https://www.globsec.org/projects/. Consultado el 3 de febrero.
2020.

Gregor, M., Vejvodová, P. y Zvol si info. (2018). Nejlepší kniha o fake news, dezinformacích a manipulacích!!!
Praga: CPRESS.
Hajdu, D. y Klingová, K. (2018). ¿Del campo de batalla online a la pérdida de confianza?
Percepciones y hábitos de la juventud en ocho países europeos. Bratislava: Instituto de Política
GLOBSEC.
HOAX.CZ. (Dakota del Norte). https://hoax.cz/cze/. Consultado el 3 de febrero de 2020.
Infoseguridad. (Dakota del Norte). O Stránke [Acerca de la página web]. https://infosecurity.sk/o­stranke/.
Consultado el 3 de febrero de 2020.
Conocimiento. (27 de marzo de 2019). Checkbot je slovenský chatbot, který lidem pomáhá odhalovat fake
news [Checkbot es un chatbot eslovaco que ayuda a desacreditar noticias falsas]. https://www.insight.cz/
2019/03/27/checkbot­je­slovensky­chatbot­ktery­lidem­pomaha­odhalovat­fake­news/. Consultado el 3
de febrero de 2020.
Instituto de Política y Sociedad. (Dakota del Norte). Miembro—Roman Máca. https://www. politikaspolecnost.cz/
es/quiénes­somos/roman­maca­2/#main. Consultado el 3 de febrero de 2020.

IVO. (Dakota del Norte). Inštitút pre verejné otázky [Instituto de Asuntos Públicos]. http://www. ivo.sk/165/
sk/pracovnici/grigorij­meseznikov. Consultado el 3 de febrero de 2020.
Janda, J. y Víchová, V. (Eds.). (2018). El manual de Praga. Vigilancia del Kremlin. https://www.kremlinwatch.eu/
our­reports/. Consultado el 3 de febrero de 2020.
Jeden svˇet na školách. (Dakota del Norte). Publikace a metodické pˇríruˇcky k mediál­nímu vzdˇelávání
[Publicaciones y materiales metódicos para la alfabetización mediática]. https://www.jsns.cz/projekty/
medialni­vzdelavani/materialy/pub likace. Consultado el 3 de febrero de 2020.
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 251

K­Monitor. (2019). Encuentro de Outriders en Budapest: desinformación. https://www.kmonitor.hu/article/


20190316­outriders­meetup­in­budapest­disinf ormation. Consultado el 3 de febrero de 2020.

Kohút, M. y Rychnovská, D. (2018). La batalla por la verdad: mapeo de la red de expertos en guerra de
información en la República Checa. Nuevas perspectivas, 26(3), 1–37.

Contacto 24. (sin fecha). Oh Serwisie. https://kontakt24.tvn24.pl/o­serwisie.htm.


Consultado el 3 de febrero de 2020.

Vigilancia del Kremlin. (2018). 2018 Ranking de contramedidas de la UE28 a las operaciones de subversión del
Kremlin. Valores europeos. https://www.europeanvalues.net/vyzkum/2018­ranking­countermeasures­eu28­
kremlins­subversion­operatives/ . Consultado el 3 de febrero de 2020.

ˇ
Kundra, O. (28 de febrero de 2015). Putin ˚uv hlas v Cesku [La voz de Putin en Chequia]. Respeto. https://
www.respekt.cz/z­noveho­cisla/putinuv­hlas­v­cesku. Consultado el 3 de febrero de 2020.

Manipulátoˇri. (2020). Manipulátoˇri.cz mají nový web a chystají rozšíˇrení [ Manipulatori.cz tiene nuevo sitio
web y prepara extensión]. https://manipulat ori.cz/manipulatori­cz­maji­novy­web­a­chystaji­rozsireni/.
Consultado el 3 de febrero de 2020.

Nota 98. (Dakota del Norte). Sobre nosotros. http://memo98.sk/p/o­nas. Consultado el 13 de enero de 2021.
Mikušoviˇc, D. (27 de junio de 2017). #Somtu: Ako Mladí Slováci Prinášajú
Slušnosˇt a Fakty Do Nenávistných Diskusií [#EstoyAquí: Cómo los jóvenes eslovacos aportan cortesía y
hechos en discusiones llenas de odio]. Denník N. https://dennikn.sk/792819/somtu­ako­mladi­slovaci­
prinasaju­slusnost­a­fakty­do­nenavistnych­diskusii/. Consultado el 3 de febrero de 2020.

Ministerio del Interior de la República Checa. (2016). Auditoría de Seguridad Nacional.


Mladi proti fašismu. (Dakota del Norte). O projekte [Acerca del proyecto]. https://mladiprotifa
sizmu.sk/o­projekte/. Consultado el 13 de enero de 2021.
Nadace OSF. (Dakota del Norte). Podpoˇrené Projekty [Proyectos apoyados]. https://osf.cz/
podporene­projekty/. Consultado el 3 de febrero de 2020.
Nadaˇcní fond nezávislé žurnalistiky. (Dakota del Norte). Již ukonˇcené projekty [Completado https://www.nfnz.cz/
Proyectos]. podporene­projekty/jiz­ukoncene­pro
jekty/. Consultado el 3 de febrero de 2020.
Neovlivní. (2016). Databáze proruského obsahu od AZ [Base de datos de contenidos prorusos de la A a la Z].
https://neovlivni.cz/databaze­proruskeho­obsahu­od­az/. Consultado el 3 de febrero de 2020.

Nimmo, B. (2015). El caso de la defensa de la información: una estrategia preventiva para hacer frente a las
nuevas guerras de desinformación. En Legatum Institute (Ed.), Información en guerra: de las tres guerras
de China a las narrativas de la OTAN.
Nutil, P. (2018). Média, lži a pˇríliš rychlý mozek: Pr ˚uvodce postpravdivým svˇetem [Medios, mentiras y cerebro
demasiado rápido: guía a través del mundo posfactual].
Praga: Grada.
Machine Translated by Google

252 J. SYROVÁTKA

OKO.presione. (Dakota del Norte). Propaganda. https://oko.press/tag­rzeczowy/propaganda/.


Consultado el 3 de febrero de 2020.

Fundación Sociedad Abierta. (2015). Campaña DÍLO EN MI CARA. https://osf.sk/en/aktuality/kampan­


povedz­mi­to­do­oci/ . Consultado el 3 de febrero de 2020.
Universidad Palacký de Olomouc. (2019). Euforka: UP a další vysoké školy chtˇejí lépe informovat o
Evropˇe [Euforka: UP y otras universidades quieren comunicarse mejor sobre Europa]. https://
www.upol.cz/nc/zpravy/zprava/clanek/euforka­up­a­dalsi­vysoke­skoly­chteji­lepe­informovat­o­
evrope/ .
Consultado el 24 de noviembre de 2019.

Partidocypacja Obywatelska. (2019, 14 de febrero). Wojownicy Klawiatury – społeczno´s´cw walce z fake


newsami [Wojownicy Klawiatury—La comunidad lucha contra las noticias falsas]. https://
partycypacjaobywatelska.pl/wojownicy­kla wiatury­spolecznosc­w­walce­z­fake­newsami/. Consultado
el 3 de febrero de 2020.
Pesenti, M. y Pomerantsev, P. (2016). Cómo detener la desinformación. Instituto Legatum. https://
lif.blob.core.windows.net/lif/docs/default­source/publications/how­to­stop­disinformation­lessons­from­
ukraine­for­the­wider­world . pdf?sfvrsn=0. Consultado el 3 de febrero de 2020.

Instituto de Estudios de Seguridad de Praga. (Dakota del Norte). Las actividades de influencia de Rusia
en ECO. http://www.pssi.cz/russia­s­influence­activities­in­cee. Consultado el 3 de febrero de 2020.

Capital política. (2019). Teorías de conspiración y noticias falsas. https://www.politi calcapital.hu/


conspiracy_theories_and_fake_news.php. Consultado el 3 de febrero de 2020.
Poljakov, N., Prchal, L. y Zelenka, J. (2017). Dezinformace: co pro vás znamenají lži? [Desinformación:
¿Qué significan las mentiras para usted?]. https://zpr avy.aktualne.cz/domaci/valka­dezinformace­
fake­news/r~7bfb35b23bb311e 7886d002590604f2e/. Consultado el 3 de febrero de 2020.
ˇ
Rehka, K. (2017). Informaˇcní válka [Guerra de la información]. Praga: Academia.
Romea. (2018, 5 de noviembre). Los trolls checos de Internet tienen competencia: los “duendes”
Están luchando contra la desinformación y la propaganda. http://www.romea.cz/en/news/world/czech­
internet­trolls­have­competition­elves­are­combating­dis information­and­propaganda. Consultado
el 24 de noviembre de 2019.
Rozsypal, M. (9 de octubre de 2019). Alvarová: Lež je pro každého vždy nˇeˇcím sexy a vždy je
atraktivnˇejší než pravda [La mentira es siempre sexy para todos y siempre más atractiva que la
verdad]. iRozhlas. https://www.irozhlas. cz/zivotni­styl/spolecnost/alexandra­alvarova­prpaganda­
dezinformace­fake­news_1910091950_pj. Consultado el 3 de febrero de 2020.

Blog. (2018, 2 de febrero). Sklik nabídne klient ˚um možnost neinzerovat na webech oznaˇcených
iniciativou Konšpirátori.sk jako dezinformaˇcní [Sklik ofrecerá a sus clientes la opción de no
anunciarse en sitios web identificados como desinformación por Konspirátori.sk]. https://
blog.seznam.cz/2018/02/sklik­nabidne­klientum­moznost­neinzerovat­webech­oznacenych­iniciativou­
kon spiratori­sk­jako­dezinformacni/. Consultado el 3 de febrero de 2020.
Machine Translated by Google

8 INICIATIVAS DE LA SOCIEDAD CIVIL PARA LUCHAR CONTRA LA DESINFORMACIÓN... 253

Sebavedome. (Dakota del Norte). O Nás [Sobre nosotros]. http://sebavedome.sk/o­nas/. Accedido


3 de febrero de 2020.

Visiones semánticas. (2019). Semantic Visions gana un desafío tecnológico de 250.000 dólares para
combatir la desinformación. https://semantic­visions.com/semantic­visions­wins­250000­tech­
challenge­to­combat­disinformation/ . Consultado el 3 de febrero de 2020.

Foro Eslovaco contra la Propaganda. (Dakota del Norte). http://www.sfpa.sk/projects/sloven


ske­forum­proti­propagande/. Consultado el 3 de febrero de 2020.
DetenerFalso. (sin fecha). O nás [Sobre nosotros]. https://www.stopfake.org/cz/o­nas­2/.
Consultado el 3 de febrero de 2020.

DetenerFalso. (ndb). Najnowsze informacje o nas. https://www.stopfake.org/pl/category/najnowsze­


informacje­o­nas/ . Consultado el 3 de febrero de 2020.
Instituto de Política Estratégica. (Dakota del Norte). Proyectos. https://stratpol.sk/projects/. Accedido
3 de febrero de 2020.

Šnídl, V. (26 de febrero de 2015). Proruskú propagandu o zhýralom Západe u nás šíri 42 webov [La
propaganda prorrusa sobre el Occidente decadente se está extendiendo a través de 42 sitios web].
Denník N. https://dennikn.sk/57740/pro rusku­propagandu­o­zhyralom­zapade­u­nas­siri­42­webov/.
Consultado el 3 de febrero de 2020.

Táborský, J. (2019). V síti (dez)informací [En la Red de la (Des)Información]. Praga: Grada.

Transiciones. (2018). Desmentir la desinformación en las universidades de la tercera edad. https://


www.tol.org/client/project/27365­debunking­disinformation­at­third­age­universities.html. Consultado
el 24 de noviembre de 2019.
Urbanlegends.hu. (Dakota del Norte). http://www.urbanlegends.hu/. Consultado el 3 de febrero de 2020.
Instituto de Varsovia. (2018). En la era de la posverdad: mejores prácticas para combatir la
desinformación. https://warsawinstitute.org/age­post­truth­best­practices­fig hting­disinformation/.
Consultado el 3 de febrero de 2020.
Winkler, M. y Pazdersky, M. (sin fecha). Používej MoZeK [Usa el cerebro].
Moravská zemská knihovna. https://www.mzk.cz/pouzivej­mozek. Consultado el 3 de febrero de
2020.
WirtualneMedia. (2019, 11 de octubre). Fundacja otwarty dialog zło˙zyła 20 pozwów. Chce 1,7 millones
de Zł de TVP, Polskiego Radia, Fratrii, Sakiewicza i Polityków PiS. https://www.wirtualnemedia.pl/
artykul/fundacja­otwarty­dia log­zlozyla­w­sumie­20­pozwow­m­in­tvp­polskie­radio­fratrie­i­tomasza­
sak iewicza?fbclid= IwAR0omUMPalg­vkdEna8qZ9­8576fqBAiqhCkkUn­fJnEfu l5KygVP7­VkPk.
Consultado el 3 de febrero de 2020.

Zmudri. (Dakota del Norte). Nauˇc Sa Veci Potrebné Pre Život [Aprender cosas importantes para la vida].
https://zmudri.sk/#section­about­project. Consultado el 3 de febrero de 2020.
Machine Translated by Google

CAPÍTULO 9

Conclusión

Miloš Gregor y Petra Mlejnková

El mundo está siendo testigo de un impresionante y rápido desarrollo


tecnológico, incluido el desarrollo del espacio virtual que se considera, por un
lado, una herramienta de democratización social y, por el otro, una herramienta
de empoderamiento, que permite a las sociedades estar más informadas y,
por lo tanto, , más resiliente ante la mentira y la manipulación. Sin embargo,
creer en tal causalidad es falso e ingenuo. Es cierto que el desarrollo
tecnológico ha traído cosas asombrosas a nuestras vidas, que ha creado una
ventana de oportunidad para procesos de democratización en muchos
espacios alrededor del mundo y que ha potenciado muchas iniciativas para
mejorar nuestras vidas. Pero este proceso también tiene un lado oscuro. Así
como ha brindado nuevas oportunidades para mejorar la calidad de nuestra
existencia y la gobernanza de nuestras sociedades, también ha brindado las mismas oportu

M. Gregor ∙ P. Mlejnková (B)


Departamento de Ciencias Políticas, Facultad de Estudios Sociales, Universidad
Masaryk, Brno, Chequia correo
electrónico: mlejnkova@fss.muni.cz

Correo
electrónico del Sr. Gregor: mgregor@fss.muni.cz

© El autor(es), bajo licencia exclusiva para Springer Nature Switzerland 255


AG 2021 M. Gregor y P.
Mlejnková (eds.), Desafiando la propaganda y la desinformación en
línea en el siglo XXI, campañas políticas y comunicación, https://
doi.org /10.1007/978­3­030­58624­9_9
Machine Translated by Google

256 M. GREGOR Y P. MLEJNKOVÁ

aquellos con intenciones malvadas motivadas por el lucro. Y es aquí donde


apuntamos nuestro volumen editado.
Basándonos en la experiencia y la investigación de nuestro equipo de
autores, hemos introducido en este libro amenazas y desafíos relacionados con
los antiguos y conocidos fenómenos de la desinformación y la propaganda,
realzados, sin embargo, por el nuevo aspecto de estar en línea. Este libro no fue
escrito con el objetivo de sembrar miedo y pánico. Más bien, el propósito del
volumen era discutir los desafíos actuales y reflexionar sobre los nuevos
desarrollos y las posibles amenazas que nos vemos obligados a enfrentar de
una manera realista. Es obvio que no hemos cubierto todas las áreas relevantes
al tema investigado; sin embargo, creemos haber aportado una visión
multidisciplinaria y relevante. La importancia de los temas discutidos quedó
inesperadamente confirmada al terminar este libro. El mundo se enfrenta ahora
a la pandemia de COVID­19 (aunque esperamos que al leer esto la pandemia
esté llegando o haya llegado a su fin), y hemos vuelto a ver medios de
desinformación difundiendo historias sobre el coronavirus cultivado artificialmente
en laboratorios estadounidenses y difundido intencionalmente en China; utilizar
la epidemia con el fin de difundir el odio hacia los inmigrantes en Europa, así
como en los Estados Unidos; o hacer circular instrucciones 'totalmente
verdaderas' en un espacio virtual sobre cómo prevenir y curar el COVID­19,
como beber vino tinto o desinfectantes (ver Lilleker y Gregor 2021).
La actual desinformación y propaganda en línea explota las vulnerabilidades
en múltiples niveles: al nivel de (1) la información misma, al nivel de (2) la
audiencia objetivo, al nivel de (3) las redes y conexiones entre los usuarios del
espacio virtual, y finalmente , a nivel de (4) sistemas en su conjunto, como los
sociales, legales o políticos. En todos estos niveles, es posible manipular y
abusar de las debilidades. El carácter de la virtualidad, sin embargo, también
afecta profundamente al mundo fuera de línea. Las esferas online y offline de
nuestras vidas están intensamente interconectadas y se influyen mutuamente,
lo cual es necesario tener en cuenta al considerar las medidas.
Debido al desarrollo técnico y al cambio en el entorno de la información,
quienes manipulan mediante operaciones de desinformación y propaganda han
podido mejorar sus tácticas y estrategias: pueden utilizar las nuevas herramientas
manteniendo los métodos antiguos, probados y verdaderos. Nuevos actores con
nuevos roles han entrado en este entorno de información modificado. El papel
tradicional de los guardianes que evalúan la calidad de la información se ha
erosionado y, básicamente, cualquiera que sepa cómo administrar un blog, un
vlog o una cuenta de redes sociales puede convertirse en un
Machine Translated by Google

9 CONCLUSIÓN 257

Fuente de información. Las redes sociales han cambiado mucho el entorno de la


información, pero no únicamente. El periodismo digital ha llevado a un rápido
crecimiento en el panorama de los medios, incluidos los medios que brindan noticias
falsas y las venden como los llamados hechos alternativos o verdades reales.
El desarrollo técnico también permite interferir en el comportamiento social mediante
el uso de algoritmos. Con base en nuestras actitudes virtuales y el comportamiento y
las redes en las que estamos activos, dichos algoritmos pueden predecir qué les
podría gustar más a los usuarios individuales y decidir a qué estarán expuestos.
Puede que no lo sepamos, pero estos algoritmos y las cámaras de eco que estimulan
contribuyen a la radicalización de las creencias y actitudes de las personas.
También se puede abusar de los algoritmos con fines de microfocalización y, por tanto,
hacer más eficiente la influencia de la desinformación y la propaganda. Cada usuario
podría obtener contenido más o menos personalizado, y mucho más en el futuro. Pero
esto también viene dado por el hecho de que los usuarios contribuyen a este abuso
algorítmico al proporcionar descuidadamente demasiada información personal. En
este sentido, recordamos como ejemplar el caso de Cambridge Analytica.

La siguiente etapa y futuro cercano de la manipulación a través de instrumentos


tecnológicos pasa por el uso de inteligencia artificial y herramientas basadas en
aprendizaje automático profundo, como los deepfake o identidades virtuales falsas.
Representan un desafío técnico y un desafío para las capacidades cognitivas
humanas porque, sin soporte técnico, no será posible detectar si un material ha sido
manipulado o es real. Dada la cantidad de dicho material que se produce y consume
diariamente, no está dentro de la capacidad humana detectarlos y distinguirlos. Se
necesita inteligencia artificial para reconocer materiales producidos por inteligencia
artificial. Sin embargo, a pesar de la posibilidad de que la credibilidad de la información
se evalúe automáticamente basándose en la identificación del estilo del texto (en el
caso de material escrito), las características del flujo de información, la credibilidad de
la fuente o la verificación exacta de los hechos, las salvaguardias finales hasta ahora
siguen a merced de vulnerabilidades psicológicas y cognitivas humanas.

Los cambios descritos en el entorno de la información motivan a los actores que


utilizan la desinformación y la propaganda a utilizar nuevas tácticas y estrategias para
alcanzar sus objetivos. Hemos escrito sobre la relativización y la sobrecarga del
espacio informativo con información diferente, a menudo contradictoria y falsa. Esto
puede denominarse niebla de información o ruido de información. En tales condiciones,
es mucho más fácil erosionar la confianza en cualquier cosa o en cualquier persona o
empujar a las personas a renunciar a sus esfuerzos por estar informadas y activas.
Actualmente, el gran desafío parece ser lo que se describe como la
Machine Translated by Google

258 M. GREGOR Y P. MLEJNKOVÁ

era de la posverdad, que se caracteriza por una menor confianza en las opiniones de los expertos, la
creencia en hechos alternativos y la relativización de casi todo.
Es una era en la que los expertos deben entrar en extrañas disputas no sobre qué
Es verdad, pero lo que es un hecho.
La adaptación de los sistemas y sociedades democráticos al nuevo entorno
informativo es el objetivo final en ese contexto. Residencia en
De lo investigado destacamos la necesidad de una visión centrada en la sociedad.
acercarse. Este enfoque pone de relieve la desinformación y la propaganda.
como amenazas diseñadas para influir en las habilidades cognitivas de los humanos como objetivos.
En el entorno en línea, los actores estatales y no estatales participan en una
carrera continua para influir y proteger de los grupos de influencia en línea
usuarios (Kelton et al. 2019). Son los humanos afectando y actuando contra otros.
humanos.
Por tanto, la protección de los seres humanos parece crucial para la adaptación de
los sistemas democráticos. Sin embargo, la protección podría evocar pasividad.
del lado de los actores bajo influencia potencial; por eso es mejor
hablar de resiliencia. La resiliencia puede adoptar diferentes formas y puede ser
relacionado con diferentes aspectos del sistema, pero, cuando se ve a través de la lente
de un enfoque centrado en la sociedad, se refiere a la resiliencia humana/social. Humano
la resiliencia va al nivel micro, mientras que la resiliencia social es el nivel meso; sin
embargo, en caso de información maliciosa, los derechos humanos y sociales
la resiliencia están intensamente interconectadas y no tiene mucho sentido
para separarlos. Identificamos cuatro niveles a los que es importante pagar
atención profunda, cuatro niveles que convierten la resiliencia humana y social en un
concepto más tangible. Entre ellos, este volumen editado identificó desafíos importantes
para las democracias contemporáneas en (1) resiliencia cognitiva,
(2) arreglo institucional, (3) operación tecnológica y (4) legal
estructura.
La resiliencia cognitiva es probablemente el nivel más desafiante y, al mismo tiempo,
es probablemente el que se refleja con mayor frecuencia en la psicología y la literatura
educativa. Éste es el único nivel directamente relacionado con el individuo y con su
capacidad para interpretar la realidad social. Resiliencia cognitiva
sirve para evitar que la desinformación y la propaganda echen raíces y
siendo interiorizado por el público objetivo. Se relaciona con visiones del mundo y
esquemas interpretativos, dando sentido a la información y afectando
proceso de toma de decisiones (Bjola y Papadakis 2020; Hansen 2017).
La calidad de la resiliencia cognitiva a nivel individual influye directamente en la calidad
de la resiliencia social. La construcción de tal resiliencia
Machine Translated by Google

9 CONCLUSIÓN 259

recae predominantemente sobre los hombros de la educación y la formación de


capacidades en el ámbito cognitivo (impartida por el sistema educativo y la
sociedad cívica).
Los otros tres niveles (institucional, tecnológico y legal) se refieren a la
respuesta más sistemática y coordinada del Estado/régimen/comunidad a la
desinformación y propaganda en línea y su apoyo a los esfuerzos para construir
resiliencia cognitiva. A nivel institucional, se trata del marco de cooperación
multiinstitucional y multidisciplinario. Como demostramos a lo largo de los capítulos,
aunque la desinformación y la propaganda representan un problema global, es
necesario prestar atención al contexto local, tanto desde la perspectiva de las
amenazas como de las medidas. Los diferentes contextos tienen un impacto en la
forma del sistema de respuesta y las medidas tomadas para enfrentar tal amenaza.
En lugar de buscar una fórmula universal ganadora, es crucial comprender las
complejidades de las sociedades y regímenes que pretendemos proteger. Por
supuesto, este consejo no es válido sólo para entornos institucionales, sino para
todas las áreas donde se planea implementar medidas y contramedidas.

Los límites legales y tecnológicos están aquí porque la construcción de


resiliencia cognitiva tiene sus límites naturales. El desarrollo tecnológico que da
forma a la desinformación y la propaganda en línea ha traspasado nuestras
capacidades cognitivas para reconocer lo que es real y lo que es falso; el entorno
de la información puede ser demasiado complicado y, por tanto, demasiado
costoso (en términos de tiempo y recursos) para orientarse en él. Las medidas
legales y tecnológicas tienen el potencial de apoyar nuestra resiliencia cognitiva e
impulsar la resiliencia humana y social. En cuanto a la tecnología, uno de los
desafíos es aprender a aprovechar las oportunidades y los datos existentes en el
espacio virtual. Discutimos específicamente casos de herramientas analíticas y
de detección, así como evidencia digital como resultado de dichas herramientas en el contexto e
Las computadoras tienen la capacidad de detectar y analizar datos de una manera
mucho más rápida y en volúmenes mucho mayores; sin embargo, una de las
barreras es la confianza que se les da a las computadoras. Además, las
herramientas operan con datos incompletos y inevitablemente deben funcionar
con un nivel no despreciable de incertidumbre y falta de explicabilidad. Aquí
discutimos el papel de un testigo experto, un practicante forense digital que
cumple el papel crucial de transformar los datos recopilados en evidencia
electrónica. Esta mediación e interpretación humana nos devuelve a la necesidad
de resiliencia cognitiva entre los individuos. El argumento de la resiliencia cognitiva
se potencia incluso desde el nivel tecnológico y jurídico.
Machine Translated by Google

260 M. GREGOR Y P. MLEJNKOVÁ

Desde la perspectiva jurídica, la cuestión de la libertad de expresión es una


parte crucial del debate. Esto exige entonces altos estándares de confiabilidad en
las medidas y herramientas destinadas a etiquetar el discurso como
desinformación y propaganda. En el contexto europeo, concluimos que los
esfuerzos contra la desinformación definida de manera amplia o genérica
probablemente serían inadmisibles según el Convenio Europeo de Derechos
Humanos, y a este respecto se debe realizar una evaluación de las expresiones
caso por caso. Es principalmente el riesgo de falsos positivos el que actúa como
obstáculo. Por tanto, la actividad regulatoria se está trasladando a la actuación de
los proveedores de servicios de hosting, dado que comparten la responsabilidad
sobre los contenidos por su papel de facilitar su difusión.
Y una cosa más. Hay otro aspecto relacionado con la resiliencia humana/
social, que también se deriva del enfoque centrado en la sociedad: la protección
de las redes. En lugar de una comprensión estrecha de las redes como
simplemente redes, alambres y cables de telecomunicaciones, consideramos las
redes como conexiones entre usuarios en línea. Incluye un paisaje virtual de
usuarios y el vínculo virtual a través del cual pueden interactuar entre sí. Este
panorama se compone de soluciones tecnológicas (TIC, redes sociales), así como
del aspecto social de las redes. Las TIC ya se consideran críticas en la política de
seguridad, y es de conocimiento común que las TIC pertenecen a los elementos
de la infraestructura crítica. Estos elementos son tan cruciales para el sistema
que su incapacitación o destrucción tendría un impacto grave en la seguridad del
Estado, la seguridad física o económica y la salud o seguridad públicas.

Los aspectos tecnológicos y las posibilidades del espacio virtual han permitido
a los propagandistas y desinformadores ir un paso más allá, y la desinformación
y la propaganda en línea ya no se concentran exclusivamente en la difusión de
contenidos. La verdadera ventaja estratégica no reside en la creación de contenido
manipulativo funcional. Más bien, es control sobre la red a través de la cual se
difunde la información y que luego puede ser utilizada en cualquier momento por
el actor que controla dicha red. Estamos considerando aquí la protección
infraestructural de las conexiones entre los individuos y las redes en las que están
organizados (virtualmente y, en consecuencia, también físicamente). El riesgo
es muy alto porque el auge y la amplia aceptación de las redes sociales las
convierten en la principal fuente de recopilación masiva de datos sociales a través
de Internet y permiten una comprensión cada vez más rica del comportamiento
social. El comportamiento social ahora es directamente observable a bajo costo.
Es fácil observar incluso comunidades pequeñas y probar sus reacciones ante
diferentes estímulos (Hwang 2019). Es posible apuntar a las conexiones.
Machine Translated by Google

9 CONCLUSIÓN 261

entre grupos y apuntar a la estructura y la intensidad de las conexiones.


Controlar las redes significa acceder a la posibilidad de conectar individuos y
grupos que probablemente nunca se encontrarían en el mundo fuera de línea.
Proporciona oportunidades para manipular el panorama de las conexiones y
apuntar a los vínculos sociales. Además, surge la pregunta: ¿no es hora de que
las redes sociales y la integridad de los datos sean reconocidas como un activo
estratégico y, por lo tanto, como un elemento de infraestructura crítica?

Bibliografía

Bjola, C. y Papadakis, K. (2020). Propaganda digital, contrapúblicos y la disrupción


de la esfera pública: el enfoque finlandés para desarrollar la resiliencia digital.
Cambridge Review of International Affairs, primero en línea.
Hansen, FS (2017). Guerra híbrida rusa: un estudio de la desinformación.
Copenhague: Instituto Danés de Estudios Internacionales.
Hwang, T. (2019). Maniobra y manipulación: sobre la estrategia militar de la guerra
de información en línea. Carlisle: Instituto de Estudios Estratégicos y EE.UU.
Escuela de Guerra del Ejército.

Kelton, M., Sullivan, M., Bienvenue, E. y Rogers, Z. (2019). Australia, la utilidad de


la fuerza y la sociedad. Asuntos internacionales, 95(4), 859–876.
Lilleker, D. y Gregor, M. (2021). Organización Mundial de la Salud: Los desafíos
del liderazgo global. En D. Lilleker, I. Coman, M. Gregor y E. Novelli (Eds.),
Comunicación política y COVID­19: gobernanza y retórica en tiempos de crisis.
Londres y Nueva York: Routledge.
Machine Translated by Google

Índice

A interpretación alternativa de la historia,


Brigadas Abu Hafs Al Masri, 87 26
abundancia de información, 9 Alt­Derecha, 85, 96
acciones con partidos políticos, 198, 216 Alvarová, Alexandra, 236
acciones con entidades supranacionales, anexión de Crimea, 12, 176
198, 216 antispam, 143
acciones con medios de comunicación, 198, Apatía, 8, 17, 26, 97
205, 216 acciones con la ciudadanía, población apática, 8
198, 216 medidas activas, 83 , 84, 195, apelar a la gente común, 91 apelar
214, 215 al miedo, 10, 153, 156 inteligencia
Herramienta Adblock Plus, artificial (IA), 45, 57, 60, 62, 66, 81, 82, 86,
142 llegada de Internet, 4, 7, 31, 47 95, 96, 140, 257 texto artificial
CI agregado, 59
Acuerdo de Asistencia Jurídica Mutua entre generando, 144
la Unión Europea y los Estados Asociación para Asuntos Internacionales,
Unidos de América, 176 238
astroturfing, 9, 56
AI. Ver inteligencia artificial (IA) entorno asimétrico, 17 Sitio web
Alfred Naujocks, 79 de Átlátszó, 241
hechos alternativos, 26, 27, 30, 31, receptividad de la audiencia,
34–36, 89, 257, 258 17 autenticidad de la evidencia, 183
Alternativa para Alemania, 56, 88 informacionalismo autoritario, 53

© Los editores (si corresponde) y los autores, bajo licencia exclusiva para 263
Springer Nature Switzerland AG 2021 M. Gregor y P.
Mlejnková (eds.), Desafiando la propaganda y la desinformación
en línea en el siglo XXI, Campañas políticas y Comunicación,
https://doi.org/10.1007/978­3­030­58624­9
Machine Translated by Google

264 ÍNDICE

regímenes autoritarios, 8, 50, 53, 83, 233 Centro de Propaganda y


Análisis de desinformación, 243
herramienta analítica automatizada, 185, 186 Centro Contra el Terrorismo e Híbrido
extracción automatizada de conocimientos, 145 Amenazas, 200, 211
Centro para la Integración y la Democracia
Euroatlántica, 241
B Centro para Europa y el Norte
bandwagoning, 91, 143, 154 Basaj, Asuntos Atlánticos, 246
Kamil, 242 Benˇcík, Centrum Stosunków

Ján, 244 Berliner, Mi˛edzynarodowych, 242


David C., 12 BERT, 144, 150 Complemento Checkbot de Facebook, 245
Manual de mejores 4Chan, 85
prácticas para el 8Chan, 85
Porcelana
Examen forense de la tecnología digital,
183 información Ley de Ciberseguridad, 50
publicada sesgada, 11 Bittman, Ladislav, Gran Cortafuegos de China, 50
80 culpas, 10, 155 proyecto entorno informativo, 45, 50, 51, 53
Blbec.online, 245
botnets durmiendo, 57 bots, 9, propaganda, 45, 86, 199
32, 34, periodismo ciudadano, 9
45, 56, 57, 59, sociedad civil
66, 142, 151, 152, 197, 202, 203 Bránik, Europa Central, 226, 229, 235
Radovan, 244 Brexit, 44, 55, 56, 59, República Checa, 226, 229, 233–
195, 203 Conjunto de datos 235, 240, 247
de BS Detector, 159, 245 BuzzFeed­Webis Hungría, 226, 229, 234, 240, 247 iniciativas
Fake New Corpus 2016, 158 que luchan contra la desinformación,
226, 229, 230, 234, 241, 243, 246, 247

Polonia, 226, 229, 234, 241, 247


Eslovaquia, 226, 229, 233, 234 , 243, 247
C
Cambridge Analytica, 44, 45, 59, 66, 203, 257 ucraniano, 228
Verificación de hechos de ClaimBuster, 146
CaptainFact, 141 ClaimReview, 141
puntaje de captura e integración de modelo advertencia clara, 198, 199, 208
(CSI), 150 clickbait, 58, 148
Fundación Carnegie para la Internacional Primero los hechos de CNN, 141
Paz, 197 Código de conducta en materia de lucha contra
Censura, 5, 9, 50, 51, 112, 118, 119, 129­131 Discurso de odio ilegal en línea, 206
después de la disonancia cognitiva, 29
publicación, 119, 124 Guerra Fría, 4, 21, 44, 77, 80, 81
Ejército de 50 centavos, 51, 55 verificación colaborativa, 141
Machine Translated by Google

ÍNDICE 265

procesos de identificación colectiva, 91 lucha Fundación Ciberseguridad, 242


contra la desinformación y la propaganda, Elfos checos, 237
110, 131 Checoslovaquia, 26
Comité de Seguridad del Estado (KGB), Seguridad del Estado de Checoslovaquia
80 (StB), 79
Comunicación sobre la lucha contra la ilegalidad República Checa
Contenido en línea, 206 Centro Contra el Terrorismo y
Diario compacto, 87 Amenazas híbridas, 200, 211
estilometría computacional, 143 Operaciones cibernéticas y de información
confianza de la información, 120, 123 sesgo de comando, 212
confirmación, 29, 186 Cibernética e Información Nacional
Instituto Confucio, 86 análisis Agencia de Seguridad, 211, 212
forense consiguiente, 169 teorías de Servicio de información de seguridad, 210
conspiración, 23, 27, 31, 85, 226, 240, 244, 245 Universidad de Defensa, 211, 212
relación entre creadores
de contenido y proveedores de hosting, 118
D
Convenio sobre la ciberdelincuencia, 175 Daesh, 4, 87, 90, 91, 96
cooperación con países no pertenecientes a la Damasio, Antonio, 11 datos
UE, 176

Escuela de Copenhague, 77 e información, 57, 171 recogida,


Consejo de Europa, 94, 109, 110, 129, 170, 49, 92, 171, 217 protección, 44, 64
175, 176 smog, 8, 31
Consejo de la Unión Europea, 176, 177, 180, 181
Conjunto de datos de técnicas de propaganda en
contramedidas Portales de noticias checos, 149, 155
contra la desinformación y la conjuntos de datos para análisis y detección de
propaganda, 197, 216 directo, propaganda, 152
198, 204, 205, 209, 212, 215 DBpedia, 146
engaño, 18, 20, 21, 26, 35, 63, 78–80, 94, 145,
influencia encubierta, 22, 199 148 manipulación del
COVID­19, 5, 30, 32, 33, 256 proceso de toma de decisiones, 13, 19, 20, 57, 64,
Cozy Bear, 199 crea 211, 231
credibilidad, 7 creación disminución del compromiso cívico, 30
de percepción negativa, 17 deepfake, 14, 44, 45, 50, 60–66, 92, 257 peligro
CREDBANK, 159 dudas de
de credibilidad, 8 deepfakes, 63, 64 aprendizaje
Algoritmo CredRank, 151 profundo, 57, 59, 62, 63, 66, 173
responsabilidad penal, 180 tecnología, 60, 61
infraestructura crítica, 21, 260, 261 Campaña Defender Europa, 85
Verificación cruzada, 141, 146 selectividad deliberada de la información, 6
Sitio web de CyberDefence24, 243 Proyecto demagogo, 236, 242
Machine Translated by Google

266 ÍNDICE

adaptación mi

democrática del régimen democrático, Grupo de trabajo East StratCom, 204, 205,
258 209, 212, 215, 237
disrupción del discurso democrático, 89 EasyList, 142
democratización del periodismo, 9 cámaras de eco, 31, 32, 34, 35, 49, 92, 257
democratización del contenido en línea
creación, 118, 131 Jurisprudencia del TEDH, 106, 109–111, 114,
116, 119, 121, 125, 126, 130 proceso
demonización, 10
educativo, 6 educación de
Dinamarca, 178, 196, 207, 209, 210, 216
los partidos políticos, 203 efectividad de
las mentiras, 7 intromisión
Centro de Seguridad Cibernética, 209
electoral, 88 descubrimiento
Servicio de Inteligencia de Defensa, 208
electrónico, 169–171, 173 evidencia
Ministerio de Relaciones Exteriores, 197,
electrónica, 168–170, 174–177, 179–
208, 209
187, 259
detección, 64, 129, 131, 140,
Evidencia electrónica : una guía básica para
143–145, 148, 150–152, 186, 187,
Socorristas, 183
200, 259
tecnocracia elitista, 27
Dezimatrix, 239
emociones, 7, 10, 11, 17, 20, 34, 35, 57 ,
análisis forense digital (DFA), 181, 184, 187 153, 156, 158
desafíos,
explotación, 10
183 principios, Fondo de Dotación para Independientes
181–183 Periodismo, 238
practicantes forenses digitales, 181, 184, 186, Euforka, 239
187, 259 Centro Europeo de Excelencia para
periodismo digital, 141, 257 Contrarrestar las amenazas híbridas,
Direkt36, 241 95, 207, 215
desinformación Convenio Europeo sobre Derechos Humanos
Derechos, 105, 129, 260
audiovisual, 14, 15
Convenio Europeo sobre Mutuas
categorías, 12, 14, 15, 78, 106, 124 era de,
Asistencia en Materia Penal, 175
12, 96 campaña
de desinformación, 4, 5, 12, 13, 21, 75–77, 80,
Tribunal Europeo de Derechos Humanos
82, 87, 93 , 96, 195–197, 200, 208,
(CEDH), 105–107, 109, 111, 113,
210, 211, 214, 228, 241 difusión de
115–120, 122–125, 128–130
información
difamatoria, 106 desconfianza, 5, Orden europea de investigación (EIO), 176–
51, 64, 92 de los 180
científicos, 27 doctrina de Crisis migratoria europea, 11
apreciación del Producción y preservación europeas
margen, 111 Órdenes, 177, 179, 186
Machine Translated by Google

ÍNDICE 267

Unión Europea (UE), 33, 59, detección, 140, 141, 143, 150
89, 110, 127, 128 , 131, 156, 170, Proyecto Fakescape, 239
176, 177, 179, 186, 187, 196, 198 , falso dilema, 91
204, 205 , 207 , 210, 212–216, 229, operación de bandera falsa, 78,
239, 242 Plan de acción contra 79 extrema derecha, 56, 85–
la desinformación, 205, 228 marco legal, 89, 203 miedo, 10, 11, 18, 90, 153,
105, 110, 256 generación de contenido ficticio,
176 Sistema de Alerta Rápida, 205 144 burbujas de filtro, 31, 108 , 109, 203
Centro Europeo de Valores Fiskkit, 146
para la Política de Seguridad (EVCSP), 230, Tierra plana, 27
237, 238 EUvsDisinfo, 199, 200, 204, análisis forense de desinformación y propaganda,
205, 208, 209, 213 todo el mundo miente, 8 184 análisis forense
explotar, 36, 59, de evidencia, 169 software forense, 183,
79, 142, 144 184
emociones. Ver historial de Freebase, 146
emociones, 7 vulnerabilidades,
libertad de expresión, 106, 107,
21, 93, 256 109–113, 116, 118–122, 124, 130, 180
libertad de
expresión, 34, 50, 60, 76,
F 81, 85, 112, 113, 116 , 117, 120, 129, 130,
170, 171, 201, 260 derechos
fabricación, 10, 156
fundamentales, 106, 109, 111, 116, 129–
FaceApp, 45, 62
131, 170, 171
Reto FaceApp, 62
Facebook, 4, 32, 34, 44, 45, 55, 56, 59, 94,
142, 158, 159, 170, 174, 202, 203, 205,
G
206, 242, 245
Estándares comunitarios de Facebook, 202 ganar confianza,
7 brecha entre nosotros y ellos, 91
intercambio de Servicio de Seguridad Alemán, 79
caras, 61 verificación de hechos, 94, 95, 139, 141, Infraestructura de información 5G, 51
145–147, 157, 158, 160, 197 , 202 , plataformas globalizadas de intercambio
203, 235, 236, 243, 244, 257 de información, 114
Instituto de Política GLOBSEC, 230, 246 buena
FACTCK.BR, 157 fe, 108, 109, 126
extracción y verificación de hechos Guía de buenas prácticas para informática­
(FEVER), 147 Evidencia electrónica basada,
noticias falsas, 5, 15, 16, 23, 24, 34, 60, 64, 182
76, 83, 94, 95, 106–109, 113, 115, Google, 32, 202
117, 118, 121, 123– 125, 140 , 145– Detector BS del complemento de Google
147, 149–152 , 157, 160, 199, 201,
202, 209, 213–215, 237, 257 Chrome, 245 Modelo neuronal
GPT­2, 144 Grover, 144
Machine Translated by Google

268 ÍNDICE

GRU. Ver Dirección Principal de entorno de información, 4, 5, 8, 9, 16,


Inteligencia (GRU) 19, 33, 35, 36, 44, 45, 47–51, 53,
Directrices sobre análisis forense digital para el 65, 97, 108, 242, 257–259 control
personal de la OLAF , 183 sobre, 52
dimensiones, 22,
47
h análisis de flujo de información, 141, 142,
censura manual, 51 145
discursos de odio, 114, 115, 122, 129 , 130, Grupo de información, 31, 32
168, 172, 201, 202, 206, 226, 246 ruido de información, 8, 257
operaciones de información, 5, 19–22, 55,
combatir, 174, 177 80, 198, 200, 201, 212, 247, 256
expresión de odio hacia las
minorías, 114 actividades psicológicas de la información,
secuestrar hashtags, 56 21, 22
Hlídací Pes, 239 sociedad de la información, 44, 46, 47, 58
Asesino de engaños, 146 servicios, 169, 170
Sistema de análisis de Twitter engañoso, 142 sistemas de información, 10, 19, 20, 22,
Holocausto, 27, 85, 107 48, 76, 83
negación, 91, 114 actividades técnicas de información, 21, 22
proveedores de alojamiento, 118, 127–129, infoseguridad, 245
131 servicios de alojamiento, 128, 131, 180, 260 infosfera, 45, 47–50, 109
Huawei, 51, 211 Instituto de Política y Sociedad, 236
trolls híbridos, 54 contramedidas institucionales contra
guerra híbrida, 52, 78, 96, 246 operaciones de influencia,
196 categorización de contramedidas
institucionales contra operaciones
I de influencia, 198
conducta ilegal, 172 contramedidas institucionales contra la
incitación a la violencia, 114 guerra de información, 196
desigualdad creciente, 30 Intención, 6, 9, 13, 14, 16, 25, 28, 56 , 82,
operaciones de influencia, 5, 21, 22, 35, 88, 106 , 108, 109, 117, 126, 129,
44 , 51, 54, 66, 94, 195–197, 199– 131, 201, 256
201, 203, 204, 206–210, 213, 217, Red internacional de verificación de datos,
236, 238, 240–243, 246 infodemia, 142
32, Agencia de Investigación de Internet (IRA),
35 55, 58, 85, 92, 158
Infokrieg, 85 proveedores de servicios de Internet, 174,
Infoops Polonia, 242 177, 179, 180, 184
INFO OPS Polska, 242 Trolls iraníes, 55
control de la información, información irrelevante, 11
50 economía de la información, 44, 46, 47 propaganda islámica, 86
Machine Translated by Google

ÍNDICE 269

j manipulación, 3–5, 9–11, 13, 16,


Johnson, Boris, 199 21, 23, 36, 44, 46, 48, 50, 53, 57–
libertad de expresión periodística, 106 60, 64–66 , 91, 107, 140 , 143,
fuentes periodísticas reveladoras, 155 , 159 , 167–171 , 173, 183,
119 #jsmetu, 237 186, 199, 236, 237, 255, 257 de

conexiones de red, 93 del


k
destinatario, 6 a
Kalenský, Jakub, 205, 237 través de la cantidad de información,
KGB. Ver Comité para la Seguridad del 11
Estado (KGB) imágenes manipulativas, 10
K­Monitor, 241 reconocimiento de estilos manipulativos,
Konšpirátori.sk, 244 141, 143,
Proyecto Kontakt24, 145 técnicas de manipulación, 8, 10, 11,
243 Kremlin Watch, 202, 230, 16, 35, 107, 109, 112, 143, 144, 153,
238 Kundra, Ondˇrej, 210, 239 154, 174, 185
detección, 139, 143
vídeos manipulativos, 11
l
Sitio web de manipuladores, 236
etiquetado, 10, 14, 95, 106, 153, 156,
Universidad de Masaryk (MU), 95, 155,
157, 199, 202, 212
159, 212, 239
Lasswell, HD, 5
vacuna contra el
leyes contra la desinformación, 76,
sarampión, 27 alfabetización mediática,
172 medidas legales contra la
65, 202, 205, 230, 236, 239, 240, 244, 245
manipulación, 172
Semana de la alfabetización mediática, 205
responsabilidad, 127, 128, 130,
Merkel, Ángela, 199
174 por el contenido, 118, 127, 131, 260
Mesežnikov, Gregorij, 244
de los proveedores de hosting, 110, 118
microobjetivos, 59, 66, 257
MENTIROSO,
yihadistas militantes, 87,
159 democracias liberales, 4, 75
96 dimensión militar de la
LinkedIn, 45, 62
desinformación y la propaganda, 77
EnlaceNBed, 147
Ministerio de Política de Información de
pájaro lira, 63
Ucrania, 200
gobierno de
M la mafia, 27 multijurisdiccional,
Máca, Roman, 236 169, 174 asistencia legal
comunicación impulsada por máquinas, mutua, 174
57 Macron, Emmanuel, 199, 204 mito, 7, 146 mitología, 7
MADCOM. Ver comunicación
impulsada por máquinas
Dirección Principal de Inteligencia (GRU), norte

80, 84 insultos, 10, 143, 153


Machine Translated by Google

270 ÍNDICE

Coordinador Nacional de Seguridad y PAG

Contraterrorismo, 200 pandemia, 5, 30, 32, 33, 256


seguridad nacional, 21, 51, 63, 92, 120, 121, movimiento paramilitar, 90
214 Pavel, Petr, 211
Auditoría de Seguridad Nacional, 95, replicación entre pares, 9
238 política nativista, 89 Personas necesitadas,
Ciberdefensa cooperativa de la OTAN 238 contenido personalizado,
Centro de Excelencia, 207, 212 96 gente sencilla,
Centro StratCom de la OTAN de 91 modelo PMESII, 78
Excelencia, 54 Capital político, 241
procesamiento del lenguaje natural (PNL), políticamente credulidad asimétrica, 30
141, 146, 148 medios políticos, 15
neonazismo, 85, 86, 90, 91 polarización política, 30
Neovlivní, 239 guerra política, 76, 93, 96 guerra
NetzDG, 201 política 2.0, 94 PolitiFact,
141, 158 Papa Gregorio
red neuronal, 63, 143, 144, 149, 150 1984,
7 XV, 8 región
poscomunista, 26 era posdigital,
75 posfactual sociedad,
Nixon, Richard, 25
25 posverdad, 24, 26–28,
regímenes no democráticos, 4, 18, 60, 65
30, 197, 258 era, 5, 23, 26, 28, 34–36, 89
Nutil, Petr, 236
sociedad, 25 Instituto de Estudios
de Seguridad
de Praga, 229,
238
O
Preco ludem hrabe, 245
periodismo objetivo, 15
procesamiento de pruebas, 169
Oficina del Consejo Internacional del Idioma
prohibición de publicidad, 119
Chino, 86 Oficina
Proyecto VoCo, 63
del Grupo Líder Central para Asuntos del
promoción de narrativas de odio, 89
Ciberespacio (CAC), 50 OKO.press,
objetivo
243 periodismo en propagandístico
línea, 9 inicio de de, 6, 76 como herramienta de
Internet, 9 Open Society reclutamiento,
Foundation Prague (OSF), 238 Open 90 automatizado, 56
Society Fund, componente de, 5, 16
246 Operation INFEKTION, contraataque, 93, 95,
12 Orwell, George, 7 201
O'Shaughnessy, N., definición, 5,
3, 6, 7, 9, 12, 28, 31, 91 información 15, 35 digital, 9 robótica,
56 trinidad de conceptos, 7
abrumadora, 8, 257 cascada de propagación, 151 árbol de propagación, 151
Machine Translated by Google

ÍNDICE 271

proporcionalidad, 111, 130, 171, 180 medidas contra amenazas híbridas, 94


restrictivas proporcionadas, 124 cognitivas, 258, 259
humanas, 258–260
protección de la salud o la moral, 120 sociales, 258–260
protección de redes, 260 retórica, 7, 90, 213
protección de la reputación, 122 derecho al acceso a la información, 113
defensa psicológica, 94, 200 factores actores deshonestos de propaganda y
psicológicos, 28 operación desinformación,
psicológica conflicto militar, 18 82, 87 Rosyjska V kolumna w Polsce, 242
operaciones aspereza de la discusión, 32
psicológicas aspectos duros y blandos, 17 RuNet, 52, 65
operaciones Rusia. Véase Federación de Rusia
psicológicas (psyops), 16–21 , 80, 94 tipos Federación de Rusia, 176, 187, 228, 229
de operaciones Ley
psicológicas, 18 daños públicos, 13 pánico de Bloggers, 52
público, 64 seguridad entorno de información (IRA), 21 máquina
pública, 90, 120, de propaganda, 86
122 seguridad pública, 92
declaraciones públicas,
197, 198 S
Sagrada Congregación para la
Propagación de la fe, 6, 8 búsqueda
q
de alternativas, 89 servicios
Conjunto de datos QCRI, 150, 153, 159
secretos, 51, 52, 79, 80, 82–85, 198, 199, 211–
Corpus Qprop, 153
213 titulización, 81, 82,
95 de propaganda, 81, 96
R amenaza a la seguridad ,
Radicalización, 91–93, 97, 257 61, 76, 82, 90, 95, 96, 240 seleccionando la
que conduce al extremismo violento, 90 verdad, 8
de discusión, 89 exposición selectiva, 28
contrapropaganda en tiempo real , 204 memoria selectiva, 28, 29
Reconquista Germánica, 55 percepción selectiva, 28, 29
Reclutamiento, 90, 91
Reddit, 85 Visiones semánticas, 237
Reglamento sobre la Prevención de Skripal, Sergei, 200, 204, 208, 214, 216
la difusión de información terrorista

ˇ Contenido en línea, 206 Elfos eslovacos, 245


Rehka, Karel, 211, 237 Asociación Eslovaca de Política Exterior, 246
Relativización, 10, 11, 26, 35, 36, 157, 257, Foro Eslovaco Contra la Propaganda, 246
258
Relativismo, 27 Reclutas eslovacos, 90
resiliencia Smatana, Juraj, 244
Machine Translated by Google

272 ÍNDICE

Snopes, 146 El arte de la guerra, 18


burbujas sociales, 30, 91, 93 amenaza a la democracia, 64
redes sociales, 4, 5, 9, 19, 31–35, 44, 45, 50, Transiciones, 239
54, 56, 58, 59, 61–63, 81–84, 91, 92, Trive, 146
96, 127, 140 , 142 , 146, 147, 158, granjas de trolls, 54, 85, 209, 214
174, 197, 201–203, 209, 226, 237, 245, trolls, 9, 32, 43, 44, 51, 53–58, 83–85,
256, 260, 261 estructura descentralizada, 226, 237, 245
9 Trump, Donald, 15, 45, 56, 61, 91, 155

Observatorio Social de Desinformación y Indicadores de Proyectos de Fideicomiso, 142


Análisis de Redes Sociales Corpus TSHP 2017, 152, 159
(SOMA), 205 Gorjeo, 32, 55–57, 94, 142, 149 , 150, 152,
enfoque centrado en la sociedad, 258, 260 158, 170, 174, 205, 206, 211 , 237, 242
poder blando, 22
Soldados de Odin, 90 TwitterSenderos, 142
#somtu, 245
análisis de credibilidad de la fuente, 141,
142 siembran las semillas de la Ud.
alienación, 17 grupos de regímenes no democráticos, 16, 52, 66
trabajo especiales, 200 frente global unificado de desinformación, 82
tipología del discurso, 114 educación de discurso desprotegido, 114
empleados estatales, 201, 209 interferencia
Urbanlegends, 240
estatal, 44, 111, 118, 120, 130
contenido generado por el usuario (CGU),
medidas estatales, 198, 200, 211, 214, 216 118, 127–
129 mercado, 170
DetenerFake, 54, 226, 238, 242
Elecciones presidenciales de EE. UU., 15, 23,
Frente de tormenta, 85
24, 44, 45, 52, 55, 88
Instituto de Política Estratégica, 246
triple sujeto­predicado­objeto (SPO), 146
V
Sun Tzu, 18, 44, 45
enfoque de verificación, 141
Agencia Sueca de Contingencias Civiles, 199,
virtualización, 168
201
educación de votantes, 198, 199, 203
simbolismo, 7
vulnerabilidades, 20, 21, 57, 76, 93, 256,
257
T
periodismo sensacionalista,
15 integridad territorial, 120, 121 W.
terrorismo, 18, 81, 87, 92, 122, 206 Wikipedia, 141, 146, 147 retirada
organizaciones terroristas, 4, 16, 18, 19, de una expresión publicada,
90 119
prueba de proporcionalidad, 123 Wojownicy Klawiatury, 242
Machine Translated by Google

ÍNDICE 273

Organización Mundial de la Salud (OMS), radicalización, 91


33
Segunda Guerra Mundial, 6, 26, 77, 81, 83
z
Zelenka, Jakub, 239
X Zeman, Milos, 157, 210, 211
XGBoost, 149 ZET, 51
Proyecto Zmudri, 245
Zomri, 245
Y Proyecto Zvol si info (Elija la información),
YouTube, 32, 61, 142, 174, 205, 206 239

También podría gustarte