Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Desafiante
Propaganda en línea y
Desinformación en
el siglo XXI
Editor de la
serie Darren G. Lilleker
Universidad de Bournemouth
Bournemouth, Reino Unido
Machine Translated by Google
Desafiando en línea
Propaganda
y desinformación
en el siglo XXI
Machine Translated by Google
Editores
Miloš Gregor Petra Mlejnková
Departamento de Ciencias Políticas Departamento de Ciencias Políticas
Universidad Masaryk Universidad Masaryk
Brno, República Checa Brno, República Checa
© El editor (si corresponde) y el autor (es), bajo licencia exclusiva para Springer Nature Switzerland
AG 2021 Este trabajo está sujeto
a derechos de autor. Todos los derechos son licenciados única y exclusivamente por el Editor, ya sea
que se trate de la totalidad o parte del material, específicamente los derechos de traducción, reimpresión,
reutilización de ilustraciones, recitación, radiodifusión, reproducción en microfilmes o en cualquier otro
medio físico, y transmisión. o almacenamiento y recuperación de información, adaptación electrónica,
software de computadora o mediante metodología similar o diferente ahora conocida o desarrollada en
el futuro.
El uso de nombres descriptivos generales, nombres registrados, marcas comerciales, marcas de
servicio, etc. en esta publicación no implica, incluso en ausencia de una declaración específica, que
dichos nombres estén exentos de las leyes y regulaciones protectoras pertinentes y, por lo tanto, libres
para uso general. usar.
El editor, los autores y los editores pueden asumir con seguridad que los consejos y la información de
este libro se consideran verdaderos y precisos en la fecha de publicación. Ni el editor ni los autores ni
los editores otorgan garantía, expresa o implícita, con respecto al material contenido en este documento
o por cualquier error u omisión que pueda haberse cometido. El editor se mantiene neutral con respecto
a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.
Este sello de Palgrave Macmillan es publicado por la empresa registrada Springer Nature.
Suiza AG
La dirección registrada de la empresa es: Gewerbestrasse 11, 6330 Cham, Suiza.
Machine Translated by Google
Prefacio
v
Machine Translated by Google
vi PREFACIO
PREFACIO vii
viii PREFACIO
PREFACIO ix
Agradecimientos
xi
Machine Translated by Google
xiii AGRADECIMIENTOS
Muchas gracias a nuestros colegas del Departamento de Ciencias Políticas y del Instituto
Internacional de Ciencias Políticas de la Universidad Masaryk. En particular, el mérito
especial por su apoyo incondicional a nuestra investigación sobre propaganda y desinformación
es para Stanislav Balík, Vít Hloušek, Lubomír Kopeˇcek y Otto Eibl, quienes pacientemente
nos apoyaron durante todo este proyecto.
Contenido
Parte I
Parte II
xiii
Machine Translated by Google
xiv CONTENIDO
9 Conclusión 255
Miloš Gregor y Petra Mlejnková
Índice 263
Machine Translated by Google
xvi
Machine Translated by Google
Crisis, Routledge 2021. Junto con Petra Mlejnková, es mentor de los proyectos 'Zvol si
info' (Elige tu información) y 'Fakescape', ambos dedicados a la sensibilización sobre la
alfabetización mediática; Ambos proyectos fueron premiados en el concurso internacional
Peer to Peer: Global Digital Challenge iniciado por Facebook. Es coautor de ¡¡ ¡El mejor
libro sobre noticias falsas, desinformación y manipulación!!! (CPress, 2018) Gregor está
íntimamente involucrado en la popularización del problema de la desinformación y las
formas en que se puede reconocer; Con ese fin, ha pronunciado más de doscientas
conferencias y discursos públicos desde 2018.
Rusia. Legacies, Forms and Threats (con Jan Holzer y Martin Laryš;
Routledge, 2019) y es autor o coautor de más de doscientos artículos,
capítulos y libros académicos científicos.
Petra Mlejnková (Vejvodová) es jefa del Departamento de Ciencias Políticas
de la Facultad de Estudios Sociales de la Universidad de Masaryk (FSS MU)
e investigadora del Instituto Internacional de Ciencias Políticas, FSS MU.
Se centra en la investigación del extremismo y el radicalismo en Europa, la
propaganda y la guerra de información. Es miembro de las redes de expertos
Radicalization Awareness Network, la Red Europea de Expertos en
Cuestiones de Terrorismo y la red checa de expertos RAN CZ coordinada
por el Ministerio del Interior de la República Checa. Ha publicado varios
textos sobre desinformación, propaganda y extrema derecha europea.
También es codesarrolladora de una herramienta analítica semiautomática
para detectar técnicas de manipulación. Además del mundo académico,
también ha sido mentora de los proyectos de alfabetización mediática 'Zvol
si info' (Elige tu información) y 'Fakescape'. Junto con Miloš Gregor, coeditó
¡¡ ¡El mejor libro sobre noticias falsas, desinformación y manipulación!!!
(CPress, 2018), un libro de literatura popular que empodera al público en general.
Miroslava Pavlíková es Ph.D. estudiante de ciencias políticas en la
Universidad Masaryk. Su tesis de tesis trata sobre la guerra de información
y su posición en el pensamiento estratégico ruso. También es investigadora
principal en el Centro de Estudios Estratégicos Militares y de Seguridad de
la Universidad de Defensa. Se graduó en Estudios Estratégicos y de
Seguridad en la Universidad Masaryk y asistió a cursos de historia, política
y relaciones internacionales en la Universidad de Loughborough en el Reino Unido.
Radim Polˇcák es director del Instituto de Derecho y Tecnología de la
Facultad de Derecho de la Universidad de Masaryk. Es el presidente general
de la conferencia sobre el ciberespacio; editor en jefe de la Revista de
Derecho y Tecnología de la Universidad de Masaryk y jefe del consejo
editorial de Revue pro právo a technologie (Revista de derecho y tecnología).
Es miembro fundador del Instituto de Derecho Europeo y de la Academia
Europea de Derecho y TIC, panelista del tribunal de arbitraje ADR .eu y
miembro de varios organismos gubernamentales y científicos expertos y
asesores y consorcios de proyectos en toda la Unión Europea. También se
ha desempeñado como asesor especial sobre Robótica y Política de
Protección de Datos de la Comisión Europea. Polcak es autor o coautor de más de 150 pu
Machine Translated by Google
Lista de Figuras
xix
Machine Translated by Google
Lista de tablas
xxi
Machine Translated by Google
Parte I
Machine Translated by Google
CAPÍTULO 1
1.1 Introducción
Un capítulo que describa la historia de fenómenos como la propaganda y la
desinformación podría comenzar con la afirmación obligatoria "incluso los
antiguos griegos" o "el problema es tan antiguo como la humanidad misma".
Es más, sería correcto. La verdad es que la información siempre ha sido
crucial en la política y la guerra, y quienes la poseían y podían manipularla
eran capaces de confundir al enemigo, al adversario o al público. Como
afirma O'Shaughnessy, no hubo una edad de oro de la verdad (O'Shaughnessy
2020, 55). La información y su manipulación, por tanto, siempre han estado
presentes en nuestras vidas.
Correo
electrónico del Sr. Gregor: mgregor@fss.muni.cz
4 M. GREGOR Y P. MLEJNKOVÁ
1.2 Propaganda
6 M. GREGOR Y P. MLEJNKOVÁ
8 M. GREGOR Y P. MLEJNKOVÁ
2010). Representan un gran desafío para nosotros porque estos tipos de periodismo
contribuyen al aumento de la cantidad de información (aunque a veces de calidad y
precisión cuestionables) en el entorno informativo. Para los destinatarios de las
noticias, esta democratización del periodismo, así como la abundancia de información
y sus fuentes, resultan ambiguas.
También potencian el potencial de la propaganda digital, que, gracias a estos
avances, utiliza la replicación masiva de ideas entre pares y la participación activa
en la difusión de la propaganda. Disminuye la necesidad de estructuras centralizadas
para mantener o acelerar la propagación de ideas particulares. Los propagandistas
pueden disfrutar de la ventaja de la estructura descentralizada de las redes sociales
al orquestar campañas con un amplio impacto mientras la fuente sigue siendo difícil
de identificar (Farkas y Neumayer 2018; SparkesVian 2018). El uso de trolls y robots
para simular el apoyo público es una de las consecuencias del desarrollo de las
tecnologías de redes sociales. Este aspecto específico se analiza con más detalle
en el Capítulo 2.
10 M. GREGOR Y P. MLEJNKOVÁ
atacar a la oposición a nivel personal. También suelen apelar a las ideas preconcebidas y
prejuicios de la audiencia (Domatob 1985; Shabo 2008).
La relativización sirve para debilitar los méritos del oponente o dañar a un actor preferido.
Suele utilizarse para apaciguar las emociones cuando (desde el punto de vista del
propagandista) está sucediendo algo malo. Contiene explícitamente críticas al oponente o
trivializa el problema. Los vídeos y las imágenes manipuladores representan aquí una de las
técnicas de manipulación más evidentes. En el contexto de este volumen editado,
consideramos que un video o una imagen son manipuladores si cambian la percepción del
público sobre el tema, o si presentan un collage o un medio modificado de alguna manera.
12 M. GREGOR Y P. MLEJNKOVÁ
1.3 Desinformación
En la última década, probablemente se mencionó incluso más que propaganda el término
desinformación. La desinformación puede percibirse como parte del ámbito conceptual más
amplio de la propaganda. Despliega mentiras, pero no siempre ni necesariamente. Por tanto,
podemos decir que no toda propaganda es desinformación, pero toda desinformación es
propaganda (O'Shaughnessy 2020, 55).
El intenso debate sobre los peligros de difundir desinformación y propaganda se revivió en
2014 en el contexto de la ocupación por parte del ejército ruso de la parte oriental de Ucrania
y la anexión de Crimea.
Sin embargo, al igual que la propaganda, la desinformación tampoco es un fenómeno nuevo.
Durante décadas, el concepto de desinformación había estado relacionado exclusivamente
con las actividades de inteligencia en todo el mundo. Un ejemplo clásico de campaña de
desinformación a este respecto es la Operación INFEKTION, una campaña de desinformación
dirigida por la KGB, el servicio de inteligencia soviético, en los años 1980.
La campaña fue diseñada para socavar la credibilidad de Estados Unidos y fomentar el
antiamericanismo. La campaña plantó la idea de que Estados Unidos había inventado el
virus VIH en los laboratorios del Departamento de Defensa como arma biológica. Sin
embargo, el término desinformación sólo empezó a penetrar en el léxico de los medios y en
el público en general a partir de los años 1980. En febrero de 1992, David C.
14 M. GREGOR Y P. MLEJNKOVÁ
Los políticos sólo utilizan el término desinformación como etiquetado, lo que sirve
para desacreditar la información presentada, un argumento o incluso al portador de la
información, pero marcar una declaración o un argumento como desinformación
también se ha convertido en un acalorado punto de discusión en sí mismo.
Hay mucha información que no tiene contenido veraz, que puede ser engañosa o
incluso falsa. Estos casos, sin embargo, no cumplen con la intención de engañar; no
tienen esta función. Un ejemplo podría ser información que solía ser cierta pero ya no
lo es (por ejemplo, qué equipo lidera la liga nacional de fútbol). Sin embargo, podemos
distinguir entre dos tipos principales de desinformación que pueden tener esta función.
En primer lugar está la intención de engañar como objetivo; es decir, intentan cambiar
la opinión o el comportamiento de la audiencia. El segundo utiliza el mensaje
engañoso no como un objetivo sino para beneficiar al autor de otra manera, por
ejemplo, una ganancia financiera. El objetivo de la desinformación en tales casos no
es cambiar la opinión o el comportamiento de la audiencia, sino obtener un beneficio
resultante de este cambio. En el sector de la salud, por ejemplo, la desinformación se
puede utilizar para convencer a la audiencia de lo nocivo de las drogas con el fin de
hacer que la gente use los productos que el autor desea.
Las categorías que entran dentro del ámbito de la desinformación están
representadas, entre otras, por mentiras, mensajes audiovisuales o aquellos
producidos y difundidos de forma altruista. Representa información que no sólo está
fuera de contexto, presentada como parcialmente cierta o incompleta, sino también
información presentada contra una verdad objetivamente verificable. La desinformación
audiovisual puede adoptar la forma de imágenes o vídeos con modificaciones de
postproducción o presentados en un contexto (lugar o momento) diferente al de su
creación. Los deepfakes son otro ejemplo (ver Capítulo 2).
Incluso la información altruista y engañosa puede considerarse desinformación; No
importa si la presentación de información engañosa fue motivada por buenas
intenciones. Por el contrario, la información apenas cierta no puede considerarse
desinformación; de lo contrario, el significado del término estaría vacío. También se
puede presentar información falsa sin intención de manipularla; pueden ser falsedades
accidentales.
Una categoría especial son los chistes y las sátiras, que normalmente se basan en
información mentirosa o incompleta. Su intención es más bien entretener al público
que engañarlo. Sin embargo, esto no significa que los casos mencionados no puedan
inducir a error a la gente. Incluso si no fueron creados con el propósito de engañar a
la audiencia, luego pueden convertirse en desinformación cuando se difunden (Tabla
1.1).
Machine Translated by Google
Hoy en día, el término noticias falsas se ha vuelto más común que desinformación después de
hacerse conocido públicamente y ampliamente utilizado durante la crisis de EE.UU. de 2016.
elecciones presidenciales a más tardar. Su popularización se debió a la entonces
El candidato presidencial Donald Trump, quien calificó a los medios críticos con él.
como noticias falsas. Como concepto relativamente nuevo, no se le ha dado suficiente
atención epistemológica, y su comprensión varía según el panorama general.
público y académico (Gelfert 2018).
Algunos autores consideran fake news todas aquellas noticias que no están basadas en
hechos pero que, a pesar de ello, se reportan como noticias verdaderas (Allcott y Gentzkow
2017). Otros perciben las noticias falsas como noticias que niegan los principios de
periodismo objetivo y de calidad (Baym 2005). Sin embargo, existe una diferencia entre los
medios que difunden noticias falsas y los llamados medios políticos,
que ajusta la cobertura informativa de tal manera que busca establecer la
agenda política de un partido o entidad política relacionada (Vargo et al. 2017).
Silverman afirma que las noticias falsas son noticias que no se basan en la verdad y
se realiza para obtener ganancias financieras, generalmente a través de ingresos publicitarios. Las noticias falsas son,
por lo tanto, cercano al periodismo sensacionalista, pero a diferencia de los tabloides, el beneficio
El motivo, aparte de la venta del medio en sí, es crucial en esta definición porque, según
Silverman, debe considerarse propaganda.
cuando falta una motivación financiera (Silverman 2016).
Las noticias falsas también se utilizan a menudo como un término general para toda la desinformación,
pero es un término más restringido que entra dentro de esta clasificación (Gelfert 2018).
Por tanto, las noticias falsas son un tipo de desinformación y pueden definirse como la
Creación y difusión deliberada de historias y noticias falsas que son
afirmó ser una noticia seria por su autor.
Machine Translated by Google
16 M. GREGOR Y P. MLEJNKOVÁ
El concepto de fake news responde en cierto modo a que más bien asociamos
la desinformación con agentes y gobiernos y gran parte de la información
engañosa presentada en el entorno informativo y los medios con otros actores.
Hoy, sin embargo, cualquiera con una intención política o económica puede crear
desinformación deliberadamente.
18 M. GREGOR Y P. MLEJNKOVÁ
o el apoyo externo, factor decisivo en un conflicto. En los conflictos militares, las operaciones
psicológicas logran objetivos donde la fuerza militar no está disponible, es inapropiada o
donde puede combinarse con el ejército para minimizar los gastos y maximizar los efectos.
Las operaciones psicológicas persuaden a través de medios no violentos: armas psicológicas
de persuasión y engaño. En este contexto se cita muy a menudo al estratega chino Sun Tzu.
Sun Tzu abogó por el debilitamiento psicológico del adversario y menciona en su El arte de
la guerra que uno de los factores fundamentales que afectan la guerra es aquello que "hace
que el pueblo esté en armonía con sus líderes para que estos los acompañen en la vida y
hasta el final". muerte sin miedo al peligro mortal' (Post nd). Dortbudak cita otro fragmento de
su obra cuando subraya que la victoria está más bien determinada por qué bando tiene
influencia sobre las decisiones y acciones del otro: 'Luchar y vencer en todas nuestras
batallas no es excelencia suprema; la excelencia suprema consiste en romper la resistencia
del enemigo sin luchar» (Dortbudak 2008).
Las redes sociales han servido como multiplicadores de fuerza para los terroristas. El
surgimiento del espacio virtual combinado con una creciente alfabetización tecnológica
entre organizaciones terroristas ha creado nuevas oportunidades para el uso
de operaciones psicológicas (Bates y Mooney 2014; Cilluffo y Gergely 1997; Emery
et al. 2004). El 11 de septiembre es un ejemplo clásico de influencia psicológica terrorista. Sin
embargo, los regímenes y actores democráticos también llevan a cabo operaciones psicológicas.
Sin embargo, en comparación con los antidemocráticos, carecen de propaganda y
desinformación, que se cree que están excluidas del
caja de herramientas democrática.
Hoy en día, las operaciones psicológicas se perciben como una parte específica de
operaciones de información. Con operaciones de información, ya estamos
avanzar más hacia el área del pensamiento estratégico y militar. Sin embargo, el término
operación de información también se ha integrado en
lenguaje de comunicación civil y política, principalmente debido a los debates
sobre las actividades rusas y chinas en el exterior. Las operaciones de información pueden
definirse como actividades emprendidas para contrarrestar la información hostil y
sistemas de información y al mismo tiempo proteger los suyos propios. es el coordinado
y el empleo integrado de capacidades relacionadas con la información para influir, perturbar,
corromper o usurpar la toma de decisiones (Estados Unidos—Conjunto
Jefes de Estado Mayor 2014; Miljkovic y Pešic 2019). Representan ofensiva
y medidas defensivas centradas en influir en las decisiones del adversario,
Manipular la información y los sistemas de información. También incluyen
medidas que protejan sus procesos de toma de decisiones, información y
sistemas de información. Las operaciones de información deben tener metas y objetivos
específicamente predefinidos; por lo tanto, una planificación cuidadosa es parte del proceso.
Las operaciones de información se llevan a cabo dentro de un entorno de información en el
que afectan sus tres dimensiones: física, informativa,
y cognitivo. En la dimensión física pensamos en la infraestructura de la información; recopilación,
transmisión, procesamiento y
Los sistemas y dispositivos de entrega pueden verse afectados, así como el comando y
instalaciones de control, TIC e infraestructura de apoyo. Esta dimensión también
cubre a los seres humanos. Lo importante es que la dimensión física no esté conectada
exclusivamente a sistemas militares o nacionales y
procesos. Aunque estemos considerando el ámbito militar, los civiles
y la infraestructura civil también se incluye en las operaciones de información. En
En la dimensión informativa pensamos en la información misma y en su contenido.
y fluir. Cuando las instalaciones de mando y control se vean afectadas en la dimensión física,
la misma característica también podrá verse afectada en la información.
dimensión sino desde la perspectiva del tipo de información recopilada,
Machine Translated by Google
20 M. GREGOR Y P. MLEJNKOVÁ
22 M. GREGOR Y P. MLEJNKOVÁ
Aunque la jerarquía y las relaciones entre términos definidos pueden parecer complicadas, las
Figs. 1.1 y 1.2 pueden proporcionarnos una imagen clara; sin embargo, para entenderlos es
necesario distinguir entre asuntos civiles y militares, y entre tiempos de paz y de conflicto, en la
medida en que cada término puede desempeñar un papel diferente.
Machine Translated by Google
24 M. GREGOR Y P. MLEJNKOVÁ
se ha vuelto irrelevante; sólo importan las preferencias del público por un conjunto
de hechos (Kalpokas 2020, 71). Asimismo, a nivel académico se venía discutiendo
previamente el papel de la verdad y su cuestionamiento (ver Bufacchi 2020).
La situación actual es diferente del cliché de que todos los políticos mienten y
hacen promesas que no cumplen. Por supuesto, la política y especialmente los
períodos de campaña electoral siempre se han caracterizado por los esfuerzos de los
candidatos por presentar la realidad enmarcada de manera que les beneficie. Las
campañas electorales se llevan a cabo para persuadir a la gente; no pueden
confundirse con la educación, por muy informativas que parezcan a veces.
La comunicación y el marketing políticos no pueden cumplir la función educativa que
conocemos de la presentación de información objetiva e imparcial.
Sin embargo, como regla general, las proclamaciones políticas del pasado
tergiversaron la verdad dentro de los límites establecidos por las reglas del juego
político en las contiendas democráticas. Si se sorprendía a los políticos mintiendo,
generalmente los miembros del partido, los competidores políticos, los medios de
comunicación o los votantes los obligaban a explicar su punto de vista y ofrecer
disculpas (Sismondo 2017). Si no podían hacerlo, a menudo tenían que renunciar a
su candidatura o a un cargo electo; Richard Nixon podría contar la historia.
Esta mentalidad ya no es típica de todos. Hay una parte importante de la sociedad
(no sólo los políticos, sino también los ciudadanos y los votantes) que no se basa en
los hechos para determinar la verdad. La posverdad es para la política un juego
cualitativamente nuevo. Los hechos no se tergiversan u omiten simplemente para
disfrazar la realidad, sino que, en cambio, se crean discursivamente nuevas
realidades para servir a un mensaje político (Kalpokas 2020, 71). El prefijo post en
posverdad no alude a una referencia cronológica de que algo ocurra después de la verdad.
Más bien, indica el hecho de que la verdad ya no es esencial y ha sido reemplazada
por una nueva realidad (Bufacchi 2020). Por tanto, podemos hablar de una sociedad
posverdad o posfactual. Estamos ante una situación en la que una parte importante
de la población ha abandonado los criterios convencionales de evidencia, coherencia
interna y búsqueda de hechos. En un mundo de posverdad, el principio de honestidad
como posición predeterminada y de responsabilidad moral por las propias
declaraciones es algo que algunos políticos ya no sostienen (Higgins 2016).
26 M. GREGOR Y P. MLEJNKOVÁ
28 M. GREGOR Y P. MLEJNKOVÁ
30 M. GREGOR Y P. MLEJNKOVÁ
32 M. GREGOR Y P. MLEJNKOVÁ
El año 2020 y la pandemia de COVID19 han traído, entre otras cosas, una
mayor aceleración de la difusión de información engañosa.
La información sanitaria engañosa, como consejos y sugerencias "garantizados"
sobre cómo tratar la enfermedad, se ha convertido en un problema nuevo en
particular (Lilleker et al. 2021). El término "infodemia" se ha generalizado,
destacando el peligro del fenómeno de la desinformación en la gestión de los
brotes de virus, ya que tiene la capacidad de acelerar incluso la propagación
del nuevo coronavirus al potenciar la renuencia a la respuesta social. La
pandemia ha demostrado lo crucial e importante que es
Machine Translated by Google
El papel que juegan las redes sociales en el nuevo entorno de la información (Cinelli et al.
2020, 2). Los usuarios ven cada vez más fuentes confiables de información dentro de sus
redes de pares y comparten sus declaraciones. A medida que esa información se
difunde, a menudo aumenta su percepción de legitimidad. Este método de compartir y
validar información contrasta con los métodos implementados por los medios de
comunicación, que tienen conocimientos especializados y responsabilidades específicas
relacionadas con la verificación y el intercambio de información. Durante la pandemia de
COVID19, no es sorprendente que las personas hayan recurrido a esta nueva realidad
digital en busca de orientación (Limaye et al. 2020, 277). Podemos ver esta tendencia en
todo el mundo, y países e incluso organizaciones supranacionales, como la Unión
Europea o la Organización Mundial de la Salud (OMS), la han enfrentado (ver Lilleker et
al. 2021).
No sería correcto afirmar que las redes sociales han servido exclusivamente para
difundir información engañosa. Hubo numerosos casos en los que las redes sociales
ayudaron a empoderar y apoyar al personal del hospital, así como campañas de
información sobre recomendaciones epidemiológicas o medidas gubernamentales. Estos
dos últimos representan especialmente un campo de batalla donde las redes sociales se
han encontrado con los medios de masas y han luchado por la atención de la audiencia,
por el privilegio de quién puede informar al público en general. Aunque los usuarios
comparten información en las redes sociales, las técnicas de comunicación (política) de
la "vieja escuela" han demostrado que todavía no pertenecen al basurero. Los medios de
comunicación han jugado un papel crucial principalmente en dos aspectos: (1) la
mediación de conferencias de prensa y discursos de miembros del gobierno ante las
masas, y (2) la selección de expertos que brindan comentarios basados en su experiencia.
El fenómeno, que no es nuevo pero se ha visto potenciado por la pandemia, son los
comentarios y declaraciones de autoproclamados expertos o autoridades con experiencia
en campos no relacionados con la pandemia.
Estas declaraciones han circulado ampliamente en las redes sociales y a menudo han
socavado las declaraciones oficiales realizadas por el gobierno. "La desinformación
científica se ha propagado activamente como un medio para desestabilizar la confianza
en los gobiernos y como arma política" (Limaye et al. 2020, 277), y los medios de
comunicación, al menos hasta cierto punto, han desempeñado el papel de moderador,
devolver el debate a normas aceptables con oradores elegibles. Aunque las redes
sociales han fortalecido su poder durante la pandemia, los medios de comunicación han
demostrado ser cruciales si se necesita información verificada y confiable.
Sin embargo, incluso los medios de comunicación no han quedado exentos de errores y
han sido criticados, por ejemplo, por dar espacio a expertos "erróneos".
Machine Translated by Google
34 M. GREGOR Y P. MLEJNKOVÁ
*****
La gente suele oír lo que quiere oír porque recibe las noticias exclusivamente de
fuentes con cuyos prejuicios está de acuerdo. Una fuente proporciona el marco de la
información. Le dice al consumidor si es probable que la información sea agradable
y se ajuste a sus expectativas (Marshall et al.
2015, 24). No es decisivo cuán confiable es la fuente según los criterios objetivos;
reconocemos que la fuente es confiable cuando proporciona "hechos" agradables,
sin importar cuán "alternativos" sean. Aunque algunos autores esperan que las
cámaras de eco impulsadas por algoritmos informáticos para seleccionar noticias en
la Web 2.0 (y especialmente en las redes sociales) tengan un efecto tanto en las
noticias sólidas como en las falsas (ver Sismondo 2017), datos recientes muestran
que la desinformación y las mentiras se difunden más rápido y a una audiencia más
amplia que la verdad, producto de las diferentes emociones predominantes que
evocan ambos tipos de noticias (Vosoughi et al. 2018). Sin embargo, no importa qué
lado elija la gente, ya sea confiar en los hechos o en hechos alternativos, ambas
formas contribuyen a enfoques que tratan a los votantes como personas a las que
hay que manipular en lugar de convencer (Sismondo 2017).
Las mentiras y las tonterías siempre han estado entre nosotros, pero las
tecnologías, como las redes sociales; el crecimiento de los llamados medios
alternativos; e incluso los bots los han elevado a la categoría de causa común, de la
que una parte de nuestra sociedad no se avergüenza, elevándola incluso a una
actitud política. Verificar información y desacreditar mentiras y desinformación se
percibe entonces como una restricción a la libertad de expresión y la imposición de
actitudes políticas en detrimento de otros. Todas estas tendencias han alentado a
los políticos a dirigir estratégicamente a sus partidarios mensajes radicales y, en
algunos casos, incluso extremistas. En una época en la que la gente está abrumada
por la información, la lucha política a menudo la gana no el político que es capaz de
llegar a acuerdos y utilizar un razonamiento sustantivo, sino aquel cuyos tweets y
estados de Facebook son más visibles y llamativos. Y mientras lees la explicación
de qué es la era de la posverdad, cada vez más personas discuten en Facebook
sobre mentiras descaradas que se presentan y defienden como su opinión.
Machine Translated by Google
1.6 Conclusión
En las páginas anteriores intentamos explicar qué es la propaganda y la desinformación, en
qué se diferencian de otras formas de información falsa o engañosa.
información y cómo encajan en el concepto más amplio de influencia.
operaciones. La forma en que recibimos información y noticias ha cambiado radicalmente
durante la última década, lo que también está relacionado con la aparición de la
era de la posverdad o, más recientemente, la llamada infodemia. Aunque hay
Hay una falta de consenso sobre la definición universalmente aceptada de propaganda, las
definiciones individuales se caracterizan por características estándar: (1)
difundidas sistemática e intencionalmente (2) ideas e información
(3) son inexactos, distorsionados, falsos u omitidos (4) y tienen la intención de influir o
manipular al público (5) para dañar al oponente. Desinformación
representa un fenómeno conceptualmente más sencillo (información intencionalmente
engañosa). Sin embargo, a menudo se confunde con otros
formas de engaño.
La forma y estrategia de la propaganda están influenciadas por los medios.
qué propaganda puede utilizar: la propaganda depende de las herramientas y canales de
difusión de información que se ofrecen. Hoy ha tomado la forma de
usar Internet y las redes sociales para que cualquiera pueda escribir lo que quiera,
cualquiera puede ser periodista o, en términos más generales, creador de publicaciones populares.
contenido. Esto significa, entre otras cosas, una sobrecarga del entorno informativo y también
del individuo. Laswell, Ellul y
Las definiciones de propaganda de Taylor tal como se presentan en este capítulo siguen siendo
válido, pero la naturaleza del entorno de información y los medios
a través de los cuales podemos utilizar en él han cambiado, afectando las estrategias que
conducir al cumplimiento de aquellos objetivos todavía válidos para los cuales tanto la propaganda
y se utiliza la desinformación. Las técnicas de manipulación siguen siendo las mismas,
aunque la frecuencia varía en el uso de técnicas particulares. Qué
no cambia es el papel esencial de las emociones.
La propaganda y la desinformación actuales no necesariamente apuntan a
persuadir; Otra estrategia utilizada es el esfuerzo por sobrecargar a un público objetivo con
información y así inducir la relativización, lo que se adapta a la situación.
era de la posverdad. En la era de la posverdad, se pueden identificar tres cambios principales:
(1) una mentira se eleva a la categoría de opinión política, y si los hechos no coinciden
En nuestra visión del mundo, elegimos otros hechos alternativos que
hacer; (2) las tecnologías aceleran nuestro recinto hasta convertirlo en cámaras de eco y
guetos de opinión; y, paradójicamente, (3) los políticos que se benefician de la posverdad se
basan en las tendencias de la gente a creer que otros están diciendo (al menos
Machine Translated by Google
36 M. GREGOR Y P. MLEJNKOVÁ
Bibliografía
Berliner, DC (1992, febrero). Reforma educativa en una era de desinformación. Reunión anual de la
Asociación Estadounidense de Facultades de Formación Docente. San Antonio, Texas, Estados
Unidos. https://files.eric.ed.gov/fulltext/ED3 48710.pdf. Consultado el 22 de marzo de 2020.
Damasio, A. (2010). Uno mismo viene a la mente: construcción del cerebro consciente. Nueva York:
Panteón.
Domatob, J. (1985). Técnicas de propaganda en el África negra. Internacional
Gaceta de comunicación, 36 (3), 193–212.
Dortbudak, MF (2008). El requisito de inteligencia de las operaciones psicológicas en el
contraterrorismo. Monterey: Escuela de Posgrado Naval. https://cal houn.nps.edu/bitstream/handle/
10945/3856/08Dec_Dortbudak.pdf?seq uence=1&isAllowed=y. Consultado el 22 de marzo de
2020.
Dretske, FI (1983). Précis del conocimiento y el flujo de información.
Ciencias del comportamiento y del cerebro, 6(1), 55–90.
Ellul, J. (1973). Propaganda: la formación de las actitudes de los hombres. Nueva York:
Libros antiguos.
Machine Translated by Google
38 M. GREGOR Y P. MLEJNKOVÁ
Hart, W., Albarracín, D., Eagly, AH, Brechan, I., Lindberg, MJ y Merrill, L.
(2009). Sentirse validado versus estar en lo correcto: un metaanálisis de la exposición
selectiva a la información. Boletín psicológico, 135(4), 555–588. https://doi.org/10.1037/
a0015701 .
Higgins, K. (2016). Posverdad: una guía para los perplejos. Naturaleza, 540(9). https://doi.org/
10.1038/540009a.
Hopkins, J. y Rosamond, B. (2017). Política posverdad, tonterías y malas ideas: 'fetichismo
del déficit' en el Reino Unido. Nueva economía política, 23(6), 641–655.
Ihlen, Ø., Gregory, A., Luomaaho, V. y Buhmann, A. (2019). Posverdad y relaciones públicas:
Introducción a la sección especial. Revisión de relaciones públicas, 45(4), 1–4. https://
doi.org/10.1016/j.pubrev.2019.101844.
Jasny, L., Waggle, J. y Fisher, DR (2015). Un examen empírico de las cámaras de eco en las
redes de políticas climáticas de EE. UU. Naturaleza Cambio climático, 5, 782–786. https://
doi.org/10.1038/nclimate2666.
Jones, M. y Sugden, R. (2001). Sesgo de confirmación positiva en la adquisición de
información. Teoría y decisión, 50, 59–99. https://doi.org/10.1023/A:1005296023424 .
Machine Translated by Google
40 M. GREGOR Y P. MLEJNKOVÁ
Silverman, C. (2016). Este análisis muestra cómo las noticias virales falsas sobre elecciones superaron
a las noticias reales en Facebook. Buzzfeed. https://www.buzzfeed.com/craigsilverman/viralfake
electionnewsoutperformedrealnewsonfacebook?utm_term=tgEkrDpr#.dvkvJ3DJ . Consultado
el 22 de marzo de 2020.
Sismondo, S. (2017). ¿Posverdad? Estudios sociales de la ciencia, 47 (1), 3–6. https://
doi.org/10.1177/0306312717692076.
Machine Translated by Google
Tromblay, ED (2018). Operaciones de influencia política: cómo los actores extranjeros buscan dar
forma a la formulación de políticas estadounidenses. Lanham: Rowman y Littlefield.
Twenge, JM, Campbell, WK y Freeman, EC (2012). Diferencias generacionales en los objetivos de
vida, la preocupación por los demás y la orientación cívica de los adultos jóvenes, 19662009.
Revista de Personalidad y Psicología Social, 102(5), 1045–1062. https://doi.org/10.1037/a0027408.
Estados Unidos: Estado Mayor Conjunto. (2014). Publicación conjunta 3–13: Información
operaciones.
Vargo, C., Lei, G. y Amazeen, M. (2017). El poder de las noticias falsas para establecer la agenda: un
análisis de big data del panorama de los medios en línea de 2014 a 2016. New Media & Society,
20(5), 2028–2049.
Vejvodová, P. (2019). La Información y las Operaciones Psicológicas como Reto a la Seguridad y la
Defensa. Vojenské rozhledy, 28(3), 83–96.
Vosoughi, S., Roy, D. y Aral, S. (2018). La difusión de noticias verdaderas y falsas en línea. Ciencia,
359(6380), 11461151. https://doi.org/10.1126/science. aap9559.
Wojnowski, M. (2019). Las elecciones presidenciales como herramienta de desestabilización del Estado
en la teoría y la práctica de las operaciones infopsicológicas rusas en los siglos XX y XXI . Przegl
˛ad Bezpiecze ´nstwa Wewn˛etrznego, 11(21), 311–
333.
Zillmann, D. y Jennings, B. (2011). Exposición selectiva a la comunicación.
Londres: Serie de comunicación de Routledge.
Machine Translated by Google
CAPITULO 2
2.1 Introducción
¿Cuál es el futuro de la propaganda política? ¿El futuro es "ahora"? En
Ucrania, la guerra de información se hizo pública y posteriormente apareció
un debate sobre nuevas formas de difusión de propaganda. En el conflicto
rusoucraniano surgieron cuentas controladas por humanos que
manipulaban contenido en línea al mismo tiempo. Los llamados trolls del
Kremlin intentaron influir en el público nacional y ucraniano a favor del
encuadre ruso de la confrontación. La parte ucraniana, por su parte,
también intentó utilizar Internet como arma no cinética. El Ejército de
Información de Ucrania fue fundado por el Ministerio de Política de
Información como una iniciativa destinada a luchar contra los trolls rusos y contra todos l
J. Drmola
Correo electrónico: jdrmola@mail.muni.cz
44 M. PAVLÍKOVÁ ET AL.
46 M. PAVLÍKOVÁ ET AL.
1Según Webster (2006, 8), también existe una sexta definición. Sin embargo, '... su afirmación
principal no es que hoy en día haya más información (obviamente la hay), sino más bien que la
El carácter de la información es tal que ha transformado nuestra manera de vivir".
Machine Translated by Google
bienes físicos” (Mazarr et al. 2019, 3). Además, en algunos estudios se utiliza la
sociedad de la información en lugar de la economía de la información (Atik 1999, 121).
Según la OCDE, la economía de la información "se refiere a las implicaciones de las
tecnologías de la información en la economía [y] en el desempeño de las empresas
(productividad, rentabilidad, empleo)" (Godin 2008, 268). Las tres concepciones de
Godin aquí demuestran que la información y las tecnologías de la información son,
hoy en día, los principales productos de los negocios internacionales.
El entorno de la información, donde tienen lugar todos estos procesos, es un
concepto que se entiende a la vez de forma vaga y compleja. Los estudios sobre
medios y comunicación suelen utilizar términos como "sistema de prensa", "sistema
de medios" y "sistema de comunicación de masas". Sin embargo, la forma en que
se construyen y desarrollan los sistemas mediáticos ya no es homogénea. Además,
estos conceptos no integran todos los actores y formas de comunicación
interpersonal que podemos ver hoy. Por lo tanto, el concepto de entorno informativo
proporciona una mejor comprensión del "campo de batalla" donde la propaganda
y la desinformación luchan por nuestra atención y afecto. El entorno de información
consta de tres dimensiones: cognitiva, informativa y física (Jefes de Estado Mayor
Conjunto de EE. UU., 2006).
El entorno de la información durante la mayor parte del siglo XX fue uno en el que
las personas podían identificar fácilmente el lugar, el tiempo y el espacio con los
que se relacionaba la información; sin embargo, esto se volvió más difícil (si no
imposible) con la llegada de Internet a finales de los años 1980. Este cambio no
sólo dificultó a los consumidores identificar dónde y cuándo se publicó inicialmente
la información, sino que incluso identificar al productor se convirtió en un desafío.
Otra forma de concebir este cambio es que el ciberespacio y las redes sociales se
entrelazaron con (o comenzaron a superponerse) el entorno de la información
(Porche et al. 2013, 12).
La parte integral del entorno de la información es la infosfera.
En ocasiones, estos dos términos se utilizan como sinónimos. Sin embargo, en
nuestra opinión, estos dos conceptos son más complejos y, por lo tanto, definiremos
la infosfera por separado. El término fue ideado por Boulding en 1970.
Señala que "la infosfera consiste entonces en entradas y salidas de conversaciones,
libros, televisión, radio, discursos, servicios religiosos, clases y conferencias, así
como información recibida del mundo físico mediante observación personal". …
Es claramente un segmento de la socioesfera por
derecho propio y, de hecho, tiene un derecho considerable a dominar los demás
segmentos. Se puede argumentar que el desarrollo de cualquier tipo es
esencialmente un proceso de aprendizaje y que depende principalmente de una red de
Machine Translated by Google
48 M. PAVLÍKOVÁ ET AL.
50 M. PAVLÍKOVÁ ET AL.
52 M. PAVLÍKOVÁ ET AL.
54 M. PAVLÍKOVÁ ET AL.
El caso de 2Aro fue aún más lejos. Los trolls/ciberacosadores más agresivos terminaron en
tribunal finlandés y, en consecuencia, tres personas fueron condenadas (Staudenmaier 2018).
Machine Translated by Google
56 M. PAVLÍKOVÁ ET AL.
58 M. PAVLÍKOVÁ ET AL.
60 M. PAVLÍKOVÁ ET AL.
clip de vídeo. Cuando un generador produce un nivel de salida aceptable, los vídeos
se "alimentan" nuevamente al discriminador. El proceso se repite para que el
generador mejore en la creación de videos y el discriminador mejore en su análisis.
Estas dos partes del sistema también se denominan red generativa adversarial (GAN)
(Yuzeun y Lyu 2018, 47; Robinson 2018, 18; What Is It 2019, sf; Giles et al. 2019).
Entre los ejemplos más famosos de vídeo falso (que inició el debate público sobre
el deepfake) se encuentra una "llamada telefónica" entre Barack Obama y Donald
Trump. En 2016, The Tonight Show de NBC transmitió una escena en la que Jimmy
Fallon disfrazado de Donald Trump y en una llamada telefónica con Dion Flynn, quien
estaba disfrazado de Barack Obama. Esta escena se rehizo en 2019 cuando un
usuario llamado James subió un video similar a YouTube. Esta vez, sin embargo, el
vídeo se creó mediante un modelo de aprendizaje automático profundo y los
espectadores tuvieron la impresión de estar viendo los rostros reales de Donald
Trump y Barack Obama. Sus gestos y voces eran casi indistinguibles de los de los
verdaderos presidentes (Parkin 2019). Junto con la creciente calidad de los videos
deepfake, surge una creciente preocupación de que el abuso de dicha herramienta
conduzca a ataques a
Machine Translated by Google
62 M. PAVLÍKOVÁ ET AL.
políticos, lo que podría ser especialmente perjudicial durante las elecciones. El peligro
surge del hecho de que hoy en día no existe ningún software disponible que pueda
detectar de forma rápida y fiable estos vídeos como falsos (Schellmann 2017).
Sin embargo, las tecnologías deepfake no son sólo vídeos. Otro uso de la tecnología
se demostró en el caso de una foto de perfil falsa de Kate Jones en LinkedIn. El perfil
de Jones se diferenciaba de las falsificaciones "ordinarias" en muchos aspectos: estilo,
precisión del perfil, pero principalmente en el uso de tecnología deepfake. En lugar de
una copia de una fotografía o una fotografía robada de una persona real, el perfil falso
de Jones utilizó una foto única, que era un artefacto generado por computadora
mediante algoritmos de aprendizaje automático.
Esto hizo que fuera más difícil para los usuarios reales de LinkedIn reconocer que la
cuenta era falsa y muchos de ellos aceptaron las solicitudes de conexión de Jones. Las
solicitudes fueron aceptadas incluso por el Agregado de Defensa de Estados Unidos
en Moscú, un funcionario de alto rango del Departamento de Estado de Estados
Unidos4 y otros profesionales (Giles et al. 2019, 45). El perfil fue detectado como falso
en junio de 2019, tres meses después de su creación. Se desconoce el propósito del
perfil falso y sus creadores. Esta "autenticidad falsa" es motivo de preocupación, ya
que la erosión de los métodos estándar y de fácil acceso para verificar cuentas (como
la búsqueda inversa de fotos) hace que sea más difícil distinguir los perfiles falsos de
los reales.
Otra herramienta relacionada con las amenazas deepfake en 2019 fue la aplicación
FaceApp. La aplicación se basa en algoritmos de inteligencia artificial que pueden
intercambiar caras en videos. FaceApp demuestra que utilizar herramientas que
emplean inteligencia artificial puede ser tan sencillo que cualquiera puede hacerlo
utilizando un teléfono inteligente. No necesita ningún sistema de hardware sofisticado
ni un equipo de especialistas y expertos. Además de vídeos divertidos, la aplicación se
puede utilizar para producir vídeos falsos (Dickson 2018). Otra amenaza que presenta
FaceApp radica en el campo de la privacidad de los datos. En 2019, cuando las
celebridades publicaron sus fotos generadas por esta aplicación en las redes sociales,
iniciando el 'desafío FaceApp', la aplicación se hizo famosa y se extendió entre decenas de millones de
Como resultó más tarde, la empresa responsable de la aplicación procedía de Rusia y
la política de privacidad de la aplicación no está clara; Los usuarios no saben si la
empresa está recopilando sus datos o vendiéndolos a terceros, o posiblemente
recopilando sus datos para entrenar algoritmos de aprendizaje profundo aún mejores
para su futura implementación. Además, este tipo de aplicación podría ser una herramienta para
64 M. PAVLÍKOVÁ ET AL.
(ataques contra jueces, policías, etc.). Otra amenaza a la democracia está relacionada
con la credibilidad y la confianza en los medios. La tecnología deepfake plantea
desafíos no solo para los ciudadanos a la hora de reconocer qué es real y qué es falso,
sino también para los periodistas (por ejemplo, qué vídeos de testigos presenciales son
reales) (Chesney y Citron 2018b, 1779; CNN 2019, sf; Westerlund 2019, 42). . La
desconfianza podría ser incluso más peligrosa que el propio deepfake. Esta
desconfianza en los medios, las noticias y la información puede denominarse
"apocalipsis informativo" o "apatía de la realidad" (Westerlund 2019, 43).
Para las empresas, las principales amenazas están relacionadas con la credibilidad
y la privacidad, principalmente en lo que respecta a la transparencia y la privacidad de
los datos. También existe el peligro de que algunos deepfakes tomen decisiones fatales
basadas en información totalmente falsa (noticias falsas, mensajes de voz falsos, etc.)
que parece real. La amenaza a la credibilidad está relacionada principalmente con la
reputación (de las empresas o de sus líderes), que podría verse muy fácilmente
dañada por la tecnología deepfake (por ejemplo, por algunos vídeos falsos e
inadecuados). Otra amenaza está relacionada con la manipulación del mercado o la
manipulación del proceso de toma de decisiones. Las tecnologías deepfake podrían
producir registros que podrían utilizarse para chantajear o causar pánico en el mercado
(por ejemplo, noticias sobre una quiebra, etc.) (Westerlund 2019, 43).
Para los individuos, la primera implicación posible es que cualquiera podría ser
objeto de manipulación, abuso, chantaje, etc.; este riesgo es mayor para personas que
son celebridades, políticos y similares. La segunda implicación es que todo el contenido
producido por nosotros podría usarse como insumo para la creación de un deepfake
(Giles et al. 2019, 17). Este punto se relaciona entonces con la privacidad y la protección
de datos. En relación con los individuos, también podríamos señalar que la tecnología
deepfake podría usarse fácilmente en el abuso de niños por parte de depredadores
infantiles (Westerlund 2019, 43) o causar pánico público.
2.7 Resumen
La evolución de las técnicas de propaganda manipuladora va de la mano del
desarrollo tecnológico. Con la propaganda "en línea", utiliza tropas cibernéticas
voluntarias y pagadas, respaldadas por el Estado y las empresas, y herramientas
primitivas y sofisticadas. La propaganda en línea manipula el comportamiento de
la gente tanto en países democráticos como no democráticos. En los regímenes
no democráticos, el objetivo es influir en los ciudadanos y fortalecer el régimen.
Sin embargo, esos países también pueden tener aspiraciones ofensivas contra
otros actores estatales. Como lo han demostrado las recientes actividades de
Rusia, la propaganda y la manipulación en línea pueden ser una herramienta
importante en la confrontación de poder.
En este capítulo se presentaron las tendencias actuales de las actividades
modernas de desinformación y propaganda en línea desde diferentes perspectivas.
Primero se centró en el entorno de la información en el contexto del uso de la
propaganda. Se introdujeron nuevas tendencias en las no democracias, ampliadas
a través de la lente del ejemplo ruso. En Rusia, la restricción de Internet todavía
está evolucionando. Como se mencionó, el ejemplo más reciente es RuNet, un
entorno aislado a partir de 2020 que manifiesta la "soberanía digital" de Rusia.
Sin embargo, esto no significa que Rusia u otros países "aislados" no influyan ni
utilicen herramientas de propaganda sobre otros. Reciente
Machine Translated by Google
66 M. PAVLÍKOVÁ ET AL.
Bibliografía
AlRawi, A. y Jiwani, Y. (2019). Los trolls rusos de Twitter avivan las mentiras antiinmigrantes
antes de las elecciones canadienses. Radio Pública Internacional. https://www.pri.org/
stories/20190726/russiantwittertrollsstokeantiimmigrantliesaheadcanadianelection.
Consultado el 20 de marzo de 2020.
Aro, J. (2016). La guerra del ciberespacio: propaganda y trolling como herramientas de guerra.
Visión europea, 15 (1), 121132. https://doi.org/10.1007/s1229001603955 .
Cadwalladr, C. y Townsend, M. (24 de marzo de 2018). Revelado: Los vínculos que unieron a
la empresa de datos Vote Leave con la controvertida Cambridge Analytica.
El guardián. https://www.theguardian.com/uknews/2018/mar/24/agg regateiqdatafirmlink
raisesleavegroupquestions. Consultado el 20 de marzo de 2020.
Capurro, R. y Hjørland, B. (2005). El concepto de información. Revisión anual de ciencia y
tecnología de la información, 37 (1), 343–411. https://doi. org/10.1002/aris.1440370109.
68 M. PAVLÍKOVÁ ET AL.
CNN. (2019). Vídeos deepfake: dentro de la carrera del Pentágono contra los vídeos deepfake. Red
de Noticias por Cable. https://edition.cnn.com/interactive/2019/01/business/pentagonsrace
againstdeepfakes/ . Consultado el 20 de marzo de 2020.
Dickson, B. (julio de 2018). Cuando Ai se desdibuja: la línea entre la realidad y la ficción.
Revista PC, págs. 114125.
Ebner, J. (6 de marzo de 2018). Forscherin schleust sich bei Hasskommentatoren ein und erlebt
Erschreckendes. Enfoque en línea. https://www.focus.de/politik/experten/gastbeitragvonjulia
ebnerhassaufknopfdruckwenndieverbreitungvonhasscomputerspielcharakter
bekommt_id_8554382.html .
Consultado el 19 de marzo de 2020.
Farrell, H. (19 de mayo de 2016). El gobierno chino falsifica casi 450 millones de comentarios en las
redes sociales al año: este es el motivo. El Washington Post. https://www.washingtonpost.com/
news/monkeycage/wp/2016/05/19/thechinesegovernmentfakesnearly450millionsocial
mediacommentsayearthis _ es porque/. Consultado el 19 de marzo de 2020.
Field, M. y Wright, M. (17 de octubre de 2018). Los trolls rusos enviaron miles de mensajes a favor
de la salida el día del referéndum sobre el Brexit, según revelan datos de Twitter.
El Telégrafo. https://www.telegraph.co.uk/technology/2018/10/17/rus sianiraniantwittertrolls
sent10milliontweetsfakenews/. Consultado el 19 de marzo de 2020.
Tiempos financieros. (2019, 30 de septiembre). El Tesoro de EE.UU. golpea al "chef de Putin" con
Nuevas sanciones.
FragaLamas, P., & FernándezCaramés, TM (2019). Noticias falsas, desinformación y deepfakes:
aprovechamiento de las tecnologías de contabilidad distribuida y blockchain para combatir el
engaño digital y la realidad falsificada (documento de trabajo). Universidad de Cornell. https://
arxiv.org/abs/1904.05386.
Casa de la libertad. (2014). Libertad en la red: Rusia. https://freedomhouse. org/report/freedomnet/
2014/russia. Consultado el 20 de marzo de 2020.
Casa de la libertad. (2018). Libertad en la Red: China. https://freedomhouse. org/report/freedomnet/
2018/china. Consultado el 20 de marzo de 2020.
Frenkel, S. y Wakabayashi, D. (2 de febrero de 2018). Después del tiroteo en una escuela de Florida,
el ejército ruso 'Bot' se abalanzó. New York Times. https://www. nytimes.com/2018/02/19/
technology/russianbotsschoolshooting.html.
Consultado el 20 de marzo de 2020.
Machine Translated by Google
Howard, PN, Ganesh, B., Liotsiou, D. y Kelly, J. (2018). El IRA y la polarización política en
Estados Unidos, 20122018. Universidad de Oxford: Proyecto de investigación de
propaganda computacional. https://comprop.oii.ox.ac.uk/wpcontent/uploads/sites/93/2018/12/
TheIRASocialMediaandPoliti calPolarization.pdf. Consultado el 19 de marzo de 2020.
Howard, PN, Ganesh, B. y Liotsiou, D. (2019). El IRA, las redes sociales y la polarización política
en los Estados Unidos, 20122018. Universidad de Oxford: Proyecto de investigación de
propaganda computacional. https://comprop.oii.ox.ac.uk/wpcontent/uploads/sites/93/2018/12/
TheIRASocialMediaandPoliti calPolarization.pdf. Consultado el 19 de marzo de 2020.
Jiang, M. y Kingwa, F. (2018). Redes sociales chinas y Big Data: ¿Big Data, gran hermano,
gran beneficio? Política e Internet, 10(4), 372–392. https://doi. org/10.1002/poi3.187.
Khondker, HH (2011). Papel de los nuevos medios en la Primavera Árabe. Globalización, 8(5),
675–679. https://doi.org/10.1080/14747731.2011.621287.
Machine Translated by Google
70 M. PAVLÍKOVÁ ET AL.
King, G., Pan, J. y Roberts, ME (2013). Cómo la censura en China permite las críticas al
gobierno pero silencia la expresión colectiva. American Political Science Review, 107
(2), 1–18. http://j.mp/2nxNUhk. Consultado el 20 de marzo de 2020.
Pavlíková, M. y Mareš, M. (2018). Techniky robotické propagandy na sociální síti Twitter [Técnicas de
propaganda robótica en la red Twitter]. Právo a Technologie, 9(18), 3–28. https://doi.org/10.5817/
RPT201821.
Porsche, IR, Paul, Ch., York, M., Serena, Ch. C., Sollinger, JM, Axelband, E., et al. (2013). El entorno de
la información y la guerra de la información. En Redefinición de los límites de la guerra de información
para un ejército en un mundo inalámbrico (págs. 1118). Corporación RAND.
Robinson, O. (2018). Uso malicioso de las redes sociales: estudios de casos de BBC Monitoring. Riga:
CoE Stratcom de la OTAN. https://www.stratcomcoe.org/mal icioususesocialmediacasestudies
bbcmonitoring. Consultado el 7 de noviembre de 2019.
Rose, H. (29 de mayo de 2019). Jessikka Aro, la periodista que se enfrentó a los trolls rusos. El tiempo
del domingo. https://www.thetimes.co.uk/article/jessikkaarothejournalistwhotookonrussiantrolls
fv0z5zgsg. Consultado el 7 de noviembre de 2019.
Schellmann, H. (5 de diciembre de 2017). La nueva y peligrosa tecnología que nos hará cuestionar
nuestra idea básica de la realidad. Cuarzo. https://qz.com/1145657/thedangerousnewtechnology
thatwillmakeusquestionourbasicideaofreality/ . Consultado el 9 de noviembre de 2019.
Trabajos seguros. (2017). Conceptos básicos de las amenazas cibernéticas, tipos de amenazas,
inteligencia y mejores prácticas. https://www.secureworks.com/blog/cyberthreatbasics. Consultado
el 18 de febrero de 2020.
Segev, H., Doron, E. y Orion, A. (2019). ¿A mi manera o a Huawei? La carrera entre Estados Unidos y
China por el dominio de 5G. Instituto de Estudios de Seguridad Nacional, Universidad de Tel Aviv.
INSS Insight, núm. 1193. https://www. inss.org.il/publication/mywayorthehuaweitheunitedstates
chinaracefor5gdominance/?offset=2&posts=2219&fbclid=IwAR1VgdtXd2msdotN
HsOaCm_lkvyz_XFp4nDM0w0gjapp1DMIPdcVfQamTwE. Consultado el 10 de enero de 2020.
Machine Translated by Google
72 M. PAVLÍKOVÁ ET AL.
Salomón, S. (22 de marzo de 2018). Cambridge Analytica desempeñó un papel en múltiples elecciones
africanas. Voa. https://www.voanews.com/africa/cambridgeanalyticaplayedrolesmultipleafrican
elections . Consultado el 8 de noviembre de 2019.
Spruds, A., Rožulkalne, A. y Sedlenieks, K. (2016). El troleo en Internet como
Herramienta de guerra híbrida: el caso de Letonia. Riga: Centro de Europa de la OTAN.
Staudenmaier, R. (18 de octubre de 2018). Un tribunal de Finlandia declara culpables a los trolls pro
Kremlin de acosar a un periodista. Deutsche Welle. https://www.dw.com/en/courtinfinlandfindspro
kremlintrollsguiltyofharassingjournalist/a459448930 . Consultado el 8 de noviembre de 2019.
Tang, M. y Huhe, N. (2020). Analizando el efecto de Internet en el apoyo al régimen en China. Gobierno
y oposición, 55 (20), 130146. https://doi.org/10.1017/gov.2017.39 .
El proyecto de propaganda computacional. (2016). Recurso para comprender los robots políticos. http://
comprop.oii.ox.ac.uk/research/publicscholarship/resourceforunderstandingpoliticalbots/ .
Consultado el 10 de noviembre de 2019.
Los tiempos de Moscú. (2019, 1 de mayo). Putin promulga un proyecto de ley sobre aislamiento de
Internet. https://www.themoscowtimes.com/2019/05/01/putinsignsint ernetisolationbillintolaw
a65461. Consultado el 7 de noviembre de 2019.
La Duma del Estado. (2012). Medida Legislativa N° 894176 de 2012, Sobre la Infancia
Protección contra contenidos maliciosos de Internet.
La Duma del Estado. (2014a). Medida Legislativa No. 4288846, Los Bloggers
Ley.
La Duma del Estado. (2014b). Medida Legislativa N° 5534246, Sobre Datos
Proveedores de almacenamiento
ˇ y telecomunicaciones.
Thim, M. (2017). Cínský internet pod rostoucí kontrolou [La Internet china bajo un control cada vez
mayor]. Praga: AMO.
Titcomb, J. (22 de agosto de 2018). Facebook y Twitter eliminan cientos de cuentas falsas vinculadas a
Irán y Rusia. El Telégrafo. https://www.telegraph. co.uk/technology/2018/08/22/facebooktwitter
deletehundredsfakeacc ountslinkediranrussia/. Consultado el 10 de noviembre de 2019.
74 M. PAVLÍKOVÁ ET AL.
CAPÍTULO 3
3.1 Introducción
La atención que hoy se presta a las campañas de desinformación es un asunto
delicado para los políticos, los tomadores de decisiones y los medios de
comunicación en muchos países, particularmente en las democracias liberales
occidentales. También ha despertado un gran interés entre académicos y expertos
en seguridad. Las formas políticas específicas de desinformación tienen un fuerte
impacto en las sociedades de la era digital. Algunos autores, cuando hablan de
los desarrollos más recientes, incluso utilizan el término era posdigital, que se
refiere “a un estado en el que la disrupción provocada por la tecnología de la
información digital ya ha ocurrido” (Albrecht et al. 2019, 11).
M. Mareš
correo electrónico: mmares@fss.muni.cz
76 M. MAREŠ Y P. MLEJNKOVÁ
78 M. MAREŠ Y P. MLEJNKOVÁ
80 M. MAREŠ Y P. MLEJNKOVÁ
Los miembros del comando capturaron una emisora de radio y, bajo la falsa bandera de los
nacionalistas polacos, emitieron una proclama antialemana. Este incidente sirvió como una de
las excusas para la invasión de Polonia por parte de Hitler el 1 de septiembre de 1939
(Runzheimer 1962). El mensaje falso se difundió por ondas de radio y la propaganda alemana
hizo mal uso de la información sobre este incidente. En la era de Internet, los ciberataques bajo
una bandera falsa dirigidos a personas específicas (entre otras razones, con fines de chantaje)
son representativos de la primera categoría, y los ataques masivos a sitios web en un país
extranjero, dirigidos en realidad por expertos militares gubernamentales que fingen ser
hacktivistas no gubernamentales y similares, son representantes de la segunda categoría
(Pihelgas y Tammekänd 2015).
Los fuertes esfuerzos de varios actores de la historia por crear sus propias
actividades de desinformación y propaganda también han llevado a defensas contra
ellos. Se han llevado a cabo ataques militares selectivos, incursiones de fuerzas
especiales o diversos ataques, incluidos sabotajes y terrorismo, contra fuentes de
propaganda enemigas; recientemente, se pueden aprovechar las posibilidades de
la piratería informática y la guerra cibernética. Varias formas de restricciones legales,
como los castigos draconianos, fueron reacciones a la ayuda propagandística
brindada a los enemigos e incluso simplemente a leer o escuchar propaganda
extranjera. Estas penas eran típicas de muchas épocas históricas, sobre todo en
regímenes no democráticos, como en la Alemania nazi y los territorios ocupados
durante la Segunda Guerra Mundial. Sin embargo, durante las guerras y otras
situaciones de crisis o como protección contra el extremismo, las democracias
también tienen una libertad de expresión limitada en relación con la difusión de
noticias falsas y la infiltración de propaganda extranjera (Capoccia 2005, 58).
Además, algunas restricciones menores o no formalizadas destinadas a la difusión
de propaganda y desinformación en espacios públicos (escuelas, televisión pública,
etc.) pueden resultar eficientes. Las tecnologías también pueden utilizarse contra la
difusión de propaganda, por ejemplo, las interferencias de radio durante la Guerra Fría o, recientem
Además de las medidas represivas, la contrapropaganda y la educación pública
también podrían eliminar el impacto de la propaganda de un adversario.
(1) Acciones militares directas y otras acciones violentas contra las fuentes
(incluidos los ataques cibernéticos); (2) legal represivo; (3) social; y (4) medidas
tecnológicas; (5) contrapropaganda; y (6) la educación pública son síntomas de la
securitización de las cuestiones de propaganda y desinformación.
La titulización se entiende como "el movimiento que lleva la política más allá de las
reglas del juego establecidas y encuadra la cuestión ya sea como un tipo especial
de política o por encima de la política" (Buzan et al. 1998, 23). Según Ralf Emmers,
"el acto de titulización sólo tiene éxito una vez que la audiencia relevante está
convencida de la amenaza existencial al objeto de referencia" (Emmers 2007, 114).
82 M. MAREŠ Y P. MLEJNKOVÁ
Las medidas adoptadas han sido ambiguas, sobre todo en casos relacionados con las limitaciones
de la libertad de expresión en Internet.
En resumen, la propaganda y la desinformación tienen fuertes tradiciones históricas y sus
legados se transfieren continuamente a la era contemporánea, que es típica de las nuevas
oportunidades tecnológicas (Internet, redes sociales, inteligencia artificial). Estos fenómenos
tienen un impacto en diversos sectores de la seguridad externa e interna. Las nuevas formas de
comunicación y medios han creado una nueva dimensión de amenaza y provocado su titulización.
Además, dado que estos fenómenos han estado afectando a una amplia gama de sectores,
también hay una variedad de actores (tanto antiguos como nuevos) que participan en el juego de
la desinformación y la propaganda.
Estos actores están interconectados en algunas categorías, pero algunos de ellos actúan
independientemente de otros. También es imposible identificar un frente global unificado de
desinformación. Además, la interdependencia de algunos actores también es un hecho (ver más
abajo). Si analizáramos las relaciones de varios actores con las esferas gubernamental o no
gubernamental, veríamos una frontera poco clara y flexible entre ellas. Algunas campañas de
desinformación son organizadas por actores gubernamentales (incluidas ramas especiales de
los servicios secretos), mientras que otras incluyen la participación de fuerzas no estatales, pero
progubernamentales. La interconexión de varios actores.
Machine Translated by Google
con corrientes ideológicas (por ejemplo, la extrema derecha) puede hacer que actores no
gubernamentales en un país apoyen a actores gubernamentales en otros países a través de
campañas de noticias falsas (por ejemplo, una campaña en nombre del ministro del interior
italiano, Matteo Salvini, por parte del partido de extrema derecha occidental). Justo en 20182019).
Si analizamos cómo se difunde la desinformación, podemos identificar:
La categorización específica de los actores de los medios que pueden difundir desinformación
en todas las formas antes mencionadas es muy amplia e incluye todos los tipos de canales
de comunicación mediáticos en el mundo contemporáneo.
En Rusia se ha creado un sistema muy desarrollado de propaganda y desinformación.
Continúa en línea con las "medidas activas" de la Unión Soviética. La estructura de este
sistema de propaganda y desinformación es parcialmente encubierta; sin embargo, con la
ayuda de muchos indicios, se pudo delinear su contorno básico. Después de veinte años
bajo Vladimir Putin, Rusia puede caracterizarse como un régimen autoritario moderno
(Mochˇtak y Holzer 2017, 37). Su legitimación interna, así como su política exterior, combinan
elementos nacionalistas e imperiales con los legados de la política expansionista rusa y
tradiciones seleccionadas del pasado soviético (principalmente la glorificación de la victoria
soviética en la Segunda Guerra Mundial, que se utiliza para justificar la reciente interferencia
rusa en la guerra). la política de los países extranjeros.
84 M. MAREŠ Y P. MLEJNKOVÁ
sistema. La era moderna de este fenómeno, relacionado con las redes sociales en el
ciberespacio, comenzó a principios de la segunda década del siglo XXI. En ese momento,
el uso gubernamental de trolls estaba dirigido contra opositores internos del régimen ruso
(Benkler et al. 2018, 247). Tras el inicio de la crisis ucraniana a principios de 2013/2014,
la propaganda rusa reorientó su principal interés hacia los países extranjeros. La reciente
maquinaria de propaganda y desinformación del país consta principalmente de las
siguientes partes (y, por supuesto, interconectadas):
Algunos actores pueden incluirse en más de una de las categorías antes mencionadas.
Probablemente el símbolo más importante de la lucha rusa moderna contra la
desinformación sea la Agencia de Investigación de Internet (IRA; Agentstvo internet
issledovaniya), conocida en términos generales como la granja de trolls rusa. Fundada
en 2013, su objetivo es difundir propaganda y desinformación con la ayuda de
empleados que actúan como trolls (ver Capítulo 2) en varias redes sociales. Está
organizado a través de estructuras oligárquicas proPutin; sin embargo, la influencia de
los servicios secretos rusos en su actividad es muy probable (Spruds et al. 2016, 1617).
Esta nueva dimensión de los actores de extrema derecha está relacionada con el
ascenso de la llamada derecha alternativa en Estados Unidos y muchos otros países,
así como con movimientos antiislámicos, principalmente a mediados de la década de 2010.
Sus canales de comunicación (plataformas como Reddit, 4Chan y 8Chan o campañas
nacionales específicas con antecedentes organizativos como 'Reconquista Germania' o
'Infokrieg') fueron o todavía son utilizados con fines de propaganda y movilización.
También sirven para apoyar el ascenso de partidos populistas de derecha (Conway y
Courtney 2018, 9). El movimiento identitario es un actor importante en el campo de la
propaganda moderna de extrema derecha, como lo demostró la campaña 'Defender
Europa' durante la crisis migratoria (Gattinara y Froio 2019).
Machine Translated by Google
86 M. MAREŠ Y P. MLEJNKOVÁ
88 M. MAREŠ Y P. MLEJNKOVÁ
90 M. MAREŠ Y P. MLEJNKOVÁ
92 M. MAREŠ Y P. MLEJNKOVÁ
A medida que Internet, las redes sociales y los métodos de recopilación de datos
se han desarrollado, también han progresado y transformado los objetivos de los
desinformadores y propagandistas, que ya no se limitan únicamente a la difusión de
información, contenidos y narrativas manipuladores. Las posibilidades actuales de
recopilación de datos sobre los usuarios de Internet y el público objetivo permiten que
la propaganda y la desinformación se centren más allá de influir en las actitudes y el
comportamiento para controlar las redes entre contactos, las interconexiones entre
personas en el espacio virtual y la fuerza de estas interconexiones. La victoria final ya
no se limita a la difusión de narrativas, sino a ganar control sobre la red a través de
narrativas que pueden difundirse. Con conocimiento de la estructura y configuración
de una red, el entorno tecnológico de Internet hace que sea fácil de manipular de la
forma prevista, reconfigurando vínculos entre usuarios y redes confiables. Usando
terminología militar, la derrota es cuando uno ha perdido el control sobre su propia
red. Es posible influir con
Machine Translated by Google
con quién se comunican los usuarios, con qué usuarios conocen virtualmente y
quién se considera una fuente confiable. Es fácil identificar, por ejemplo, a los
usuarios antisistema e influir en ellos. Las conexiones naturales pueden
manipularse, pueden conectarse intencionalmente entre sí y la conexión mutua
puede intensificarse intencionalmente. Una vez que se identifica a un grupo como
encerrado en una burbuja social sin casi ninguna influencia sobre la sociedad
mayoritaria, nuevamente es posible interferir y, basándose en datos, ampliar y
fortalecer sus vínculos fuera de la burbuja, por ejemplo, basándose en datos
relativos a la actividades de ocio de dichos usuarios. La oposición antisistema
puede reforzarse artificialmente. Es importante tener esto en cuenta cuando se
habla de vulnerabilidades porque las investigaciones muestran que la estructura
de las relaciones sociales entre los individuos influye en las actitudes y el comportamiento.
Según Hwang (2019), la estructura de una red puede influir en la afiliación
política, los hábitos de salud y la probabilidad de divorcio. La manipulación de
las conexiones de red a nivel micro puede afectar la estructura de las actitudes,
el comportamiento de un grupo objetivo o incluso la sociedad en su conjunto.
En definitiva, la gran estrategia de los actores que crean campañas de
desinformación y propaganda es explotar todas las posibles vulnerabilidades de
los individuos, así como las vulnerabilidades del sistema, a nivel psicológico,
cognitivo y técnico.
94 M. MAREŠ Y P. MLEJNKOVÁ
ataque de la 'guerra política 2.0' (Rossbach 2017). La nueva necesidad de una defensa
psicológica está fuertemente tematizada en Suecia y Estonia.
Según el gobierno estonio, la defensa psicológica consiste en informar a la sociedad y
aumentar el nivel de información sobre actividades contrarias al orden constitucional y a los
valores sociales. El concepto pretende ser proactivo para aumentar preventivamente la
resiliencia de la sociedad en posiblesˇ tiempos de crisis (Cerve nová 2019; Kaitseministeerium
ˇ
2017).
Respecto a Suecia, Rossbach (2017) habla de tres componentes: contrarrestar el engaño y
la desinformación, incluida la propaganda (todo lo hostil); garantizar que las autoridades
gubernamentales puedan comunicarse con el público en cualquier crisis, incluida la guerra;
y fortalecer la voluntad de la población de defender el país. Las operaciones de información y
psicológicas, las operaciones de influencia y la resiliencia contra amenazas híbridas vuelven
a ser temas importantes de la agenda de defensa (Janssen y Sünkler 2019).
96 M. MAREŠ Y P. MLEJNKOVÁ
3.6 Conclusión
La propaganda y la desinformación se perciben como una amenaza y, por tanto,
los objetos de referencia dependen de los intereses de seguridad. Si nos centramos
–desde una perspectiva realista– en los Estados como los actores más importantes
de la política internacional, podemos identificar la soberanía, la estabilidad del
régimen y la riqueza de los ciudadanos como los valores protegidos más
importantes. La influencia de la propaganda y el uso de desinformación con el
objetivo de dañar estos intereses se percibe como una amenaza a la seguridad
relacionada con la fuente de dicha propaganda y desinformación. Desde el punto
de vista de las fuerzas políticas decisivas contemporáneas en los países
occidentales (incluida la política oficial de las organizaciones internacionales en
el área euroatlántica), los actores más amenazadores identificados en la época
contemporánea son los regímenes ruso y chino y los actores globalmente activos,
odiosos nacionalistas blancos y movimientos militantes yihadistas. Y al mismo
tiempo, están surgiendo nuevos campos de luchas de propaganda y desinformación, como el deb
La principal securitización de nuevas formas de propaganda y desinformación,
interconectada con el crecimiento masivo de personas que utilizan las redes
sociales, se produjo en la década de 2010, principalmente como reacción a la
campaña de movilización yihadista durante la guerra civil siria y el ascenso de
Daesh. con el inicio de la guerra híbrida rusa contra Ucrania y la intensificación
coincidente de la guerra política rusa contra Occidente, y recientemente, también
con el aumento de las habilidades propagandísticas chinas, incluido el potencial
amenazador de la inteligencia artificial. Sin embargo, la polarización de los debates
políticos internos hace que la actividad de varios movimientos políticos
(principalmente de extrema derecha) también sea una amenaza en el contexto de la seguridad in
A pesar de los muchos elementos nuevos de las recientes campañas de
propaganda y desinformación (entre otros, la posibilidad de la participación creativa
de 'ejércitos de trolls', oportunidades para personalizar el contenido y reconfigurar
la estructura de las relaciones virtuales, y la participación activa 'de base' de los
público (en términos de creación activa de contenido propagandístico y difusión
activa), la sustancia básica de la amenaza en diversas etapas del conflicto entre
dos o más actores sigue siendo similar a épocas anteriores.
Sin embargo, con la ayuda de términos adaptados a los acontecimientos actuales,
podemos explicar los principales rasgos característicos: durante esta era de guerra
política, la propaganda y la desinformación sirven para debilitar y desestabilizar
sistemáticamente al adversario, incluida la lealtad de los ciudadanos en los países
democráticos. países a sus regímenes. Después de escalar a la guerra híbrida, el
objetivo pasa a ser la eliminación de una reacción eficiente al uso mixto de
Machine Translated by Google
Referencias
Albrecht, S., Fielitz, M. y Thurston, N. (2019). Introducción. En M. Fielitz y N. Thurston
(Eds.), Culturas posdigitales de extrema derecha: acciones en línea y consecuencias
fuera de línea en Europa y EE. UU. (págs. 722). Bielefeld: Transcripción Verlag.
Buzan, B., Wæver, O. y de Wilde, J. (1998). Seguridad: un nuevo marco para el análisis.
Londres: Lynne Rienner.
Machine Translated by Google
98 M. MAREŠ Y P. MLEJNKOVÁ
Cowan, D. y Cook, C. (2018). ¿Lo que hay en un nombre? Operaciones psicológicas versus operaciones
de apoyo a la información militar y un análisis del cambio organizacional. Revisión militar. https://
www.armyupress.army. mil/Journals/MilitaryReview/OnlineExclusive/2018OLE/Mar/PSYOP/.
Cullen, PJ y ReichbornKjennerud, E. (2017). Proyecto de lucha contra la guerra híbrida del MCDC:
comprensión de la guerra híbrida, un proyecto de campaña de desarrollo de capacidades
multinacionales. Londres: Campaña de desarrollo de capacidades multinacionales. https://
assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/647776/
dar_mcdc_hybrid_warfare.pdf . Consultado el 12 de febrero de 2020.
Macdonald, S., Jarvis, L., Chen, T. y Aly, A. (Eds.). (2016). Extremismo violento en línea: nuevas
perspectivas sobre el terrorismo e Internet. Abingdon: Routledge.
Mareš, M. (2017). Combatientes extranjeros en Ucrania: análisis de riesgos desde el punto de vista de la
OTAN. En K. Rekawek (Ed.), ¿ No sólo Siria? El fenómeno de los combatientes extranjeros en una
perspectiva comparada (págs. 3139). Ámsterdam: IOS Press.
McFate, M., Holliday, R. y Damon, B. (2012). ¿Qué quieren saber realmente los comandantes? Lecciones
aprendidas del sistema de terreno humano del ejército de EE. UU. De Irak y Afganistán. En J.
Laurence y M. Matthews (Eds.), El manual de psicología militar (págs. 92113). Oxford: Prensa de la
Universidad de Oxford.
Mediana. (2017). Výzkum pro volební studio CRˇ [Encuesta electoral para la Televisión Checa]. http://
www.median.eu/cs/wpcontent/uploads/2017/10/Vyz kum_pro_volebni_studio.pdf. Consultado el 13
de febrero de 2020.
Mittler, B. (2008). ¿Propaganda popular? Arte y cultura en la China revolucionaria. Actas de la Sociedad
Filosófica Estadounidense, 152(4), 466–489.
Mochˇtak, M. y Holzer, J. (2017). Violencia electoral en la Rusia de Putin: autoritarismo moderno en la
práctica. Estudios de estados y sociedades en transición, 9(1), 35–52.
Myre, G. y Domonoske, C. (24 de mayo de 2017). ¿Qué significa cuando ISIS se atribuye la
responsabilidad de un ataque? Radio Pública Nacional. https://www.npr.org/sections/thetwoway/
2017/05/24/529685951/whatdoesitmeanwhenisisclaimsresponsibilityforanattack .
Consultado el 10 de febrero de 2020.
O'Shaughnessy, N. (2004). Política y propaganda: armas de seducción masiva.
Manchester: Prensa de la Universidad de Manchester.
Panˇcík, J. y Baisa, V. (2019). Rastreador web de propaganda (software). Brno:
Facultad de Informática, Universidad Masaryk.
Misión Permanente de la República Checa ante las Naciones Unidas, la OSCE y otras organizaciones
internacionales en Viena. (2017). Los estudiantes checos ganaron el tercer lugar en la competencia
entre pares #UnitedCVE de la OSCE. https://www.mzv.cz/mission.
Machine Translated by Google
Runzheimer, J. (1962). Der Überfall auf den Sender Gleiwitz im Jahre 1939.
Vierteljahrshefte für Zeitgeschichte, 10(4), 408–426.
Sakas, ME y Fendt, L. (5 de diciembre de 2019). La ciudad de Denver informará falsamente
sobre una emergencia climática. Radio pública de Colorado. https://www.cpr.org/2019/12/05/
climateactivistsuseddisinformationandimitadothecityofdenvertofalselyreporta
climateemergency/ . Consultado el 8 de febrero de 2020.
Scheidt, M. (2019). La Unión Europea versus las campañas de desinformación externa en
medio de la guerra de información: ¿listas para la batalla?
Brujas: Colegio de Europa. https://www.coleurope.eu/study/euinternati onalrelationsand
diplomacystudies/researchpublications/eudiplomacypapers. Consultado el 12 de
febrero de 2020.
Schilk, F. (2017). Souveränität statt Komplexität: Wie das QuerfrontMagazin COMPACT die
politische Legitimationskrise der Gegenwartbearbeitet.
Münster: UNRAST Verlag.
Schmid, A. (2013). Radicalización, desradicalización, contraradicalización: una discusión
conceptual y revisión de la literatura. Trabajo de investigación sobre ICCT.
La Haya: ICCT. https://www.icct.nl/download/file/ICCTSchmidRadicalisationDe
RadicalisationCounterRadicalisationMarch2013.pdf . Consultado el 16 de febrero de
2020.
Comité Selecto de Inteligencia, Senado de los Estados Unidos. (2019). Campañas rusas de
medidas activas e interferencia en las elecciones estadounidenses de 2016 Volumen 2: El
uso de las redes sociales por parte de Rusia y opiniones adicionales. Washington: Senado
de los Estados Unidos. https://www.intelligence.senate.gov/sites/default/files/documents/
Report_Volume2.pdf . Consultado el 5 de febrero de 2020.
Shekhovtsov, A. (2017). Rusia y la extrema derecha occidental: Tango Noir. Londres:
Rutledge.
Shultz, RH (1989). Estrategias políticas para la guerra revolucionaria. En FC
Barnett & C. Lord (Eds.), Guerra política y operaciones psicológicas: repensar el enfoque
estadounidense. Washington: Prensa de la Unidad de Defensa Nacional, Centro de
Información de Estrategia Nacional.
Spruds, A., Rožukalne, A., Sedlenieks, K., Daugulis, M., Potjomkina, D. y Tölgyesi, B., et al.
(2016). El trolling de Internet como herramienta de guerra híbrida: el caso de Letonia. Riga:
OTAN Starcom CoE. https://www.stratcomcoe.org/internettrollinghybridwarfaretoolcase
latvia0 . Consultado el 4 de febrero de 2020.
Comité Directivo de Derechos Humanos, Consejo de Europa. (2019). Guía de prácticas buenas
y prometedoras para conciliar la libertad de expresión con otros derechos y libertades, en
particular en sociedades culturalmente diversas.
Estrasburgo: Consejo de Europa.
Tufekci, Z. (10 de marzo de 2018). YouTube, el gran radicalizador. Los New York Times. https://
www.nytimes.com/2018/03/10/opinion/sunday/you tubepoliticsradical.html. Consultado el
20 de febrero de 2020.
Machine Translated by Google
CAPÍTULO 4
Discurso de etiquetado
František Kasl
4.1 Introducción
El capítulo 7 de este volumen editado ofrece información sobre las medidas
actuales adoptadas por los países de la UE contra la desinformación y la
propaganda en el entorno en línea. Un aspecto crucial de estas medidas
legislativas o administrativas, que debe tenerse en cuenta, es su conformidad
con el marco jurídico europeo más amplio. Sobre sus componentes centrales
se ciernen los estándares de las sociedades democráticas europeas
consagrados conjuntamente en el Convenio Europeo de Derechos Humanos
(en adelante, "el Convenio"; TEDH 2019a) y respaldados por la jurisprudencia
del Tribunal Europeo de Derechos Humanos (TEDH) (TEDH 2019b ). ). Este
capítulo tiene como objetivo guiar al lector a través de la posición actual del
TEDH sobre la cuestión de las herramientas permitidas para combatir la desinformación y la
F. Kasl (B)
Instituto de Derecho y Tecnología, Facultad de Derecho, Universidad Masaryk, Brno,
República Checa Correo
electrónico: frantisek.kasl@law.muni.cz
URL: https://www.muni.cz/es/people/462266frantisekkasl
106 F. KASL
1 Sunday Times contra el Reino Unido, núm. 6538/74, §41, TEDH 1979; Observer and
Guardian contra Reino Unido, no 13585/88, §59, TEDH 1991.
2Tønsberg Blad AS y Marit Haukom c. Noruega, núm. 510/04, TEDH 2007; Bladet
Tromsø y Stensaas contra Noruega, núm. 21980/93, TEDH 1999.
Machine Translated by Google
108 F. KASL
110 F. KASL
112 F. KASL
9 Handyside contra el Reino Unido, núm. 5493/72, §42 y siguientes, TEDH 1976.
10Lingens contra Austria, núm. 9815/82, §34 y siguientes, TEDH 1986; ¸Sener c. Turquía,
núm. 26680/95, §25 y siguientes, TEDH 2000; Thoma contra Luxemburgo, núm. 38432/97, §32
y siguientes, TEDH 2001; Maronek c. Eslovaquia, núm. 32686/96, §46 y siguientes, TEDH 2001;
Dichand y otros c. Austria, núm. 29271/95, §25 y siguientes, TEDH 2002.
11Krone Verlag GmbH & Co. KG contra Austria (Nº 3), núm. 39069/97, §21 y siguientes,
TEDH 2003.
114 F. KASL
de formas más allá del odio racial originalmente adjudicado.21 Estas incluyen el
odio étnico,22 la incitación a la violencia y el apoyo a una actividad terrorista,23 el
negacionismo y el revisionismo,24 el odio religioso,25 o las amenazas al orden
democrático26 (TEDH 2019c, 1–5 ). Dicho discurso puede contener una forma de
desinformación en el sentido de que está fabulizado o intencionalmente sesgado,
pero eso es esencialmente un atributo secundario, en esencia no relacionado con
la base para la exclusión del alcance del discurso protegido, como se estableció
anteriormente. El enfoque europeo del discurso de odio es, de hecho,
significativamente más complejo que el sistema paralelo desarrollado en Estados
Unidos (Bleich 2014, 284); sin embargo, eso también significa que la categoría de
discurso de odio es menos clara, y la evaluación según la Convención requiere una
consideración cuidadosa de las circunstancias específicas de cada caso (Bleich
2014, 294). En consecuencia, el discurso de odio difícilmente puede percibirse
como una categoría definitiva, similar a la desafiante clasificación de desinformación
establecida anteriormente. Además, estas dos categorías pueden superponerse,
pero dado que sus atributos indicativos difieren, la superposición es meramente
parcial. Además, es poco probable que las noticias falsas que contienen
expresiones de odio, en particular odio contra una minoría, constituyan los llamados
casos difíciles (Dworkin 1975) en el sentido de desafiar el marco que guía la
interpretación judicial. Sin embargo, como se estableció gradualmente a lo largo de
este capítulo, es probable que una gran parte de la desinformación constituya
"casos difíciles" debido a la falta de pautas claras para su resolución.
116 F. KASL
27The Sunday Times contra el Reino Unido, no. 6538/74, §46 y siguientes, TEDH 1979.
28Handyside contra el Reino Unido, núm. 5493/72, §43–50, TEDH 1976.
29The Sunday Times contra el Reino Unido, no. 6538/74, §58 y siguientes, TEDH 1979.
Machine Translated by Google
En general, un caso límite debería adjudicarse a favor del individuo y su libertad, en lugar
de un reclamo de interés superior por parte del Estado.
(Rzepli'nski 1997, 23).
El enfoque restrictivo significa que no se permiten intereses o valores adicionales.
a los previstos en el Convenio deberían utilizarse como base para la
interferencia, y el contenido de los tres criterios antes mencionados debe
no deben interpretarse más allá de su significado ordinario (Comisión Europea de Derechos
Humanos 1977, 74). Esta posición del TEDH hacia
medidas que limiten la libertad de expresión son de gran relevancia para posibles
Medidas legislativas destinadas a luchar sistemáticamente contra la desinformación.
o propaganda.
Sin embargo, al margen de los criterios expresamente señalados en los párrafos
anteriores, el TEDH estableció en su caso más reciente
ley que se debe prestar cierta atención al contexto específico de la expresión (Bychawska
Siniarska 2017, 12). Esto significa que la consideración puede
ser dado a su propósito particular, por ejemplo, político o comercial
(Katsirea 2018, 173); su forma de difusión, como los medios audiovisuales
o acceso en línea (Callamard 2017, 325–26); o su objetivo predominante
audiencia, por ejemplo, el público sin restricciones, incluidos niños,
o simplemente un grupo de interés particular (BychawskaSiniarska 2017, 12).
Además, como se presentó al principio de este capítulo, algunos de los principales
Los aspectos que definen la desinformación, como la falsedad demostrable y la intención
de engañar, pueden considerarse relevantes en circunstancias contextuales. Estos se
dedujeron en su mayoría de casos de expresiones periodísticas controvertidas y
difamatorias, lo que se aproxima al contexto de las noticias falsas.
Los requisitos para mantener la base de la ética periodística mediante
ya se mencionaron los medios tradicionales; sin embargo, las noticias falsas son
predominantemente compartidas por los nuevos medios en el entorno en línea. Por lo tanto,
Además, debe tenerse en cuenta la posibilidad de ampliar
el requisito de mantener ciertos estándares periodísticos en línea
difusión de noticias también. Esta cuestión no es nada sencilla, dado que los medios de
comunicación en línea relevantes abarcan un espectro de temas significativamente más amplio.
y estructuras que los medios tradicionales. Probablemente haya poca disputa sobre
la aplicabilidad de los requisitos a las plataformas de noticias en línea de los medios de
comunicación tradicionales. Del mismo modo, los medios online con un contenido tradicional
proceso de creación (por parte de empleados o de otro modo limitado y responsable)
grupo) también probablemente se ajusten a los parámetros generales para la aplicabilidad de
estos requisitos. Sin embargo, una parte considerable de los considerados falsos
Machine Translated by Google
118 F. KASL
Sin embargo, estos probablemente serían casos extremos, resueltos según las respectivas
leyes nacionales específicas.
31The Sunday Times contra el Reino Unido (núm. 2), núm. 13166/87, §51, TEDH 1991;
Observer and Guardian contra el Reino Unido, no. 13585/88, §59, TEDH 1991.
32Goodwin contra el Reino Unido, núm. 17488/90, §27, TEDH 1996.
33Castells c. España, núm. 11798/85, TEDH 1992.
34Muller y otros c. Suiza, núm. 10737/84, §28, TEDH 1988.
35Casado Coca c. España, núm. 15450/89, §49, TEDH 1994.
36TV Vest AS & Rogaland Pensjonistparti c. Noruega, núm. 21132/05, §63, CEDH
2008.
Machine Translated by Google
120 F. KASL
38Observer and Guardian contra el Reino Unido, núm. 13585/88, TEDH 1991.
39Weber contra Suiza, núm. 11034/84, §49, TEDH 1990.
40¡Vereniging Weekblad Bluf! contra los Países Bajos, núm. 16616/90, §38 y siguientes, TEDH
1995.
41
Stoll contra Suiza, núm. 69698/01, §117 y siguientes, TEDH 2007.
42
Sürek y Ozdemir c. Turquía, núm. 26682/95, §49–50, TEDH 1999.
43
Sürek contra Turquía (núm. 3), núm. 24735/94, §40–41, TEDH 1999.
44
Sürek y Ozdemir c. Turquía, núm. 23927/94, 24277/94, §58 y siguientes, TEDH 1999.
45Kuhnen c. la República Federal de Alemania (inadmisible), núm. 12194/86, CEDH
1988.
Machine Translated by Google
122 F. KASL
46
Saszmann contra Austria (inadmisible), núm. 23697/94, TEDH 1997.
47Kudeshkina c. Rusia, núm. 29492/05, §81, TEDH 2009.
48Leroy c. Francia, núm. 36109/03, TEDH 2008; Stomakhin c. Rusia, núm. 52273/07,
TEDH 2018.
49Lehideux e Isorni c. Francia, núm. 24662/94, TEDH 1998.
50˙ _
IA c. Turquía, núm. 42571/98, TEDH 2005.
51Otegi Mondragón c. España, núm. 2034/07, TEDH 2011; Stern Taulats y Roura Capellera
c. España, núm. 51168/15, 51186/15, TEDH 2018.
52Pihl c. Suecia (inadmisible), núm. 74742/14, TEDH 2017; Savva Terentyev c. Rusia,
núm. 10692/09, TEDH 2018.
Machine Translated by Google
Incluso una acción basada en una base jurídica adecuada y que persiga un objetivo
legítimo no puede considerarse una restricción permisible de la libertad de expresión a
menos que se considere necesaria. Esta prueba de proporcionalidad en un sentido estricto
se percibe como la parte más importante de la prueba de proporcionalidad de tres partes
(Ajevski 2014, 126). La evaluación de la proporcionalidad refleja los principios que rigen
una sociedad democrática (BychawskaSiniarska 2017, 44). Por lo tanto, la acción
restrictiva debe ser una reacción apropiadamente fuerte a una “necesidad social
apremiante”.54 En esencia, este es el aspecto sobre el cual se deciden la mayoría de los
casos del TEDH (Ajevski 2014, 126), y por lo tanto se formalizó parcialmente en el
jurisprudencia a través de un conjunto de principios interpretativos del significado de la
frase "necesario en una sociedad democrática".
Estos establecen lo siguiente:
53Muller y otros c. Suiza, núm. 10737/84, TEDH 1988; Vereinigung Bildender Kunstler
contra Austria, núm. 68354/01, TEDH 2007.
54The Observer and the Guardian contra el Reino Unido, núm. 13585/88, §40, CEDH
1991.
55 Silver y otros c. el Reino Unido, núm. 5947/72, 6205/73, 7052/75,
7061/75, 7107/75, 7113/75, 7136/75, §97, TEDH 1983.
Machine Translated by Google
124 F. KASL
56 Lingens c. Austria, núm. 9815/82, §46, TEDH 1986; Oberschlick contra Austria, núm.
11662/85, §63, TEDH 1991; Dichand y otros c. Austria, núm. 29271/95, §42, CEDH
2002.
Machine Translated by Google
126 F. KASL
66Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, sobre
determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el
comercio electrónico, en el mercado interior (Directiva sobre comercio electrónico).
67Art. 1214 de la Directiva sobre comercio electrónico.
Machine Translated by Google
128 F. KASL
(ii) independencia del creador del contenido respecto del proveedor, y (iii)
eliminación rápida del contenido al obtener dicho conocimiento (a través del
llamado marco de señalización de 'aviso y acción').68 La aplicabilidad de esta
disposición protectora es Cada vez más desafiados con respecto a diversas
formas de servicios de alojamiento (Friedmann 2014, 148 et seq.; Husovec
2017b, 115 et seq.) y con respecto al impacto negativo de cuestiones
recientemente emergentes como la desinformación.
La presión sobre los principales proveedores de hosting es una combinación
de cooperación voluntaria con la Comisión Europea y el desarrollo gradual de
interpretaciones en su detrimento basadas en la jurisprudencia pertinente.
La descripción general de las acciones conjuntas y coordinadas de la UE contra
la desinformación (Comisión Europea 2019a) indica la creciente complejidad de
la red cooperativa y el desarrollo constante de la base de las medidas
implementadas por los proveedores de alojamiento de acuerdo con los impulsos
provenientes de la Comisión Europea.
Las señales iniciales de un cambio en el rumbo de la interpretación fueron
proporcionadas por el TJUE a través de su jurisprudencia69 ; sin embargo, fue
principalmente el TEDH el que sentó los precedentes cruciales para el enfoque
actual de la moderación de contenidos a través de la actividad de los proveedores
de plataformas. A pesar del control limitado de la plataforma sobre el contenido
generado por el usuario como tal, el TEDH consideró aplicable la participación
de la plataforma en la responsabilidad por dicho contenido (Husovec 2013, 109).
En este caso, la autoridad fue la decisión de la Gran Sala en el caso Delfi AS
contra Estonia.70 El tribunal concluyó que en caso de una acción insuficientemente
reactiva contra el contenido ilegal, el proveedor de la plataforma debe ser
considerado responsable y se permite una sanción adecuada según el Artículo
10. de la Convención. De esta manera se abrió un enfoque alternativo para frenar
la desinformación; en otras palabras, a través del papel moderador de los
proveedores de hosting (Husovec 2016, 17). Sin embargo, existen límites a la
presión que se puede ejercer sobre estos intermediarios. Como resultado de la
jurisprudencia posterior,71 sigue siendo esencial someter cada contenido a una
prueba de equilibrio que evalúe su impacto y permisibilidad a través de los criterios discutidos a
69Google Francia SARL a Google, núm. C236/08, C237/08, C238/08, TJUE 2010; L'Oréal y
otros, no. C324/09, TJUE 2011.
70Delfi c. Estonia, núm. 64569/09, §147 y siguientes, TEDH 2015.
4.6 Conclusiones
Este capítulo proporcionó una perspectiva legal adicional sobre el tema de la
desinformación y la difusión de propaganda a través del prisma de la libertad de expresión
bajo el Convenio Europeo de Derechos Humanos. En un primer momento se confrontó el
término desinformación con este marco legal y se discutieron las características que lo
definen. Los aspectos centrales establecidos como relevantes incluyen la demostrabilidad
de su falsedad, la calificación de su propósito y la revelación de la intención del autor. El
foco fue entonces
130 F. KASL
132 F. KASL
Bibliografía
Fioretti, J. (26 de abril de 2018). La UE aumenta la presión en las redes sociales por las
noticias falsas. Reuters. https://www.reuters.com/article/useuinternetfakenews
idUSKBN1HX15D. Consultado el 12 de diciembre de 2019.
Flauss, J.F. (2009). El Tribunal Europeo de Derechos Humanos y Libertad de Expresión.
Revista de derecho de Indiana, 84 (3). https://www.repository.law.indiana.edu/ilj/vol84/
iss3/3 . Consultado el 12 de diciembre de 2019.
Flaxman, S., Goel, S. y Rao, JM (2016). Filtrar burbujas, cámaras de eco y consumo de
noticias en línea. Opinión pública trimestral, 80 (S1), 298–320. https://doi.org/10.1093/
poq/nfw006.
Friedmann, D. (2014). Hundir el puerto seguro con la certeza jurídica de la responsabilidad
estricta a la vista. Revista de derecho y práctica de propiedad intelectual, 9(2), 148–
155. https://doi.org/10.1093/jiplp/jpt227.
Friend, C. y Singer, J. (2015). Ética del periodismo online: tradiciones y transiciones.
Abingdon: Routledge.
Greer, S. (2000). El margen de apreciación: interpretación y discreción según el Convenio
Europeo de Derechos Humanos. Publicaciones del Consejo de Europa.
Heldt, A. (2019). Lectura entre líneas y números: un análisis de los primeros informes de
NetzDG. Revisión de políticas de Internet, 8(2). https://policyreview.info/articles/analysis/
readingbetweenlinesandnumbersanalysisfirstnetzdgreports. Consultado el 12 de
diciembre de 2019.
Machine Translated by Google
134 F. KASL
Husovec, M. (2013). Normas del TEDH sobre la responsabilidad de los ISP como restricción
de la libertad de expresión. Documento académico de SSRN ID 2383148. Rochester: Red
de investigación en ciencias sociales. https://papers.ssrn.com/abstract=238 3148.
Consultado el 12 de diciembre de 2019.
Husovec, M. (2016). Monitoreo general de contenidos de terceros: ¿compatible con la libertad
de expresión? Revista de derecho y práctica de propiedad intelectual, 11, 1720. https://
doi.org/10.1093/jiplp/jpv200.
Husovec, M. (2017a). [TEDH] Kharitonov contra Rusia: Cuando el bloqueo de sitios web sale
mal. Blog de derecho tecnológico de Huˇtko (blog). http://www.husovec. eu/2017/07/ecthr
kharitonovvrussiawhenwebsite.html. Consultado el 12 de diciembre de 2019.
Husovec, M. (2017b). ¡Gorra agujereada! El TJUE perfora (todavía) otro agujero en los
puertos seguros de la Directiva de comercio electrónico. Revista de derecho y práctica de
propiedad intelectual, 12 (2), 115–125. https://doi.org/10.1093/jiplp/jpw203.
Katsirea, I. (2018). 'Noticias falsas': reconsideración del valor de las expresiones mentirosas
frente a la incertidumbre regulatoria. Revista de Derecho de Medios, 10 (2), 159–188.
https://doi.org/10.1080/17577632.2019.1573569.
Kuczerawy, A. (2015). Responsabilidad de los intermediarios y libertad de expresión:
novedades recientes en la iniciativa de notificación y acción de la UE. Revisión de
seguridad y derecho informático, 31 (1), 46–56. https://doi.org/10.1016/j.clsr.2014.11.004.
Kuijer, M. (2018). La desafiante relación entre el Convenio Europeo de Derechos Humanos y
el ordenamiento jurídico de la UE: consecuencias de un retraso en la adhesión. Revista
Internacional de Derechos Humanos, 1–13. https://doi.org/10.1080/13642987.2018.1535433.
Parte II
Machine Translated by Google
CAPÍTULO 5
5.1 Introducción
El traslado de la propaganda y la desinformación al entorno online es posible
gracias a que en la última década los canales de información digital aumentaron
radicalmente su popularidad como fuente de noticias. La principal ventaja de
estos medios radica en la velocidad de creación y difusión de información. Esto,
por otro lado, inevitablemente añade presión, acelerando el trabajo editorial, la
verificación de hechos y el escrutinio de la credibilidad de las fuentes.
O. Herman
Correo electrónico: xherman1@fi.muni.cz
Se presentan los criterios. Nos concentramos en los aspectos técnicos de los métodos
automáticos que respaldan la verificación de hechos, la identificación de temas, el
análisis de estilos de texto o el filtrado de mensajes en los canales de redes sociales. La
mayoría de las técnicas emplean inteligencia artificial y aprendizaje automático con
extracción de características que combinan los recursos de información disponibles. El
siguiente texto especifica en primer lugar las tareas relacionadas con la detección
informática de manipulaciones y difusión de desinformación. La segunda sección
presenta métodos concretos para resolver las tareas del análisis, y la tercera sección
enumera conjuntos de datos actuales de verificación y evaluación comparativa publicados
y utilizados en esta área para evaluación y comparación.
Con el crecimiento de las publicaciones digitales y en las redes sociales, el origen de las
noticias distribuidas al público en general se puede realizar fácilmente y el proceso de
publicación de un mensaje a un amplio grupo de lectores se simplifica enormemente.
Esto abre nuevas posibilidades para que cualquier grupo de presión publique
desinformación o noticias con fines modificados, que se expresan de manera que
aparentemente sean aceptadas como informes objetivos de los acontecimientos actuales
(Woolley y Howard 2018). Por otro lado, la disponibilidad predeterminada de los textos
en formato digital en línea abre nuevas posibilidades para la detección de tales técnicas
persuasivas a través del análisis del contenido, el estilo del texto y su contexto más
amplio.
Los enfoques presentados suelen distinguir los dos aspectos principales de los textos
analizados: (a) si el texto es intencionalmente falso (desinformación, noticias falsas), o
(b) si el texto se refiere a un evento o situación real pero la forma y el contenido se
adapta a partir de una descripción objetiva por una razón (propaganda, manipulación).
Tenga en cuenta que la primera categoría generalmente no incluye la "desinformación",
es decir, textos que involuntariamente no son veraces, donde su autor está convencido
de que el mensaje es fiel (ver Capítulo 1).
aspectos de segundo nivel del texto, que pueden manejarse mediante un análisis exhaustivo de los
datos disponibles (Kavanagh y Rich 2018). Detección de noticias falsas
Los enfoques incluyen:
• comprobación de hechos,
1Para obtener listas detalladas de las técnicas analizadas actualmente, consulte la Secc. 4.4 'Conjuntos de datos y
evaluación'.
Machine Translated by Google
género, edad, educación o lengua materna (Neal et al. 2017). Los datos de entrada
para los métodos estilométricos están formados por una multitud de características
cuantitativas mensurables en el texto de entrada; además de las palabras y
combinaciones de palabras en sí, las métricas explotan información sobre las
estadísticas de longitud de palabras y oraciones, coocurrencias de clase mundial,
sintácticas. (sub)estructuras, emoticonos, errores tipográficos y gramaticales,
signos de puntuación, etc. Dentro de los algoritmos de reconocimiento de técnicas
manipulativas, estas características pueden complementarse con información
extraída de análisis de perfil de usuario o rasgos disponibles públicamente del
comportamiento de un usuario anterior, como calificaciones o fecha de registro (Peleschyshyn et
2016). En análisis detallados, especialmente cuando se buscan explicaciones
específicas, la tarea de identificación se orienta desde documentos completos
hasta oraciones individuales donde se debe descubrir una técnica de manipulación
(Da San Martino et al. 2019).
La cantidad de información publicada en línea es muy grande y sigue creciendo a medida que
Internet se vuelve más disponible y los usuarios abandonan los canales de medios
establecidos para consumir y generar más contenido en línea.
La naturaleza inmediata de Internet, combinada con la enorme cantidad de contenido que
debe comprobarse en busca de influencias maliciosas, excluye cualquier posibilidad de
inspección manual de cualquier parte significativa del tráfico en línea antes de que se
propague entre más y más usuarios. Se han propuesto varios métodos automatizados para
monitorear y detectar las acciones de actores maliciosos en línea. En esta sección
presentamos un resumen de estos métodos.
Los métodos se pueden clasificar en términos generales en cuatro clases. (1) Los
métodos basados en la verificación de hechos inspeccionan el contenido informativo de los artículos.
La extracción automatizada de conocimiento está todavía en su infancia; por lo tanto, el
enfoque habitual es semiautomático, donde los hechos extraídos algorítmicamente son
verificados por anotadores humanos y luego cotejados con una base de conocimiento.
(2) Los métodos manipulativos de reconocimiento de estilos se basan en el supuesto de que
el engaño puede detectarse a partir de características superficiales del contenido. Las señales
incluyen, por ejemplo, vocabulario utilizado, sentimiento, lenguaje cargado, subjetividad y
otros. (3) Los métodos basados en la credibilidad de las fuentes se basan en la creencia de
que los usuarios y fuentes poco fiables tienen una mayor probabilidad de difundir información
engañosa. Se puede utilizar el filtrado colaborativo basado en datos de fuentes colectivas,
donde los usuarios votan sobre publicaciones o artículos. A partir de estas ruidosas votaciones
se pretende extraer una señal fiable a partir de la cual los carteles o las propias publicaciones
puedan clasificarse como maliciosos. Se basa una corriente de investigación estrechamente
relacionada. y (4) análisis del flujo de información. El objeto del estudio es el flujo de
información entre diferentes fuentes y usuarios y la interacción entre ellos.
Como la tarea de identificación de noticias falsas sólo se especifica de manera muy vaga
y no existe actualmente ningún conjunto de pruebas objetivas a gran escala de noticias falsas,
la comparación entre diferentes enfoques es difícil. En las siguientes secciones, describimos
los enfoques más comunes para la detección de engaños.
Machine Translated by Google
La verificación manual de datos por parte de expertos es una forma muy fiable de distinguir las
noticias falsas. Sin embargo, es muy laborioso y consume mucho tiempo y, por tanto, caro y
no escalable con la cantidad de información que se genera.
Además de los sitios web que difunden la verificación de datos proporcionada por expertos,
como Snopes, que es uno de los sitios web más antiguos que desacreditan mitos, o Hoax
Slayer, dedicado principalmente a combatir los engaños del correo electrónico y las redes
sociales, se han creado sitios web que pretenden proporcionar servicios de verificación de
datos de colaboración colectiva. que han aparecido recientemente, por ejemplo, CrossCheck, Trive o Fiskkit.
La tarea de verificación de hechos se puede dividir en dos pasos. El primer paso trata de la
extracción de hechos del texto y, en el segundo paso, la veracidad de estos hechos se verifica
con una base de conocimiento confiable; en otras palabras, una base de datos predefinida de
hechos verificados (humanos) en una máquina. formato legible. Un formato de representación
de conocimiento común es el triple SPO (sujetopredicadoobjeto) tal como se define en el
Marco de descripción de recursos (Klyne et al. 2014). Por ejemplo, la afirmación "La capital de
Francia es París" se representaría como (París–capital_de–Francia). El conocimiento puede
entenderse como un gráfico de conocimiento, donde los sujetos y objetos representan nodos y
los predicados forman vínculos entre estos nodos.
Los enfoques para la construcción de bases de conocimiento van desde Freebase (Bollacker
et al. 2008) o DBpedia (Auer et al. 2007), construidos manualmente , que extraen hechos
estructurados de Wikipedia, hasta Knowledge Vault (Dong et al. 2014), que extrae hechos de
contenido web y también proporciona la probabilidad de exactitud de los datos almacenados.
Estos recursos se centran principalmente en el conocimiento común sobre el mundo, que
cambia relativamente lentamente, mientras que la verificación de hechos recientes requiere
acceso a conocimiento actual y potencialmente cambiante.
medios y noticias para identificar afirmaciones fácticas que se comparan con una base
de datos de hechos verificados por profesionales.
La confirmación o refutación de hechos basada en una base de conocimientos
requiere una búsqueda sofisticada en la base de datos. Ciampaglia et al. (2015)
presentan un método para verificar afirmaciones específicas encontrando el camino
más corto entre nodos conceptuales en un gráfico de conocimiento de hechos extraídos
de los cuadros de información de Wikipedia. Los hechos publicados y generalmente
conocidos a menudo no están completamente cubiertos en una base de conocimientos
específica. Trivedi et al. (2018) describen LinkNBed, un marco capaz de procesar
eficazmente múltiples gráficos de conocimiento e identificar enlaces de entidades en
las bases de datos. La información de enlace permite entonces combinar los hechos
resultantes de diferentes bases de conocimiento.
La tarea compartida de extracción y verificación de hechos (FEVER) (Thorne et al.
2018) proporciona una comparación de 23 sistemas competidores para la verificación
automatizada de hechos. El conjunto de datos de referencia consta de 185.445
afirmaciones generadas por humanos, evaluadas manualmente con evidencia textual
de Wikipedia para determinar si son verdaderas o falsas. El participante con mejor
puntuación logró obtener un 64,21% de precisión en las reclamaciones correctamente
clasificadas. El enfoque descrito en Nie et al. (2019) mejora este resultado para obtener
un 66,49% de precisión.
La verificación de datos es posiblemente el método más fiable y preciso para
detectar noticias falsas; Los métodos automatizados actuales sirven principalmente
como herramientas de apoyo (avanzadas). Los enfoques que se pueden implementar
ahora deben ser asistidos por humanos, con anotadores que extraigan afirmaciones de
los artículos mientras se verifican automáticamente los hechos con un gráfico de conocimiento.
El supuesto en el que se basan estos métodos es que la veracidad del texto puede
evaluarse a partir de sus características secundarias y no directamente de la semántica
del mensaje en sí. Se ha teorizado que el mecanismo es posiblemente subconsciente
(Zhou y Zhang 2008; Siering et al. 2016): si el autor sabe que una información es
engañosa o que su intención es maliciosa, cambiará la forma en que la publica. se
formula el mensaje. Esta teoría se ha confirmado en la práctica y se han ideado
muchos métodos exitosos basados en este enfoque.
Intente señalar los lugares exactos del texto en los que aparecen las técnicas engañosas.
(Mann y Thompson 1987) para identificar noticias engañosas junto con un clasificador
basado en regresión logística. Si bien la precisión reportada es baja, los autores
afirman que esto podría deberse a la cantidad limitada de datos de entrenamiento. El
trabajo de Popoola (2017) evalúa las características de la teoría de la estructura
retórica frente a reseñas engañosas de Amazon y señala una correlación significativa.
Es mucho más probable que un artículo publicado en un sitio web poco confiable por
un usuario poco confiable no sea confiable. Desde esta perspectiva, la fiabilidad de
un artículo puede evaluarse independientemente de su contenido. En el análisis de
Silverman (2016), se muestra que una gran mayoría de noticias falsas provienen de
sitios web hiperpartidistas o de sitios web de noticias falsas que pretenden ser
medios de comunicación habituales. Por lo tanto, identificar sitios web spam puede ayudar a
Machine Translated by Google
Este enfoque se basa en los patrones en los que se propagan las noticias falsas: cómo
los usuarios y otras fuentes interactúan con ellas y cómo se comparten. Como la
información empírica real sobre la prevalencia de noticias falsas es escasa, los
estudios en este campo también suelen investigar rumores o noticias no confirmadas
que pueden identificarse más fácilmente.
Un concepto central para este enfoque es un árbol de propagación o cascada de
propagación (Wu et al. 2015; Vosoughi et al. 2018). El árbol consta de nodos, que
representan postes, y bordes, que conectan pares de postes. Los bordes representan
la relación entre las publicaciones; comúnmente es una parte o una respuesta a. La
raíz del árbol de propagación es la publicación original.
Machine Translated by Google
Los patrones de propagación de las noticias falsas y los de las noticias habituales difieren.
Vosoughi et al. (2018) analizan la difusión de noticias verdaderas y falsas verificadas en
Twitter e informan que las falsedades se difunden significativamente más lejos, más rápido y
más ampliamente que la verdad. Este efecto fue aún más pronunciado en el caso de las
noticias políticas. Los autores informan que no observaron ninguna aceleración en la
propagación de noticias falsas debido al efecto de los bots, lo que sugiere que los humanos,
y no los bots, son la causa de la propagación más rápida de las noticias falsas.
noticias.
La debilidad inherente de estos métodos es su necesidad de observar primero el
comportamiento de una cantidad significativa de usuarios para poder emitir juicios, por lo que
su poder predictivo es bajo en las primeras etapas de difusión; Sólo se pueden obtener
predicciones fiables cuando la mayor parte del daño ya se ha producido.
A pesar de la importancia de la tarea, sólo existen unos pocos conjuntos de datos adecuados
para evaluar métodos automáticos para el análisis y detección de propaganda. En esta sección
los describimos detalladamente.
En general, los conjuntos de datos son bastante pequeños, lo que se debe al proceso de
anotación, a menudo complejo. Los anotadores necesitan recibir una formación específica y
la anotación en sí también es muy tediosa. Los esquemas de anotación difieren, por lo que
los conjuntos de datos son difíciles de comparar, ya que cada uno de ellos tiene un propósito
diferente y es adecuado para diferentes tareas. Los conjuntos de datos también son
heterogéneos y no todos están en inglés.
A los efectos del análisis del lenguaje de las noticias falsas, Rashkin et al. (2017) han
preparado un conjunto de datos que comprende artículos de once fuentes y etiquetados con
cuatro clases: confiables (artículos de Gigaword News; ver Graff y Cieri 2003), sátira (The
Onion, The Borowitz Report, Clickhole), engaño (American News, DC Gazette) y propaganda
(The Natural News, Activist Report), en conjunto 22.580 artículos periodísticos bastante
equilibrados entre clases. Los datos están disponibles para descargar (Rashkin nd; Rashkin
et al.
2017). El análisis lingüístico acompañado mostró que el nivel de confiabilidad de las noticias
se puede predecir mediante la detección de ciertos recursos del lenguaje, como subjetivos
(brillante), superlativos o adverbios de acción (tontamente).
Machine Translated by Google
BarrónCedeño et al. (2019) han creado un conjunto de datos que contiene 52 mil
artículos de más de cien fuentes de noticias. Los artículos están anotados a nivel de
documento con etiquetas "propagandísticas" (positivas) o "no propagandísticas"
(negativas). Si un artículo proviene de una fuente considerada "propagandística" por
Media Bias Fact Check (Media Bias/Fact Check nd), entonces se etiqueta como positivo.
Los autores también agregaron metainformación del proyecto GDELT (Base de datos
global de eventos, lenguaje y tono, ver Leetaru y Schrodt 2013). El corpus está disponible
para descarga (BarrónCedeño et al. 2019).
Una explicación más detallada de las técnicas se describe en Da San Martino et al.
(2019). El conjunto de datos ha sido creado por una empresa privada llamada A Data
Pro y contiene 451 artículos recopilados de 48 medios de comunicación (372 de fuentes
propagandísticas y 79 de fuentes no propagandísticas). El conjunto de datos contiene
21.230 frases (350.000 palabras) con 7.485 casos de técnica de propaganda utilizada.
Los más comunes son el lenguaje cargado y los insultos/etiquetados.
La concordancia entre anotadores se evaluó con una medida gamma (Mathet et al.
2015) adecuada para tareas con anotaciones que contienen intervalos potencialmente
superpuestos. Para una anotación independiente de cuatro anotadores y seis artículos
= 0,31. Para mejorar este acuerdo bastante bajo, se cambió el esquema de anotación y
parejas de anotadores crearon una anotación final junto con un consolidador. Esto
arrojó un resultado significativamente mayor (hasta 0,76) cuando se midió entre un
anotador individual y la anotación consolidada apropiada.
5.4.4 Conjunto de datos sobre técnicas de propaganda en portales de noticias checos (conjunto
de datos MU)
Desde 2016, investigadores del Departamento de Ciencias Políticas de la Facultad de Estudios Sociales
de la Universidad de Masaryk (MU) han estado recopilando y anotando manualmente técnicas de
propaganda a nivel de documentos en artículos de cuatro medios de comunicación checos4 con un
frecuente sesgo prorruso y/o o contenido manipulador, ya que la investigación original se centró
principalmente en la propaganda prorrusa. Desde 2017, la anotación se ha hecho más detallada y las
técnicas también se han anotado a nivel de frase. Esto se logró utilizando un editor dedicado creado por
investigadores del Centro de Procesamiento del Lenguaje Natural de la Facultad de Informática de MU.
El conjunto de datos contiene atributos binarios y de valores múltiples; los atributos a nivel de frase
capturan la presencia de un cierto tipo de manipulación y los atributos a nivel de documento enmarcan
el contexto más amplio del artículo de noticias.
1. culpar (sí/no/no estoy seguro; acusar a alguien de algo); 2. etiquetado (sí/no/no estoy
seguro);
El conjunto de datos fue descrito en detalle en Horák et al. (2019) pero luego
se amplió con datos anotados de 2018. Contiene 5500 documentos de 2016,
1994 documentos de 2017 y 2200 documentos de 2018. Los documentos de 2016
están anotados por un anotador por artículo, pero antes de anotar había un fase
piloto en la que los anotadores fueron capacitados y probados, incluido el control
de múltiples rondas del
Machine Translated by Google
acuerdo entre anotadores.5 Los otros documentos han sido anotados por tres anotadores,
por lo que se puede medir el acuerdo entre anotadores. Si al menos dos anotadores acordaron
el valor de un atributo, se incluyó en el conjunto de datos final. El acuerdo porcentual general
ha rondado el 80%; sin embargo, como los atributos difieren en los conjuntos de valores, el
kappa de Cohen promedio (Cohen 1960) oscila entre 0,2 (relativización) y 0,7 (ubicación), lo
que muestra claramente la dificultad de la tarea de anotación.
1. URL de origen; 2.
autor de verificación de
hechos; 3. fecha de
publicación; 4. fecha en que se revisó el reclamo;
5. la reclamación
misma; 6. título del artículo;
7. calificación de la veracidad;
8. mejor calificación (basada en varias calificaciones); y 9.
etiqueta de texto (varias agencias de verificación de datos utilizan diferentes etiquetas: falso,
verdadero, imposible de probar, exagerado, controvertido, inexacto, etc.).
Los elementos de datos de este conjunto de datos son textos breves pero, de hecho, la anotación
es a nivel de documento. Esto hace que este recurso sea similar al corpus Proppy.
El estudio de Miller (2019) utilizó un conjunto de datos que consta de aproximadamente doscientos
mil tweets de 3814 cuentas de Twitter asociadas por Twitter con la Agencia de Investigación de
Internet con sede en Rusia (Popken 2018).
El mismo conjunto de datos se utilizó en la investigación del fiscal especial (20172019) sobre la
interferencia rusa en las elecciones estadounidenses de 2016. El conjunto de datos no contiene
anotaciones manuales, pero es útil para el análisis de temas, palabras clave y emociones en la
propaganda rusa en las redes sociales.
de datos, presentado en Potthast et al. (2017), contiene una muestra de publicaciones publicadas
en Facebook por nueve agencias de noticias cercanas a las elecciones estadounidenses de
2016. Cinco periodistas han verificado publicaciones y artículos vinculados de editoriales
convencionales, de izquierda y de derecha.
Contiene 1.627 artículos: 826 artículos convencionales, 356 de izquierda y 545 de derecha. Las
publicaciones se han etiquetado como en su mayoría verdaderas, una mezcla de verdadero y
falso, en su mayoría falsas y sin contenido fáctico si la publicación carecía de una afirmación fáctica.
5.4.8 Mentiroso
Wang (2017) recopiló 12.836 declaraciones breves etiquetadas por verificadores de hechos de
PolitiFact. Las declaraciones provienen de comunicados de prensa, entrevistas de radio o
televisión y discursos de campaña. Las etiquetas representan una variedad de veracidad
verificada que incluye "pantalones en llamas" (completamente falso), falso, apenas cierto, medio
cierto, mayoritariamente cierto y verdadero.
Machine Translated by Google
Este conjunto de datos (Risdal 2016) se ha recopilado de 244 sitios web clasificados mediante una
extensión de navegador BS Detector7 desarrollada para comprobar (y
notificar a los usuarios sobre) la veracidad de las noticias. Comprende los textos y metadatos.
de 12.999 puestos.
5.4.10 Credbank
Autores fuente
5.5 Resumen
En este capítulo, hemos resumido los últimos enfoques para el reconocimiento y
generación automática de noticias falsas, desinformación y textos manipuladores en
general. El progreso tecnológico en este ámbito acelera la dispersión de textos, imágenes
y vídeos ficticios a tal ritmo y calidad que las fuerzas humanas dejan de ser suficientes.
Por tanto, la importancia de contar con técnicas de detección de propaganda de alta
calidad aumenta significativamente.
Los análisis informáticos permiten identificar muchos aspectos de dicho mal uso de la
información basándose en el estilo del texto del mensaje, las características del flujo de
información, la credibilidad de la fuente o la verificación exacta de los hechos. Sin
embargo, las precauciones finales siempre quedan en manos de los propios lectores humanos.
Referencias
Abbasi, M.A. y Liu, H. (2013). Medición de la credibilidad del usuario en las redes sociales.
En AM Greenberg, WG Kennedy y ND Nathan (Eds.), Computación social, modelado y
predicción conductualcultural (págs. 441–448).
Apuntes de conferencias sobre informática. Berlín, Heidelberg: Springer Berlín
Heidelberg. https://doi.org/10.1007/9783642372100_48.
Adair, B., Li, C., Yang, J. y Yu, C. (2017). Progreso hacia 'el Santo Grial': la búsqueda
continua para automatizar la verificación de datos. Evanston: Universidad del Noroeste.
Ajao, O., Bhowmik, D. y Zargari, S. (2018). Identificación de noticias falsas en Twitter con
modelos híbridos CNN y RNN. Actas de la 9ª Conferencia Internacional sobre Sociedad
y Redes Sociales: SMSociety '18. Nueva York: ACM Press. https://doi.org/
10.1145/3217804.3217917.
Auer, S., Bizer, C., Kobilarov, G., Lehmann, J., Cyganiak, R. e Ives, Z. (2007).
DBpedia: un núcleo para una web de datos abiertos. La Web Semántica, 4825, 722–
735. Apuntes de conferencias sobre informática. Berlín, Heidelberg: Springer Berlín
Heidelberg. https://doi.org/10.1007/9783540762980_52.
BarrónCedeño, A., Jaradat, I., Da San Martino, G., & Nakov, P. (2019). Proppy:
organización de las noticias en función de su contenido propagandístico. Procesamiento
y gestión de la información, 56(5), 1849–1864. https://doi.org/10.1016/j.ipm.2019.03.005 .
Bollacker, K., Evans, C., Paritosh, P., Sturge, T. y Taylor, J. (2008). Freebase: una base de
datos gráfica creada en colaboración para estructurar el conocimiento humano. Actas
de la Conferencia Internacional ACM SIGMOD de 2008 sobre Gestión de Datos —
SIGMOD '08, 1247. Nueva York: ACM Press. https://doi.org/10.1145/1376616.1376746 .
Breiman, L. (2001). Bosques aleatorios. Aprendizaje automático, 45, 3–32. https://doi. org/
10.1023/a:1010933404324.
Machine Translated by Google
Burgoon, JK, Blair, JP, Qin, T. y Nunamaker, JF (2003). Detectar el engaño mediante el
análisis lingüístico. En C. Hsinchun, R. Miranda, D.
R. Zeng, C. Demchak, J. Schroeder y T. Madhusudan (Eds.), Informática de inteligencia
y seguridad, 2665, 91101. Apuntes de conferencias sobre informática.
Berlín, Heidelberg: Springer Berlín Heidelberg. https://doi.org/10.1007/3540448535_7 .
Da San Martino, G., BarrónCedeño, A., & Nakov, P. (2019). Hallazgos de la tarea
compartida NLP4IF2019 sobre detección detallada de propaganda. Actas del
segundo taller sobre procesamiento del lenguaje natural para la libertad en Internet:
censura, desinformación y propaganda, 162–170. Stroudsburg: Asociación de
Lingüística Computacional. https://doi.org/10.18653/v1/D195024 .
Da San Martino, G., Yu, S., BarrónCedeño, A., Petrov, R. y Nakov, P. (2019).
Análisis detallado de la propaganda en artículos periodísticos. Actas de la Conferencia
de 2019 sobre métodos empíricos en el procesamiento del lenguaje natural y la
novena conferencia conjunta internacional sobre procesamiento del lenguaje natural
(EMNLPIJCNLP), 5640–5650. Stroudsburg: Asociación de Lingüística Computacional.
https://doi.org/10.18653/v1/D191565.
Machine Translated by Google
Devlin, J., Chang, M.W., Lee, K. y Toutanova, K. (2019). BERT: Entrenamiento previo de
transformadores bidireccionales profundos para la comprensión del lenguaje. Actas de la
Conferencia Anual de 2019 del Capítulo Norteamericano de la Asociación de Lingüística
Computacional (NAACL 2019). Asociación de Lingüística Computacional.
Dong, X., Gabrilovich, E., Heitz, G., Horn, W., Lao, N. y Murphy, K., et al.
(2014). Bóveda de conocimientos: un enfoque a escala web para la fusión de conocimientos
probabilísticos. Actas de la vigésima conferencia internacional ACM SIGKDD sobre
descubrimiento de conocimientos y minería de datos: KDD '14, 601–10. Nueva York: ACM
Press. https://doi.org/10.1145/2623330.2623623.
Esteves, D., Reddy, AJ, Chawla, P. y Lehmann, J. (2018). Menospreciar la fuente: indicadores de
confiabilidad para ofuscar noticias falsas en la Web. Actas del primer taller sobre extracción y
verificación de hechos (FEVER), 50–59. Stroudsburg: Asociación de Lingüística Computacional.
https://doi. org/10.18653/v1/W185508.
FernándezDelgado, M., Cernadas, E., Barro, S., & Amorim, D. (2014). ¿Necesitamos cientos de
clasificadores para resolver problemas de clasificación del mundo real?
La Revista de Investigación sobre Aprendizaje Automático, 15(1), 3133–3181.
Finn, S., Metaxas, PT y Mustafaraj, E. (2014). Investigando la propagación de rumores con
TwitterTrails. ArXiv.
Graff, D. y Cieri C. (2003). Gigapalabra en inglés. PMA2003T05. Descarga Web.
Filadelfia: Consorcio de datos lingüísticos. https://doi.org/10.35111/0z6yq265.
Horák, A., Baisa, V. y Herman, O. (2019). Conjunto de datos de referencia para la detección de
propaganda en textos de periódicos checos. Actas de avances recientes en el procesamiento
del lenguaje natural, RANLP 2019, 77–83. Varna: INCOMA Ltd.
Instituto de Análisis de Propaganda. (1938). Cómo detectar propaganda. Boletín de la Asociación
Estadounidense de Profesores Universitarios, 24 (1), 49–55.
Kavanagh, J. y Rich, M. (2018). Decadencia de la verdad: una exploración inicial del papel cada
vez menor de los hechos y el análisis en la vida pública estadounidense. Corporación RAND.
https://doi.org/10.7249/RR2314.
Machine Translated by Google
Klyne, G., Carroll, JJ y McBride, B. (25 de febrero de 2014). RDF 1.1 Conceptos y
sintaxis abstracta. https://www.w3.org/TR/rdf11concepts/. Consultado el 1 de
diciembre de 2019.
Leetaru, K. y Schrodt, PA (2013). GDELT: Datos globales sobre eventos, ubicación y
tono, 19792012. Convención Anual de la ISA, 2, 1–49.
Mann, WC y Thompson, SA (1987). Teoría de la estructura retórica: una teoría de la
organización del texto. Universidad del Sur de California, Instituto de Ciencias de la
Información.
Mathet, Y., Widlöcher, A. y Métivier, J.P. (2015). El método unificado y holístico
Gamma (γ) para la medida y alineación del acuerdo entre anotadores. Lingüística
computacional, 41 (3), 437–479. https://doi.org/10.
1162/COLI_a_00227.
Mehta, B., Hofmann, T. y Fankhauser, P. (2007). Mentiras y propaganda: detección de
usuarios de spam en el filtrado colaborativo. Actas de la 12ª Conferencia
Internacional sobre Interfaces de Usuario Inteligentes: IUI '07, 14. Nueva York: ACM
Press. https://doi.org/10.1145/1216295.1216307.
Metaxas, PT (2010). Spam web, propaganda social y evolución de las clasificaciones
en los motores de búsqueda. En J. Cordeiro y J. Filipe (Eds.), Tecnologías y
sistemas de información web, 45, 170–182. Apuntes de conferencias sobre
procesamiento de información empresarial. Berlín, Heidelberg: Springer Berlín
Heidelberg. https://doi.org/10.1007/9783642124365_13 .
Molinero, DT (2019). Temas y emociones en la propaganda rusa en Twitter. Primer
lunes, 24 (5). https://doi.org/10.5210/fm.v24i5.9638.
Mitra, T. y Gilbert, E. (2015). Credbank: un corpus de redes sociales a gran escala con
anotaciones de credibilidad asociadas. Actas de la Novena Conferencia
Internacional AAAI sobre Web y Redes Sociales. Prensa AAAI.
Mitra, T., Wright, GP y Gilbert, E. (2017). Un modelo de lenguaje parsimonioso de
credibilidad en las redes sociales en eventos dispares. Actas de la Conferencia
ACM de 2017 sobre trabajo cooperativo y computación social asistidos por
computadora: CSCW '17, 126–145. Nueva York: ACM Press. https://doi.org/
10.1145/2998181.2998351 .
Moreno, J. y Bressan, G. (2019). FACTCK.BR: Un nuevo conjunto de datos para
estudiar noticias falsas. Actas del 25º Simposio brasileño sobre multimedia y la
Web: WebMedia '19, 525–527. Nueva York: ACM Press. https://doi.org/10.
1145/3323503.3361698.
Neal, T., Sundararajan, K., Fatima, A., Yan, Y., Xiang, Y. y Woodard, D. (2017).
Técnicas y aplicaciones de estilometría topográfica. Encuestas de informática ACM,
50(6), 1–36. https://doi.org/10.1145/3132039.
Nie, Y., Chen, H. y Bansal, M. (2019). Combinación de extracción y verificación de
hechos con redes de coincidencia semántica neuronal. Actas de la Conferencia
AAAI sobre Inteligencia Artificial, 33 (julio), 6859–6866. https://doi.org/10.1609/
aaai.v33i01.33016859 .
Machine Translated by Google
Page, L., Brin, S., Motwani, R. y Winograd, T. (1999). El PageRank Citation Ranking: poner
orden en la Web. El PageRank Citation Ranking: poner orden en la Web.
Popken, B. (2018). Twitter eliminó 200.000 tweets de trolls rusos. Léelos aquí. NBC News, 14.
https://www.nbcnews.com/tech/socialmedia/nowavailablemore200000deletedrussian
trolltweetsn844731.
Popoola, O. (2017). Uso de la teoría de la estructura retórica para la detección de reseñas falsas
en línea. Actas del sexto taller sobre avances recientes en RST y formalismos relacionados,
58–63. Stroudsburg: Asociación de Lingüística Computacional. https://doi.org/10.18653/v1/
W173608.
Potthast, M., Kiesel, J., Reinartz, K., Bevendorff, J. y Stein, B. (2017).
Una investigación estilométrica sobre noticias hiperpartidistas y falsas. Preimpresión de ArXiv.
ArXiv:1702.05638.
Radford, A., Wu, J., Child, R., Luan, D., Amodei, D. y Sutskever, I. (2019).
Los modelos de lenguaje son estudiantes multitarea sin supervisión. Reporte técnico.
AbiertoAi.
Rashkin, H., Choi, E., Jang, JY, Volkova, S. y Choi, Y. (2017). Verdad de distintos matices:
análisis del lenguaje en noticias falsas y verificación de hechos políticos. Actas de la
Conferencia de 2017 sobre métodos empíricos en el procesamiento del lenguaje natural,
2931–2937. Stroudsburg: Asociación de Lingüística Computacional. https://doi.org/10.18653/
v1/D171317.
Reis, JCS, Correia, A., Murai, F., Veloso, A., Benevenuto, F. y Cambria, E. (2019). Aprendizaje
supervisado para la detección de noticias falsas. Sistemas inteligentes IEEE, 34 (2), 76–81.
https://doi.org/10.1109/MIS.2019.2899143.
Risdal, M. (2016). Ser realista sobre las noticias falsas. Texto y metadatos de fuentes de noticias
falsas y sesgadas en la web. Descarga Web. Kaggle Inc. https://www.kaggle.com/mrisdal/fake
news Rubin , VL (2010). Sobre el engaño y
la detección del engaño: análisis de contenido de creencias declaradas mediadas por
computadora. Actas de la Sociedad Estadounidense de Ciencia y Tecnología de la Información,
47 (1), 1–10. https://doi.org/10.1002/meet.14504701124 .
Rubin, VL, Conroy, Nueva Jersey y Chen, Y. (2015). Hacia la verificación de noticias: métodos
de detección de engaños en el discurso informativo. Conferencia Internacional de Hawái
sobre Ciencias de Sistemas.
Rubin, V., Conroy, N., Chen, Y. y Cornwell, S. (2016). ¿Noticias falsas o verdad?
Uso de señales satíricas para detectar noticias potencialmente engañosas. Actas de la
Machine Translated by Google
Esquilador, E. (2018). Uso de noticias en plataformas de redes sociales 2018. Pew Research
Centro.
Shu, K., Wang, S. y Liu, H. (2017). Explotación de la triple relación para obtener noticias falsas
Detección. Preimpresión de ArXiv ArXiv:1712.07709.
Siering, M., Koch, J.A. y Deokar, AV (2016). Detección de comportamientos fraudulentos en
plataformas de financiación colectiva: el papel de las señales lingüísticas y basadas en
contenido en contextos estáticos y dinámicos. Revista de sistemas de información de
gestión, 33 (2), 421–455. https://doi.org/10.1080/07421222.2016.1205930.
Silverman, C. (16 de noviembre de 2016). Este análisis muestra cómo las noticias virales
falsas sobre elecciones superaron a las noticias reales en Facebook. Noticias de BuzzFeed.
https://www.buzzfeednews.com/article/craigsilverman/viralfakeelectionnewsoutperformed
realnewsonfacebook . Consultado el 1 de diciembre de 2019.
Song, F., Ritwik, B. y Yejin, C. (2012). Estilometría sintáctica para la detección de engaños.
Actas de la 50ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 2:
Artículos breves), 171–175. Isla de Jeju: Asociación de Lingüística Computacional.
Trivedi, R., Sisman, B., Dong, XL, Faloutsos, C., Ma, J. y Zha, H.
(2018). LinkNBed: aprendizaje de representación de múltiples gráficos con vinculación de entidades.
Actas de la 56ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 1:
Artículos extensos), 252–262. Stroudsburg: Asociación de Lingüística Computacional.
https://doi.org/10.18653/v1/P181024.
Volkova, S., Shaffer, K., Jang, JY y Hodas, N. (2017). Separando hechos de ficción: modelos
lingüísticos para clasificar publicaciones de noticias sospechosas y confiables en Twitter.
Actas de la 55ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 2:
Artículos breves), 647–653. Stroudsburg:
Machine Translated by Google
Vosoughi, S., Roy, D. y Aral, S. (2018). La difusión de noticias verdaderas y falsas en línea.
Ciencia, 359(6380), 11461151. https://doi.org/10.1126/science. aap9559.
Testamentos, CE y Uzunoglu, DC (2016). Qué son (y qué no son) los bloqueadores de anuncios
Haciendo. 2016 Cuarto taller del IEEE sobre temas de actualidad en sistemas y tecnologías
web (HotWeb), 72–77. IEEE. https://doi.org/10.1109/HotWeb. 2016.21.
Zellers, R., Holtzman, A., Rashkin, H., Bisk, Y., Farhadi, A. y Roesner, F., et al.
(2019, mayo). Defensa contra las noticias falsas neuronales. ArXiv.
Zhou, L. y Zhang, D. (2008). Siguiendo huellas lingüísticas. Comunicaciones de la ACM, 51(9),
119. https://doi.org/10.1145/1378727.138 9972.
Zubiaga, A., Liakata, M. y Procter, R. (2016). Aprendizaje de la dinámica de los informes durante
las últimas noticias para la detección de rumores en las redes sociales. preimpresión de
arXiv arXiv:1610.07363.
Machine Translated by Google
CAPÍTULO 6
6.1 Introducción
El desarrollo de capacidades tecnológicas para la detección de manipulación
y desinformación en línea descrito en el capítulo anterior abre nuevas
posibilidades para el despliegue de estas técnicas. Sin embargo, la
adopción de estas herramientas para la acción autorizada requiere
además su incorporación adecuada en los marcos regulatorios existentes. Para persegu
R. Polˇcák
Correo electrónico:
polcak@muni.cz URL: https://www.muni.cz/es/people/21177radimpolcak
ˇ
168 R. POLCÁK Y F. KASL
El término virtual se utiliza en el lenguaje cotidiano como lo opuesto a real. Como señaló
Lévy (1998), ese uso es bastante problemático. Cuando un fenómeno se virtualiza,
significa que todavía existe pero ahora en otra forma posible. Por lo tanto, la virtualización
significa cambiar la forma preservando al mismo tiempo la existencia y las propiedades
centrales del fenómeno respectivo.
legalidad) de la ley que los derechos sustantivos están respaldados por procedimientos que
son adecuados para hacerlos cumplir efectivamente (Fuller 1969).
El descubrimiento y análisis forense de pruebas representa la base de cada procedimiento
legal. El objetivo principal del procedimiento probatorio es proporcionar hechos para su posterior
consideración jurídica. Si bien las herramientas y mecanismos de descubrimiento permiten la
identificación y recopilación de hechos procesalmente relevantes, el consiguiente análisis
forense conduce al producto procesal final: la evidencia.
ˇ
170 R. POLCÁK Y F. KASL
la Unión Europea, mientras que los proveedores de servicios que procesan y almacenan los
datos respectivos se encuentran en el extranjero, principalmente en los Estados Unidos.
En estos casos, el descubrimiento y procesamiento de evidencia electrónica podría ser no
solo técnicamente difícil sino también legalmente engorroso, ya que los estándares
generales de protección de la privacidad, libertad de expresión o juicios justos pueden diferir
sustancialmente entre jurisdicciones (Svantesson 2015 ).
En cualquier caso, no todas las características específicas del descubrimiento electrónico
son, en comparación con el descubrimiento fuera de línea, completamente problemáticas.
La naturaleza de los efectos secundarios de las redes hace que el mercado de contenidos
generados por el usuario (CGU) para los servicios de la sociedad de la información
utilizados actualmente para la comunicación masiva, como Twitter, Facebook, etc., tenga
una fuerte tendencia hacia la monopolización. El resultado es relativamente pocos actores
del mercado cuyos servicios se utilizan para la manipulación coordinada o la desinformación,
en caso de que surja dicha conducta (Yoo 2012).
Al mismo tiempo, cualquier forma de actuación en línea, independientemente de sus
objetivos, alcance o medios utilizados, es técnicamente relativamente compleja y deja una
cantidad bastante sustancial de datos como rastro. Incluso una simple publicación en Twitter
genera una cantidad considerable de metadatos en varios proveedores de servicios que,
aunque no identifiquen a un usuario en particular, pueden procesarse de manera forense.
Si están disponibles y se analizan adecuadamente, estos metadatos pueden generar una
imagen mucho más rica del comportamiento respectivo y su contexto que cualquier cosa
que conozcamos del mundo fuera de línea.
Los Estados europeos brindan una protección de los derechos fundamentales sin
precedentes en ningún otro lugar del mundo. La teleología fundamental centrada en la
persona de las leyes del Consejo de Europa y de las leyes de la Unión Europea significa
que todas las leyes e instituciones jurídicas se construyen y funcionan fundamentalmente
sobre la base de los derechos humanos.
Como lo señalaron los académicos de derecho más influyentes y lo dictaminaron
instancias constitucionales y similares en toda la Unión Europea, los derechos fundamentales
difieren de las normas legales estándar (Alexy 1996). Proporcionan, de manera similar a
las normas, órdenes deónticos, pero su ámbito de aplicación no está adecuadamente
definido.
Las normas se aplican si se cumplen sus hipótesis, mientras que, por el contrario,
cuando no se cumplen sus hipótesis, no se aplican. Así, las normas tienen dos estados
simples, dependiendo del cumplimiento fáctico de sus hipótesis: aplicar (totalmente) o no
aplicar (Alexy 2000).
Machine Translated by Google
En ese sentido, los derechos fundamentales no funcionan como normas sino más
bien como principios legales. Todos ellos se aplican de forma permanente y simultánea,
por lo que no es posible afirmar que algún derecho fundamental se aplica en su totalidad
o no se aplica en absoluto. Todos se aplican todo el tiempo, pero con diferente intensidad.
El dilema ontológico básico en el caso de las normas jurídicas es el cumplimiento de
sus hipótesis. Por el contrario, los principios, incluidos los derechos fundamentales,
dependen ontológicamente de su intensidad relativa en relación con otros principios.
Entonces es común que los tribunales superiores midan la intensidad de los principios en
conflicto y elijan el que tiene la relevancia más intensa.
ˇ
172 R. POLCÁK Y F. KASL
La información adecuada para servir como prueba en los procedimientos legales era
tradicionalmente una tarea principalmente para algoritmos interpretativos que hacían que
dichos datos fueran comprensibles para los humanos. El descubrimiento electrónico consistió,
además de encontrar datos relevantes, principalmente en leer y mostrar los significados
respectivos simplemente transformando lógicamente todos esos ceros y unos en una salida
legible por humanos. Si dejamos de lado herramientas muy específicas, como la esteganografía,
este proceso fue en su mayor parte relativamente simple y empíricamente verificable.
Con la creciente complejidad semántica y subjetiva del sustrato del descubrimiento
electrónico, los algoritmos existentes, puramente lógicos y verificables deben complementarse
con herramientas que sean significativamente más poderosas, pero menos precisas y
explicables. Si asumimos que un caso típico de manipulación o desinformación intencionada
en línea podría consistir en una serie de acciones que utilizan multitud de modos de
comunicación y canales de difusión, es obvio que los datos de que disponen los investigadores
son extremadamente amplios e incoherentes. Además, también debemos asumir que la imagen
de las respectivas acciones nunca podrá estar completa debido a dificultades técnicas y legales
para obtener todos los datos y metadatos relevantes.
ˇ
174 R. POLCÁK Y F. KASL
ˇ
176 R. POLCÁK Y F. KASL
ˇ
178 R. POLCÁK Y F. KASL
(en adelante denominada 'Directiva EIO') (Unión Europea 2014), que los
estados miembros debían implementar en mayo de 2017. Como se indica en
el sitio web de Eurojust1 (Unión Europea 2016) , 'Desde el 15 de septiembre
de 2018, todos los Estados miembros adoptan participar en la OEI con
excepción de Dinamarca e Irlanda» (Eurojust 2019). Sin embargo, la
implementación y realización del marco bajo las leyes nacionales de los
estados miembros enfrenta desafíos diversos y persistentes (Papucharova
2019, 174). Un ejemplo particular de tal desafío es la ausencia de un efecto
armonizador en el marco sobre la admisibilidad de la prueba (Siracusano
2019, 85 et seq.). El desafío posterior es una tensión entre la eficiencia de tal
instrumento de cooperación transnacional y las variaciones procesales
inherentes en las leyes nacionales (Daniele y Calvanese 2018, 353 et seq.).
ˇ
180 R. POLCÁK Y F. KASL
ˇ
182 R. POLCÁK Y F. KASL
• Principio 1: Ninguna medida adoptada por los organismos encargados de hacer cumplir la ley o
sus agentes debe cambiar los datos conservados en una computadora o en un medio de
almacenamiento en los que posteriormente se pueda basar en los tribunales.
• Principio 2: En circunstancias en las que una persona considere necesario
acceder a datos originales conservados en una computadora o en un medio
de almacenamiento, esa persona debe ser competente para hacerlo y poder
brindar evidencia que explique la relevancia y las implicaciones de
sus acciones. • Principio 3: Se debe crear y preservar una pista de auditoría u
otro registro de todos los procesos aplicados a la evidencia electrónica
basada en computadora. Un tercero independiente debería poder examinar
esos procesos y lograr el mismo resultado. •
Principio 4: La persona a cargo de la investigación (el oficial del caso) tiene la
responsabilidad general de garantizar que se cumplan la ley y estos
principios (Asociación de Jefes de Policía 2014, 4).
ˇ
184 R. POLCÁK Y F. KASL
y Venter 2004, 3), lo que significa que pueden proporcionar sólo una parte del
análisis. Con la creciente complejidad de los temas analizados, las
incompatibilidades entre las herramientas seleccionadas presentan un desafío
cada vez mayor. Por lo tanto, esto otorga una importancia creciente a los
procesos adecuados de estandarización y validación de herramientas forenses (Craiger et al. 200
A menos que los procesos y técnicas empleados cumplan con estándares
científicos probados, no deberían ser aceptables como base para la prueba en
procesos penales (Karie y Venter 2015, 889).
ˇ
186 R. POLCÁK Y F. KASL
en el contenido (Caliskan et al. 2017, 183). Aparte de este problema, existen otras
posibles deficiencias del conjunto de datos que pueden afectar la objetividad de la
evaluación, "como el sesgo de confirmación, el sesgo de resultado, el sesgo de
punto ciego, la heurística de disponibilidad, las ilusiones de agrupamiento y los
efectos de tendencia" (Završnik 2019, 11).
Estos pueden eliminarse parcialmente mediante el papel intermediario de un
especialista de DFA con suficiente conocimiento experto de los datos y el algoritmo
para interpretar con seriedad la evaluación proporcionada y ayudar a la autoridad
que toma las decisiones a evitar la falacia del aura algorítmica de objetividad
( Završnik 2019, 13). En este sentido, cualquier herramienta analítica automatizada
debe verse simplemente como tal, es decir, simplemente como un aporte informativo
para la evaluación y resolución de la situación basándose en una imagen completa
y no como una sugerencia objetiva preformulada para calificar el caso.
6.4 Conclusiones
Este capítulo presentó un conjunto de componentes del marco regulatorio destinado
a la recolección y uso de evidencia electrónica. Por lo tanto, la atención se centró
en los requisitos legales previos para la utilización en un tribunal de justicia de los
resultados proporcionados por las herramientas de detección de manipulación y
desinformación en línea, que se describieron en el capítulo anterior.
En un primer momento se destacó la particularidad de la forma virtual de los
fenómenos centrales, distinguiendo datos de información y formulando lo que
constituye evidencia electrónica. La siguiente sección reflejó el hecho de que las
acciones autorizadas tomadas contra la difusión de desinformación o propaganda
deben seguir los respectivos requisitos procesales, lo que plantea un desafío
particular para las entidades nacionales de aplicación de la ley debido a la calidad
sin fronteras del entorno en línea. Se presentaron brevemente los avances hacia la
superación de estos obstáculos. Se dedicó especial atención a los esfuerzos
encaminados a lograr procedimientos efectivos y oportunos para la cooperación
transfronteriza en la recopilación de pruebas electrónicas, ejemplificados por los
últimos esfuerzos de la Unión Europea hacia la adopción del Reglamento sobre las
órdenes europeas de entrega y conservación de pruebas electrónicas. prueba en
materia penal. La tercera y última perspectiva introducida en este contexto fue el
papel de los profesionales forenses digitales en la mediación del valor informativo
de los datos recopilados y los resultados de las herramientas de detección de
manipulación y desinformación en línea.
Machine Translated by Google
Bibilografía
Alexy, R. (1996). Teoría del discurso y derechos humanos. Ratio Juris, 9(3), 209–
235.
Alexy, R. (2000). Sobre la estructura de los principios jurídicos. Ratio Juris, 13(3), 294–
304.
Arthur, KK y Venter, HS (2004). Una investigación sobre herramientas informáticas
forenses. En Actas de la AISS de 2004 (págs. 1 a 11). Sociedad de Computación IEEE
Machine Translated by Google
ˇ
188 R. POLCÁK Y F. KASL
Consejo Europeo. (2019b). Detalles del Tratado No.030: Convenio Europeo sobre Asistencia
Mutua en Materia Penal. https://www.coe.int/en/web/conventions/fulllist//conventions/
treaty/030 . Consultado el 30 de noviembre de 2019.
Consejo Europeo. (2019c). Federación de Rusia ratifica el Segundo Protocolo Adicional al
Convenio Europeo sobre Asistencia Mutua en Materia Penal. Comité de Expertos sobre el
funcionamiento de los convenios europeos
Machine Translated by Google
Consejo Europeo. (2019d). Cuadro de Firmas y Ratificaciones del Tratado 030: Convenio
Europeo sobre Asistencia Mutua en Materia Penal. https://www.coe.int/en/web/
conventions/fulllist//conven tions/treaty/030/signatures?p_auth=uJ11NBHx. Consultado
el 30 de noviembre de 2019.
Consejo de la Unión Europea. (2008). Decisión marco 2008/913/JAI del Consejo, de 28 de
noviembre de 2008, sobre la lucha contra determinadas formas y expresiones de racismo
y xenofobia mediante el derecho penal. Diario Oficial de la Unión Europea, 328. http://
data.europa.eu/eli/dec_framw/2008/913/oj/eng . Consultado el 30 de noviembre de 2019.
Consejo de la Unión Europea. (2011). Manual sobre la aplicación práctica de los acuerdos
de extradición y asistencia jurídica mutua UEEE.UU. 8024/11.
Bruselas: Consejo de la Unión Europea. https://www.statewatch.org/news/2011/mar/eu
councileuusamlahandbook802411.pdf . Consultado el 30 de noviembre de 2019.
Craiger, P., Swauger, J., Marberry, C., Hendricks, C. (2006). Validación de Herramientas
Forenses Digitales. En P. Kanellis, E. Kiountouzis, N. Kolokotronis, D.
Martakos (Eds.), Crimen digital y ciencia forense en el ciberespacio (págs. 91105).
Hershey, PA: Grupo de ideas. https://doi.org/10.4018/9781591408727.ch005 .
ˇ
190 R. POLCÁK Y F. KASL
Red Judicial Europea. (2011a). Texto íntegro del Convenio de 29 de mayo de 2000 sobre
asistencia judicial en materia penal entre los Estados miembros de la Unión Europea.
Biblioteca Judicial. https://www.ejncrimjust.europa.eu/ejn/libdocumentproperties/EN/16 .
Consultado el 30 de noviembre de 2019.
Red Judicial Europea. (2011b). Informe Explicativo del Convenio MLA 2000. Biblioteca
Judicial. https://www.ejncrimjust.europa.eu/ejn/lib documentproperties/EN/575.
Consultado el 30 de noviembre de 2019.
Red Judicial Europea. (2019a). Herramientas prácticas para la cooperación judicial. https://
www.ejncrimjust.europa.eu/ejn/EJN_Home.aspx. Consultado el 30 de noviembre de
2019.
Machine Translated by Google
Más completo, LL (1969). La moralidad del derecho. Londres: Yale University Press.
Guerra, JE y Janssens, M.C. (2019). Desafíos jurídicos y prácticos en la aplicación de la
orden europea de investigación: resumen de la reunión de Eurojust del 19 al 20 de
septiembre de 2018. Eucrim: Foro de las asociaciones europeas de derecho penal, 1,
46–53.
Huber, E. (13 de noviembre de 2010). Certificación, Licenciamiento y Acreditación en
Forense Digital. Un puñado de dongles: blog sobre ciberdelincuencia y ciencia forense
digital de Eric Huber (blog). https://www.afodblog.com/2010/11/certificationlic ensing
and.html. Consultado el 30 de noviembre de 2019.
Machine Translated by Google
ˇ
192 R. POLCÁK Y F. KASL
Karie, NM y Venter, HS (2015). Taxonomía de desafíos para la ciencia forense digital. Revista de Ciencias
Forenses, 60, 885–893. https://doi.org/10. 1111/15564029.12809.
Levy, P. (1998). Convertirse en virtual: realidad en la era digital. Nueva York, NY:
Pleno de Comercio.
McGoldrick, D. y O'Donnell, T. (1988). Leyes sobre discurso de odio: coherencia con las leyes nacionales e
internacionales de derechos humanos. Estudios jurídicos, 18 (4), 453–485.
OLAF. (2016). Directrices sobre procedimientos forenses digitales para el personal de la OLAF . https://
ec.europa.eu/antifraud/sites/antifraud/files/guidelines_en.pdf.
Consultado el 30 de noviembre de 2019.
Ramos, JAE (2019). La orden europea de investigación y su relación con otros instrumentos de cooperación
judicial. Foro de la Asociación Europea de Derecho Penal 2019(1), 53–60. https://doi.org/10.30709/
eucrim2019004 .
Svantesson, D. (2015). La Santísima Trinidad de las ficciones jurídicas que socavan la aplicación del
derecho a Internet global. Revista Internacional de Derecho y Tecnología de la Información, 23(3), 219–
234.
Tosza, ST (2019). Recopilación transfronteriza de pruebas electrónicas: asistencia jurídica mutua, sus
deficiencias y soluciones. En D. Flore & V. Franssen (Eds.), Société Numérique et Droit Pénal. Bélgica,
Francia y Europa: Bruylant. http://dspace.library.uu.nl/handle/1874/384506. Consultado el 30 de
noviembre de 2019.
Machine Translated by Google
CAPÍTULO 7
7.1 Introducción
Tras el inicio del conflicto ucraniano en 2014, se identificaron campañas de
desinformación en varios países europeos. Acontecimientos como la campaña
Brexit '#leave' influyeron en las operaciones parlamentarias en Europa (en
Alemania o Francia, por ejemplo) o escándalos de medidas activas internas,
como el del Partido de la Libertad de Austria (FPÖ) que destacó la necesidad
de contrarrestar tales tácticas y proteger objetivos: estados nacionales y
estructuras supranacionales. Las dinámicas de las operaciones de influencia y
las formas de difusión de desinformación son muy rápidas, flexibles y aún más
difíciles de mantener.
Como reacción a las últimas campañas de propaganda disruptivas en Europa,
las instituciones de algunos países se han centrado en contramedidas.
Algunos incluyen el establecimiento de órganos gubernamentales especiales,
la instalación de grupos de trabajo especiales, nuevas leyes y cooperación activa.
Categoría Actividades
Autores fuente
Machine Translated by Google
Sin embargo, estas medidas legales tienen algunas debilidades. En primer lugar,
mezclan contenidos terroristas, discursos de odio y actos que forman parte de
operaciones de influencia. Sin embargo, las operaciones de influencia pueden exigir
enfoques diferentes a los de la propaganda terrorista. En segundo lugar, el
Machine Translated by Google
La cooperación con los medios podría desempeñar un papel clave en el control del
flujo de desinformación, así como en la promoción de la alfabetización mediática.
Bélgica ofrece un ejemplo de enfoque activo del gobierno hacia los medios de
comunicación. El Ministerio flamenco de Educación y Formación patrocina Média
Animation ASBL, un recurso de educación mediática que se centra en la alfabetización
mediática en las escuelas, así como para políticos y otros tomadores de decisiones (Kremlin Watch 20
2Un ejemplo es el problema del discurso de odio y la legislación alemana actual, que
intenta delegar la responsabilidad de este tema en los proveedores de redes sociales
(Hanzelka y Kasl 2018).
Machine Translated by Google
3Por ejemplo, la conexión entre el Partido Independiente del Reino Unido (UKIP) de
extrema derecha y la empresa Cambridge Analytica que utiliza big data de Facebook para
producir una campaña microdirigida (ver Capítulo 2) (Scott 2018).
4El llamado enfoque de todo el gobierno también cubre la coordinación del monitoreo,
la evaluación y la gestión de amenazas híbridas. Un embajador gubernamental especial
garantiza la cooperación entre las instituciones y el sector privado, y un grupo interministerial
se ocupa de las operaciones de influencia (Klingová y Milo 2018).
Machine Translated by Google
7.3.2 OTAN
y la OTAN. Sin embargo, los tres tienen diferentes enfoques para desafiar la
propaganda y la desinformación, y se puede ver cómo diferentes actitudes políticas,
diferentes historias y diferentes posiciones de partida pueden afectar el enfoque de las
contramedidas.
7.4.1.3 Conclusión
Dinamarca describió 11 iniciativas para luchar contra las operaciones de influencia
que cubren todos los aspectos. Su enfoque apunta más al papel de la sociedad
civil que a las herramientas represivas. Sin embargo, Dinamarca es muy directa al
nombrar y advertir sobre actividades adversas. El país ha establecido su propio
grupo de trabajo y trabaja en la cooperación interministerial. También cuenta con
un centro enfocado en ciberamenazas; sin embargo, su enfoque es más complejo
y considera también operaciones de influencia. Dinamarca tiene un gran marco y
un plan para hacer frente a la propaganda hostil, lo que podría ser una inspiración
para otros países europeos. Su implementación aún está en sus inicios, por lo que
los próximos años demostrarán su efectividad.
Los servicios secretos rusos y su estrategia híbrida para influir en los procesos de toma de
decisiones, así como en las acciones de influencia chinas (Security Information Service
2019). Aparecen advertencias y declaraciones en todo el mundo político.
esfera. El Ministro del Interior, Jan Hamáˇcek (del Partido Socialdemócrata Checo), advirtió
contra la desinformación y destacó su importancia para
El presidente ruso, Vladimir Putin, recomendó a los ciudadanos comprobar
información y discutirla con sus familiares (Dragoun 2019). Alguno
Los partidos de oposición también participan en el proceso de alerta, aunque con
un discurso diferente. El Partido Cívico Democrático, por ejemplo, destacó el papel de Rusia
en la elección del presidente Zeman y en el futuro.
amenaza5 (ver ODS 2018).
El Ministerio de Defensa checo también participa en las advertencias a la
público, aunque sobre todo a través de individuos, algo que a veces es criticado por el propio
ejército checo. El general Petr Pavel destacó la
amenazaˇ de Rusia para la República Checa (iRozhlas 2018). general de brigada
Karel Rehka ( 2017) escribió un libro llamado Informaˇcní válka (Información
guerra) para académicos, el público y profesionales militares que es, por
Por ejemplo, parte de la literatura recomendada para cursos militares en el
Universidad de Defensa.
En 2019, la Agencia Nacional de Seguridad Cibernética y de la Información
(NÚKIB; Národní úˇrad pro kybernetickou a informaˇcní bezpeˇcnost in
Checo) publicó una advertencia contra el uso de tecnologías chinas.
empresas Huawei y ZTE (2019a). Esta advertencia también está vinculada a
la amenaza de operaciones de influencia china en la República Checa. lo mas
Una medida estatal visible es el establecimiento por parte del Ministerio del Interior de
el Centro Contra el Terrorismo y las Amenazas Híbridas para actividades analíticas y de
expertos, incluidas campañas de desinformación. El centro está activo en
Twitter, donde se centra en la desinformación real en Internet checa
(Ministerio del Interior de la República Checa 2017). Como el centro
Benedikt Vangeli, subrayó, refutar la desinformación sólo incluye
entre el 5 y el 9 por ciento de sus actividades (Janáková 2018). por lo tanto, nosotros
Supongamos que muchas de sus actividades son de naturaleza secreta por alguna razón.
Aunque sus actividades aún no se han hecho públicas, el centro sigue
funciones hoy.
5Por el contrario, el Partido Comunista está desacreditando cualquier interferencia rusa (ver KSCMˇ
2017).
Machine Translated by Google
7.4.2.3 Conclusión La
República Checa tiene un amplio espectro de actividades de operaciones de
contrainfluencia. Los servicios secretos y los funcionarios militares, así como las
autoridades estatales, enfatizan estas amenazas. Se hace especialmente en relación
con las acciones hostiles de Rusia. El país también ha creado un organismo especial
que se ocupa de las amenazas híbridas, algo único en el contexto de Europa central.
En el frente educativo, NÚKIB tiene un papel en la educación de los ciudadanos; sin
embargo, su atención se centra principalmente en cuestiones de ciberseguridad. No
existe una estrecha cooperación o acercamiento con los medios de comunicación y
los proveedores de redes sociales. La República Checa participa activamente en la
cooperación internacional y se toma en serio las amenazas de las operaciones de
influencia. Los funcionarios estatales interesados a menudo mencionan una
subestimación de la comunicación estratégica a nivel estatal, así como de su
coordinación con entidades supranacionales. Junto con una mejor implementación en
el sistema educativo estatal y modificaciones a su marco legal, estos son los desafíos que enfrentará
venir.
Los ciudadanos también reconocieron esta decisión. Según una encuesta, el 88 por ciento
de los encuestados estaba en contra de la expulsión (Mediapool.bg 2018).
Los canales e instrumentos de propaganda prorrusos son similares a los que
conocemos en otros países europeos, lo que implica utilizar redes sociales y difundir
noticias falsas, pero también granjas de trolls (Colborne 2018).
El principal discurso propagandístico prorruso en Bulgaria se refiere al declive cultural
europeo bajo el peso de la inmigración de la UE y la política títere. La Unión Europea es
vista como una construcción de Estados Unidos y la OTAN, y se percibe que está muriendo
lentamente. En contraste, Rusia se está fortaleciendo a pesar de la agresión occidental,
especialmente a través de la adhesión a los valores tradicionales. Las organizaciones
cívicas búlgaras, las organizaciones sin fines de lucro y los medios de comunicación son
entonces sólo títeres o agentes extranjeros de Occidente (Milo et al.
2017). El nombre de George Soros se presenta en el país como patrocinador de
organizaciones que promueven el sentimiento político occidental en Bulgaria.
informes públicos (SANS 2020) de la Agencia Estatal de Seguridad Nacional (SANS) para
los años 2016, 2017 y 2018. Pero en todos los informes de 2016, existe un riesgo no
especificado para Bulgaria como "objeto de un servicio de inteligencia grave". interés de
los países, que ven a la Unión y la Alianza como amenazas a su propia seguridad" (SANS
2016).
No existen medidas, procedimientos o leyes legales específicos que estén
específicamente dirigidos contra la desinformación y la propaganda. Sin embargo, existen
artículos legales relacionados con las elecciones (ver Bayer et al. 2019) que podrían
usarse potencialmente para contrarrestar las noticias falsas, la propaganda y la
desinformación, así como regulaciones relativas al uso del financiamiento de campañas
en códigos/leyes electorales. Por ejemplo, los artículos 165, 166 y 167 del Código Electoral
de Bulgaria de 2014 definen y restringen la cantidad y las fuentes de dinero que se pueden
gastar en la financiación de campañas electorales.
El artículo 168, por su parte, establece que un partido, una coalición o un comité de
nominaciones no recibirá donaciones de determinadas fuentes, como donantes anónimos,
personas jurídicas e instituciones religiosas (Código Electoral de Bulgaria 2014 ).
7.4.3.3 Conclusión
Bulgaria es un ejemplo de un país que, a pesar de tener cooperación internacional con la
Unión Europea y la OTAN y sus estados miembros, tiene medidas activas muy limitadas
contra la propaganda y la desinformación. El elemento clave de esto es la relación de
algunos actores políticos búlgaros con Rusia. Este ejemplo muestra que la desinformación
y la propaganda son cuestiones altamente politizadas y, sin el apoyo de las elites políticas
locales, los esfuerzos a nivel internacional son ineficientes. En este caso, todas las medidas
dirigidas a la desinformación prorrusa son problemáticas, pero todavía hay lugar para
medidas centradas más ampliamente: en las campañas electorales en general, la
corrupción, etc.
Machine Translated by Google
Es posible que con una presión más fuerte por parte de Rusia, sea más fácil
encontrar la voluntad política para una postura clara contra la desinformación.
Expulsar a diplomáticos rusos en enero de 2020 por acusaciones de espionaje
en octubre de 2019 y negarse a conceder una visa a un agregado de defensa
ruso entrante posiblemente pueda provocar que la situación se revierta. La
relación entre Bulgaria y Rusia puede empeorar por el hecho de que los fiscales
búlgaros acusaron a tres rusos del intento de asesinato de un traficante de
armas y a otros dos búlgaros cuyo envenenamiento está siendo investigado por
Sofía por posibles vínculos con el ataque con agente nervioso de 2018 a Skripal
(Reuters 2020).
7.5 Conclusión
El enfoque de las instituciones nacionales europeas ante la desinformación y la
propaganda cubre un amplio espectro de contramedidas. Juntos, es posible
formular un marco conjunto y aplicarlo a actores específicos para evaluar sus
capacidades. Se eligieron Dinamarca, la República Checa y Bulgaria debido a
sus diferentes estados de desarrollo de contramedidas a la desinformación y la
propaganda. Este enfoque debería ayudar a comprender mejor los problemas
de la lucha contra la desinformación y presentar la aplicación del marco
propuesto en la práctica.
Se han formulado siete categorías de respuestas institucionales estatales
contra la desinformación y la propaganda. El primer grupo de contramedidas
son las acciones con medidas públicas y estatales, que cubren las contramedidas
más comunes en Europa, y es posible identificarlas en todos nuestros casos. El
segundo grupo de contramedidas son las medidas legales, las acciones con los
medios de comunicación y las acciones con los partidos políticos. Estos son
más complejos y exigen una legislación procesada y una estrategia coherente a
largo plazo. Por estos motivos, podemos ver estas contramedidas en países que
están liderando el desarrollo de medidas contra la desinformación, como en
Finlandia o Dinamarca. Las categorías finales son contramedidas directas y
acciones con entidades supranacionales. Son los más problemáticos debido a
la falta de información pública sobre ellos.
Estas categorías están estrechamente relacionadas con los servicios de
seguridad y la diplomacia, y sólo podemos identificar actos públicos, como la
expulsión de diplomáticos o iniciativas públicas en organizaciones internacionales
como la OTAN o la Unión Europea.
Machine Translated by Google
Bibliografía
Charlton, E. (21 de mayo de 2019). Cómo lucha Finlandia contra las noticias falsas : en el aula.
Foro Economico Mundial. https://www.weforum.org/age nda/2019/05/howfinlandisfighting
fakenewsintheclassroom. Consultado el 15 de noviembre de 2019.
de Carbonnel, A. y Tsolova, T. (29 de marzo de 2018). Los viejos vínculos con Rusia pesan en la
decisión búlgara en el caso de envenenamiento de espías. Reuters. https://www.reu ters.com/
article/usbritainrussiabulgaria/oldtieswithrussiaweighonbul gariandecisioninspy
poisoningcaseidUSKBN1H52BR. Consultado el 15 de noviembre de 2019.
Dolejší, V. (8 de mayo de 2019). CIA mu dala cenu, Zeman oznaˇcil za „ˇcuˇckaˇre“. Proˇc šéfa
BIS už potˇretí nejmenuje prezident generálem [Fue premiado por la CIA, Zeman lo etiquetó
como aficionado. Por qué el Director del Servicio de Seguridad e Información no será
ascendido por tercera vez a General].
Seznam zprávy. https://www.seznamzpravy.cz/clanek/ciamudalacenuzemanoznacilza
cuckareprocsefabisuzpotretinejmenujeprezidentgen eralem71687. Consultado el 15
de noviembre de 2019.
Machine Translated by Google
Dragoun, R. (3 de mayo de 2019). Hamáˇcek varoval pˇred dezinformacemi. Eurovolby jsou pro
Putina klíˇcové, ˇríká analytic [Hamáˇcek advirtió contra la desinformación. Analista dice que las
elecciones europeas son cruciales para Putin]. Aktualne.cz. https://zpravy.aktualne.cz/zahranici/
evropskyparlam ent/volbybudoucilemdezinformatoruvarovalhamacek/r~5dd9119e6d8e
11e9b2a00cc47ab5f122/. Consultado el 15 de noviembre de 2019.
Observador de la UE. (2019, 13 de marzo). Espías estonios advierten a la UE sobre la amenaza rusa
a la seguridad. https://euobserver.com/foreign/144389. Consultado el 15 de noviembre de 2019.
Comisión Europea. (2019a). Plan de Acción Contra la Desinformación. Informe de progreso. https://
ec.europa.eu/commission/sites/betapolitical/files/fac tsheet_disinfo_elex_140619_final.pdf.
Consultado el 15 de noviembre de 2019.
Comisión Europea. (2019b). Semana Europea de la Alfabetización Mediática. https://ec. europa.eu/
digitalsinglemarket/en/news/europeanmedialiteracyweek.
Consultado el 15 de noviembre de 2019.
Acción Exterior de la Unión Europea. (2018). Preguntas y respuestas sobre el grupo de trabajo East
StratCom. https://eeas.europa.eu/head quarters/headquartershomepage/2116/questionsand
answersabouttheeaststratcomtaskforce_en. Consultado el 15 de noviembre de 2019.
Acción Exterior de la Unión Europea. (2019). Ficha informativa: Sistema de alerta rápida. https://
eeas.europa.eu/head quarters/head quartersHomepage_en/59644/ Ficha informativa:
%20Rapid%20Alert%20System. Consultado el 15 de noviembre de 2019.
Machine Translated by Google
UEvsDisinfo. (2017a, 25 de julio). Dinamarca educará a los soldados para combatir la desinformación.
https://euvsdisinfo.eu/denmarktoeducatesoldiersincombattingdisinformation/. Consultado el 15
de noviembre de 2019.
EuvsDisinfo. (2017b, 28 de marzo). Noticias falsas y elecciones en Bulgaria. https://euvsdisinfo.eu/fake
newsandelections/ . Consultado el 15 de noviembre de 2019.
UEvsDisinfo. (2018, 10 de septiembre). La defensa de Dinamarca contra la desinformación. https://
euvsdisinfo.eu/denmarksdefenceagainstdisinformation/. Consultado el 15 de noviembre de 2019.
Fiott, D. y Parkes, R. (2019). Proteger a Europa: la respuesta de la UE a las amenazas híbridas. París:
Instituto de Estudios de Seguridad de la Unión Europea. https://www. iss.europa.eu/sites/default/files/
EUISSFiles/CP_151.pdf. Consultado el 15 de noviembre de 2019.
Flamini, D., & Tardáguila, C. (2019). Una primera mirada a las recomendaciones de la OEA sobre
mejores prácticas contra la desinformación electoral, Parte 2. https://www.poynter.org/factchecking/
2019/afirstlookattheoassrecommendati ons paramejorespracticascontraladesinformación
electoralparte2/. Consultado el 15 de noviembre de 2019.
Fomentar, H. (2019). #StrongerWithAllies: Conozca al letón que lidera la lucha de la OTAN contra las
noticias falsas. Washington: Consejo Atlántico. https://www.atl anticcouncil.org/blogs/newatlanticist/
strongerwithallieslatvianleadsnatosfightagainstfakenews/. Consultado el 15 de noviembre de
2019.
Francia 24. (2019, 13 de abril). Los anuncios electorales instan a los finlandeses a "pensar por sí mismos"
en medio del temor a las noticias falsas. https://www.france24.com/es/20190413anuncioselectorales
urgefinnsthinkyourselfamidfakenewsfears. Consultado el 15 de noviembre de 2019.
Google. (2019). Cómo lucha Google contra la desinformación. https://kstatic.googleuse rcontent.com/files/
388aa7d18189665e5f5579aef18e181c2d4283fb7b0d4
691689dfd1bf92f7ac2ea6816e09c02eb98d5501b8e5705ead65af653cdf940 71c47
361821e362da55b. Consultado el 15 de noviembre de 2019.
Hanzelka, J. y Kasl, F. (2018). Sekuritizace a právní nástroje pro boj s projevy nenávisti na internetu v
Nˇemecku [Securitización e instrumentos jurídicos para luchar contra el ciberodio en Alemania]. Acta
Politológica, 10(3), 20–46. https://doi.org/10.14712/18038220/15_2018.
Machine Translated by Google
InterfaxUcrania. (2014). Poroshenko: La principal tarea del Ministerio de Información es repeler los
ataques informativos contra Ucrania. https://en.interfax.com.ua/news/economic/238615.html .
Consultado el 15 de noviembre de 2019. iRozhlas. (2018, 8 de ˇ
noviembre). Petr Pavel: Aktivity Ruska jsou pro Cesko vˇ etší hrozba než terorismus [Petr Pavel: Las
actividades rusas son para la República Checa una amenaza más grave que el terrorismo]. https://
www.irozhlas.cz/zpravydomov/petrpavelruskohrozbanato_1811081818_cen . Consultado el 15
de noviembre de 2019.
Janáková, B. (23 de marzo de 2018). Centrum proti terorismu vyvrátilo za rok 22 dezinformací. Má i jiné
úkoly [El Centro Contra el Terrorismo desmintió 22 desinformaciones en el último año. También
tiene otras tareas]. Idnes. https://www. idnes.cz/zpravy/domaci/dezinformacehoaxyfakenews
centrumprotiter orismuahybridnimhrozbamcthhministerstvovnitralu.A180314_105400_
domaci_bja. Consultado el 15 de noviembre de 2019.
Just, AN y Degn, SF (17 de julio de 2017). Danske soldater skal beskyttes mod noticias falsas de Rusia.
DR. https://www.dr.dk/nyheder/politik/danskesol daterskalbeskyttesmodfakenewsfrarusland.
Consultado el 15 de noviembre de 2019.
Kalenský, J. (2019). Evaluación de las elecciones de la UE: aún quedan muchas lagunas. Portal de
desinformación. https://disinfoportal.org/evaluacióndelaselectionesdelauemanygapsstill
remain/ . Consultado el 15 de noviembre de 2019.
KennyBirch, R. (3 de diciembre de 2019). Cómo Finlandia acaba con las noticias falsas.
Apolítico. https://apolitical.co/en/solution_article/howfinlandshutsdownfakenews. Consultado el
15 de noviembre de 2019.
Klingová, K. y Milo, D. (2018). Boj proti hybridným hrozbám v krajinách EÚ: príklady dobrej praxe [Lucha
contra las amenazas híbridas en los países de la UE: ejemplos de buenas prácticas]. Bratislava:
GLOBSEC. Consultado el 15 de noviembre de 2019.
Vigilancia del Kremlin. (2020). Bélgica. Condados comparados. https://www.kremlinwa tch.eu/countries
comparedstates/belgium/.
ˇ Consultado el 15 de noviembre de 2019.
KSCM. (2017). ¿Ovlivnila hybridní válka o lithiové baterie volby? Konspiraˇcní teorie versus fakta
[¿La guerra híbrida contra las baterías de litio afectó las elecciones?
Teoría de la conspiración versus hechos]. https://www.kscm.cz/cs/aktualne/med ialnivystupy/
komentare/ovlivnilahybridnivalkaolithiovebaterievolbykon spiracni. Consultado el 15 de
noviembre de 2019.
Kulager, F. (17 de abril de 2017). Información escrita bajo lup: Sådan spreder Ruslands dagsorden sig i
Danmark. Zetland. https://www.zetland.dk/his torie/sOXVEKv3aOZj67pz3bd93. Consultado el 15
de noviembre de 2019. ˇ
Kundra, O. (13 de marzo de 2019). Reditel BIS: Rusko má zájem ovlivnit evropské volby [Director del
Servicio de Seguridad e Información: Rusia tiene interés en influir en las elecciones europeas].
Respeto. https://www.respekt.cz/politika/bisevropskevolby . Consultado el 15 de noviembre de 2019.
Lipská, J. (13 de agosto de 2019). Byl to útok cizí státní moci, uvedl NÚKIB k napadení server ˚u
ministerstva zahraniˇcí [La Autoridad Cibernética Nacional dice sobre
Machine Translated by Google
Mackintosh, E. y Kiernan, E. (18 de mayo de 2019). Finlandia está ganando la guerra contra las
noticias falsas. Lo que se ha aprendido puede ser crucial para la democracia occidental. CNN.
shorturl.at/clFX4. Consultado el 15 de noviembre de 2019.
Marsden, C. y Meyer, T. (2019). Regular la desinformación con inteligencia artificial. https://
www.europarl.europa.eu/RegData/etudes/STUD/2019/624279/EPRS_STU(2019)624279_EN.pdf .
Consultado el 15 de noviembre de 2019.
Mavrodieva, I. (2019). Bulgaria. En O. Eibl & M. Gregor (Eds.), Treinta años de campañas políticas
en Europa central y oriental. Londres: Palgrave.
Animación de medios ASBl. (2020). https://mediaanimation.be/. Consultado el 3 de marzo.
2020.
Mediapool.bg (6 de abril de 2018). Ppoyqvane: Blgapite ca colidapni c Pyci po clyqa “Ckpipal”.
Grupo de medios. https://www.mediapool.bg/prouchvanebalgaritesasolidarnisrusiyapo
sluchayaskripalnews277716.html. Consultado el 15 de noviembre de 2019.
Milo, D., Klingová, K. y Hajdu, D. (2017). Tendencia GLOBSEC 2017: mensajes contradictorios y
señales de esperanza desde Europa central y oriental. Bratislava: Instituto de Política GLOBSEC.
https://www.globsec.org/wpcontent/uploads/2017/09/globsec_trends_2017.pdf . Consultado el
15 de noviembre de 2019.
Ministerio de Asuntos Exteriores de Dinamarca. (2020). Salvaguardias reforzadas contra la influencia
extranjera en las elecciones y la democracia danesas. https://um.dk/en/news/newsdisplaypage/?
newsid=1df5adbbd1df402bb9ac57fd4485ffa4 .
Ministerio de Política de Información de Ucrania. (2018). Bila kniga specialnih informa cijnih
operacij proti Ukra|ni 2014–2018. https://mip.gov.ua/files/pdf/white_book_2018_mip.pdf .
Consultado el 15 de noviembre de 2019.
Ministerio del Interior de la República Checa. (2017). Centro Contra el Terrorismo y las Amenazas
Híbridas. https://www.mvcr.cz/cthh/clanek/centreagainstterrorismandhybridthreats.aspx .
Consultado el 15 de noviembre de 2019.
Mohan, M. (9 de mayo de 2017). Fugas de Macron: la anatomía de un hack. BBC. https://
www.bbc.com/news/blogstrending39845105. Consultado el 15 de noviembre de 2019.
Pulsa televisión. (28 de febrero de 2017). Alemania ayudará a los países bálticos a establecer medios
de comunicación en ruso. https://www.presstv.com/Detail/2017/02/28/512397/ Germany
RussianlanguagemediaBalticstates. Consultado el 15 de noviembre de 2019.
Procházková, P. (17 de octubre de 2018). Výrok prezidenta Zemana o Noviˇcoku se stal samostatnou
kapitolou v Kapesním pr ˚uvodci po ruské propagandˇe [Los comentarios del presidente Zeman
sobre el Novichok se ha convertido en un nuevo capítulo de la guía de bolsillo de la propaganda
rusa]. Nový deník. https://denikn.cz/1864/prezidentzemansestalsamostatnoukapitolouvkapesnim
pruvodciporuskepropagande/ . Consultado el 15 de noviembre de 2019.
ˇ
Rehka, K. (2017). Informaˇcní válka [Guerra de la información]. Praga: Academia.
Reuters. (2020, 24 de enero). Bulgaria expulsa a dos diplomáticos rusos por espionaje. https://
www.reuters.com/article/usbulgariarussia/bulgariaexp elstworussiandiplomatsforespionage
idUSKBN1ZN10K. Consultado el 17 de febrero de 2020.
Roden, L. (13 de marzo de 2017). Los niños suecos aprenderán codificación informática y cómo detectar
noticias falsas en la escuela primaria. El local. https://www.thelocal. se/20170313/losniñossuecos
aprendencodificacióninformáticaycómodetectarnoticiasfalsasenlaescuelaprimaria.
Consultado el 15 de noviembre de 2019.
Rozgonyi, K. (2018). El impacto del desorden informativo (desinformación) en las elecciones. Comisión
Europea para la Democracia a través del Derecho. https://www.venice.coe.int/webforms/documents/
default.aspx?pdffile=CDLLA(2018)002e . Consultado el 15 de noviembre de 2019.
SANS. (2016). Informe Anual 2016. Agencia Estatal de Seguridad Nacional. http://www.dans.bg/images/
stories/Information/Doklad_DANS_2016_en. pdf. Consultado el 15 de noviembre de 2019.
SANS. (2020). Informes anuales. Agencia Estatal de Seguridad Nacional. http://www. dans.bg/en/
report23012018secen. Consultado el 21 de febrero de 2020.
Machine Translated by Google
Scarsi, A. (29 de enero de 2019). Dinamarca pide a la UE que actúe contra Putin: FURIA de
Copenhague ante el 'comportamiento agresivo' de Rusia. Expresar. https://bit.ly/2UbQqPF .
Consultado el 15 de noviembre de 2019.
Scott, M. (30 de junio de 2018). Cambridge Analytica funcionó para grupos Brexit, dice un ex
empleado. Político. https://www.politico.eu/article/cambridgeanalyticalleaveeuukipbrexit
facebook/ . Consultado el 15 de noviembre de 2019.
Servicio de Información de Seguridad. (2019). Informe Anual del Servicio de Información de
Seguridad. https://www.bis.cz/public/site/bis.cz/content/vyrocnizpravy/en/ar2018en.pdf.pdf .
Consultado el 15 de noviembre de 2019.
Sternstein, A. (2017). Lecciones de Estonia para luchar contra la desinformación rusa. https://
www.csmonitor.com/World/Passcode/2017/0324/EstoniaslessonsforfightingRussian
disinformation. Consultado el 15 de noviembre de 2019.
Stone, J. (20 de mayo de 2019). No se puede confiar el servicio de inteligencia al gobierno
austriaco debido a sus vínculos con la extrema derecha, advierte el servicio de seguridad
alemán. Independiente. https://www.independent.co.uk/news/world/europe/austriagermany
intell igencesecurityservicesrussiabfva8921966.html. Consultado el 15 de noviembre de 2019.
Agencia Sueca de Contingencias Civiles. (2018). Si llega la crisis o la guerra. http://
www.documentcloud.org/documents/4481608OmKrisenEllerKrigetKommer
Engelska.html#document/p1 . Consultado el 15 de noviembre de 2019.
Agencia Sueca de Contingencias Civiles. (2019). Contrarrestar las actividades de influencia de
la información: un manual para comunicadores. https://www.msb.se/RibData/Filer/pdf/
28698.pdf . Consultado el 15 de noviembre de 2019.
El gobierno danés. (2018). Estrategia de política exterior y de seguridad de Dinamarca 20192020.
https://www.dsn.gob.es/sites/dsn/files/2018_Denmark%20F
oreign%20and%20security%20policy%20strategy%2020192020.pdf. Consultado el 15 de
noviembre de 2019.
El Centro Europeo de Excelencia para Contrarrestar las Amenazas Híbridas. (2019).
Fechas de incorporación de los Estados miembros del CoE híbrido. https://www.hybridcoe. fi/
wpcontent/uploads/2019/12/JoiningDatesAlfabeticOrder1.pdf.
Consultado el 3 de febrero de 2020.
CAPÍTULO 8
Jonáš Syrovátka
8.1 Introducción
Uno de los hitos más importantes del debate sobre la desinformación y al que
se hace referencia constantemente fue la situación tras el derribo del vuelo
MH17 de Malaysian Airlines en junio de 2014 en el este de Ucrania.
En consecuencia, una masa de desinformación inundó literalmente Internet y
complicó así la capacidad de juzgar lo que realmente había sucedido. A pesar
de eso, la naturaleza, las causas y los culpables del incidente se revelaron con
bastante rapidez y se identificaron y desacreditaron una serie de historias falsas.
El papel clave en este desarrollo lo desempeñó la organización Bellingcat,
compuesta por periodistas de investigación independientes que pusieron todas las piezas
J. Syrovátka (B)
Departamento de Ciencias Políticas, Facultad de Estudios Sociales, Universidad Masaryk, Brno,
Chequia correo
electrónico: syrovatka10@seznam.cz
226 J. SYROVÁTKA
Una sociedad civil vibrante, activa y audaz se percibe como un elemento clave de un
sistema político democrático. Algunas teorías incluso la consideran una de las
condiciones necesarias para la existencia de la democracia (Diamond y Morlino 2005).
A pesar de la resonancia de este término, su definición sigue siendo controvertida, lo
cual no es tan sorprendente dada no sólo la heterogeneidad de los diversos actores de
la sociedad civil sino también el hecho de que este tema ha atraído la atención de los
científicos sociales sólo hace relativamente poco tiempo. Sin embargo, entre todas las
definiciones, el énfasis más fuerte se pone en el papel de la sociedad civil como
equilibrio del poder del Estado, su heterogeneidad y su naturaleza voluntaria.
A los efectos de este texto, la sociedad civil se entiende como una "esfera de
instituciones, organizaciones e individuos ubicados entre la familia, el Estado y el
mercado en la que las personas se asocian voluntariamente para promover el interés
común" (Anheier 2013, 22).
Entre las muchas áreas en las que la sociedad civil podría promover intereses
comunes, el ámbito de la seguridad es uno de los más interesantes, especialmente
porque este área solía considerarse reservada para las instituciones estatales, como el
ejército, la policía o los servicios de inteligencia, en los Estados Unidos. pasado. Sin
embargo, esta visión ha sido cuestionada y algunos académicos en estudios de
seguridad hoy ponen más énfasis en un espectro más amplio de amenazas, incluida la social (Collins 2
Desde este punto de vista, obviamente, el papel de la sociedad civil en la seguridad se
está volviendo tan importante como el papel de las intuiciones estatales. Este hecho ha
sido reflejado por varios autores que han evaluado el papel que podrían desempeñar
los actores de la sociedad civil en el ámbito de la seguridad. Por ejemplo, se ha
argumentado que la sociedad civil es sensible a los diversos cambios que ocurren en la
sociedad y, por lo tanto, podría servir como un sistema de alerta temprana contra
amenazas futuras (Anheier 2013). Sin embargo, los actores de la sociedad civil también
son vistos como actores importantes en la formulación de políticas de seguridad porque
brindan retroalimentación y recomendaciones a las instituciones estatales activas en el
ámbito de la seguridad, así como a los tomadores de decisiones políticas. Al mismo
tiempo, se ha puesto énfasis en su importante papel como guardianes de las políticas
de seguridad del Estado, advirtiendo contra ellas en caso de que sean consideradas una amenaza.
Machine Translated by Google
228 J. SYROVÁTKA
1El autor trabaja como director de programas de proyectos relacionados con la desinformación y las
comunicaciones estratégicas en el grupo de expertos Instituto de Estudios de Seguridad de Praga, con sede
en la República Checa.
Machine Translated by Google
230 J. SYROVÁTKA
Esta limitación está íntimamente relacionada con una segunda, que radica en el
razonamiento pragmático de estas publicaciones. Esto da como resultado (desde la
perspectiva completamente legítima de las OSC) la ambición de no proporcionar un análisis
en profundidad de los actores de la sociedad civil y sus acciones, sino más bien una
selección de los ejemplos más interesantes a seguir. Esta tendencia se ve aún más
fortalecida por los múltiples objetivos de estas publicaciones, que suelen estar dedicadas
exclusivamente a los actores de la sociedad civil, así como a otros temas que dificultan el
análisis en profundidad y predefinen las perspectivas en las que se entienden las acciones
de la sociedad civil.
Ejemplos de estudios producidos por OSC que mapean las actividades de la sociedad
civil en la lucha contra la desinformación son los siguientes: El grupo de expertos checo
Centro Europeo de Valores para la Política de Seguridad describió las actividades de la
sociedad civil en los estados occidentales en un estudio de contramedidas contra las
operaciones subversivas del Kremlin (Kremlin Watch 2018) , así como en The Prague
Manual, que presenta las mejores prácticas para contrarrestar las influencias extranjeras
malignas (Janda y Víchová 2018). La CSO checa Nesehnutí mapeó la propaganda pro
Kremlin en Europa central y oriental y varias iniciativas en su contra (Dufkova y
Hofmeisterova, 2018). El grupo de expertos ucraniano Prism publicó otro estudio, también
centrado en la misma región y su resiliencia contra la desinformación y que mencionaba
proyectos en el área de alfabetización mediática (Damarad y Yeliseyeu 2018). El grupo de
expertos eslovaco GLOBSEC Policy Institute también publicó un estudio centrado
únicamente en los jóvenes y la alfabetización mediática, así como en proyectos que intentan
mejorarla en Europa central y los países de los Balcanes occidentales (Hajdu y Klingová,
2018).
Las actividades de las iniciativas de la sociedad civil que luchan contra la desinformación
también se han convertido ya en objeto de un escrutinio bastante crítico por parte de
investigadores académicos que han señalado su influencia en el discurso público sobre
este tema. Sus estudios se centran en la identidad y las interacciones de los actores
elegidos de la sociedad civil. Aunque estas investigaciones están menos interesadas en
las prácticas, aún proporcionan relatos interesantes de los actores en esta área.
Lamentablemente, por el momento, siguen limitándose a la República Checa y centrándose
en un período entre 2014 y 2016; por lo tanto, no pueden captar la evolución reciente
(Daniel y Eberle 2018; Kohút y Rychnovská 2018).
En resumen, hay razones importantes por las que los investigadores deberían centrarse
más en la cuestión actualmente poco estudiada de los actores de la sociedad civil que
abordan la desinformación. En primer lugar, este ejemplo representa un interesante estudio
de caso de movilización de la sociedad civil en el ámbito de la seguridad, que hasta ahora era
Machine Translated by Google
Como ya se mencionó, el concepto de sociedad civil sigue siendo vago y, por lo tanto,
no es fácil decidir qué iniciativas pueden considerarse parte de esta categoría. Este
obstáculo es aún más problemático dado que la propia sociedad civil es heterogénea
y comprende una serie de actores diversos, desde activistas individuales centrados
en las comunidades locales hasta grandes OSC que operan a nivel internacional. Otro
obstáculo en el mapeo de la sociedad civil es su dinamismo, lo que resulta en cambios
en su tema de interés y, en consecuencia, en sus actividades. Este hecho fue bastante
profundo en el área investigada de la desinformación, que en muchos casos no era
un campo de interés primario sino complementario entre los actores descritos.
El autor decidió superar el desafío de los límites poco claros del concepto aplicado
creando un conjunto de datos de actores que se declararon activos en el área de la
desinformación y están basados en los países analizados. La actividad en este ámbito
no significa sólo comentar el tema de vez en cuando, sino más bien un interés
constante y a largo plazo en el tema.
Si bien el capítulo intenta brindar un relato complejo de las iniciativas en los países
analizados, el autor no puede garantizar que algunas de las iniciativas de la sociedad
civil no hayan sido omitidas. Sin embargo, dada su experiencia personal y consultas
con expertos de los países analizados, se atreve
Machine Translated by Google
232 J. SYROVÁTKA
afirmar que el capítulo presenta a todos los actores cuyas actividades son relevantes y
están teniendo resultados tangibles e influencia en los debates y las comunidades locales.
El capítulo pretende analizar no sólo las actividades y estrategias de los actores de la
sociedad civil sino también la dinámica del debate sobre el tema de la desinformación
en los países analizados. Este conocimiento proporcionará una mayor comprensión del
contexto en el que operan estos actores. La dinámica del debate se evaluará a partir del
número de actores de la sociedad civil que han comenzado a involucrarse en actividades
para combatir la desinformación a lo largo del tiempo.
El desarrollo dinámico de los actores de la sociedad civil complica la evaluación de en
qué momento comenzaron a interesarse por un tema en particular.
Sin embargo, para nuestros propósitos, esta categoría se medirá según el año de su
primera producción pública: publicar una investigación, un artículo o un libro; realizar
cierta actividad; o lanzar un sitio web—fue identificado.
Aún más problemático es evaluar si todavía están activos en la zona. Por lo tanto, la
atención se centra únicamente en el año en que un actor de la sociedad civil se volvió
activo en la lucha contra la desinformación; su eventual cese de actividades en este
campo se mencionará sólo si es posible probarlo.
Al evaluar la identidad de un actor de la sociedad civil, se utilizó la metodología de
Anheier (2013) para identificar individuos, organizaciones e instituciones. Esta
categorización permitió la inclusión en el conjunto de datos de otros dos tipos de actores
cuya afiliación con la sociedad civil podría cuestionarse: periodistas y académicos. Estos
actores fueron cruciales para el debate sobre la desinformación en los países analizados,
por lo que su exclusión del conjunto de datos oscurecería los resultados de la
investigación. Al mismo tiempo, se debe entender su especificidad y, por lo tanto, se
tratan como categorías separadas en el capítulo. En cuanto a los actores "normales" de
la sociedad civil, su inclusión en el conjunto de datos está condicionada por un interés
autoproclamado, consistente y a largo plazo en el área. Por lo tanto, el conjunto de datos
incluirá, por ejemplo, solo aquellos periodistas que escriben sobre desinformación de
forma regular y han intentado hacer avanzar el debate sobre este tema a través de sus
propios proyectos (por ejemplo, de investigación). En resumen, las categorías descritas
en el capítulo son las siguientes:
Antes de presentar la investigación en sí, cabe señalar que este tipo de ámbito requiere
ciertas consideraciones éticas. Dado que la desinformación podría ser un arma útil para
actores no democráticos nacionales o extranjeros, se podría argumentar que describir a
quienes abordan este fenómeno los pone en peligro, especialmente cuando se nombran
organizaciones e individuos y se describen sus actividades. A pesar de esa comprensión de
este argumento, el autor no lo considera una limitación en esta investigación. Dado que los
datos presentados en el capítulo se basan únicamente en fuentes abiertas (en la mayoría de
los casos publicadas por los propios actores de la sociedad civil investigados), el capítulo no
menciona nada que las organizaciones investigadas no estarían dispuestas (y tal vez incluso
ansiosas) a comunicar al público. .
234 J. SYROVÁTKA
8
7
6
CZ
5
HU
4
pl
3
SL
2
1
0
Previo 2014 2015 2016 2017 2018 2019
2014
Fig. 8.1 Número de iniciativas de la sociedad civil recientemente establecidas que abordan la
desinformación por año ( Autor de la fuente)
35
30
6
25 11
Academia
4
20 9 Medios de comunicación
7
15 Organización
4 Individual
10
6 15
13
5 3
2 4
0 1
CZ HU pl SK
Fig. 8.2 Identidad de los actores de la sociedad civil en países individuales ( Autor fuente)
Estas diferencias ilustran claramente que incluso en una región tan coherente, los
factores internos claramente importan. Por lo tanto, el resto del capítulo ofrecerá una
mirada más cercana a las sociedades civiles separadas de los países de Europa
central, describiendo a los actores individuales y sus actividades y estrategias más
importantes.
236 J. SYROVÁTKA
2Un departamento del Servicio Europeo de Acción Exterior encargado de abordar la desinformación.
mación.
Machine Translated by Google
238 J. SYROVÁTKA
3El capítulo tiene en cuenta sólo las OSC con presencia en la República Checa (y, respectivamente,
en otros países analizados) y que participaron activamente en la creación de la red de actores de la
sociedad civil nacional. Por lo tanto, no se menciona a los donantes extranjeros (como el Fondo
Nacional para la Democracia de Estados Unidos) a pesar de que desempeñaron un papel importante
en la configuración del debate sobre la desinformación en Europa central.
Machine Translated by Google
240 J. SYROVÁTKA
8.4.2 Hungría
ellos en 2010. Desde entonces, esta OSC lleva a cabo proyectos de investigación
centrados en campañas de propaganda y desinformación extranjeras (en
particular, rusas) y nacionales (Political Capital 2019). El Centro CSO para la
Integración y la Democracia Euroatlántica (sf) fue una organización asociada en
varios proyectos centrados únicamente en la guerra de información rusa entre
2016 y 2018.
Como se mencionó anteriormente, la atención de los medios dedicados al
fenómeno de la desinformación está relacionada principalmente con otras
disfunciones del gobierno húngaro, como la corrupción o el debilitamiento de las
instituciones democráticas. Un caso ilustrativo es un grupo de informes de
investigación del sitio web Átlátszó (Transparente), que comenzó a estar activo
en 2011 y proclama que su misión es principalmente reportajes de investigación,
trabajando con denunciantes y otros profesionales de vigilancia. Sin embargo, en
2017, Átlátszó añadió una nueva sección de propaganda gubernamental a su sitio
web centrada en la libertad de prensa y las campañas de desinformación locales
(Átlátszó, sf). Se podría contar una historia similar sobre otros medios de
comunicación, como Direkt36, creado en 2015 (Direkt36, sin fecha), o KMonitor,
que llevó a cabo talleres sobre desinformación en 2019 (KMonitor 2019). Estas
publicaciones de los medios se centraron principalmente en reportajes de
investigación, pero luego agregaron también el tema de la desinformación y la
propaganda a sus agendas.
8.4.3 Polonia
242 J. SYROVÁTKA
8.4.4 Eslovaquia
244 J. SYROVÁTKA
para proveedores comerciales (Sblog 2018). La lista de sitios web creada por
Konspirátori.sk también fue utilizada por la empresa de alojamiento web WebSupport,
que creó el complemento BS Detector de Google Chrome (ver Capítulo 5) en 2017
advirtiendo contra los sitios que difunden contenido problemático (Bullshit Detector,
sf). También se utilizaron medios digitales avanzados en el proyecto 'Blbec.online'
(Jerk.online), que extrae contenidos en tiempo real de páginas de Facebook
conocidas por difundir desinformación. Al hacerlo, ha podido advertir contra aquellos
que se vuelven virales desde 2017 (Blbec.online, sf). Otro proyecto digno de mención
que utiliza tecnologías digitales para combatir la desinformación es 'Checkbot', un
complemento de Facebook que ayuda a los usuarios a desacreditar la desinformación
en línea; fue producido por un equipo dirigido por Peter Janˇcárik de la empresa de
relaciones públicas Seesame en 2019 (Insight 2019). Varias iniciativas de la
sociedad civil abordaron el tema de manera más proactiva y comenzaron a desafiar
directamente la difusión de desinformación. Este es el caso del grupo #somtu
(#Iamhere), que, desde su creación en 2017, ha tenido como objetivo disminuir la
polarización en los debates en las redes sociales (Mikušoviˇc 2017). Slovenskí
elfovia (duendes eslovacos) comenzaron a estar activos en 2018 y, inspirados por
sus homólogos bálticos, se han centrado en exponer a los trolls en las redes sociales
(Brenier 2019). Como se mencionó, varias iniciativas intentaron abordar la cuestión
de la desinformación de manera más amplia, centrándose en las razones por las
que se induce a la gente a creerla. De manera similar, como en otros países
analizados, se lanzaron proyectos educativos centrados en la alfabetización
mediática ('Zmudri' (Get Wise) en 2018 (Zmudri, sin fecha)) y en la sensibilización
sobre el tema: 'Infosecurity' en 2019 (Infosecurity, sin fecha). .
Dado el estrecho vínculo entre la desinformación y el extremismo de derecha,
también se lanzaron varias iniciativas destinadas a desradicalizar a la juventud y
contrarrestar las narrativas extremistas y conspirativas: En 2016, el proyecto 'Mladi
proti fašismu' (Juventud contra el fascismo) (Mladi proti fašismu, sf) y, un año
después, el proyecto 'Sebavedome Slovensko' (Eslovaquia segura de sí misma)
(Sebavedome, nd). Una estrategia utilizada por la sociedad civil eslovaca se
diferencia de la de otros países cubiertos por el uso del humor y el sarcasmo para
ridiculizar las teorías de conspiración y sus diseminadores. Las dos iniciativas más
populares de este tipo son las páginas de Facebook 'Preco ludem hrabe' (Por qué
la gente se vuelve loca), lanzada en 2014, y 'Zomri' (Muere), lanzada en 2016.
246 J. SYROVÁTKA
países a nivel mundial desde 1998 (Memo98, sf). La rama eslovaca del Open Society Fund
inició proyectos centrados en abordar el discurso de odio en 2014 (Open Society Foundation
2015). Después de 2015, básicamente todas las OSC eslovacas que se ocupaban de
cuestiones relacionadas con la seguridad llevaron a cabo al menos un proyecto relacionado
con la desinformación, entendido principalmente en el contexto de las operaciones de
influencia rusa. El Instituto Eslovaco de Política de Seguridad lanzó el sitio web Antipropaganda
sobre este fenómeno en 2015 (Antipropaganda, sf). El Instituto de Política GLOBSEC
comenzó a involucrarse en el debate sobre la desinformación en 2015 y se convirtió en uno
de los faros de la investigación sobre este tema en Europa central. Sus recursos permitieron
a esta OSC realizar varios estudios de alcance internacional, como la encuesta de opinión
GLOBSEC Trends, que mapea la opinión pública sobre cuestiones políticas y de seguridad
en los países de Europa del Este. Se ha convertido en un importante creador de redes, con
una red transfronteriza de contactos, y en un promotor del debate sobre la desinformación,
especialmente al incluirlo en la agenda de la Cumbre GLOBSEC Tatra (Globsec, sf). En 2016,
el Instituto de Política Estratégica organizó varios eventos públicos sobre la guerra híbrida en
el flanco oriental de la OTAN y la guerra de información en Ucrania (Instituto de Política
Estratégica, sin fecha). Entre los proyectos llevados a cabo por la Asociación Eslovaca de
Política Exterior, el más significativo fue la plataforma informal del Foro Eslovaco contra la
Propaganda, creada en 2017 y que proporciona un espacio para que varios activistas se
reúnan y un centro para futuros proyectos de cooperación (Foro Eslovaco contra la
Propaganda , sin fecha). El Centro para Asuntos Europeos y del Atlántico Norte publicó un
análisis sobre la guerra de información como herramienta de la política exterior rusa en 2017
(Centro para Asuntos Europeos y del Atlántico Norte, 2019) y, en 2018, la rama eslovaca de
la OSC People in Need lanzó el proyecto 'Nenávistný skutok' (Acto lleno de odio) en el que
participan abogados que procesan casos de incitación al odio en Internet (Clovek v ohrozeni,
sf).
8.5 Resumen
Las actividades en curso de iniciativas de la sociedad civil que luchan contra la desinformación
representan un método ejemplar para estudiar las posibilidades y limitaciones de la
participación ciudadana activa en el ámbito de la seguridad. Existe un amplio consenso entre
expertos, funcionarios estatales y políticos sobre el hecho de que los individuos, organizaciones
e instituciones de la sociedad civil son actores importantes para superar los desafíos
relacionados con el actual desorden informativo y (en algunos casos) toman en cuenta sus
hallazgos. mientras
Machine Translated by Google
Las marcadas diferencias entre los actores de la sociedad civil en los países
analizados muestran que el interés en el tema de la desinformación y las estrategias para
abordar este fenómeno dependen en gran medida del contexto local. Este hecho debe
tenerse en cuenta al intentar trasplantar estas experiencias de lucha contra la
desinformación a diferentes contextos sociopolíticos fuera de Europa central. Este
capítulo proporciona evidencia convincente de que un enfoque único no es adecuado ni
siquiera dentro de una región coherente y, por lo tanto, se necesita un enfoque más
matizado respaldado por una investigación adecuada. Antes de encontrar formas
comunes de abordar la desinformación, es necesario comprender las especificidades y
el contexto nacional y asegurarse de que todos los actores de la sociedad civil perciban
el problema de la misma manera, lo que no siempre es así, incluso en países bastante
similares de Europa central. .
Machine Translated by Google
248 J. SYROVÁTKA
Agradecimientos El autor desea agradecer a Lóránt Gy˝ori, Marta Kowalska, Tomáš Kriššák, Jakub Tomášek y
Veronika Víchova por sus valiosos conocimientos.
Bibliografía
Brenier, V. (13 de agosto de 2019). Slovenskí elfovia sa prihlásili k odstráneniu propagandistického videa
Kotlebovcov [Los elfos eslovacos anunciaron que son responsables de la eliminación del vídeo
propagandístico del partido político de Kotleba]. INFOSEGURIDAD.SK. https://infosecurity.sk/domace/livia
aelf ovia/. Consultado el 3 de febrero de 2020.
Caparini, M., Fluri, P. y Molnár, F. (2006). La sociedad civil y el sector de la seguridad: conceptos y prácticas en
las nuevas democracias. Münster: iluminado.
Fundación Casimir Pulaski. (2019). Sobre la desinformación del margen del Foro de Seguridad de Varsovia.
https://pulaski.pl/es/sobreladesinformacióndelmargendevarsoviaforodeseguridad2/. Consultado el 3
de febrero de 2020.
Cemper, J. (2019, 15 de noviembre). Projekt Fair Advertising upozor ˇnuje na nevhodnou inzerci na konspiraˇcních
webech. Spoleˇcnosti už reagují [Proyecto de publicidad justa llama la atención sobre la publicidad en sitios
de conspiración. Las empresas ya están respondiendo]. Manipulátoˇri. https://manipulatori.cz/pro jektfair
advertisingupozornujenanevhodnouinzercinakonspiracnichweb echspolecnostiuzreaguji/. Consultado
el 3 de febrero de 2020.
Machine Translated by Google
Centro para la Integración y la Democracia Euroatlántica. (Dakota del Norte). Evaluación de las herramientas
de poder blando del Kremlin en Europa Central. http://ceid.hu/assessmentofkre mlinssoftpowertoolsin
centraleurope/. Consultado el 24 de noviembre de 2019.
Centro de Asuntos Europeos y del Atlántico Norte. (2019). Guerra de información. http://www.cenaa.org/en/
research/informationwarfare/news. Consultado el 3 de febrero de 2020.
Centrum Analiz Propagandy i Dezinformacji. (Dakota del Norte). Sobre la Fundación. https://
capd.pl/en/missionandgoals. Consultado el 3 de febrero de 2020.
Centrum Stosunków Mi˛edzynarodowych. (Dakota del Norte). Proyectos. http://csm.org.pl/en/projects .
Diálogo cibernético. (2019). Ciberdiálogo: ciudadanos activos contra las falsificaciones y el odio en línea. https://
www.cyberdialogue.cz/. Consultado el 24 de noviembre de 2019.
Ciberdefensa24. (Dakota del Norte). Bezpiecze ´nstwo Informacyjne CyberDefence24.Pl. https://
www.cyberdefence24.pl/bezpieczenstwoinformacyjne/. Consultado el 3 de febrero de 2020.
Demagogo SK. (Dakota del Norte). O Nás [Quiénes somos]. https://demagog.sk/onas/. Accedido
3 de febrero de 2020.
Deutsche Welle. (2017, 13 de junio). Blogs de pensionistas eslovacos contra los neonazis. https://www.dw.com/
en/slovakpensionerblogsagainstneonazis/av396 26676. Consultado el 3 de febrero de 2020.
250 J. SYROVÁTKA
Comisión Europea. (2018). Plan de Acción contra la Desinformación. Bruselas: Alto Representante de la
Unión para Asuntos Exteriores y Política de Seguridad.
Casa de la libertad. (2019). Libertad en el Mundo 2019. https://freedomhouse. org/report/freedomworld/
freedomworld2019. Consultado el 3 de febrero de 2020.
Fried, D. y Polyakova, A. (2018). Defensa Democrática contra la Desinformación.
Washington: Consejo Atlántico.
Fundacja INFO OPS Polonia. (Dakota del Norte).
´ Fundacja Info Ops Polska. Projekt Na Rzecz Zapewnienia
Bezpiecze ´nstwa Srodowiska Informacyjnego . http://infoops.pl/.
Consultado el 3 de febrero de 2020.
Gregor, M., Vejvodová, P. y Zvol si info. (2018). Nejlepší kniha o fake news, dezinformacích a manipulacích!!!
Praga: CPRESS.
Hajdu, D. y Klingová, K. (2018). ¿Del campo de batalla online a la pérdida de confianza?
Percepciones y hábitos de la juventud en ocho países europeos. Bratislava: Instituto de Política
GLOBSEC.
HOAX.CZ. (Dakota del Norte). https://hoax.cz/cze/. Consultado el 3 de febrero de 2020.
Infoseguridad. (Dakota del Norte). O Stránke [Acerca de la página web]. https://infosecurity.sk/ostranke/.
Consultado el 3 de febrero de 2020.
Conocimiento. (27 de marzo de 2019). Checkbot je slovenský chatbot, který lidem pomáhá odhalovat fake
news [Checkbot es un chatbot eslovaco que ayuda a desacreditar noticias falsas]. https://www.insight.cz/
2019/03/27/checkbotjeslovenskychatbotkterylidempomahaodhalovatfakenews/. Consultado el 3
de febrero de 2020.
Instituto de Política y Sociedad. (Dakota del Norte). Miembro—Roman Máca. https://www. politikaspolecnost.cz/
es/quiénessomos/romanmaca2/#main. Consultado el 3 de febrero de 2020.
IVO. (Dakota del Norte). Inštitút pre verejné otázky [Instituto de Asuntos Públicos]. http://www. ivo.sk/165/
sk/pracovnici/grigorijmeseznikov. Consultado el 3 de febrero de 2020.
Janda, J. y Víchová, V. (Eds.). (2018). El manual de Praga. Vigilancia del Kremlin. https://www.kremlinwatch.eu/
ourreports/. Consultado el 3 de febrero de 2020.
Jeden svˇet na školách. (Dakota del Norte). Publikace a metodické pˇríruˇcky k mediálnímu vzdˇelávání
[Publicaciones y materiales metódicos para la alfabetización mediática]. https://www.jsns.cz/projekty/
medialnivzdelavani/materialy/pub likace. Consultado el 3 de febrero de 2020.
Machine Translated by Google
Kohút, M. y Rychnovská, D. (2018). La batalla por la verdad: mapeo de la red de expertos en guerra de
información en la República Checa. Nuevas perspectivas, 26(3), 1–37.
Vigilancia del Kremlin. (2018). 2018 Ranking de contramedidas de la UE28 a las operaciones de subversión del
Kremlin. Valores europeos. https://www.europeanvalues.net/vyzkum/2018rankingcountermeasureseu28
kremlinssubversionoperatives/ . Consultado el 3 de febrero de 2020.
ˇ
Kundra, O. (28 de febrero de 2015). Putin ˚uv hlas v Cesku [La voz de Putin en Chequia]. Respeto. https://
www.respekt.cz/znovehocisla/putinuvhlasvcesku. Consultado el 3 de febrero de 2020.
Manipulátoˇri. (2020). Manipulátoˇri.cz mají nový web a chystají rozšíˇrení [ Manipulatori.cz tiene nuevo sitio
web y prepara extensión]. https://manipulat ori.cz/manipulatoriczmajinovywebachystajirozsireni/.
Consultado el 3 de febrero de 2020.
Nota 98. (Dakota del Norte). Sobre nosotros. http://memo98.sk/p/onas. Consultado el 13 de enero de 2021.
Mikušoviˇc, D. (27 de junio de 2017). #Somtu: Ako Mladí Slováci Prinášajú
Slušnosˇt a Fakty Do Nenávistných Diskusií [#EstoyAquí: Cómo los jóvenes eslovacos aportan cortesía y
hechos en discusiones llenas de odio]. Denník N. https://dennikn.sk/792819/somtuakomladislovaci
prinasajuslusnostafaktydonenavistnychdiskusii/. Consultado el 3 de febrero de 2020.
Nimmo, B. (2015). El caso de la defensa de la información: una estrategia preventiva para hacer frente a las
nuevas guerras de desinformación. En Legatum Institute (Ed.), Información en guerra: de las tres guerras
de China a las narrativas de la OTAN.
Nutil, P. (2018). Média, lži a pˇríliš rychlý mozek: Pr ˚uvodce postpravdivým svˇetem [Medios, mentiras y cerebro
demasiado rápido: guía a través del mundo posfactual].
Praga: Grada.
Machine Translated by Google
252 J. SYROVÁTKA
Instituto de Estudios de Seguridad de Praga. (Dakota del Norte). Las actividades de influencia de Rusia
en ECO. http://www.pssi.cz/russiasinfluenceactivitiesincee. Consultado el 3 de febrero de 2020.
Blog. (2018, 2 de febrero). Sklik nabídne klient ˚um možnost neinzerovat na webech oznaˇcených
iniciativou Konšpirátori.sk jako dezinformaˇcní [Sklik ofrecerá a sus clientes la opción de no
anunciarse en sitios web identificados como desinformación por Konspirátori.sk]. https://
blog.seznam.cz/2018/02/skliknabidneklientummoznostneinzerovatwebechoznacenychiniciativou
kon spiratoriskjakodezinformacni/. Consultado el 3 de febrero de 2020.
Machine Translated by Google
Visiones semánticas. (2019). Semantic Visions gana un desafío tecnológico de 250.000 dólares para
combatir la desinformación. https://semanticvisions.com/semanticvisionswins250000tech
challengetocombatdisinformation/ . Consultado el 3 de febrero de 2020.
Šnídl, V. (26 de febrero de 2015). Proruskú propagandu o zhýralom Západe u nás šíri 42 webov [La
propaganda prorrusa sobre el Occidente decadente se está extendiendo a través de 42 sitios web].
Denník N. https://dennikn.sk/57740/pro ruskupropaganduozhyralomzapadeunassiri42webov/.
Consultado el 3 de febrero de 2020.
Zmudri. (Dakota del Norte). Nauˇc Sa Veci Potrebné Pre Život [Aprender cosas importantes para la vida].
https://zmudri.sk/#sectionaboutproject. Consultado el 3 de febrero de 2020.
Machine Translated by Google
CAPÍTULO 9
Conclusión
Correo
electrónico del Sr. Gregor: mgregor@fss.muni.cz
9 CONCLUSIÓN 257
era de la posverdad, que se caracteriza por una menor confianza en las opiniones de los expertos, la
creencia en hechos alternativos y la relativización de casi todo.
Es una era en la que los expertos deben entrar en extrañas disputas no sobre qué
Es verdad, pero lo que es un hecho.
La adaptación de los sistemas y sociedades democráticos al nuevo entorno
informativo es el objetivo final en ese contexto. Residencia en
De lo investigado destacamos la necesidad de una visión centrada en la sociedad.
acercarse. Este enfoque pone de relieve la desinformación y la propaganda.
como amenazas diseñadas para influir en las habilidades cognitivas de los humanos como objetivos.
En el entorno en línea, los actores estatales y no estatales participan en una
carrera continua para influir y proteger de los grupos de influencia en línea
usuarios (Kelton et al. 2019). Son los humanos afectando y actuando contra otros.
humanos.
Por tanto, la protección de los seres humanos parece crucial para la adaptación de
los sistemas democráticos. Sin embargo, la protección podría evocar pasividad.
del lado de los actores bajo influencia potencial; por eso es mejor
hablar de resiliencia. La resiliencia puede adoptar diferentes formas y puede ser
relacionado con diferentes aspectos del sistema, pero, cuando se ve a través de la lente
de un enfoque centrado en la sociedad, se refiere a la resiliencia humana/social. Humano
la resiliencia va al nivel micro, mientras que la resiliencia social es el nivel meso; sin
embargo, en caso de información maliciosa, los derechos humanos y sociales
la resiliencia están intensamente interconectadas y no tiene mucho sentido
para separarlos. Identificamos cuatro niveles a los que es importante pagar
atención profunda, cuatro niveles que convierten la resiliencia humana y social en un
concepto más tangible. Entre ellos, este volumen editado identificó desafíos importantes
para las democracias contemporáneas en (1) resiliencia cognitiva,
(2) arreglo institucional, (3) operación tecnológica y (4) legal
estructura.
La resiliencia cognitiva es probablemente el nivel más desafiante y, al mismo tiempo,
es probablemente el que se refleja con mayor frecuencia en la psicología y la literatura
educativa. Éste es el único nivel directamente relacionado con el individuo y con su
capacidad para interpretar la realidad social. Resiliencia cognitiva
sirve para evitar que la desinformación y la propaganda echen raíces y
siendo interiorizado por el público objetivo. Se relaciona con visiones del mundo y
esquemas interpretativos, dando sentido a la información y afectando
proceso de toma de decisiones (Bjola y Papadakis 2020; Hansen 2017).
La calidad de la resiliencia cognitiva a nivel individual influye directamente en la calidad
de la resiliencia social. La construcción de tal resiliencia
Machine Translated by Google
9 CONCLUSIÓN 259
Los aspectos tecnológicos y las posibilidades del espacio virtual han permitido
a los propagandistas y desinformadores ir un paso más allá, y la desinformación
y la propaganda en línea ya no se concentran exclusivamente en la difusión de
contenidos. La verdadera ventaja estratégica no reside en la creación de contenido
manipulativo funcional. Más bien, es control sobre la red a través de la cual se
difunde la información y que luego puede ser utilizada en cualquier momento por
el actor que controla dicha red. Estamos considerando aquí la protección
infraestructural de las conexiones entre los individuos y las redes en las que están
organizados (virtualmente y, en consecuencia, también físicamente). El riesgo
es muy alto porque el auge y la amplia aceptación de las redes sociales las
convierten en la principal fuente de recopilación masiva de datos sociales a través
de Internet y permiten una comprensión cada vez más rica del comportamiento
social. El comportamiento social ahora es directamente observable a bajo costo.
Es fácil observar incluso comunidades pequeñas y probar sus reacciones ante
diferentes estímulos (Hwang 2019). Es posible apuntar a las conexiones.
Machine Translated by Google
9 CONCLUSIÓN 261
Bibliografía
Índice
© Los editores (si corresponde) y los autores, bajo licencia exclusiva para 263
Springer Nature Switzerland AG 2021 M. Gregor y P.
Mlejnková (eds.), Desafiando la propaganda y la desinformación
en línea en el siglo XXI, Campañas políticas y Comunicación,
https://doi.org/10.1007/9783030586249
Machine Translated by Google
264 ÍNDICE
ÍNDICE 265
266 ÍNDICE
adaptación mi
democrática del régimen democrático, Grupo de trabajo East StratCom, 204, 205,
258 209, 212, 215, 237
disrupción del discurso democrático, 89 EasyList, 142
democratización del periodismo, 9 cámaras de eco, 31, 32, 34, 35, 49, 92, 257
democratización del contenido en línea
creación, 118, 131 Jurisprudencia del TEDH, 106, 109–111, 114,
116, 119, 121, 125, 126, 130 proceso
demonización, 10
educativo, 6 educación de
Dinamarca, 178, 196, 207, 209, 210, 216
los partidos políticos, 203 efectividad de
las mentiras, 7 intromisión
Centro de Seguridad Cibernética, 209
electoral, 88 descubrimiento
Servicio de Inteligencia de Defensa, 208
electrónico, 169–171, 173 evidencia
Ministerio de Relaciones Exteriores, 197,
electrónica, 168–170, 174–177, 179–
208, 209
187, 259
detección, 64, 129, 131, 140,
Evidencia electrónica : una guía básica para
143–145, 148, 150–152, 186, 187,
Socorristas, 183
200, 259
tecnocracia elitista, 27
Dezimatrix, 239
emociones, 7, 10, 11, 17, 20, 34, 35, 57 ,
análisis forense digital (DFA), 181, 184, 187 153, 156, 158
desafíos,
explotación, 10
183 principios, Fondo de Dotación para Independientes
181–183 Periodismo, 238
practicantes forenses digitales, 181, 184, 186, Euforka, 239
187, 259 Centro Europeo de Excelencia para
periodismo digital, 141, 257 Contrarrestar las amenazas híbridas,
Direkt36, 241 95, 207, 215
desinformación Convenio Europeo sobre Derechos Humanos
Derechos, 105, 129, 260
audiovisual, 14, 15
Convenio Europeo sobre Mutuas
categorías, 12, 14, 15, 78, 106, 124 era de,
Asistencia en Materia Penal, 175
12, 96 campaña
de desinformación, 4, 5, 12, 13, 21, 75–77, 80,
Tribunal Europeo de Derechos Humanos
82, 87, 93 , 96, 195–197, 200, 208,
(CEDH), 105–107, 109, 111, 113,
210, 211, 214, 228, 241 difusión de
115–120, 122–125, 128–130
información
difamatoria, 106 desconfianza, 5, Orden europea de investigación (EIO), 176–
51, 64, 92 de los 180
científicos, 27 doctrina de Crisis migratoria europea, 11
apreciación del Producción y preservación europeas
margen, 111 Órdenes, 177, 179, 186
Machine Translated by Google
ÍNDICE 267
Unión Europea (UE), 33, 59, detección, 140, 141, 143, 150
89, 110, 127, 128 , 131, 156, 170, Proyecto Fakescape, 239
176, 177, 179, 186, 187, 196, 198 , falso dilema, 91
204, 205 , 207 , 210, 212–216, 229, operación de bandera falsa, 78,
239, 242 Plan de acción contra 79 extrema derecha, 56, 85–
la desinformación, 205, 228 marco legal, 89, 203 miedo, 10, 11, 18, 90, 153,
105, 110, 256 generación de contenido ficticio,
176 Sistema de Alerta Rápida, 205 144 burbujas de filtro, 31, 108 , 109, 203
Centro Europeo de Valores Fiskkit, 146
para la Política de Seguridad (EVCSP), 230, Tierra plana, 27
237, 238 EUvsDisinfo, 199, 200, 204, análisis forense de desinformación y propaganda,
205, 208, 209, 213 todo el mundo miente, 8 184 análisis forense
explotar, 36, 59, de evidencia, 169 software forense, 183,
79, 142, 144 184
emociones. Ver historial de Freebase, 146
emociones, 7 vulnerabilidades,
libertad de expresión, 106, 107,
21, 93, 256 109–113, 116, 118–122, 124, 130, 180
libertad de
expresión, 34, 50, 60, 76,
F 81, 85, 112, 113, 116 , 117, 120, 129, 130,
170, 171, 201, 260 derechos
fabricación, 10, 156
fundamentales, 106, 109, 111, 116, 129–
FaceApp, 45, 62
131, 170, 171
Reto FaceApp, 62
Facebook, 4, 32, 34, 44, 45, 55, 56, 59, 94,
142, 158, 159, 170, 174, 202, 203, 205,
G
206, 242, 245
Estándares comunitarios de Facebook, 202 ganar confianza,
7 brecha entre nosotros y ellos, 91
intercambio de Servicio de Seguridad Alemán, 79
caras, 61 verificación de hechos, 94, 95, 139, 141, Infraestructura de información 5G, 51
145–147, 157, 158, 160, 197 , 202 , plataformas globalizadas de intercambio
203, 235, 236, 243, 244, 257 de información, 114
Instituto de Política GLOBSEC, 230, 246 buena
FACTCK.BR, 157 fe, 108, 109, 126
extracción y verificación de hechos Guía de buenas prácticas para informática
(FEVER), 147 Evidencia electrónica basada,
noticias falsas, 5, 15, 16, 23, 24, 34, 60, 64, 182
76, 83, 94, 95, 106–109, 113, 115, Google, 32, 202
117, 118, 121, 123– 125, 140 , 145– Detector BS del complemento de Google
147, 149–152 , 157, 160, 199, 201,
202, 209, 213–215, 237, 257 Chrome, 245 Modelo neuronal
GPT2, 144 Grover, 144
Machine Translated by Google
268 ÍNDICE
ÍNDICE 269
270 ÍNDICE
ÍNDICE 271
272 ÍNDICE
ÍNDICE 273