Está en la página 1de 37

Salvaguardar la libertad de expresión y el acceso a la información:

directrices para un enfoque de múltiples partes interesadas en el


contexto de la regulación de las plataformas digitales.
Borrador 3.01
27 de abril de 2023

Contenido
El objetivo de las Directrices ........................................................................................ 4
Estructura de las Directrices..................................................................................... 6
Enfoque de una regulación de plataformas digitales .................................................... 7
Entorno propicio ........................................................................................................... 9
Deberes de los Estados de respetar, proteger y hacer cumplir los derechos
humanos ................................................................................................................ 10
El papel de las organizaciones intergubernamentales ........................................... 14
[El papel de la sociedad civil y de otras partes interesadas.................................... 14
Sistema regulador ...................................................................................................... 15
Constitución ........................................................................................................... 16
Potestades ............................................................................................................. 17
Revisión del sistema regulador .............................................................................. 18
Responsabilidades de las plataformas digitales ......................................................... 19
Principio 1. Las plataformas realizan el proceso de debida diligencia en materia de
derechos humanos ................................................................................................. 19
Principio 2. Las plataformas deben adherir a la normativa internacional en materia
de derechos humanos, incluido en el diseño de la plataforma, la moderación y la
curación de los contenidos. .................................................................................... 23
Principio 3. Las plataformas son transparentes ...................................................... 26
Principio 4. Las plataformas ponen a disposición de las personas usuarias
información y herramientas .................................................................................... 29
Principio 5. Las plataformas rinden cuentas a las partes interesadas pertinentes .. 31
Conclusión ................................................................................................................. 33
Apéndice .................................................................................................................... 35
Recursos ................................................................................................................ 35
Referencias sobre la terminología .......................................................................... 35

1La versión original de este documento está en inglés. Seguirán las versiones francesa y española.
Seguirán las versiones francesa y española. Los términos y párrafos donde hay varios comentarios
divergentes están marcados con corchetes y cursiva. Aunque la totalidad del documento puede
consultarse nuevamente, se agradecen encarecidamente los comentarios específicos y detallados
sobre esas secciones.

1
Introducción

1. En noviembre de 1945, la UNESCO fue creada con la misión de «contribuir a


la paz y la seguridad mediante la promoción de la colaboración entre las
naciones a través de la educación, la ciencia y la cultura, con el fin de asegurar
el respeto universal a la justicia, al estado de derecho, a los derechos humanos
y a las libertades fundamentales que se afirman para los pueblos del mundo».2
El mandato mundial de la UNESCO, que incluye la promoción de «la libre
circulación de ideas por medio de la palabra y la imagen», ha guiado la labor
de la Organización durante casi 80 años, como laboratorio de ideas, centro de
intercambio de información, organismo de normalización, catalizador y motor
de la cooperación internacional y creador de capacidades. Esta historia dio
forma a nuestro mandato dentro del sistema de las Naciones Unidas para
proteger y promover la libertad de expresión, el acceso a la información y la
seguridad de los periodistas.

2. En la base de los principios, convenciones y declaraciones pertinentes, la


Secretaría de la UNESCO está desarrollando, a través de consultas con
múltiples partes interesadas y un diálogo global, Salvaguardar la libertad de
expresión y el acceso a la información: directrices para un enfoque de múltiples
partes interesadas en el contexto de la regulación de las plataformas digitales
(las Directrices). La labor y compromiso permanente de la UNESCO consisten
en garantizar que la regulación de las plataformas digitales proteja y promueva
la libertad de expresión.

3. Este esfuerzo se inspira en el trabajo de la UNESCO en el ámbito de la


regulación de la radiodifusión durante varias décadas, y promueve la
Estrategia a Mediano Plazo de la Organización para el período 2022–2029
(41 C/4).3

4. En 2015, la Conferencia General de la UNESCO respaldó los principios


ROAM,4 que destacan la importancia de los derechos humanos, la apertura, la
accesibilidad y la participación de múltiples partes interesadas para el
desarrollo, el crecimiento y la evolución de Internet. Estos principios reconocen
la necesidad fundamental de garantizar que el espacio en línea continúe
desarrollándose y utilizándose de manera propicia para alcanzar los Objetivos
de Desarrollo Sostenible.

2 Constitución de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura,


Artículo 1. https://www.unesco.org/en/legal-affairs/constitution#article-i---purposes-and-functions
3 El Objetivo Estratégico 3 es construir sociedades inclusivas, justas y pacíficas, también mediante la

promoción de la libertad de expresión. El Objetivo Estratégico 4 es fomentar un entorno tecnológico


al servicio de la humanidad, a través del desarrollo y de la difusión de conocimientos y habilidades y
estándares éticos. https://unesdoc.unesco.org/ark:/48223/pf0000378083
4 https://www.unesco.org/en/internet-universality-indicators

2
5. El enfoque de múltiples partes interesadas para el desarrollo de cualquier tipo
de orientación relacionada con el ecosistema digital es la estrategia general
adoptada por el sistema de las Naciones Unidas, incluida la UNESCO, desde
la Cumbre Mundial sobre la Sociedad de la Información (2005), y reafirmada
por la Asamblea General de las Naciones Unidas durante el proceso de
revisión decenal en 2015:
a. Reafirmamos, asimismo, el valor y los principios de la cooperación y el compromiso
de múltiples partes interesadas, que han caracterizado el proceso de la Cumbre
Mundial sobre la Sociedad de la Información desde sus inicios, reconociendo que la
participación, la asociación y la cooperación efectivas de los Gobiernos, del sector
privado, de la sociedad civil, de las organizaciones internacionales, de las
comunidades técnicas y académicas, y todas las demás partes interesadas
pertinentes, dentro de sus respectivas funciones y responsabilidades (especialmente
con una representación equilibrada de los países en desarrollo), han sido y siguen
siendo vitales en el desarrollo de la sociedad de la información.

6. La 41.ª Conferencia General de la UNESCO respaldó los principios de la


Declaración de Windhoek+305 en noviembre de 2021, luego de un proceso de
consulta a las partes interesadas que comenzó durante la celebración mundial
del Día Mundial de la Libertad de Prensa, en mayo del mismo año. La
Declaración reconoció la información6 como un bien público y estableció, entre
otras metas, tres etapas para garantizar que este recurso sea compartido por
toda la humanidad: la transparencia de las plataformas digitales, el
empoderamiento de los ciudadanos a través de la alfabetización mediática e
informacional y la viabilidad de los medios. Al referirse a la información como
un bien público, la UNESCO reconoce que este derecho universal es tanto un
medio como un fin para la realización de las aspiraciones humanas colectivas,
incluida la Agenda 2030 para el Desarrollo Sostenible. La información
empodera a los ciudadanos para ejercer sus derechos fundamentales, apoya
la igualdad de género y permite la participación y la confianza en la gobernanza
democrática y el desarrollo sostenible, sin dejar a nadie atrás.

7. El énfasis de las Directrices puesto en los desafíos relacionados con la libertad


de expresión y el acceso a la información complementa el trabajo de la
Organización en las áreas de educación, ciencias y cultura. Esto incluye, entre
otros aspectos, la Recomendación de la UNESCO sobre la Ética de la
Inteligencia Artificial7, que aboga por políticas y marcos normativos
internacionales y nacionales para garantizar que las tecnologías emergentes
beneficien a la humanidad en su conjunto; la Convención de la UNESCO de
2005 sobre la Protección y Promoción de la Diversidad de las Expresiones

5 https://unesdoc.unesco.org/ark:/48223/pf0000378158
6
Véanse las referencias sobre terminología para una discusión más detallada de este concepto
7 https://unesdoc.unesco.org/ark:/48223/pf0000380455

3
Culturales8 y la Declaración MONDIACULT de 2022, que impulsa una
regulación sustancial del sector digital, en particular de las principales
plataformas, en beneficio de la diversidad cultural en línea y del acceso justo a
contenidos para todos.9

8. La versión actual de las Directrices fue elaborada a través de un proceso de


consulta con las partes interesadas, que comenzó en septiembre de 2022. El
borrador 2.0 se debatió y consultó durante la Conferencia Mundial «Por un
Internet Confiable», celebrada en la sede de la UNESCO en París entre el 21
y el 23 de febrero de 2023. Este borrador revisado de las Directrices incorpora
cambios ampliamente consensuados en los comentarios recibidos. Habrá una
nueva ronda de consultas centrada en los temas no consensuados por las
partes interesadas, o en aquellos en los cuales haya nuevos elementos
relevantes, introducidos en los comentarios, para ser considerados con miras
a su finalización en el segundo semestre de 2023.

El objetivo de las Directrices

9. El objetivo de las Directrices es salvaguardar la libertad de expresión, el acceso


a la información y otros derechos humanos en el contexto del desarrollo e
implementación de procesos regulatorios de plataformas digitales. Destacan
procesos regulatorios que respetan los derechos y promueven procesos
basados en sistemas y riesgos para la moderación y curación de contenidos.
Instan a los Estados a aplicar regulaciones de modo coherente con la
normativa internacional en materia de derechos humanos, incluido el Artículo
19 (3) del Pacto Internacional de Derechos Civiles y Políticos (PIDCP) 10, que
reconoce que cualquier restricción a la libertad de expresión debe estar
prevista en la Ley, y que debe ser necesaria y proporcionada; así como el
Artículo 20 del PIDCP, vinculado a expresiones que inciten a la guerra o que
hagan propaganda en favor de ella11.

9. Las Directrices pueden servir como un recurso para diversas partes


interesadas: para las personas responsables de la formulación de políticas en
la identificación de objetivos legítimos, principios de derechos humanos y
procesos inclusivos y participativos que podrían considerarse necesarios para
tal fin; para los organismos reguladores encargados de la implementación de
regulaciones; para las plataformas digitales en sus políticas y prácticas; y para

8 https://en.unesco.org/creativity/convention
9https://www.unesco.org/sites/default/files/medias/fichiers/2022/10/6.MONDIACULT_EN_DRAFT%20

FINAL%20DECLARATION_FINAL_1.pdf
10 https://www.ohchr.org/en/instruments-mechanisms/instruments/international-covenant-civil-and-

political-rights
11
Las Directrices deben estar alineadas con todos los instrumentos de derechos humanos pertinentes:
https://www.ohchr.org/en/core-international-human-rights-instruments-and-their-monitoring-bodies.

4
otras partes interesadas, como la sociedad civil, en sus esfuerzos de
promoción y rendición de cuentas.

10. Las Directrices forman parte de los procesos regulatorios que estén en
desarrollo o revisión respecto a las plataformas digitales, de modo coherente
con la normativa internacional en materia de derechos humanos. Dichos
procesos regulatorios deberán llevarse a cabo de manera abierta,
transparente, con múltiples partes interesadas, de forma proporcional y
sobre la base de evidencias. Para este fin, estas Directrices deben ser un
documento vivo, sujeto a revisiones y actualizaciones periódicas, que permita
incorporar las experiencias adquiridas de su proceso de implementación, así
como los cambios tecnológicos posteriores.

11. [El alcance de estas directrices incluye a las grandes empresas que
proporcionan:

· Servicios de persona usuaria a persona usuaria: es decir, cualquier


servicio de Internet que permita a las personas usuarias generar, cargar o
compartir contenidos en línea. Esto incluye plataformas de redes sociales,
aplicaciones de citas, juegos con funciones de chat y foros, incluyendo
aquellos en los que las personas usuarias pueden interactuar a través de
mensajería directa.
· Servicios de búsqueda que permiten a las pesonas usuarias buscar en
múltiples sitios web o bases de datos.

El alcance de estas directrices no incluye:

• Servicios comerciales internos, por ejemplo, intranets, herramientas de


relación con el cliente, almacenamiento corporativo en la nube, herramientas
de productividad y programas de conferencias empresariales.
• Infraestructuras de red, como ISP (proveedores de servicios de internet), VPN
(redes privadas virtuales) y servicios de empresa a empresa.
• Correos electrónicos, llamadas solo de voz y SMS/MMS.
• Repositorios de recursos de ciencia abierta y educación abierta y otras
plataformas gestionadas por instituciones de investigación y educación,
incluidas las bibliotecas.

Si bien los requisitos normativos y su aplicación deben enfocarse en las


grandes plataformas (especialmente en las plataformas que dominan el mercado,
debido a su considerable influencia en el ecosistema de la información a nivel
global), cabe destacar que las plataformas de todos los tamaños deben
comprometerse a respetar íntegramente la normativa internacional en materia de
derechos humanos.]

12. Las Directrices permitirán:

5
a. Alentar y contribuir al desarrollo de espacios globales comunes de
múltiples partes interesadas para debatir y compartir prácticas
ejemplares sobre la regulación de plataformas digitales que protejan la
libertad de expresión y el acceso a la información, curando y moderando
[contenidos que puedan ser restringidos en virtud de la normativa
internacional en materia de derechos humanos], presentando evidencia
y reuniendo una gran variedad de visiones y perspectivas.

b. Servir como una herramienta para que todas las partes interesadas
relevantes aboguen por una regulación que respete los derechos
humanos, y que logre que las plataformas gubernamentales y digitales
asuman sus responsabilidades.

c. Fomentar enfoques de políticas basados en evidencia y en los derechos


humanos.

d. Fomentar la mayor coherencia posible a nivel mundial en las políticas


de regulación de plataformas para evitar la fragmentación de Internet.

13. Las Directrices deberán contribuir a y estar fundamentadas en los


procesos que están en curso en toda las Naciones Unidas, como la
implementación de las propuestas en «Nuestra Agenda Común», incluido el
desarrollo del Pacto Digital Mundial, la preparación de la Cumbre para el Futuro
organizada por las Naciones Unidas (que se celebrará en septiembre de 2024)
y la creación de un Código de Conducta que promueva la integridad en la
información pública. Las Directrices también contribuirán al debate en torno a
la próxima revisión de 20 años de la Cumbre Mundial sobre la Sociedad de la
Información (CMSI) y al Foro para la Gobernanza de Internet (FGI). Este texto
también se ha beneficiado de iniciativas lideradas por otras organizaciones
gubernamentales internacionales (incluidas aquellas de alcance regional), y
espera contribuir a su desarrollo.

Estructura de las Directrices

14. Las Directrices comienzan estableciendo principios básicos al desarrollar e


implementar la regulación de las plataformas digitales con un enfoque basado
en los derechos humanos. Continúan describiendo las responsabilidades de
las diferentes partes interesadas en el fomento de un entorno para la libertad
de expresión, el acceso a la información y otros derechos humanos. 12 Esto
incluye:

12
Como se mencionó previamente, las Directrices deben estar alineadas con todos los instrumentos
internacionales básicos de derechos humanos, según lo estipulado por la ACNUDH en
https://www.ohchr.org/en/core-international-human-rights-instruments-and-their-monitoring-bodies.

6
a. Deberes de los Estados de respetar, proteger y hacer cumplir los
derechos humanos.

b. Las responsabilidades de las plataformas digitales de respetar los


derechos humanos.

c. El papel de las organizaciones intergubernamentales.

d. El papel de la sociedad civil, de los medios de comunicación, del mundo


académico, de la comunidad técnica y de otras partes interesadas en la
promoción de los derechos humanos.

15. A continuación, las Directrices proponen algunas condiciones previas que


deben considerarse en el establecimiento de un sistema regulador
independiente, en lo que respecta a su constitución, sus facultades y sus
mecanismos de revisión externa.

16. Finalmente, describen las áreas donde las plataformas digitales deben tener
sistemas y procesos para evaluar riesgos; curar y moderar contenidos
basándose en la normativa internacional en materia de derechos humanos; y
empoderar a las personas usuarias brindando alfabetización mediática e
informacional, así como mecanismos de reclamación y reparación, con el fin
de salvaguardar la libertad de expresión e información, y otros derechos
humanos.

17. Es importante destacar que las diferentes áreas cubiertas por estas
directrices (tal como se identifican en los párrafos 14 a 16 anteriores)
deben considerarse como un conjunto. La salvaguardia de la libertad de
expresión y el acceso a la información se basan en la consideración de
todos los elementos descritos anteriormente.

Enfoque de una regulación de plataformas digitales

18. Cualquier regulación de plataformas digitales que trate con los sistemas y
procesos de moderación y curación de contenidos debe tener un propósito
legítimo, garantizar la libertad de expresión, el derecho de acceso a la
información y otros derechos humanos reconocidos en el PIDCP, el Pacto
Internacional de Derechos Económicos, Sociales y Culturales (ICESCR, por
sus siglas en inglés), y cualquier otro instrumento internacional de derechos
humanos pertinente, incluidos los sistemas regionales de derechos humanos.
La regulación de las plataformas digitales debe garantizar que cualquier

7
restricción de contenidos se realice sobre la base de las condiciones
establecidas en la normativa internacional en materia de derechos humanos.

19. Cualquier proceso regulatorio de plataformas digitales debe tener un enfoque


de múltiples partes interesadas. El Estado, a través de un proceso legislativo
participativo e inclusivo, establece el objetivo legítimo de la regulación, las
plataformas informan al sistema regulador independiente, contando con una
participación y una supervisión apropiadas por parte de las organizaciones de
la sociedad civil, periodistas, investigadores independientes y otras
instituciones relevantes, a fin de garantizar el equilibrio necesario.

20. El proceso para la elaboración de cualquier tipo de regulación debe ser abierto,
transparente y basado en evidencia, permitiendo también una participación
significativa de múltiples partes interesadas.

21. La regulación debe centrarse en los sistemas y procesos utilizados por las
plataformas para moderar y curar el contenido, en lugar de juzgar la idoneidad
o legalidad de contenidos individuales. Cualquier decisión sobre la legalidad
de contenidos específicos debe seguir el debido proceso, y estar abierta a
revisión por parte de un órgano judicial imparcial e independiente, siguiendo la
prueba de tres partes sobre restricciones legítimas a la libertad de expresión,
como se establece en el Artículo 19(3) del PIDCP,13 y la prohibición de la
apología del odio que constituya una incitación a la discriminación, la hostilidad
o la violencia, tal como se establece en el Artículo 20(2) del PIDCP, incluida la
prueba de umbral que consta de seis partes para definir dicho contenido, como
se destaca en el Plan de Acción de Rabat.14

22. Se espera que las plataformas digitales sean transparentes sobre los sistemas
y procesos utilizados para moderar y curar contenidos en sus plataformas, así
como sobre cualquier evaluación de impactos y riesgos en los derechos
humanos. Deben poder explicar cómo sus sistemas y procesos cumplen con
sus condiciones de servicio, y si son justos y coherentes con la normativa
internacional en materia de derechos humanos. Si las plataformas no cumplen
con estas expectativas, el sistema regulador debe tener la facultad de exigir a
la plataforma digital que adopte nuevas medidas, como se describe en el
párrafo 47 (f). El sistema regulador esperará que las plataformas digitales
adhieran a la normativa internacional en materia de derechos humanos en su
manera de operar, y que puedan demostrar el modo en que implementan estas
normas y otras políticas contenidas en sus condiciones de servicio.

13
https://www.youtube.com/watch?v=Wg8fVtHPDag
14
https://www.unesco.org/archives/multimedia/document-5554-eng-3

8
23. Junto con la regulación de las plataformas digitales, es esencial que el Estado,
las propias plataformas y otras partes interesadas promuevan habilidades
principales de alfabetización mediática e informacional, así como aquellas
vinculadas a la seguridad en línea, para las personas usuarias. Esto permite a
las personas usuarias interactuar críticamente con el contenido y las
tecnologías, navegar por un panorama de medios e información en rápida
evolución, marcado por la transformación digital, y desarrollar resiliencia frente
a los desafíos correspondientes. Asimismo, es igualmente esencial que los
reguladores tengan las capacidades y los conocimientos técnicos para tomar
decisiones informadas sobre la base de las Directrices.

Entorno propicio

24. Todas las partes interesadas comparten la responsabilidad de mantener un


entorno propicio para la libertad de expresión y el derecho a la información,
garantizando al mismo tiempo un entorno abierto, seguro y protegido para
usuarios y no usuarios.

25. [Crear un ambiente de Internet seguro y protegido para las personas usuarias,
protegiendo al mismo tiempo la libertad de expresión y el acceso a la
información, no es una mera cuestión de ingeniería. También es una
responsabilidad de la sociedad en su conjunto y, por lo tanto, requiere
soluciones que provengan de ella en su conjunto. Las partes interesadas
deben aplicar medidas específicas para permitir el ejercicio de la libertad de
expresión por parte de mujeres, jóvenes, miembros de la comunidad LGBTQI,
grupos indígenas, personas con discapacidad y otras comunidades en
situación de vulnerabilidad. También deben aplicar medidas de protección
específicas para periodistas y personas defensores de derechos humanos y
ambientales.]

26. Un elemento fundamental de un entorno propicio es la obligación positiva de


promover el acceso universal y significativo a Internet. En 2011, en la
Declaración Conjunta sobre la Libertad de Expresión e Internet, los mandatos
internacionales especiales sobre la libertad de expresión, contenían la
siguiente aclaración: «Hacer efectivo el derecho a la libertad de expresión
impone a los Estados la obligación de promover el acceso universal a
Internet».15

15Aprobada el 1 de junio de 2011, párr. 6(a), http://www.law-democracy.org/wp-


content/uploads/2010/07/11.06.Joint-Declaration.Internet.pdf.

9
Deberes de los Estados de respetar, proteger y hacer cumplir los derechos
humanos

27. Los Estados deben respetar y promover los derechos humanos, incluido el
derecho a la libertad de expresión y el derecho de acceso a la información. Las
restricciones a la libertad de expresión sólo pueden permitirse en las
condiciones establecidas por el Artículo 19 (3) y el Artículo 20 del PIDCP. Los
Estados tienen obligaciones positivas de proteger los derechos humanos
contra interferencias injustificadas por parte de actores privados, incluidas las
plataformas digitales, ya que tienen la responsabilidad de crear un entorno
regulatorio que facilite el respeto de los derechos humanos por parte de las
plataformas. Asimismo, tienen el deber de orientar a las plataformas digitales
respecto a sus responsabilidades.

28. Además, es responsabilidad del Estado ser totalmente transparente y rendir


cuentas sobre las condiciones que impone a las plataformas digitales,
garantizado la seguridad jurídica y la previsibilidad jurídica, que son requisitos
esenciales para el estado de derecho.

29. Específicamente, los Estados deben comprometerse a:

a. Fortalecer el espacio cívico y promover medios libres, independientes y


plurales, y apoyar la investigación independiente sobre la expresión en
línea, la moderación y curación de contenidos y la rendición de cuentas
de las plataformas.

b. Garantizar un ámbito mediático libre, independiente, viable y plural,


protegiendo debidamente a periodistas, personas defensoras de los
derechos humanos y denunciantes de buena fe, y considerar apoyar
mecanismos transparentes de autorregulación de los medios que
promuevan y protejan los más altos estándares de profesionalismo.

c. Garantizar los derechos de las personas usuarias a la libertad de


expresión, el acceso a la información, la igualdad y la no discriminación,
así como proteger los derechos de las personas usuarias a la
privacidad, asociación y participación pública.

d. Subsanar, de forma efectiva, las violaciones de estos derechos sufridas


por las personas usuarias y otras personas afectadas.

e. Asegurar que cualquier restricción impuesta a las plataformas respete


de manera consistente el alto umbral establecido para definir las

10
restricciones a la libertad de expresión, sobre la base de la aplicación
de los Artículos 19 (3) y 20 del PIDCP, respetando los principios de
proporcionalidad y necesidad, así como el estado de derecho.

f. Disuadir a las personas funcionarias públicas de desinformar, incluso a


través de medidas como códigos de conducta profesionales, y adoptar
medidas destinadas a evitar expresiones que constituyan una apología
del odio nacional, racial o religioso, que inciten a la discriminación, la
hostilidad o la violencia, según lo establecido por la normativa
internacional en materia de derechos humanos, en consonancia con la
Estrategia y Plan de Acción de las Naciones Unidas para la Lucha contra
el Discurso del Odio. Los funcionarios públicos nunca deben denigrar,
intimidar o amenazar a los medios de comunicación.

g. Ser abierto y divulgar toda información sobre el tipo, el número y la base


legal de las solicitudes que realizan a las plataformas digitales para
descargar, eliminar y bloquear contenidos. Los Estados deberían poder
demostrar que esto es compatible con el Artículo 19 (3) del PIDCP.

h. Abstenerse de imponer medidas que impidan o perturben el acceso


general a la difusión de información (en línea y fuera de línea), incluidos
los cortes de Internet;

i. Abstenerse de imponer una obligación general de supervisión o una


obligación general para que las plataformas digitales adopten medidas
proactivas vinculadas con contenidos considerados como ilegales en
una jurisdicción específica, o con [contenidos que puedan ser
restringidos en virtud de la normativa internacional en materia de
derechos humanos]. Sin embargo, se espera que las plataformas
adopten medidas para restringir contenidos conocidos vinculados al
abuso sexual infantil16 y la retransmisión en directo de actos terroristas.
Las plataformas digitales no deben ser consideradas responsables
cuando actúen de buena fe y con la debida diligencia, cuando realicen
investigaciones voluntarias o tomen otras medidas destinadas a
detectar, identificar, eliminar o inhabilitar el acceso a contenidos
prohibidos en virtud del Artículo 20 del PIDCP, o que hayan sido
restringidos según lo estipulado por el Artículo 19(3) del PIDCP.

j. Abstenerse de someter al personal de las plataformas digitales a


sanciones penales por un supuesto o potencial incumplimiento de la

16
Siempre se tendrá en cuenta el interés superior del niño, así como su protección contra la violencia, el abuso
y la explotación sexuales, tal como se establece en la Convención de las Naciones Unidas sobre los Derechos
del Niño y el Protocolo facultativo de la Convención sobre los Derechos del Niño relativo a la venta de niños, la
prostitución infantil y la utilización de niños en la pornografía.

11
normativa en relación con su trabajo de moderación y curación de
contenidos.

k. Promover la alfabetización mediática e informacional, así como la


educación en seguridad en línea, incluso en espacios digitales, como un
enfoque complementario a la regulación y con el objetivo de empoderar
a las personas usuarias. Esta iniciativa debe incluir la promoción del
conocimiento sobre los derechos a la libertad de expresión, la
privacidad, la igualdad, etc., y del conocimiento sobre los medios de
reclamación y reparación. Asimismo, se debe recurrir a la experiencia
de expertos en alfabetización mediática e informacional, bibliotecas,
académicos y organizaciones de la sociedad civil, y promover el acceso
a instituciones informativas.

l. Garantizar que el sistema regulador responsable de este ámbito esté


estructurado de manera independiente y protegido de intereses políticos
y económicos, y que cuente con sistemas de revisión externa (véanse
los apartados 50 a 52), como el control legislativo, los requisitos de
transparencia y consulta con múltiples partes interesadas, así como la
elaboración de informes anuales y auditorías externas periódicas.

m. Garantizar que el sistema regulador cuente con los recursos suficientes


y tenga la capacidad de realizar evaluaciones conformes a los objetivos
de las Directrices. Los sistemas regulatorios deben aprovechar la
experiencia de expertos en derechos humanos, académicos,
organizaciones de la sociedad civil, así como prácticas ejemplares
reconocidas de otros sistemas regulatorios.

n. Fomentar la cooperación internacional entre reguladores y actores


judiciales, promoviendo el intercambio de prácticas ejemplares y
conocimientos.

12
La responsabilidad de las plataformas digitales de respetar los derechos humanos.

30. Las plataformas digitales deben cumplir con cinco principios fundamentales:

a. Las plataformas realizan el proceso de debida diligencia en materia


de derechos humanos, evaluando los riesgos y el impacto en los
derechos humanos de sus políticas y prácticas, definiendo las medidas
de mitigación.

b. Las plataformas deben adherir a la normativa internacional en


materia de derechos humanos, incluido en el diseño de la
plataforma, la moderación y la curación de los contenidos. Las
plataformas deben respetar la normativa internacional en materia de
derechos humanos pertinentes, incluidos los Principios Rectores de las
Naciones Unidas sobre las Empresas y los Derechos Humanos. El
diseño debe garantizar que se eviten los daños; las políticas y prácticas
de moderación y curación de contenidos deben ser coherentes con los
estándares de derechos humanos (independientemente de que sean
aplicados por personas o por algoritmos), deben contar con
conocimientos de los idiomas locales y del contexto lingüístico, y brindar
protección y apoyo adecuados para los moderadores humanos.

c. Las plataformas deben ser transparentes y abiertas sobre cómo


operan. Asimismo, deben contar con políticas comprensibles y
auditables, así como con métricas acordadas por múltiples partes
interesadas para evaluar su desempeño. Esto incluye la transparencia
sobre las herramientas, los sistemas y los procesos utilizados para
moderar y curar contenidos en sus plataformas, incluso en lo que
respecta a los procesos automatizados y sus resultados.

d. Las plataformas ponen a disposición información y herramientas


para que las personas usuarias comprendan y tomen decisiones
informadas sobre los servicios digitales que utilizan, ayudándolos a
evaluar la información en la plataforma y a comprender los medios de
reclamación y reparación. Cuentan con programas de alfabetización
mediática e informacional, brindan información y promueven acciones
de las personas usuarias en diferentes idiomas.

e. Las plataformas rinden cuentas ante las partes interesadas


relevantes, las personas usuarias, el público, los anunciantes y el
sistema regulador en la implementación de sus condiciones de servicio
y políticas de contenido; ofrecen a las personas usuarias mecanismos
de reparación sobre decisiones vinculadas al contenido, incluidos las
personas usuarias cuyos contenidos fueron eliminados y usuarios que

13
han realizado denuncias sobre contenidos que violan la normativa
internacional en materia de derechos humanos.

31. Para seguir estos principios, existen áreas específicas en las que las
plataformas digitales tienen la responsabilidad de informar o actuar frente al
sistema regulador, de conformidad con la normativa internacional en materia
de derechos humanos. Estas áreas se describen en los párrafos 53 a 111.

El papel de las organizaciones intergubernamentales

32. De conformidad con sus propios mandatos, las organizaciones


intergubernamentales (y la UNESCO en particular) deben apoyar a las partes
interesadas pertinentes para garantizar que la aplicación de estas directrices
adhiera plenamente a la normativa internacional en materia de derechos
humanos. Para tal fin, proporcionarán asistencia técnica, supervisarán y
denunciarán las violaciones de los derechos humanos, elaborarán las normas
pertinentes y facilitarán el diálogo entre las diferentes partes interesadas.

33. Las organizaciones intergubernamentales y los organismos reguladores


nacionales pueden crear modalidades de participación para desarrollar
prácticas ejemplares y pueden colaborar con los reguladores nacionales, por
ejemplo, compartiendo ideas y tendencias regulatorias emergentes, apoyando
o realizando sugerencias al regulador nacional para refinar las normas y los
métodos institucionales.

[El papel de la sociedad civil y de otras partes interesadas

34. Toda parte interesada que esté involucrada con los servicios de una plataforma
digital en calidad de persona usuaria, formuladora de políticas, organismo de
control u otros, desempeña un rol importante de apoyo a la libertad de
expresión, acceso a la información y otros derechos humanos. En esta
perspectiva, el proceso de desarrollo, implementación y evaluación de cada
regulación debe basarse en un enfoque de múltiples partes interesadas.
Asimismo, un amplio espectro de partes interesadas debe participar en la
supervisión.

35. La sociedad civil tiene un papel fundamental en la comprensión de la


naturaleza y la lucha contra los contenidos y comportamientos dañinos en
línea, así como en la supervisión y la presentación de informes sobre las leyes,
políticas y acciones regulatorias gubernamentales que afectan los derechos
humanos.

36. Las personas investigadoras independientes cumplen un rol importante en la


identificación de patrones de comportamiento abusivo y en la manera en que

14
se podrían solucionar las posibles causas de fondo. Las personas
investigadoras también deberían poder proporcionar una supervisión
independiente sobre el funcionamiento del sistema regulador. Las instituciones
y personas investigadoras independientes pueden apoyar las evaluaciones de
riesgos, auditorías, investigaciones y otros tipos de informes sobre las
prácticas y actividades de las plataformas.

37. Los medios de comunicación y las organizaciones de verificación de datos


tienen un papel en la promoción del disfrute de la libertad de expresión, del
derecho a acceder a la información y de otros derechos humanos,
desempeñando a su vez su función de supervisión.

38. Las personas ingenieras, expertas informáticas y toda la comunidad técnica


involucrada en el desarrollo de servicios y productos de plataforma, también
desempeñan un papel en la comprensión de los derechos humanos, los
riesgos y los impactos éticos de los productos y servicios que diseñan y
desarrollan.

39. Todas estas partes interesadas deben desempeñar un papel activo en el


proceso de consulta sobre el desarrollo y funcionamiento del sistema
regulador.]

Sistema regulador

40. Hay tipos muy diferentes de organismos involucrados en la regulación en línea


en todo el mundo. El espectro va desde los reguladores de radiodifusión y
medios existentes (a quienes se les puede pedir que asuman el papel de
regular los contenidos en línea) hasta los reguladores de contenidos de
Internet recientemente establecidos, o los reguladores de comunicaciones a
los que se les ha dado un mandato extendido. La regulación de las plataformas
digitales puede complementarse con los mandatos de los órganos publicitarios
o de gestión electoral, del poder judicial, de los comisionados de información o
de las instituciones nacionales de derechos humanos. Algunos reguladores
son instancias independientes del Gobierno, mientras que otros están
constituidos como organismos gubernamentales. Reconociendo la
complejidad de este contexto, estas Directrices están destinadas a ser útiles
para cualquier sistema de regulación independiente, al margen de su
naturaleza específica. Es comprensible que los contextos locales afectarán la
forma en que se adopte e implemente la regulación.

41. Cualquiera sea la forma que adopte, todo proceso que examine o establezca
un sistema regulador para las plataformas digitales debe ser abierto y
transparente, y debe incluir una consulta con múltiples partes interesadas.
Asimismo, todo proceso regulatorio requiere la existencia de un sistema

15
regulador independiente que permita procesos regulares de frenos y
contrapesos sobre su funcionamiento.

42. El Banco Mundial declaró que la característica fundamental del modelo


independiente de regulación es la independencia en la toma de decisiones. 17
Un documento de orientación sobre la regulación de la radiodifusión encargado
por la UNESCO (2006) también destacó que «una autoridad independiente (es
decir, una que tiene sus facultades y responsabilidades establecidas en un
instrumento de derecho público y está facultada para administrar sus propios
recursos, y cuyos miembros son nombrados de manera independiente y
protegidos por la ley contra el despido injustificado) está en mejores
condiciones para actuar imparcialmente en pro del interés público y evitar la
influencia indebida de los intereses políticos o industriales».18

43. La siguiente propuesta se divide en tres secciones: la constitución de un


sistema regulador independiente, sus facultades y las disposiciones sugeridas
para la revisión.

Constitución

44. Cualquier sistema regulador (esté compuesto por un solo organismo o por
varios organismos superpuestos), que evalúe solicitudes o realice funciones
de investigación u otras funciones de evaluación de cumplimiento sobre la
manera en que las plataformas digitales realizan la moderación y curación de
contenido, debe ser independiente y debe estar libre de presiones económicas,
políticas o de otro tipo. Su poder y mandato deben estar establecidos en la ley.
También debe cumplir con la normativa internacional en materia de derechos
humanos.

45. El sistema regulador debe tener fondos suficientes para ejecutar sus
responsabilidades de manera efectiva. Las fuentes de financiamiento también
deben ser claras, transparentes y accesibles para todos, y no deben estar
sujetas a las decisiones de los reguladores.

46. Las autoridades o miembros del sistema regulador deben:

17En este caso, las decisiones del regulador se toman sin la aprobación previa de otras entidades
gubernamentales, y únicamente un tribunal o un panel de apelación preestablecido puede anular las
decisiones del regulador. Los pilares institucionales para la independencia de la toma de decisiones
son la independencia organizacional (separada organizativamente de los ministerios y
departamentos existentes), la independencia financiera (una fuente de financiación asignada, segura
y adecuada) y la independencia de la administración (autonomía sobre la administración interna y
protección contra el despido sin causa justificada). Véase el Manual del Banco Mundial para evaluar
sistemas reguladores de infraestructura (Handbook for Evaluating Infrastructure Regulatory
Systems) p.50 http://elibrary.worldbank.org/doi/book/10.1596/978-0-8213-6579-3
18 https://unesdoc.unesco.org/ark:/48223/pf0000144292

16
a. Ser nombrados a través de un proceso participativo e independiente,
basado en el mérito.

b. Ser responsables ante un organismo independiente (que puede ser


legislativo o judicial, un consejo externo o juntas directivas
independientes).

c. Tener experiencia relevante en normativa internacional en materia de


derechos humanos y el ecosistema digital.

d. Realizar periódicamente un informe público a un organismo


independiente (idealmente legislativo) y rendir cuentas ante él, e
informar incluso sobre cualquier dictamen motivado.

e. Hacer público cualquier posible conflicto de intereses y declarar sobre


cualquier regalo o incentivo.

f. Después de completar el mandato, no ser contratadas ni prestar


servicios remunerados a quienes estuvieron sujetos a su regulación, y
esto por un período razonable, a fin de evitar el riesgo conocido como
«puertas giratorias».

Potestades

47. El sistema regulador debe centrarse principalmente en evaluar estructuras,


sistemas y procesos de plataforma para defender la libertad de expresión y
otros derechos humanos; así como en las medidas que toman para mitigar
riesgos.

48. El sistema regulador debe tener la potestad de evaluar solicitudes o realizar


funciones de investigación u otras funciones de evaluación de cumplimiento
sobre plataformas digitales, con el fin de cumplir con los objetivos generales
de proteger la libertad de expresión y el acceso a la información.

49. Además, el sistema regulador debe tener las siguientes facultades:

a. Recopilación de información. El sistema regulador debe poder solicitar


a las grandes plataformas digitales informes periódicos sobre la
aplicación de sus condiciones de servicios. Además, se debe exigir a
estas plataformas que realicen informes periódicos de transparencia,
así como que estén disponibles para proporcionar información al
regulador fuera de ciclo de informes en caso de emergencias o eventos
específicos que puedan generar vulnerabilidades.

17
b. Adoptar acciones coercitivas contra las plataformas digitales que no
cumplan con sus propias políticas o con las responsabilidades
establecidas en su marco regulatorio. Cada intervención regulatoria
debe estar basada en evidencia, con garantías procesales que incluyan
el acceso de la plataforma a todos los hechos y consideraciones
utilizados para la toma de decisiones. La plataforma debe tener la
oportunidad de alegar y/o apelar contra una decisión de incumplimiento.
El sistema regulador debe estar obligado a publicar y consultar sobre
las directrices de cumplimiento, y debe seguir el debido proceso antes
de instruir que una plataforma implemente medidas específicas.

c. Encargar una investigación o revisión especial por parte de un tercero


independiente si existen preocupaciones serias sobre el funcionamiento
o el enfoque de cualquier plataforma o tecnología emergente, relativos
a la restricción de contenidos.

d. Establecer un proceso de reclamación, que se centre en los sistemas y


procesos utilizados por la plataforma. Este proceso de reclamación
debe ofrecer una posibilidad de reparación a las personas usuarias
cuando una plataforma no responda debidamente a su denuncia,
cuando el usuario haya agotado los mecanismos internos de resolución
de reclamaciones de la plataforma y cuando las políticas para resolver
litigios se hayan aplicado en tiempo y forma. Este proceso se basaría
en las necesidades del público al que sirven, las facultades de ejecución
previstas en la ley, sus recursos y su contexto jurídico local, observando
el alineamiento con la normativa internacional en materia de derechos
humanos.

e. Representar individual o colectivamente (a pedido de las partes


interesadas o de oficio) los derechos humanos de las personas
usuarias, por vía administrativa y judicial.

f. Emitir recomendaciones públicas a las plataformas para la promoción y


el respeto de los derechos humanos de las personas usuarias, luego de
un proceso que garantice el debido proceso y que respete el Artículo 19
del PIDCP.

Revisión del sistema regulador

50. Debería preverse una revisión periódica e independiente del sistema


regulador, realizada por una tercera parte que sea respetada y responda
directamente al poder legislativo o judicial. La revisión debe concentrarse

18
especialmente en cómo las decisiones del sistema regulador pueden afectar
el disfrute de los derechos humanos.

51. Cualquier parte del sistema regulador debe actuar solo dentro de la ley con
respecto a estas facultades, respetando los derechos humanos
fundamentales, incluidos los derechos a la privacidad y a la libertad de
expresión. Debe ser objeto de revisión en los tribunales si se cree que ha
excedido sus facultades o actuado de manera sesgada o desproporcionada.

52. Las decisiones sobre eventuales limitaciones de contenidos específicos deben


difundirse públicamente y deben ser revisadas por un sistema judicial
independiente, tras un debido proceso legal.

Responsabilidades de las plataformas digitales

53. Las plataformas digitales deben respetar los derechos humanos y adherir a la
normativa internacional en materia de derechos humanos, de conformidad con
las Convenciones de las Naciones Unidas relevantes y los Principios Rectores
de las Naciones Unidas sobre las Empresas y los Derechos Humanos.19

54. De acuerdo con los cinco principios establecidos anteriormente, se espera que
las plataformas digitales tengan sistemas y procesos establecidos y rindan
cuentas ante los sistemas reguladores, de acuerdo con las facultades descritas
anteriormente, en las siguientes áreas:

Principio 1. Las plataformas realizan el proceso de debida diligencia en materia de


derechos humanos

Salvaguarda de los derechos humanos y evaluaciones de riesgos

55. Las plataformas digitales deben poder demostrar al sistema regulador la


implementación de los sistemas o procesos que han establecido para
garantizar la debida diligencia permanente en materia de derechos humanos,
incluidas las evaluaciones de impacto en los derechos humanos y las medidas
de mitigación disponibles.

56. De acuerdo con la normativa internacional en materia de derechos humanos,


incluidos los Principios Rectores sobre las Empresas y los Derechos Humanos
de las Naciones Unidas, las plataformas deben realizar evaluaciones de riesgo
periódicas para identificar y abordar cualquier daño real o potencial o cualquier
impacto en los derechos humanos de sus operaciones.

57. Además de las evaluaciones periódicas, la diligencia debida debe adoptarse:

19 https://www.ohchr.org/sites/default/files/documents/publications/guidingprinciplesbusinesshr_en.pdf

19
a. Antes de cualquier cambio significativo en el diseño, decisiones
importantes, cambios en las operaciones o nuevas actividades o
relaciones;

b. Para proteger el ejercicio de la libertad de expresión de usuarios


provenientes de minorías y para la protección de periodistas y
defensores de los derechos humanos y del medioambiente;20

c. Para ayudar a proteger la integridad de los procesos electorales;21

d. En respuesta a emergencias, crisis, conflictos o cambios significativos


en el entorno operativo.22

58. Las plataformas digitales deben estar abiertas a las contribuciones de expertos
e independientes sobre la manera de estructurar estas evaluaciones.

59. Las plataformas deben crear espacios para escuchar, incluir y promover la
participación de las personas usuarias, incluidos aquellos que han sufrido
acosos o abusos, de sus representantes y de usuarios de diversas
comunidades, para fundamentar las políticas y procesos de las plataformas.
Esto podría incluir formas de identificar y contrarrestar contenidos que podrían
estar restringidos por la normativa internacional en materia de derechos
humanos y descubrir oportunidades y soluciones para abordar los riesgos
sistémicos. Se debe priorizar la creación de productos específicos que
permitan a todos los grupos relevantes participar activamente en el
fortalecimiento de narrativas que contrarresten el discurso de odio23 y otras
expresiones que puedan generar riesgos sistémicos.

Medidas específicas para combatir la violencia en línea por razones


de género.

60. Para combatir la violencia en línea por razones de género, las plataformas
digitales deben:

e. Realizar evaluaciones anuales de impacto en materia de derechos


humanos y género, incluidos enfoques algorítmicos para la evaluación
de riesgos específicos de género, con miras a identificar riesgos

20 Véase el párrafo 60 sobre Medidas específicas para combatir la violencia en línea por razones de
género.
21 Véanse los párrafos 62 a 68 sobre la integridad de las elecciones.
22Véanse los párrafos 69 a 70 sobre emergencias, crisis o conflictos.

23 Según la definición práctica del sistema de las Naciones Unidas.

20
sistémicos para las mujeres y las niñas, y adaptar las políticas y
prácticas para mitigar dichos riesgos de manera más efectiva.

f. Utilizar tecnologías de protección de la privacidad para proporcionar a


las personas investigadoras externas acceso a los datos internos de las
plataformas, para ayudar a identificar la amplificación algorítmica de la
violencia por razones de género.

g. Crear equipos de ingeniería dedicados, compuestos por hombres y


mujeres específicamente capacitados para desarrollar soluciones
algorítmicas para la moderación de contenidos.

h. Desarrollar y lanzar mecanismos de retroalimentación comunitaria


estructurada e inclusiva para eliminar el sesgo por motivos de género
en la IA y los algoritmos generativos que producen contenidos que
perpetúan o generan violencia por razones de género.

Medidas específicas para la integridad de las elecciones 24

61. Las plataformas digitales deben reconocer la importancia de contribuir a las


instituciones democráticas y a la preservación de la integridad de las
elecciones. Las plataformas digitales deben tener un proceso de evaluación de
riesgos específico que aborde la integridad del ciclo electoral durante eventos
electorales nacionales y regionales importantes, así como durante
referéndums (por ejemplo, elecciones legislativas o para jefes de estado en un
sistema presidencial). Dichas evaluaciones de riesgos también deben
considerar a las personas usuarias, el nivel de influencia que los mensajes
publicitarios pueden tener sobre ellos y el daño potencial que dichos mensajes
pueden generar si se utilizan contra grupos específicos, como minorías u otros
grupos vulnerables.

62. Las evaluaciones deben ser transparentes y coherentes con la diligencia


debida en materia de derechos humanos y deben ejecutarse involucrando a
todas las partes interesadas electorales pertinentes. Las evaluaciones deben
realizarse antes de los eventos electorales a fin de implementar medidas
concretas para mitigar los riesgos identificados.

63. Dentro de la evaluación, las plataformas digitales deben evaluar si los


productos, los procedimientos o las prácticas de publicidad política violan los

24
Lo siguiente se basa en consultas iniciales con un número limitado de partes interesadas; por lo tanto, deben
considerarse como recomendaciones preliminares que pueden ampliarse en función de aportes adicionales.

21
derechos humanos de los ciudadanos, votantes o medios de comunicación, o
amplifican [contenidos que puedan ser restringidos en virtud de la normativa
internacional en materia de derechos humanos]. Asimismo, deben tener en
cuenta la difusión de mensajes políticos que socaven deliberadamente la
confianza de las personas y/o votantes en el proceso electoral.

64. Las plataformas digitales también deben interactuar con los sistemas
reguladores y con los grupos relevantes de la sociedad civil, antes y durante
una elección, a fin de establecer un canal de comunicación mediante el cual el
administrador o las personas usuarias/votantes puedan plantear sus
inquietudes. En caso de ser requerido, se interactuará con otros reguladores
independientes relevantes, de acuerdo con las circunstancias particulares de
cada jurisdicción.

65. Las plataformas digitales que aceptan publicidad destinada a influir en el


proceso político deben identificar claramente esos contenidos como publicidad
política, deben garantizar en sus condiciones de servicio que, para aceptar la
publicidad, la financiación y la entidad sean identificadas por quienes la
publican y deben aplicar de forma coherente las mismas normas de
moderación y curación de contenidos en toda publicidad política.

66. Las plataformas digitales deben proporcionar al público información sobre los
gastos en publicidad y promociones de los partidos políticos, de las personas
que representan a los partidos políticos y de los promotores de las redes
sociales, y realizar un seguimiento de la monetización de las publicaciones de
los partidos políticos y de las personas que representan a los partidos.

67. Las plataformas deben divulgar al público información sobre los datos
demográficos específicos a los que se dirigen dichas publicidades y
promociones.

68. La plataforma debe conservar estos anuncios, y toda la información relevante


sobre la financiación, en una base de datos en línea de acceso público.

Medidas específicas en situaciones de emergencia, conflicto y crisis

69. Para resguardar los derechos humanos, las plataformas digitales deben contar
con políticas de evaluación y mitigación de riesgos para emergencias, crisis y
conflictos, y otros eventos mundiales repentinos en los que es probable que
aumenten los [contenidos que puedan ser restringidos en virtud de la normativa
internacional en materia de derechos humanos], y cuyo impacto puede ser
inmediato y grave. En caso de conflictos emergentes, las plataformas digitales
deben estar alertas a este tipo de contenido, que en muchos casos nutre o,

22
incluso, motiva el conflicto. Deberían considerarse medidas como la
verificación de hechos relacionados con la crisis.

70. En función de las evaluaciones de riesgos, es posible que sea necesario que
las plataformas digitales cuenten con procedimientos/mecanismos
establecidos para tratar un gran número de solicitudes simultáneas de acción
por parte de las personas usuarias, como ocurre a veces en el contexto de
disturbios sociales o violaciones masivas de los derechos humanos. Los
reguladores reconocerán la orientación existente (incluso aquella desarrollada
por otros organismos y expertos de las Naciones Unidas) para llevar a cabo
una debida diligencia de derechos humanos «reforzada» en tales situaciones,
que puede implementarse por las plataformas.

Principio 2. Las plataformas deben adherir a la normativa internacional en materia


de derechos humanos, incluido en el diseño de la plataforma, la moderación y la
curación de los contenidos.

Políticas y prácticas de moderación y curación de contenidos25

71. Las plataformas digitales deben garantizar que las consideraciones relativas a
los derechos humanos y al debido proceso se integren en cada etapa del
diseño del proceso y de las políticas y prácticas de moderación y curación de
contenidos.

72. Las políticas de moderación y curación de contenidos de las plataformas


digitales deben ser coherentes con las obligaciones de las empresas de
respetar y promover los derechos humanos, tal como lo establecen los
Principios Rectores de las Naciones Unidas sobre las Empresas y los
Derechos Humanos, y otras normativas internacionales en materia de
derechos humanos.

73. Las plataformas deben incorporar la seguridad como prioridad en todas sus
decisiones clave de diseño. Esto incluye proteger y priorizar la seguridad de
las personas usuarias y crear un entorno en línea favorable para la
participación en el debate público, que permita la libertad de expresión y el
derecho de acceso a la información.

74. Las estructuras y los procesos de moderación y curación de contenidos deben


aplicarse de manera coherente y justa.

25 Dada la importancia y complejidad de este asunto, la UNESCO acoge con especial satisfacción las
nuevas contribuciones sobre la mejor manera de abordar la difusión de contenidos que entrañan un
riesgo significativo para la democracia y el disfrute de los derechos humanos por medios
automatizados, preservando al mismo tiempo la libertad de expresión y el acceso a la información.

23
75. Las decisiones de moderación de contenidos en todas las regiones e idiomas
deben tener en cuenta, de manera transparente, el contexto, la amplia
variación de los matices lingüísticos, así como el significado y las
particularidades lingüísticas y culturales de dicho contenido.

76. Las plataformas digitales deben garantizar la adopción de medidas rápidas y


decisivas para retirar contenidos conocidos vinculados al abuso sexual infantil
o la retransmisión en directo de actos terroristas.

77. Como se ha destacado anteriormente, es responsabilidad del Estado, a través


de su legislación, definir las restricciones de contenido legítimas, necesarias y
proporcionadas, que sean coherentes con la normativa internacional en
materia de derechos humanos, en particular con el artículo 19 (3) y 20 del
PIDCP. Sin embargo, las plataformas digitales deben poder demostrar ante el
sistema regulador el cumplimiento de sus condiciones de servicio y la
efectividad de las medidas que implementan para detectar, identificar o
eliminar contenidos.

78. Las plataformas pueden establecer libremente sus propias condiciones de


servicios para gestionar los contenidos. Sin embargo, se espera que las
plataformas cuenten con evaluaciones de riesgo sistemáticas para identificar
[contenidos que puedan ser restringidos en virtud de la normativa internacional
en materia de derechos humanos], y con medidas de mitigación. Al considerar
medidas que restrinjan contenidos, las plataformas deben tener en cuenta la
prueba en tres partes sobre restricciones legítimas a la libertad de expresión,
como se establece en el Artículo 19(3) del PIDCP, y la prohibición de la
apología del odio que constituya una incitación a la discriminación, la hostilidad
o la violencia, tal como se establece en el Artículo 20(2) del PIDCP, incluida la
prueba de umbral que consta de seis parámetros para definir dicho contenido,
como se destaca en el Plan de Acción de Rabat.

79. Cuando las plataformas digitales identifiquen [contenidos que puedan ser
restringidos en virtud de la normativa internacional en materia de derechos
humanos], se podrán tomar medidas al respecto. Estas podrían ser, por
ejemplo, proporcionar información confiable alternativa, informar a las
personas usuarias sobre las preocupaciones surgidas en torno al origen del
contenido, limitando o eliminando la amplificación algorítmica de dicho
contenido, desmonetizando los contenidos de ingresos publicitarios o
suprimiendo contenidos.

Moderación de contenidos por medios humanos

24
80. Los moderadores humanos de contenidos, empleados o subcontratados por
las plataformas, deben estar debidamente capacitados, contar con recursos
humanos suficientes, hablar con fluidez los idiomas utilizados en las
plataformas y estar familiarizados con el contexto lingüístico local. Asimismo,
deben ser examinados debidamente y contar con un acompañamiento
psicológico adecuado. Además, las plataformas deben establecer programas
de apoyo, bien financiados y dotados de suficiente personal, para los
moderadores de contenidos con la finalidad de minimizar el daño causado por
su exposición recurrente a contenido violento o perturbador mientras realizan
su trabajo.

81. La plataforma también debe ser explícita sobre si se asocia con proveedores
externos de servicios de moderación de contenidos, organizaciones externas
o expertos que contribuyan a la toma de decisiones, especialmente en países
o regiones donde la propia plataforma tiene poco conocimiento del contexto
local. Al hacerlo, las plataformas siempre deben seguir el «principio de no
causar daños» y abstenerse de revelar la identidad de los socios en situaciones
en las que hacerlo puede presentar riesgos para la seguridad de dichos socios.

Uso de sistemas automatizados para la moderación y curación de contenidos

82. Las plataformas digitales deben encargar auditorías externas periódicas (con
etapas de seguimiento vinculantes) de la combinación completa de
herramientas, automatizadas y humanas, que se utilizan en los mecanismos
de moderación y curación de contenidos, así como en los mecanismos de
recomendación, para determinar su precisión, exactitud o su potencial sesgo o
discriminación entre diferentes tipos de contenidos, lenguajes y contextos.
También deberían encargar evaluaciones independientes periódicas sobre el
impacto de las herramientas automatizadas de moderación de contenidos en
los derechos humanos. Los resultados de estas revisiones deben ser
transmitidos al sistema regulador26.

83. Las plataformas digitales deben contar con sistemas y procesos que les
permitan identificar y tomar las medidas necesarias, de acuerdo con las
disposiciones de estas directrices, cuando cualquier aspecto de los servicios
de la plataforma esté diseñado para promover la participación del usuario,
pudiendo generar una amplificación de [contenidos que puedan ser
restringidos en virtud de la normativa internacional en materia de derechos
humanos].

26
Una opción es que las auditorías y evaluaciones independientes se realicen de acuerdo con normas globales,
y que idealmente sean controladas por un organismo independiente, para que todos los reguladores puedan
utilizar los mismos
informes.

25
84. Las plataformas también deben garantizar que la curación, incluida la curación
humana y automatizada, no amplifique contenidos que puedan ser restringidos
en virtud de la normativa internacional en materia de derechos humanos.

85. Las plataformas digitales deben poner a disposición más de un mecanismo de


curación y recomendación de contenidos y brindar a las personas usuarias la
posibilidad de elegir libremente, difundiendo información accesible y
transparente sobre su funcionamiento.

86. Finalmente, las plataformas digitales deben notificar a las personas usuarias
cuando se elimina su contenido o cuando esté sujeto a moderación de
contenidos, y comunicarles la razón de ello. Esto permitiría a las personas
usuarias comprender las razones por las que se tomaron medidas sobre su
contenido, el método utilizado (revisión algorítmica o por medios humanos) y
las reglas de la plataforma bajo las que se tomaron las medidas
correspondientes. Las plataformas digitales también deben contar con
procesos que permitan a las personas usuarias apelar tales decisiones
(véanse los párrafos 109 a 111). Esta disposición puede variar en función del
tamaño de la empresa y en la medida en que existan procedimientos de
reparación efectivos para que las personas usuarias puedan apelar estas
decisiones.

Principio 3. Las plataformas son transparentes

87. Las plataformas digitales deben informar al sistema regulador sobre cómo
cumplen con los principios de transparencia, explicabilidad y presentación de
informes respecto a lo indicado en sus condiciones de servicios y estándares
comunitarios, incluida la forma en que respondieron a las solicitudes de
información gubernamentales.27 La implementación de esta disposición puede
variar en función del tamaño.

88. El sistema regulador y las plataformas digitales deben comprender que


transparencia significa transparencia significativa, es decir tan clara y concisa
como sea posible y tan detallada y compleja como sea necesario. La
transparencia no es simplemente la provisión de textos legales, o un vaciado
de datos, sino que debe considerarse la forma en la que se proporciona la
información a las partes que la necesitan para tomar decisiones informadas.

Transparencia significativa

27La orientación sobre la transparencia para las plataformas digitales se puede encontrar en los 26
principios de alto nivel establecidos por la UNESCO en Dejar entrar el sol: transparencia y
responsabilidad en la era digital. https://unesdoc.unesco.org/ark:/48223/pf0000377231

26
89. La efectividad de los mecanismos de transparencia de las plataformas digitales
debe evaluarse de manera independiente con respecto a las normas
internacionales, a través de evaluaciones cualitativas y cuantitativas empíricas,
para determinar si la información proporcionada para una transparencia
significativa cumplió su propósito. Los informes deben hacerse públicos
periódicamente.

90. Las plataformas digitales deben publicar información indicando la forma en que
garantizan que las consideraciones relativas a los derechos humanos y al
debido proceso están integradas en cada etapa de las políticas y prácticas de
la moderación y curación de contenidos. Esta información públicamente
disponible debe incluir:

Transparencia en las condiciones de servicio

a. Cualquier medida utilizada para moderar y seleccionar contenido


establecida en las condiciones de servicio de las plataformas, incluidas,
por ejemplo, listas de contenidos o usuarios prohibidos.

b. Toda información sobre los procesos utilizados para el cumplimiento de


las condiciones de servicio y para sancionar a las personas usuarias,
así como las demandas/solicitudes gubernamentales de eliminación,
restricción o promoción de contenidos.

c. Información sobre las razones que motivan cualquier restricción


impuesta en relación con el uso de su servicio, disponible públicamente
en un formato de fácil acceso en sus condiciones de servicio.

Transparencia en relación con las políticas y prácticas de moderación y curación de


contenidos

d. La manera en que se modera y cura el contenido, incluso a través de


revisión por medios algorítmicos (automatizados) y humanos, así como
el contenido que se elimina o bloquea bajo las condiciones de servicio
o de conformidad con las demandas/solicitudes del Gobierno. Esto debe
incluir información cuantitativa y cualitativa sobre los efectos, resultados
e impactos reales que generan estos sistemas.

e. Todo cambio en las políticas de moderación y curación de contenidos


debe comunicarse a las personas usuarias periódicamente.

f. Todo uso de medios automatizados con el propósito de moderación y


curación de contenidos, incluida una especificación sobre el papel del
medio automatizado en el proceso de revisión, así como cualquier
indicador de los beneficios y limitaciones del medio automatizado en el
cumplimiento de tal propósito.
27
g. Todo resguardo aplicado en relación con cualquier moderación y
curación de contenidos que se establezca para proteger la libertad de
expresión y el derecho a la información, incluso en respuesta a
solicitudes gubernamentales, particularmente en relación con asuntos
de interés público, incluido el contenido periodístico y los derechos de
autor.

h. Información sobre el número de moderadores humanos empleados o


subcontratados y la naturaleza de su experiencia en el idioma local y
conocimiento del contexto local, así como si se trata de personal interno
o contratistas.

i. La manera en que los datos personales de las personas usuarias se


utilizan, recolectan, revelan, conservan y difunden, y el tratamiento que
se les da (incluidos los datos personales y sensibles), para tomar
decisiones algorítmicas con fines de moderación y curación de
contenido.

Transparencia en relación con los mecanismos de reclamación de las personas


usuarias

j. Información relevante respecto a reclamos sobre la eliminación, el


bloqueo o la negativa de bloquear el contenido y el modo en que las
personas usuarias pueden acceder al proceso de reclamación. Estos
datos deben incluir información cuantitativa y cualitativa de las
reclamaciones recibidas, gestionadas, aceptadas y rechazadas, así
como de los resultados de tales reclamaciones, e información sobre las
reclamaciones recibidas por los funcionarios estatales y las medidas
adoptadas.

Transparencia y dimensiones comerciales

k. Información sobre anuncios políticos, incluido el autor y quienes


financian los anuncios. Estos anuncios deben conservarse en una
biblioteca de acceso público en línea.

l. Prácticas de publicidad y recolección de datos.

m. Información que permite a las personas comprender la base sobre la


que están siendo expuestos a publicidad.

91. Muchos sistemas reguladores requieren estándares de transparencia más


amplios y detallados que los aquí descritos. Los estándares presentados en

28
estas Directrices pueden considerarse como una línea base a partir de la cual
los sistemas reguladores pueden avanzar en mayor detalle.

Acceso a los datos con fines de investigación

92. Las plataformas digitales deben proporcionar acceso a datos no personales y


datos anónimos28, a los investigadores, examinados por organismos
estadísticos, que son necesarios para realizar investigaciones sobre el
contenido, a fin de comprender el impacto de las plataformas digitales. Estos
datos deben estar disponibles a través de medios automatizados, como
interfaces de programación de aplicaciones (API) u otras soluciones técnicas
abiertas y accesibles que permitan el análisis de dichos datos.

93. Se deben tomar resguardos adicionales para proteger la privacidad y los datos
personales de las personas físicas, así como la información de propiedad de
las empresas, los secretos comerciales y el respeto de la confidencialidad
comercial.

94. Las plataformas deben crear interfaces fiables para el acceso a los datos. El
sistema regulador independiente debe determinar qué es útil, proporcionado y
razonable para fines de investigación.

Principio 4. Las plataformas ponen a disposición de las personas usuarias


información y herramientas

Alfabetización mediática e informacional

95. Al informar al sistema regulador, las plataformas deben demostrar su


estrategia global relacionada con la alfabetización mediática e informacional y
la educación en seguridad en línea, así como las acciones que tomaron para
progresar al respecto. Debe existir un enfoque específico dentro de la
plataforma digital sobre el modo de mejorar la alfabetización digital de sus
usuarios, donde cada equipo de desarrollo de productos piensa en ello. La
plataforma digital debe considerar el modo en que todo producto o servicio
afecta el comportamiento del usuario más allá del objetivo de adquisición o
participación del usuario.

96. Las plataformas deben capacitar a sus equipos de desarrollo de productos


sobre alfabetización mediática e informacional, incluyendo la seguridad en
línea, desde una perspectiva de empoderamiento de las personas usuarias,
basada en estándares internacionales, y establecer mecanismos internos e

28
https://doi.org/10.1038/s41467-019-10933-3

29
independientes de monitoreo y evaluación. Se debe informar de cualquier
resultado relevante de estas revisiones al sistema regulador.

97. Las plataformas digitales deben implementar tales medidas en estrecha


colaboración con organizaciones y expertos independientes de las
plataformas, como autoridades públicas responsables de la alfabetización
mediática e informacional, el mundo académico, organizaciones de la sociedad
civil, investigadores, maestros, educadores especializados, organizaciones
juveniles, periodistas y organizaciones de derechos de la niñez. Se deben
tomar medidas específicas para personas usuarias, no usuarias y grupos
vulnerables y/o con necesidades específicas, como se destaca en las diversas
herramientas de la UNESCO disponibles sobre este tema.

98. Las plataformas digitales deben ser explícitas sobre los recursos que ponen a
disposición para mejorar la alfabetización mediática e informacional, incluida la
alfabetización digital sobre productos y servicios propios de la plataforma, así
como los procesos relevantes para sus usuarios.

99. Las plataformas digitales también deben ayudar a garantizar que las personas
usuarias comprendan sus derechos en línea y fuera de línea, incluido el papel
de la alfabetización mediática e informacional en el disfrute de los derechos a
la libertad de expresión y el acceso a la información. Con este fin, podrían
asociarse con expertos independientes en alfabetización mediática e
informacional y expertos en seguridad en línea u organizaciones que tengan
experiencia relevante en el área temática, incluidas las organizaciones
académicas y de la sociedad civil.

Idioma y accesibilidad

100. Las plataformas deben tener sus condiciones de servicio completas


disponibles en el idioma oficial y en los idiomas principales de cada país donde
operan, garantizar que puedan responder a las personas usuarias en su propio
idioma y procesar sus reclamos por igual, así como tener la capacidad de
moderar y seleccionar el contenido en el idioma del usuario. Los traductores
automáticos de idiomas, si bien tienen sus limitaciones, se pueden
implementar para brindar una mayor accesibilidad al idioma, aunque su
precisión debe ser controlada.

101. Las plataformas también deben garantizar que los [contenidos que
puedan ser restringidos en virtud de la normativa internacional en materia de
derechos humanos] no sean amplificados por mecanismos automatizados de
curación o recomendación, simplemente debido a la falta de capacidad
lingüística de esos mecanismos.

30
102. Siempre deben tenerse en cuenta los derechos de las personas con
discapacidad, con especial atención a las formas en que pueden interactuar y
presentar reclamos en relación con la plataforma.

Derechos de la niñez

103. Los niños y niñas tienen un estatus especial dada su etapa única de
desarrollo, voz política ausente o limitada, y el hecho de que las experiencias
negativas en la infancia pueden tener consecuencias de por vida o
transgeneracionales.29 Por lo tanto, las plataformas digitales también deben
reconocer sus responsabilidades específicas hacia la niñez30.

104. Cuando es probable que los niños y niñas accedan a las plataformas
digitales, estas deben proporcionarles un acceso equitativo y efectivo a la
información, garantizando también la protección de su libertad de expresión y
privacidad31. Las condiciones de los servicios y las normas comunitarias deben
estar disponibles en un lenguaje apropiado para la niñez. Según corresponda,
deben crearse junto a un grupo diverso de niños y niñas. Se debe prestar
especial atención a las necesidades de niños y niñas con discapacidad para
garantizar que disfruten de los mismos niveles de acceso a la información que
se establecen en la sección anterior.

Principio 5. Las plataformas rinden cuentas a las partes interesadas pertinentes

105. Las plataformas digitales deben poder demostrar que cualquier acción
tomada al moderar y curar contenido se realizó de acuerdo con sus
condiciones de servicios y estándares comunitarios, y deben informar de
manera justa y precisa al sistema regulador sobre el desempeño con respecto
a sus responsabilidades y/o planes. En caso de incumplimiento de esta
disposición, el sistema regulador debe actuar de acuerdo con las facultades
descritas en las presentes Directrices.

Uso de herramientas automatizadas

106. Las plataformas digitales deben poder explicar al sistema regulador


sobre el uso e impacto de los sistemas automatizados, incluida la medida en
que dichas herramientas afectan a la recopilación de datos, la publicidad

29 Véase Comité de los Derechos del Niño de las Naciones Unidas (2013), «Observación general n.º
16 (2013) sobre las obligaciones del Estado en relación con el impacto del sector empresarial en los
derechos del niño», párr. 4. Véase también la Observación general n.° 25 (2021) sobre los derechos
del niño en relación con el entorno digital.
30
En la mayoría de los casos, se consideran como niños y niñas a las personas menores de 18 años.
31
https://www.ohchr.org/en/documents/general-comments-and-recommendations/general-comment-no-25-
2021-childrens-rights-relation

31
dirigida y la divulgación, clasificación y/o eliminación de contenido, incluido el
contenido relacionado con elecciones. En caso de incumplimiento de esta
disposición, el sistema regulador debe actuar de acuerdo con las facultades
descritas en las presentes Directrices (referirse al párrafo 47(f)).

Informes de parte de las personas usuarias

107. Además de presentar sus políticas en un formato accesible y


comprensible en todos los idiomas relevantes, la plataforma debe demostrar
cómo las personas usuarias, no usuarios y terceros que actúen en favor de las
personas usuarias y no usuarios, pueden denunciar posibles abusos de las
políticas. También se requieren mecanismos de reclamación accesibles para
las personas usuarias menores de edad. Las plataformas digitales también
deben contar con los medios para comprender el contexto y las condiciones
locales al responder a reclamos de las personas usuarias y garantizar que sus
sistemas estén diseñados considerando las sensibilidades culturales.

108. El sistema de notificación de las personas usuarias debe priorizar las


preocupaciones sobre contenidos que amenacen a las personas usuarias,
garantizando una respuesta rápida y, si es necesario, proporcionar un canal
de escalamiento o medios para presentar la denuncia. Esto es particularmente
importante cuando se trata de violencia y acoso por razones de género.

Apelación por las personas usuarias y reparación

109. Debe haber un mecanismo eficaz de reparación, en la plataforma y


externo, para brindar a las personas usuarias (y a las no usuarias, si se ven
afectadas por un contenido específico) oportunidades significativas para
plantear sus inquietudes y obtener reparación cuando corresponda. Esto debe
incluir un canal de denuncia claro, fácilmente accesible y comprensible para
los reclamos. Las personas usuarias deben ser notificados sobre el resultado
de su apelación.

110. El mecanismo de apelaciones debe seguir los siete principios descritos


en los Principios Rectores de las Naciones Unidas sobre Empresas y Derechos
Humanos para mecanismos efectivos de reclamación: legitimidad,
accesibilidad, previsibilidad, equidad, transparencia, compatibilidad de
derechos y aprendizaje continuo.

111. Las plataformas digitales deben notificar a las personas usuarias y


explicar los procesos de apelación cuando su contenido se elimina o se
etiqueta expresamente, cuando se lo restringe en términos de comentarios o
compartición o asociación publicitaria, cuando se lo limita de manera especial

32
en términos de amplificación o recomendación (a diferencia de la amplificación
y recomendación «orgánica/algorítmica»), y comunicarles los motivos para
ello. Esto permitiría a las personas usuarias comprender las razones por las
que se tomaron medidas sobre su contenido, el método utilizado (revisión
algorítmica o por medios humanos) y las reglas de la plataforma por las que se
tomaron medidas. Además, deben contar con procesos que permitan a las
personas usuarias apelar tales decisiones, y contar con mecanismos de
reparación adecuados.

Conclusión

112. Las plataformas digitales empoderaron a las sociedades, otorgando


enormes oportunidades para que las personas se comuniquen, participen y
aprendan. Ofrecen un gran potencial para las comunidades en situación de
vulnerabilidad social o cultural y/o con necesidades específicas,
democratizando espacios de comunicación y oportunidades para que diversas
voces se relacionen entre sí, sean escuchadas y vistas. Pero, debido al hecho
de que los riesgos principales no se tuvieron en cuenta anteriormente, dicho
potencial se vio erosionado gradualmente en los últimos años.

113. El objetivo de las Directrices es salvaguardar la libertad de expresión, el


acceso a la información y otros derechos humanos en el contexto del desarrollo
e implementación de procesos regulatorios de plataformas digitales.
Establecen procesos regulatorios que respetan los derechos, promoviendo al
mismo tiempo procesos basados en sistemas y riesgos para la moderación y
curación de contenidos. Su objetivo es enriquecer y apoyar un espacio global
compartido por múltiples partes interesadas para debatir y compartir buenas
prácticas sobre la regulación de la plataforma digital; servir como una
herramienta para que todas las partes interesadas relevantes aboguen por una
regulación que respete los derechos humanos y que las plataformas
gubernamentales y digitales se hagan responsables; contribuir a los enfoques
de políticas basados en evidencias que respeten los derechos humanos,
asegurando su conformidad cuando sea posible; y contribuir a los procesos en
curso en todo el sistema de las Naciones Unidas.

114. Las Directrices fueron elaboradas en base a un proceso de consulta de


múltiples partes interesadas que comenzó en septiembre de 2022. El presente
borrador de las Directrices será la base para promover el diálogo y las
discusiones en torno a los temas en debate, antes de la redacción final, que
tendrá lugar durante el otoño de 2023.

33
115. Las consultas continuarán en los próximos meses para buscar una
amplia diversidad de voces y perspectivas a fin de que sean escuchadas, en
torno a esta temática compleja que requiere una acción inmediata para
proteger la libertad de expresión, el acceso a la información y los demás
derechos humanos en el entorno digital.

34
Apéndice

Recursos

Naciones Unidas

Plan de acción de Rabat sobre la prohibición de la apología del odio nacional, racial o
religioso que constituya la incitación a la discriminación, la hostilidad o la violencia
https://www.ohchr.org/es/documents/outcome-documents/rabat-plan-action

Principios Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos


https://www.ohchr.org/sites/default/files/documents/publications/guidingprinciplesbusinesshr
_en.pdf

Informe del Secretario General de las Naciones Unidas - Contrarrestar la desinformación


para promover y proteger los derechos humanos y las libertades fundamentales
https://www.ohchr.org/sites/default/files/2022-03/NV-disinformation.pdf

Relator Especial de la ONU sobre Libertad de opinión y expresión - Un enfoque de


derechos humanos para la moderación del contenido en línea
https://www.ohchr.org/sites/default/files/Documents/Issues/Expression/Factsheet_2.pdf

UNESCO

Dejar entrar el sol: transparencia y responsabilidad en la era digital


https://unesdoc.unesco.org/ark:/48223/pf0000377231

«Los límites legítimos de la libertad de expresión: la prueba de tres partes» - UNESCO


[video]
https://www.youtube.com/watch?v=Wg8fVtHPDag

Referencias sobre la terminología

Discurso de odio
Estrategia y Plan de Acción de las Naciones Unidas para la Lucha contra el Discurso de Odio
https://www.un.org/en/genocideprevention/documents/advising-and-
mobilizing/Action_plan_on_hate_speech_EN.pdf

Desinformación e información errónea


Relator Especial sobre la promoción y protección del derecho a la libertad de opinión y de
expresión
https://www.ohchr.org/sites/default/files/Documents/Issues/Expression/Factsheet_2.pdf

Contenido que incita o retrata la violencia por razones de género


Relatora Especial sobre la violencia contra la mujer, sus causas y consecuencias
https://daccess-ods.un.org/access.nsf/Get?OpenAgent&DS=A/HRC/38/47&Lang=E

35
Declaración de Irene Khan, Relatora Especial sobre la promoción y protección de la libertad
de opinión y de expresión
https://www.ohchr.org/en/statements/2022/02/statement-irene-khan-special-rapporteur-
promotion-and-protection-freedom-opinion

En plataformas digitales
A los efectos de estas Directrices, las plataformas digitales pertinentes son aquellas que
permiten a las personas usuarias difundir contenido al público en general. Dichas plataformas
incluyen redes sociales, motores de búsqueda, tiendas de aplicaciones (app stores) y
plataformas para compartir contenido. Véase la sección correspondiente relativa al debate
sobre el tamaño de las plataformas.

Sobre la reglamentación
A los efectos de estas Directrices, la regulación es un proceso en el que se establece en la
ley un conjunto de reglas para actores privados, generalmente supervisadas por un
organismo, por lo general público, que se establece para monitorear y hacer cumplir estas
reglas. Se puede entender que la regulación se basa en la ley «dura», donde los requisitos
jurídicos están realizados por actores privados. Esto es distinto de la «ley blanda», que toma
la forma de directrices, recomendaciones o códigos de práctica que no son legalmente
vinculantes, pero que pueden tener seguimiento de actores privados y que pueden tener una
fuerza moral.

Sistema regulador
El sistema regulador es el grupo de instituciones designadas para supervisar y
monitorear las plataformas digitales. Un sistema de supervisión y monitoreo de un
actor o industria, potencialmente compuesto por múltiples organismos.

Regulador
Un organismo que supervisa, monitorea y hace responsable a un actor privado.

Regulador independiente
Un regulador independiente tiene sus facultades y responsabilidades establecidas en
un instrumento de derecho público y cuenta con las facultades para administrar sus
propios recursos. Sus miembros son nombrados de manera independiente y
protegidos por la ley contra el despido injustificado. En este caso, las decisiones del
regulador se toman sin la aprobación previa de ninguna otra entidad gubernamental,
y ninguna entidad que no sea un tribunal o un panel de apelación preestablecido
puede anular las decisiones del regulador. Los pilares institucionales para la
independencia de la toma de decisiones son la independencia organizacional
(separada organizativamente de los ministerios y departamentos existentes), la
independencia financiera (una fuente de financiación asignada, segura y adecuada) y
la independencia de la administración (autonomía sobre la administración interna y
protección contra el despido sin causa justificada).

Fuentes:
UNESCO. Directrices para la regulación de la radiodifusión.
https://unesdoc.unesco.org/ark:/48223/pf0000144292

36
Banco Mundial. Manual del Banco Mundial para evaluar sistemas reguladores de
infraestructura.
http://elibrary.worldbank.org/doi/book/10.1596/978-0-8213-6579-3

37

CI-FEJ/FOEO/3 Rev.

También podría gustarte