Está en la página 1de 2

IDEA 1: La dinámica de las redes sociales y su implicancia en los derechos personalísimos,

intimidad, privacidad e imagen. (arts. 51, 52 y 53 CCyC)

"Deepfake y la problemática de la difusión de contenido falso sin consentimiento. La


responsabilidad por el daño a la imagen, intimidad y reputación"

El deepfake son videos o imágenes manipulados utilizando inteligencia artificial para hacer que
una persona aparezca diciendo o haciendo cosas que nunca dijo o hizo en realidad. Esta
práctica plantea serios desafíos legales y éticos, especialmente en relación con los derechos
personalísimos de las personas afectadas.

La dinámica de las redes sociales juega un papel fundamental en la difusión y perpetuación de


este tipo de contenido. La facilidad y rapidez con la que el material puede ser compartido en
plataformas digitales aumenta el alcance del daño y dificulta su control y eliminación. Esto
amplifica la necesidad de establecer mecanismos legales efectivos para prevenir y reparar
estos perjuicios.

En este sentido, la responsabilidad debería caer tanto en quienes crean y difunden el


contenido deepfake como en las plataformas que facilitan su distribución. Los responsables
pueden ser sujetos a sanciones civiles y penales, y se espera que las autoridades tomen
medidas para prevenir y combatir este tipo de prácticas. Es crucial que la legislación y las
autoridades aborden este problema de manera efectiva para garantizar la prevención y
reparación de los daños sufridos por las víctimas.

IDEA 2: Menores y su relación con el mundo digital.

El Algoritmo Adictivo de TikTok y el impacto en el Derecho a la Salud de los niños y


adolescentes

TikTok (ByteDance Ltdes) es la plataforma líder de vídeos móviles de formato corto, que ofrece
a los usuarios un lugar donde expresar su creatividad y los impulsa a generar comunidad a
través de intereses compartidos.

Este trabajo tiene como objetivo explorar el secreto detrás de la popularidad de esta red social
y su naturaleza adictiva, que mantiene a los usuarios pegados a sus pantallas por horas con su
contenido aparentemente infinito, y el impacto que tiene en la salud mental de dichos
usuarios. Para esto analizaré el funcionamiento de su algoritmo, asi como estudios empíricos
que demuestran las implicancias que tiene el uso de Tiktok en el derecho a la salud, derecho
humano fundamental. Además, esta investigación tiene como objetivo contribuir a la discusión
sobre la regulación y promoción del uso responsable y saludable de este tipo de plataformas.

Las aplicaciones de redes sociales utilizan una variedad de sistemas de inteligencia artificial
para ofrecer una experiencia personalizada y atractiva a sus usuarios. TikTok, en particular, ha
llevado esto a nuevos niveles. Con más de mil millones de usuarios activos en la plataforma,
¿qué es lo que hace que esta aplicación sea tan adictiva? El sistema de recomendación de
TikTok está diseñado para atender las preferencias de cada usuario ofreciendo un flujo de
contenido personalizado. Esto se logra a través de una combinación de “Deep Learning” y
“procesamiento de datos en tiempo real”. El núcleo de este sistema es un modelo de
inteligencia artificial avanzada llamado Monolith, que utiliza una técnica conocida como
"collisionless embedding".
El sistema Monolith, que utiliza la combinación de “collisionless embedding”, “adaptación en
tiempo real” y “entrenamiento online”, refuerzan patrones negativos que generan adicción a
los usuarios, además de otros daños a la salud mental como ansiedad, depresión, y una
disminución en la capacidad de atención.

¿Quiénes son responsables por estos perjuicios? La empresa propietaria de TikTok (ByteDance
Ltd.) como la entidad que desarrolla y opera la plataforma, podría ser considerada responsable
por el diseño y funcionamiento de su algoritmo, así como por cualquier falta de advertencia o
medidas para mitigar los posibles efectos adversos en la salud mental de los usuarios. Por otro
lado, los desarrolladores y programadores, si se determina que hubo negligencia en el diseño
del algoritmo o en la implementación de medidas para proteger la salud mental de los
usuarios, los individuos o equipos responsables de estas decisiones podrían ser considerados
responsables tambien.

También podría gustarte