Está en la página 1de 2

(Incluir ideas, NO Oraciones)

Tema Central:

1. Párrafo Introductorio
 Información general, referencial
Responsabilidad legal – Inteligencia Artificial – Persona Electrónica –
Regulaciones – Aprendizaje – Acciones nocivas – Fabricante – Sociedad.
 Tesis

Inteligencia Artificial – Responsabilidad legal – Fabricante – Excusa de ocio –


Restringir acciones.

2. Párrafos Argumentativo 1
 Argumento 1 (razón)

Delimitación de las capacidades – Control de acciones – Aprendizaje.

 Detalles que soportan el argumento 1 (hechos, ejemplos, explicaciones)

Aptitudes negativas – Conflictos con la sociedad – Falta de regulación del


aprendizaje.

 Conclusión del argumento 1

Revisiones requeridas – Regulaciones – Lanzamiento.

3. Párrafos Argumentativo 2
 Argumento 2 (razón)

Capacidades sobrevaloradas – Ocio – Personas electrónicas - Resolución

 Detalles que soportan el argumento 2 (hechos, ejemplos, explicaciones)

Eficiencia laboral – Expertos – Carta Abierta.

 Conclusión del argumento 2


Liberación de responsabilidades – Negación permanente de la resolución –
Derechos y responsabilidades.

4. Párrafo de Conclusión (reafirmar la tesis, resumir los puntos, comentario asertivo


final)
 Capacidad para solventar problemas.
 Procurar que las capacidades no sean tan excepcionales.
 Poca libertad para aprender de la sociedad.
ENSAYO:

La inteligencia artificial (IA) ha avanzado a pasos agigantados en la última década,


debido a la eficiencia de las labores que ofrece a la sociedad. Por tal motivo, es muy solicitada
por grandes empresas para ayudar a los humanos en el área laboral. Sin embargo, en
ocasiones la IA ha provocado conflictos debido a que desarrolla aptitudes negativas
dependiendo del ambiente que le rodea, o a veces promueve el ocio debido a su alta eficiencia
en su labor. Por ende, cuando una IA sale al mercado, la responsabilidad legal debe recaer
sobre el fabricante ya que debe restringir algunas acciones que aprenderá la IA con el paso del
tiempo, y procurar que no genere ocio en el área de trabajo al que sea designada.

Primeramente, el fabricante debe delimitar las capacidades de la IA y controlar


posibles aptitudes negativas humanas. Por ejemplo, los casos de robots con aptitudes
machistas y racistas que han incomodado a algunos individuos de la sociedad, debido a que
aprenden lo que se les enseña. Por tanto, depende del fabricante realizar las regulaciones o
revisiones requeridas antes del lanzamiento de la máquina, para que tales actos no sucedan.

Por otra parte, las empresas que han recurrido a la IA presentan ocio en sus
trabajadores con el paso del tiempo. Actualmente persiste una resolución destinada a la
Comisión sobre normas de Derecho civil sobre robótica, que considera a la IA como “persona
electrónica” capaz de asumir cualquier responsabilidad, tomar decisiones autónomas
inteligentes o interactuar con terceros de manera independiente. Sin embargo, no todos están
de acuerdo como esta propuesta. Alrededor de 200 expertos de 14 países, entregaron una
carta abierta al presidente de la Comisión Europea solicitando que no se acredite a las
máquinas el status de persona electrónica, ya que se debería reconocer derechos y
responsabilidades que no deberían corresponderle. Por tanto, estarían sobrevalorando sus
capacidades reales, y podría servir de excusa para que los trabajadores se liberen de sus
responsabilidades.

El fabricante debe solventar cualquier problema que pueda ocasionar la IA y procurar


que sus capacidades no sean utilizadas como excusa para que terceros no cumplan su labor. La
IA debe ser diseñada para no recopilar información de acciones negativas o que altere su
funcionalidad base. Las habilidades de la IA tampoco deberían ser utilizadas como una excusa
para evitar mejorar sino lo contrario. La IA debería ser utilizada para objetivos específicos ya
que, si se le da demasiada libertad para aprender de la sociedad, puede ser nocivo para el
futuro.

Fuente:

https://revistabyte.es/actualidad-it/actos-de-la-inteligencia-artificial/

También podría gustarte