Está en la página 1de 3

Ensayo argumentativo

Plan esquemático

Tema: Los peligros de la Inteligencia artificial sobre la Inteligencia humana.

Tópico: El futuro de la inteligencia artificial.

Tesis: Mediante el avance tecnológico la inteligencia artificial dominará sobre el


intelecto humano.

Propósito: El propósito de este ensayo es convencer al enunciatario que en un futuro los


sistemas robóticos sofisticados sobrepasarán la capacidad intelectual del ser humano.

Estructura
I. Introducción
1. Mediante el avance tecnológico la inteligencia artificial dominará sobre el
intelecto humano.
II. Desarrollo
2. La tecnología autónoma posee propiedades beneficiosas para el mejoramiento y
el progreso de la sociedad.

3. Asimismo, se puede descontrolar el equilibrio entre hombre y tecnología si no se


maneja con cuidado la inteligencia sintética.

III. Conclusión
4. En definitiva, es necesario que la humanidad este concientizada sobre la robótica
autónoma y como este pudiera preceder las expectativas humanas.
Los peligros de la Inteligencia artificial sobre la Inteligencia humana.
Mediante el avance tecnológico la inteligencia artificial dominará sobre el intelecto
humano. El objetivo de la IA o "inteligencia artificial" es mejorar las funciones informáticas
relacionadas con el conocimiento humano, como el razonamiento, el aprendizaje y la resolución
de problemas. El propósito de este ensayo es convencer al enunciatario que en un futuro los
sistemas robóticos sofisticados sobrepasarán la capacidad intelectual del ser humano.

La tecnología autónoma posee propiedades beneficiosas para el mejoramiento y el


progreso de la sociedad. La IA ha aportado en la logística, la manufactura, la educación, la
industria automotriz, las finanzas, la medicina, etc. Los trabajos repetitivos que son monótonos
en su naturaleza pueden llevarse a cabo con la ayuda de una máquina de IA. Sus parámetros, a
diferencia de los humanos, pueden ser ajustados. Al inventar nuevas tecnologías revolucionarias,
esta superinteligencia podría ayudar a la colectividad humana. Sin embargo, si no se programa
para un buen desempeño beneficioso hacia la humanidad, los resultados pudieran ser
devastadores.

Asimismo, se puede descontrolar el equilibrio entre hombre y tecnología si no se


maneja con cuidado la inteligencia sintética. Actualmente, existen empresas como la de
microprocesadores Intel que están desarrollando software que aprueba la aplicación llamada
aprendizaje profundo o (deep learning), que ayuda a los aparatos a aprender por si solos. Los
dispositivos programados no pueden ser peligrosos por sí mismos, a menos que estén diseñados
con ese propósito. En tal caso, puede resultar en una singularidad tecnológica o IA fuerte, esto
implica que un sistema tiene la capacidad de optimizarse por sí solo, como lo indicó Irving John
Good, matemático británico en 1965, al diseñar sistemas de IA ligeramente más inteligentes que
el intelecto humano, podría potencialmente someterse a una auto-mejora recursiva, provocando
una explosión de inteligencia que sobrepasa el razonamiento humano. Stephen Hawking (físico
teórico de renombre mundial), Elon Musk (el director general de Tesla y fundador de OpenAI),
Bill Gates (el fundador de Microsoft) y muchos otros grandes nombres de la ciencia y la
tecnología recientemente han expresado su preocupación en los medios de comunicación sobre
los riesgos planteados por la IA, a los que se unieron muchos de los principales investigadores
sobre este aspecto. Los humanos ahora controlan el planeta, no porque son los más fuertes, más
rápidos o más grandes, sino porque son los más inteligentes. ¿Y si un día ya no son los más
inteligentes, pueden asegurarse de mantener el control?

En definitiva, es necesario que la humanidad este concientizada sobre la robótica


autónoma y como esta pudiera superar las expectativas humanas. Los sistemas de
inteligencia tendrán una firme presencia en un futuro cercano y se debería establecer reglamentos
ante el uso y construcción de estas máquinas tecnológicas clarividentes. La civilización humana
florecerá mientras que mantenga el control de la tecnología y la sabiduría con que la maneja.
Bibliografía

Por Agencia EFE. (2016). Carrera mundial para desarrollar inteligencia artificial. Marzo
16, 2019, de endi Sitio web:
https://www.elnuevodia.com/tecnologia/tecnologia/nota/
carreramundialparadesarrollarinteligenciaartificial-2229248/
Rouse M.. (2017). Aprendizaje profundo (deep learning). Marzo 16, 2019, de TechTarget
Sitio web:
https://searchdatacenter.techtarget.com/es/definicion/Aprendizaje-profundo-deep-
learning
Rattay W.. (2015). Bill Gates advierte que la inteligencia artificial es una amenaza.
Marzo 16, 2019, de RT Sitio web:
https://actualidad.rt.com/actualidad/165042-bill-gates-inteligencia-artificial-amenaza
Heinlein R., & Schroeder K., & Egan G.. (2013). Singularidad tecnológica. Marzo 16,
2019, de Wikipedia Sitio web:
https://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica
Cubas Rodríguez S.,& Ventura Fernández L.. (2017). LA INTELIGENCIA
ARTIFICIAL. Revista Electrónica de los Estudiantes Facultad de Derecho, 1, pp.92-97.
León Rodríguez G., & Viña Brito S.. (2017-09-15). La inteligencia artificial en la
educación superior. Oportunidades y amenazas. INNOVA RESEARCH JOURNAL, Vol.
2 Núm. 8.1, pp.412-415.

También podría gustarte