Está en la página 1de 7

HISTORIA

DE LA
INTELIGENCIA ARTIFICIAL

MATERIA:
INTELIGENCIA ARTIFICIAL

SEMESTRE Y GRUPO:
8° “G”

PROFESOR:
IBARRA MARTÍNEZ SALVADOR

ALUMNA:
MACHADO ZAPATA KARINA DE JESUS
HISTORIA DE LA IA

Aunque en esta última década la IA se ha desarrollado exponencialmente, sea encontrado


sus origines a finales del siglo XIX.
En 1854 el matemático George Boole argumenta por primera vez en la historia que el
razonamiento lógico podría sistematizarse de la misma manera que se resuelve un sistema
de ecuaciones.
Es en el año 1921 que el escrito Karek Apek acuña el término “robot” en su obra de teatro
R.U.R. Su etimología proviene de la palabra robota, que en muchas lenguas eslavas
significa “trabajo duro”.
En el año 1936 el considerado padre de la computación moderna Alan Turing, publica su
artículo sobre los números computables en el que introduce el concepto de algoritmo y
sienta las bases de la informática.
En 1941 Konrad Zuse crea Z3, la primera computadora programable y completamente
automática. Se considera el primer ordenador de la historia moderna. También nacieron
Las Leyes de la robótica del relato de unos escritores de ciencia ficción más prolíficos y
famosos de todos los tiempos, Isaac Asimov. Concretamente en el cuento titulado "Circulo
vicioso" Estas leyes son 3 y establecen que:
1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser
humano sufra daño.
2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de
aquellas que entrasen en conflicto con la primera ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección
no entre en conflicto con la primera o con la segunda ley.
En el año 1950 Alan Turing propone en su ensayo titulado Computing Machinery and
Intelligence el que sería conocido como el Test de Turing, una prueba de comunicación
verbal hombre máquina que evalúa la capacidad de las segundas de hacerse pasar por
humanos.
Ya en el año 1956 el informático John McCarthy acuña por primera vez el término
Inteligencia Artificial durante la conferencia de Darmouth de 1956, considerada el germen
de la disciplina. En 1957 Frank Rosenblat diseña la primera red neuronal artificial.

Después de unos años, en 1966 es desarrollada ELIZA por Joseph Weizenbaum, que fue el
primer programa en incorporar el procesamiento del lenguaje natural humano cuyo
objetivo es enseñar a las computadoras a comunicarse con nosotros en nuestro lenguaje,
en lugar de requerir una programación en código.
En 1969 Marvin Misnky el cofundador del MIT escribe Perceptrones el trabajo
fundamental del análisis de las redes neuronales artificiales. En 1979 el cart de Stanforf
fue uno de los primeros vehículos autónomos de la historia se convirtió en el primero de
recorrer con éxito un espacio ocupado por obstáculos de forma autónoma. En 1996 la
supercomputadora Deep Blue, creada por IBM, vence al campeón del mundo de ajedrez
Gary Kasparov.
En el año 2005 usando la Ley de Moore, Raymond Kurzweil predijo que las máquinas
alcanzarán un nivel de inteligencia humano en 2029, y que de seguir para el año 2045
habrán superado la inteligencia de nuestra civilización en un billón de veces.
En el 2012 Google crea un superordenador capaz de aprender a través de YouTube a
identificar gestos, así como caras y cuerpos humanos. En 2014 un bot computacional
llamado Eugene Goostman fue capar de engañar a 30 de los 150 jueces a los que se
sometió durante el test de Turing haciéndoles creer que estaban hablando con un niño
ucraniano de 13 años. Y en octubre de 2015 AlphaGo se convirtió en la primera máquina
en ganar a un jugador profesional de Go sin emplear piedras de handicap en un tablero de
19x19.
¿Qué es la IA?
La Inteligencia Artificial es la capacidad que tienen las máquinas de imitar la manera en la
que los seres humanos aprenden e incluso razonan. Las máquinas aprenden a realizar
tareas y a mejorarlas a partir de la información que tienen, tal y como haría un humano.
Esta rama de la computación tiene como objetivo replicar en las máquinas procesos
cognitivos. En función de lo que se intente replicar, hay Inteligencias Artificiales que
piensan como humanos y otras que actúan como tales, pues tienen en cuenta la
emotividad y otros aspectos similares como la creatividad.
Así, desde el comienzo de la investigación en este campo, tras finalizar la II Guerra
Mundial, lo que han buscado los expertos es sintetizar, emular y automatizar cualquier
tarea que implique la intervención de la inteligencia. Esto incluye la resolución de
problemas, la planificación, el procesamiento del lenguaje o la interacción entre
individuos, por lo que se trata de un ámbito con aplicaciones universales.

¿Cómo funciona una IA?


Para que la Inteligencia Artificial funcione necesita datos, por este motivo, el desarrollo de
esta tecnología ha ido de la mano de otras como Big Data, Internet de las Cosas o la red
móvil 5G. Es esa información la que permite crear patrones a las máquinas y sistemas
(softwares) con los que aprender.
Además de esos datos, también utiliza algoritmos. Los algoritmos son una serie de
instrucciones para que las máquinas mejoren los patrones, es decir, se crean conductas
predeterminadas para manejar los datos.
Del procesamiento controlado de la información es de donde la IA sacará los patrones de
conducta que desarrollará con el tiempo. Así, la combinación de algoritmos y datos hace
que la IA aprenda automáticamente y posibilita que se enfoque en una o varias tareas
específicas.

Los diferentes tipos de Inteligencia Artificial


No todas las Inteligencias Artificiales funcionan del mismo modo. Esto se debe a que hay
estrategias diferentes para su creación y el desarrollo de las habilidades que se precisan
de ellas. Desde la Comisión Europea señalan dos: Software e integrada. La primera se
utiliza en asistentes virtuales, análisis de imágenes, motores de búsqueda o sistemas de
reconocimiento de voz y rostro. La segunda está ligada al IoT, robots, drones y coches
autónomos.
Hay otras clasificaciones, según se basen en funcionalidades y el desarrollo de
capacidades. Aquí se incluye el Machine Learning, ya que tiene importantes
peculiaridades. Estas son las claves de cada IA:

 Basada en funcionalidades: Se trata de inteligencias que son capaces de asumir


problemas o retos, pero que no pueden aprender de sus acciones del pasado, así
que son más limitadas.

 Basada en capacidades: Estas inteligencias cuentan con memorias que les dan la
oportunidad de aprender automáticamente de sus propias conductas pasadas. En
consecuencia, es el campo más desarrollado en la actualidad. De hecho, las
conocidas como Artificial Super Intelligence han demostrado superar a los
humanos en diversos aspectos.

 Machine Learning (ML): Más que un tipo de inteligencia artificial en sí mismo,


consiste en la forma en la que aprende la IA. Si existe ML, entonces el aprendizaje
lo lleva a cabo el propio sistema de manera autónoma sin que haya intervención
humana. Es algo que parece complejo, pero ya funciona en sistemas que anticipan
las preferencias en el consumo de individuos en muchos ámbitos. Sin embargo, la
más conocida (y quizá compleja) es la de Arend Hintze, profesor de Biología
Integrada y Ciencias de la Computación de la Universidad de la Michigan que habla
de máquinas reactivas, máquinas con memoria limitada, teoría de la mente e
inteligencia con autoconciencia, o conciencia de sí misma. Esta última es la que
está más lejos de ser desarrollada, pero a la vez es el reto mayor.

Los riesgos de la inteligencia artificial

Varios especialistas se han hecho preguntas como: ¿Cómo construir una legislación para
que la IA sea más justa? ¿Cómo se pueden disminuir los riesgos? ¿Qué pasa si los sistemas
son hackeados? ¿Es posible implementar la automatización sin desplazar a los humanos?
Tales cuestionamientos han develado varios riesgos que ya hemos experimentado, así
como posibles situaciones que podremos enfrentar en el futuro. Algunos de ellos son:

1. Impacto en el empleo
Esta siempre será una de las principales preocupaciones, pues a lo largo de la historia, los
grandes cambios tecnológicos vienen acompañados de cambios sociales, lo que ha
implicado la desaparición de puestos de trabajo. El verdadero desafío en este tema es que
las empresas y los trabajadores se adapten a sucesos como la automatización y
digitalización.
2. Manipulación, seguridad y vulnerabilidad
Como usuarios de internet revelamos un montón de información privada, muchas veces
con poca reflexión. Estos datos pueden ser analizados para predecir sucesos como los
resultados de las votaciones, por ejemplo. El problema es que toda esta información
puede ser utilizada para manipular a las personas a tomar decisiones que convengan a
grupos específicos, más allá del bienestar social.

3. Transformación de las relaciones humanas


Con la proliferación de dispositivos, aplicaciones, y herramientas con IA han cambiado
nuestras interacciones y procesos sociales. Con este panorama parece más cercana la
posibilidad de perder nuestras habilidades personales.

4. Autonomía
Uno de los mayores temores en torno a la AI es llegar al punto en el que ésta se vuelva
autónoma y tome sus propias decisiones sin pensar en la humanidad. Si bien, este temor
está principalmente alimentado por la ciencia ficción y la industria cinematográfica,
existen casos como el de los chatbots que crearon su propio lenguaje, incomprensible
para sus programadores.

5. Principios éticos para enfrentar los riesgos


En el transcurso de los años, expertos se han dedicado a establecer pautas que permitan
que el desarrollo tecnológico y su implementación se hagan de forma responsable y
segura. Al elegir una perspectiva ética se busca la universalidad de principios que sirvan
como guía para los diferentes escenarios en los que la IA esté involucrada. Ciertamente es
una tarea compleja que está más allá de decir que es bueno o malo, pero es un esfuerzo
que vale la pena, porque al delimitar ciertos estándares es posible potenciar los beneficios
del desarrollo tecnológico y reducir los riesgos.

6.Respeto de la autonomía humana


Al desarrollar cualquier sistema inteligente, siempre debe estar en mente el respeto por la
vida y los derechos humanos sin ninguna discriminación.

7. Transparencia
La idea es que haya una trazabilidad y explicación clara sobre los objetivos y
funcionamiento de los sistemas. Por ejemplo, si hablamos de una herramienta de
analítica, se debe haber trasparencia en los datos que se utilizan, el funcionamiento del
algoritmo y los resultados obtenidos.

8. Responsabilidad y rendición de cuentas


Al desarrollar cualquier sistema debe haber una clara asignación de responsabilidades
ante posibles daños. La autonomía de los sistemas no debe ser una excusa para evitar
estas obligaciones.

9. Robustez y seguridad
Se deben desarrollar algoritmos seguros, fiables y sólidos para operar de manera precisa y
responder a posibles fallas o errores de los sistemas, así como a ataques cibernéticos.

10. Justicia y no discriminación


Esto es esencial para una implementación equitativa de la IA en todo el mundo. Se deben
usar datos de manera honesta e imparcial evitando la discriminación y otros factores que
agraven las desventajas en ciertas minorías.

Todavía hay muchas áreas grises, no solo por lo complejo que es dilucidar los límites entre
lo que es benéfico y lo que no. A pesar de los riesgos, sería un error ver a la IA con temor
porque sus múltiples aplicaciones pueden ser realmente favorables para la sociedad.

El foco debe estar en regular a los responsables de estos desarrollos, pues son la clave
para que la IA sea una herramienta y no un arma.

REFERENCIAS
https://www.nationalgeographic.com.es/ciencia/breve-historia-visual-inteligencia-
artificial_14419
https://www.telefonica.com/es/sala-comunicacion/blog/que-es-y-como-funciona-la-
inteligencia-artificial/#:~:text=La%20Inteligencia%20Artificial%20es%20la,y%20como
%20haría%20un%20humano.
https://centromexico.digital/riesgos-de-la-inteligencia-artificial/

También podría gustarte