Documentos de Académico
Documentos de Profesional
Documentos de Cultura
net/2133/17686
inteligencia artificial
El GPS manejaba reglas heurísticas que la conducían hasta el destino deseado mediante el
método del ensayo y el error (Newell y Simon ,1961). Varios años más tarde; en los años
70, un equipo de investigadores dirigido por Edward Feigenbaum comenzaría a elaborar un
proyecto para resolver problemas de la vida cotidiana (problemas más concretos); dando
origen a lo que se conocería como los sistemas expertos. En 1958 McCarthy desarrolló un
lenguaje de programación simbólica cuando estaba trabajando en el MIT; dicho lenguaje es
utilizado aún en la actualidad y es conocido como LISP. El nombre LISP deriva de “Lista
Processing” (Procesamiento de Listas). Las listas encadenadas son una de las estructuras de
datos importantes del Lisp. En el año 1965 Joseph Weizenbaum construyo el primer
programa interactivo el cual consiste en que un usuario podía sostener una conversación en
ingles con una computadora utilizando una comunicación por escrito, este sistema fue
denominado ELIZA. El primer sistema experto fue el denominado DENDRAL, un
intérprete de espectrograma de masa construido en 1967, pero el más influyente resultaría
ser el Mycin de 1974. El Mycin era capaz de diagnosticar trastornos en la sangre y recetar
la correspondiente medicación, todo un logro en aquella época que incluso fueron
utilizados en hospitales (como el Puff, variante de MYCIN de uso común en el Pacific
Medical Center de San Francisco, EEUU) Ya en los años 80, se desarrollaron lenguajes
especiales para utilizar con la Inteligencia Artificial, tales como el LISP o el PROLOG. Es
en esta época cuando se desarrollan sistemas expertos más refinados, como por ejemplo el
EURISKO. Este programa perfecciona su propio cuerpo de reglas heurísticas
automáticamente, por inducción. También podemos destacar la importante intervención de
Arthur Samuel, que desarrollo un programa de juego de damas capaz de aprender de su
propia experiencia; Selfridge, que estudiaba el reconocimiento visual por computadora. A
partir de este grupo inicial, se formaron dos grandes “escuelas” de I.A.: Newell y Simon
lideraron el equipo de la Universidad de Carnegie-Mellon, proponiéndose desarrollar
modelos de comportamiento humano con aparatos cuya estructura se pareciese lo más
posible a la del cerebro (lo que derivó en la postura “conexionista” y en las “redes
neuronales” artificiales). McCarthy y Minsky formaron otro equipo en el Instituto
Tecnológico de Massachusett (MIT), centrándose más en que los productos del
procesamiento tengan el carácter de inteligente, sin preocuparse por que el funcionamiento
o la estructura de los componentes sean parecidas a los del ser humano. Ambos enfoques
sin embargo, persiguen los mismos objetivos prioritarios de la I.A.: “entender la
inteligencia natural humana, y usar máquinas inteligentes para adquirir conocimientos y
resolver problemas considerados como intelectualmente difíciles”. La historia de la IA ha
sido testigo de ciclos de éxito, injustificado optimismo y la consecuente desaparición de
entusiasmo y apoyos financieros. También han habido ciclos caracterizados por la
introducción de nuevos y creativos enfoques y de un sistemático perfeccionamiento de los
mejores. Por sus implicaciones con áreas como la medicina, psicología, biología, ética y
filosofía entre otras, esta rama del conocimiento ha tenido que lidiar con fuertes grupos
oponentes y críticas desde sus orígenes; sin embargo, siempre existió un grupo de personas
interesadas en el área lo que permitio que se consolidara como un área del conocimiento de
gran interes para la investigación científica.
Paráfrasis:
iniciando con el matemático inglés Alan Turing (1912-1954) formuló una prueba (test de
Turing) este con el propósito de demostrar la existencia de “inteligencia” en un dispositivo
no biológico. Dos de las contribuciones más importantes de este mismo fueron el diseño de
la primera computadora capaz de jugar al ajedrez y el establecimiento de la naturaleza
simbólica de la computación. gracias a esto investigadores se encaminaron en la redacción
de sistemas de inteligencia artificial lingüísticos, lo que significó el nacimiento de los
conocidos como “chatbots” (robots de plática). En 1958 McCarthy desarrolló un lenguaje
de programación simbólica el cual es manejado aún en la actualidad y es conocido como
LISP. El nombre LISP deriva de “List Processing” (Procesamiento de Listas).En 1957 Alan
Newell y Herbert Simón, consiguen crear un programa llamado GPS (General Problema
resolver). En el año 1965 Joseph Weizenbaum creo el primer programa interactivo el cual
consistía en un usuario podía mantener una conversación en ingles con una computadora
utilizando una comunicación por escrito, este sistema fue denominado ELIZA. más tarde en
los años 70 un equipo de investigadores dirigido por Edward Feigenbaum empezaría con la
elaboración de con un programa que ayudaría a la resolución de problemas de la vida
cotidiana dándose así los sistemas expertos, posteriormente en 1974 el Mycin era capaz de
diagnosticar trastornos en la sangre y recetar la correspondiente medicación Ya en los años
80, se desarrollaron lenguajes especiales para ser manejados con la Inteligencia Artificial,
tales como el LISP o el PROLOG. Es cuando se desarrollan sistemas expertos más
refinados, Selfridge, estudiaba el reconocimiento visual por computadora. A partir de este
grupo inicial, se formaron dos grandes “escuelas” de I.A.: Newell y Simon los cuales
lideraron el equipo de la Universidad de Carnegie-Mellon, proponiéndose desarrollar
modelos de comportamiento humano con aparatos cuya estructura se pareciese lo más
posible a la del cerebro (lo que derivó en la postura “conexionista” y en las “redes
neuronales” artificiales). (Ponce J.C et al, 2014).
destinado a ser procesado por una máquina. Adelantada a su época, Ada especuló que la
máquina “podría actuar sobre otras cosas además de los números... el motor (la máquina)
podría componer piezas musicales elaboradas y científicas de cualquier grado de
complejidad o extensión”. Décadas más tarde, la visión de Ada es una realidad gracias a la
Inteligencia Artificial (IA). Sin embargo, un hito considerado como el momento
fundacional de la “inteligencia artificial”, tanto del término como del campo de estudio, es
una conferencia en Darmouth el año 1956 organizada por John McCarthy, Marvin Minsky,
Claude Shannon y Nathaniel Rochester [1]. En ella, los organizadores invitaron a unos diez
investigadores para formalizar el concepto de inteligencia artificial como un nuevo campo
de estudio científico. Pioneros de la IA, cuatro de los asistentes fueron posteriormente
galardonados con el premio Turing (a menudo denominado Premio Nobel de informática)
por sus contribuciones a la IA. Una idea común entre los asistentes, y profundamente
arraigada hasta el día de hoy en el estudio de la IA, es que el pensamiento es una forma de
computación no exclusiva de los seres humanos o seres biológicos. Más aún, existe la
hipótesis de que la inteligencia humana es posible de replicar o simular en máquinas
digitales. Ese mismo año dos de los participantes de la conferencia, Alan Newell y Herbert
Simón, publican lo que es considerado el primer programa computacional de inteligencia
artificial [2]. El programa “Logic Theory Machine” es capaz de descubrir demostraciones
de teoremas en lógica simbólica. La idea principal es que, a través de la combinación de
simples operaciones primitivas, el programa puede ir construyendo expresión cada vez más
complejas “inteligente” y encontrar una solución en la mayoría de los casos, pero no
siempre. La introducción de lo. El desafío computacional radica en encontrar la
combinación de operaciones que demuestran un teorema dado, entre una cantidad
exponencial de posibles combinaciones. La contribución de los autores fue idear un
enfoque heurístico, o de reglas generales, que permiten recortar el árbol de búsqueda de
manera s procesos heurísticos ha influenciado enormemente la ciencia de la computación y
según los mismos autores, son la magia central en toda resolución de problemas humanos.
No es coincidencia que esta tesis provenga de Herbert Simon, quien recibió el Nobel en
economía por la provocadora idea de modelar el comportamiento humano, no como un
agente “homo economicus” totalmente racional, sino que con “racionalidad limitada” cuya
toma de decisiones es principalmente heurística [3].
Paráfrasis:
Iniciando la historia con la matemática Ada love lace la cual programo el primer algoritmo
para ser procesado por una maquina más tarde Alan Newell y Herbert Simón, publican lo
que se considerado el primer programa computacional de inteligencia artificial El programa
“Logic Theory Machine” es capaz de descubrir demostraciones de teoremas en lógica
simbólica. La idea es que, a través de la combinación de simples operaciones primitivas, el
programa puede ir construyendo expresión (Abeliuk A, Gutiérrez C , 2021).
La historia de la I.A. tiene en Grecia uno de sus momentos interesantes, con la aparición de
algunos geniales matemáticos. El caso de Arquímedes, con sus inventos que mantuvieron
en jaque a la flota romana, son muy conocidos por todos nosotros. También podemos
recordar a Herón de Alejandría. Es decir, es en Grecia con la aparición de los primeros
automatismos y de los primeros inventos, cuando surgen los elementos ya concretos de lo
que podríamos llamar hoy en día la Inteligencia Artificial (lA). También es en Grecia donde
aparece la primera referencia en la literatura de la Inteligencia Artificial, en un libro
maravilloso que es La lliada. En una de sus rapsodias se narra la escena de la madre de
Aquiles en el taller o fragua de Efectos, que es en sí mismo un laboratorio de aquella época,
lleno de automatismos y se cuenta que el Dios que tenia los pies deformes, para poder
caminar era ayudado por dos robots femeninos de oro macizo y que tenían inteligencia. Es
realmente entonces, en ese libro, donde se hace la primera referencia por escrito en la
literatura de lo que es la lA 1956 a 1970. se desarrollan las técnicas fundamentales, las
técnicas básicas de la lA; Apartir de esa época se establecen lo que podríamos llamar las
tres etapas que ha sufrido esta ciencia. En la primera etapa. la etapa primaria, Que va de
1%6 a 1970. se desarrollan las técnicas fundamentales, las técnicas básicas de la lA; por
ejemplo, los de la línea cognitiva estuvieron trabajando en algoritmos y en estrategias de
búsqueda en solución de problemas. Allí los aportes fundamentales vinieron precisamente
de Allen Newell y de Herbert Simon. Ellos lo que hicieron fue tomar los trabajos de 1943
de un lógico muy importante, Emil Post, quien había creado un sistema que se conoce con
el nombre de Sistemas de Post o Sistemas de Producción, basados en reglas de reescritura
que eran equivalentes a una máquina de Turing. Es decir, eran sistemas tipo reglas de
gramática que los profesores Newell y Simon adaptaron para que no se hiciera un manejo,
digamos, tan estricto, tan simbólico y que aquello pudiera ser utilizado cOmo un modelo de
representación del conocimiento humano. Y es allí donde surge la técnica más importante
de representación que se denomina reglas de producción y que vamos a ver más adelante.
Al mismo tiempo que Newell y Simon estaban preocupados por la parte cognitiva, también
crearon un modelo semejante al cerebro desde el punto de vista general, un modelo de
memoria y de procesamiento de información. Crearon lo que se denominó los sistemas de
producción, tomando como base las regias que les acabo de mencionar.' En esa etapa
primaria se desarrollan las estrategias de búsqueda, las estrategias de solución de
problemas. Esos sistemas de producción los utilizan Newell y Simon para resolver
problemas. Pero en esa época eran demasiado ambiciosos, creían que el problema era muy
sencillo y que se podría construir un solucionador general de problemas. La idea que tenian
era que se podía construir un sistema capaz de resolver cualquier problema, que se conoce
con el nombre de General Problem Solver, Solucionador General de Problemas. Pero
precisamente a raíz de este tipo de enfoques que le dieron a las cosas fueron demasiado
optimistas. Por ejemplo, Simon llegó a decir viendo el programa de juego de damas de
Samuels, que en menos de diez años la lA podría crear un programa para jugar al ajedrez
que le ganaría al campeón mundíal. Todavía no se ha conseguido, aunque s~ ha mejorado
mucho en ese aspecto. A partir de los juegos se desarrollaron las técnicas básicas. Técnicas
que en realidad son útiles en algunos casos en problemas reales, pero que muchas veces no
sirven para atacar problemas más complejos como los que ellos pretendían resolver. Los
juegos y problemas combinatorios proporcionan unas reglas muy definidas, con lo que la so
3 Paráfrasis:
La I.A se relata sus inicios en Grecia donde con la aparición de matemáticos como
Arquímedes, Heron que iniciaron con los primeros automatismos e inventos cuando surgen
pequeñas pinceladas de lo que hoy llamamos inteligencia artificial también tuvo sus inicios
en la literatura en libros como lliada entre otros mas la historia de la I.A se divide en 3
etapas
ALVARADO, M. (2015).
Inteligencia artificial : definición, historia, usos, peligros. (2022, agosto 10). Formation
Data Science | Datascientest.com. https://datascientest.com/es/inteligencia-artificial-
definicion
Paráfrasis 5
1943: Warren McCullough y Walter Pitts publican un artículo que presenta el primer
modelo matemático para una red neuronal. 1950: Marvin Minsky y Dean Edmonds crean el
primer ordenador de red neuronal llamado Snarc. 1950: Alan Turing publica la prueba de
Turing, que se convierte en una forma de evaluar la IA.1952: Arthur Samuel desarrolla un
software capaz de aprender a jugar al ajedrez de manera autónoma, un importante avance
en el aprendizaje automático.
La inteligencia artificial (IA) es vista como una promesa y un riesgo en la sociedad actual.
Se anticipa que robots con apariencia y habilidades humanas pronto estarán presentes en
diversas esferas de la vida económica y social, realizando tareas beneficiosas, pero también
amenazando empleos tradicionales. Los expertos y medios de comunicación proyectan esta
idea, y se realizan estudios para entender la magnitud de los cambios que se avecinan.
Mientras tanto, muchas industrias automatizan procesos y se desarrollan prototipos de
inventos que antes parecían pertenecer a la ciencia ficción. (S/f). Edu.pe. Recuperado el 29
de septiembre de 2023, de https://ie42003cgalbarracin.edu.pe/biblioteca/LIBR-
NIV331012022134652.pdf
Parrafrasis 7:
La IA está cada vez más presente en la vida cotidiana, desde la música en Spotify hasta las
recomendaciones de Netflix y las rutas de Google Maps. Se prevé que la IA sea una
revolución económica global, con pronósticos que indican un enorme crecimiento y
oportunidades en el futuro.
La gestión de grandes conjuntos de datos (Big Data) es esencial para entrenar sistemas de
IA y mejorar su desempeño. Esto hace que la información se considere un recurso
extremadamente valioso, a menudo llamado "el nuevo petróleo".
La IA se utiliza en una amplia gama de sectores y afecta prácticamente todos los aspectos
de la creatividad. La propiedad intelectual (PI) se ve influenciada por la IA, lo que plantea
cuestiones sobre cómo proteger las obras e invenciones creadas por medio de esta
tecnología.
La pregunta central es si se deben modificar los sistemas de PI para equilibrar la protección
de las creaciones de IA, y si es necesario crear nuevos derechos de propiedad intelectual
para productos de IA. Esta cuestión se analiza a la luz de los mandatos constitucionales de
protección de la propiedad intelectual.