Está en la página 1de 17

(Ponce J.C et al, 2014) http://hdl.handle.

net/2133/17686

inteligencia artificial

Desde tiempos inmemoriales, el hombre ha buscado la materialización del deseo de crear


seres semejantes a él; pasando por la creación de artefactos con aspecto, movimientos y
hasta comportamiento similar al que presentamos los seres humanos. El matemático inglés
Alan Turing (1912-1954) propuso una prueba con la finalidad de demostrar la existencia de
“inteligencia” en un dispositivo no biológico. Esta prueba conocida como “test de Turing”
se fundamenta en la hipótesis de que, si una máquina se comporta en todos aspectos como
inteligente, entonces debe ser inteligente (Alan Turing, 1950). Como consecuencia de esta
prueba, muchos de los esfuerzos de los investigadores en ese tiempo, se enfocaron en la
redacción de sistemas de inteligencia artificial lingüísticos, lo que marcó el nacimiento de
los conocidos como “chatbots” (robots de plática). A pesar de que ya se habían realizado
investigación sobre el diseño y las capacidades de las entidades no biológicas, el trabajo de
Alan Turing de 1950 concentró el interés de la comunidad científica en el desarrollo de las
“máquinas inteligentes”. Dos de las contribuciones más importantes de Alan Turing son el
diseño de la primera computadora capaz de jugar al ajedrez y el establecimiento de la
naturaleza simbólica de la computación (ITAM, 1987).

Posteriormente, en 1957 Alan Newell y Herbert Simon, que trabajaban en la demostración


de teoremas y el ajedrez por ordenador logran crear un programa llamado GPS (General
Problema resolver).Este era un sistema donde el usuario definía un entorno en función de
una serie de objetos y los operadores que se podían aplicar sobre ellos. Este programa fue
redactado mediante el uso de IPL (Information Processing Languaje) y es considerado
como el primer programa en el que se separó la información relacionada con el problema
de la estrategia empleada para darle solución. El GPS se basó en el trabajo previamente
desarrollado de sus autores sobre máquinas lógicas y aunque fue capaz de resolver
problemas como el de “Las Torres de Hanoi”; no pudo resolver problemas ni del mundo
real, ni médicos ni tomar decisiones importantes.

El GPS manejaba reglas heurísticas que la conducían hasta el destino deseado mediante el
método del ensayo y el error (Newell y Simon ,1961). Varios años más tarde; en los años
70, un equipo de investigadores dirigido por Edward Feigenbaum comenzaría a elaborar un
proyecto para resolver problemas de la vida cotidiana (problemas más concretos); dando
origen a lo que se conocería como los sistemas expertos. En 1958 McCarthy desarrolló un
lenguaje de programación simbólica cuando estaba trabajando en el MIT; dicho lenguaje es
utilizado aún en la actualidad y es conocido como LISP. El nombre LISP deriva de “Lista
Processing” (Procesamiento de Listas). Las listas encadenadas son una de las estructuras de
datos importantes del Lisp. En el año 1965 Joseph Weizenbaum construyo el primer
programa interactivo el cual consiste en que un usuario podía sostener una conversación en
ingles con una computadora utilizando una comunicación por escrito, este sistema fue
denominado ELIZA. El primer sistema experto fue el denominado DENDRAL, un
intérprete de espectrograma de masa construido en 1967, pero el más influyente resultaría
ser el Mycin de 1974. El Mycin era capaz de diagnosticar trastornos en la sangre y recetar
la correspondiente medicación, todo un logro en aquella época que incluso fueron
utilizados en hospitales (como el Puff, variante de MYCIN de uso común en el Pacific
Medical Center de San Francisco, EEUU) Ya en los años 80, se desarrollaron lenguajes
especiales para utilizar con la Inteligencia Artificial, tales como el LISP o el PROLOG. Es
en esta época cuando se desarrollan sistemas expertos más refinados, como por ejemplo el
EURISKO. Este programa perfecciona su propio cuerpo de reglas heurísticas
automáticamente, por inducción. También podemos destacar la importante intervención de
Arthur Samuel, que desarrollo un programa de juego de damas capaz de aprender de su
propia experiencia; Selfridge, que estudiaba el reconocimiento visual por computadora. A
partir de este grupo inicial, se formaron dos grandes “escuelas” de I.A.: Newell y Simon
lideraron el equipo de la Universidad de Carnegie-Mellon, proponiéndose desarrollar
modelos de comportamiento humano con aparatos cuya estructura se pareciese lo más
posible a la del cerebro (lo que derivó en la postura “conexionista” y en las “redes
neuronales” artificiales). McCarthy y Minsky formaron otro equipo en el Instituto
Tecnológico de Massachusett (MIT), centrándose más en que los productos del
procesamiento tengan el carácter de inteligente, sin preocuparse por que el funcionamiento
o la estructura de los componentes sean parecidas a los del ser humano. Ambos enfoques
sin embargo, persiguen los mismos objetivos prioritarios de la I.A.: “entender la
inteligencia natural humana, y usar máquinas inteligentes para adquirir conocimientos y
resolver problemas considerados como intelectualmente difíciles”. La historia de la IA ha
sido testigo de ciclos de éxito, injustificado optimismo y la consecuente desaparición de
entusiasmo y apoyos financieros. También han habido ciclos caracterizados por la
introducción de nuevos y creativos enfoques y de un sistemático perfeccionamiento de los
mejores. Por sus implicaciones con áreas como la medicina, psicología, biología, ética y
filosofía entre otras, esta rama del conocimiento ha tenido que lidiar con fuertes grupos
oponentes y críticas desde sus orígenes; sin embargo, siempre existió un grupo de personas
interesadas en el área lo que permitio que se consolidara como un área del conocimiento de
gran interes para la investigación científica.

Paráfrasis:

iniciando con el matemático inglés Alan Turing (1912-1954) formuló una prueba (test de
Turing) este con el propósito de demostrar la existencia de “inteligencia” en un dispositivo
no biológico. Dos de las contribuciones más importantes de este mismo fueron el diseño de
la primera computadora capaz de jugar al ajedrez y el establecimiento de la naturaleza
simbólica de la computación. gracias a esto investigadores se encaminaron en la redacción
de sistemas de inteligencia artificial lingüísticos, lo que significó el nacimiento de los
conocidos como “chatbots” (robots de plática). En 1958 McCarthy desarrolló un lenguaje
de programación simbólica el cual es manejado aún en la actualidad y es conocido como
LISP. El nombre LISP deriva de “List Processing” (Procesamiento de Listas).En 1957 Alan
Newell y Herbert Simón, consiguen crear un programa llamado GPS (General Problema
resolver). En el año 1965 Joseph Weizenbaum creo el primer programa interactivo el cual
consistía en un usuario podía mantener una conversación en ingles con una computadora
utilizando una comunicación por escrito, este sistema fue denominado ELIZA. más tarde en
los años 70 un equipo de investigadores dirigido por Edward Feigenbaum empezaría con la
elaboración de con un programa que ayudaría a la resolución de problemas de la vida
cotidiana dándose así los sistemas expertos, posteriormente en 1974 el Mycin era capaz de
diagnosticar trastornos en la sangre y recetar la correspondiente medicación Ya en los años
80, se desarrollaron lenguajes especiales para ser manejados con la Inteligencia Artificial,
tales como el LISP o el PROLOG. Es cuando se desarrollan sistemas expertos más
refinados, Selfridge, estudiaba el reconocimiento visual por computadora. A partir de este
grupo inicial, se formaron dos grandes “escuelas” de I.A.: Newell y Simon los cuales
lideraron el equipo de la Universidad de Carnegie-Mellon, proponiéndose desarrollar
modelos de comportamiento humano con aparatos cuya estructura se pareciese lo más
posible a la del cerebro (lo que derivó en la postura “conexionista” y en las “redes
neuronales” artificiales). (Ponce J.C et al, 2014).

(Abeliuk A, Gutiérrez C , 2021) file:///C:/Users/estef/Downloads/2767-Texto%20del


%20art%C3%ADculo-10150-1-10-20210802.pdf

Historia y evolución de la inteligencia artificial

En 1842, la matemática y pionera de la informática, Ada Lovelace, programó el primer


algoritmo destinado a ser procesado por una máquina.

destinado a ser procesado por una máquina. Adelantada a su época, Ada especuló que la
máquina “podría actuar sobre otras cosas además de los números... el motor (la máquina)
podría componer piezas musicales elaboradas y científicas de cualquier grado de
complejidad o extensión”. Décadas más tarde, la visión de Ada es una realidad gracias a la
Inteligencia Artificial (IA). Sin embargo, un hito considerado como el momento
fundacional de la “inteligencia artificial”, tanto del término como del campo de estudio, es
una conferencia en Darmouth el año 1956 organizada por John McCarthy, Marvin Minsky,
Claude Shannon y Nathaniel Rochester [1]. En ella, los organizadores invitaron a unos diez
investigadores para formalizar el concepto de inteligencia artificial como un nuevo campo
de estudio científico. Pioneros de la IA, cuatro de los asistentes fueron posteriormente
galardonados con el premio Turing (a menudo denominado Premio Nobel de informática)
por sus contribuciones a la IA. Una idea común entre los asistentes, y profundamente
arraigada hasta el día de hoy en el estudio de la IA, es que el pensamiento es una forma de
computación no exclusiva de los seres humanos o seres biológicos. Más aún, existe la
hipótesis de que la inteligencia humana es posible de replicar o simular en máquinas
digitales. Ese mismo año dos de los participantes de la conferencia, Alan Newell y Herbert
Simón, publican lo que es considerado el primer programa computacional de inteligencia
artificial [2]. El programa “Logic Theory Machine” es capaz de descubrir demostraciones
de teoremas en lógica simbólica. La idea principal es que, a través de la combinación de
simples operaciones primitivas, el programa puede ir construyendo expresión cada vez más
complejas “inteligente” y encontrar una solución en la mayoría de los casos, pero no
siempre. La introducción de lo. El desafío computacional radica en encontrar la
combinación de operaciones que demuestran un teorema dado, entre una cantidad
exponencial de posibles combinaciones. La contribución de los autores fue idear un
enfoque heurístico, o de reglas generales, que permiten recortar el árbol de búsqueda de
manera s procesos heurísticos ha influenciado enormemente la ciencia de la computación y
según los mismos autores, son la magia central en toda resolución de problemas humanos.
No es coincidencia que esta tesis provenga de Herbert Simon, quien recibió el Nobel en
economía por la provocadora idea de modelar el comportamiento humano, no como un
agente “homo economicus” totalmente racional, sino que con “racionalidad limitada” cuya
toma de decisiones es principalmente heurística [3].

Paráfrasis:

Iniciando la historia con la matemática Ada love lace la cual programo el primer algoritmo
para ser procesado por una maquina más tarde Alan Newell y Herbert Simón, publican lo
que se considerado el primer programa computacional de inteligencia artificial El programa
“Logic Theory Machine” es capaz de descubrir demostraciones de teoremas en lógica
simbólica. La idea es que, a través de la combinación de simples operaciones primitivas, el
programa puede ir construyendo expresión (Abeliuk A, Gutiérrez C , 2021).

Inteligencia artificial y sistemas expertos

(Munera L.E, 1991) https://core.ac.uk/download/pdf/229158562.pdf

La historia de la I.A. tiene en Grecia uno de sus momentos interesantes, con la aparición de
algunos geniales matemáticos. El caso de Arquímedes, con sus inventos que mantuvieron
en jaque a la flota romana, son muy conocidos por todos nosotros. También podemos
recordar a Herón de Alejandría. Es decir, es en Grecia con la aparición de los primeros
automatismos y de los primeros inventos, cuando surgen los elementos ya concretos de lo
que podríamos llamar hoy en día la Inteligencia Artificial (lA). También es en Grecia donde
aparece la primera referencia en la literatura de la Inteligencia Artificial, en un libro
maravilloso que es La lliada. En una de sus rapsodias se narra la escena de la madre de
Aquiles en el taller o fragua de Efectos, que es en sí mismo un laboratorio de aquella época,
lleno de automatismos y se cuenta que el Dios que tenia los pies deformes, para poder
caminar era ayudado por dos robots femeninos de oro macizo y que tenían inteligencia. Es
realmente entonces, en ese libro, donde se hace la primera referencia por escrito en la
literatura de lo que es la lA 1956 a 1970. se desarrollan las técnicas fundamentales, las
técnicas básicas de la lA; Apartir de esa época se establecen lo que podríamos llamar las
tres etapas que ha sufrido esta ciencia. En la primera etapa. la etapa primaria, Que va de
1%6 a 1970. se desarrollan las técnicas fundamentales, las técnicas básicas de la lA; por
ejemplo, los de la línea cognitiva estuvieron trabajando en algoritmos y en estrategias de
búsqueda en solución de problemas. Allí los aportes fundamentales vinieron precisamente
de Allen Newell y de Herbert Simon. Ellos lo que hicieron fue tomar los trabajos de 1943
de un lógico muy importante, Emil Post, quien había creado un sistema que se conoce con
el nombre de Sistemas de Post o Sistemas de Producción, basados en reglas de reescritura
que eran equivalentes a una máquina de Turing. Es decir, eran sistemas tipo reglas de
gramática que los profesores Newell y Simon adaptaron para que no se hiciera un manejo,
digamos, tan estricto, tan simbólico y que aquello pudiera ser utilizado cOmo un modelo de
representación del conocimiento humano. Y es allí donde surge la técnica más importante
de representación que se denomina reglas de producción y que vamos a ver más adelante.
Al mismo tiempo que Newell y Simon estaban preocupados por la parte cognitiva, también
crearon un modelo semejante al cerebro desde el punto de vista general, un modelo de
memoria y de procesamiento de información. Crearon lo que se denominó los sistemas de
producción, tomando como base las regias que les acabo de mencionar.' En esa etapa
primaria se desarrollan las estrategias de búsqueda, las estrategias de solución de
problemas. Esos sistemas de producción los utilizan Newell y Simon para resolver
problemas. Pero en esa época eran demasiado ambiciosos, creían que el problema era muy
sencillo y que se podría construir un solucionador general de problemas. La idea que tenian
era que se podía construir un sistema capaz de resolver cualquier problema, que se conoce
con el nombre de General Problem Solver, Solucionador General de Problemas. Pero
precisamente a raíz de este tipo de enfoques que le dieron a las cosas fueron demasiado
optimistas. Por ejemplo, Simon llegó a decir viendo el programa de juego de damas de
Samuels, que en menos de diez años la lA podría crear un programa para jugar al ajedrez
que le ganaría al campeón mundíal. Todavía no se ha conseguido, aunque s~ ha mejorado
mucho en ese aspecto. A partir de los juegos se desarrollaron las técnicas básicas. Técnicas
que en realidad son útiles en algunos casos en problemas reales, pero que muchas veces no
sirven para atacar problemas más complejos como los que ellos pretendían resolver. Los
juegos y problemas combinatorios proporcionan unas reglas muy definidas, con lo que la so

3 Paráfrasis:

La I.A se relata sus inicios en Grecia donde con la aparición de matemáticos como
Arquímedes, Heron que iniciaron con los primeros automatismos e inventos cuando surgen
pequeñas pinceladas de lo que hoy llamamos inteligencia artificial también tuvo sus inicios
en la literatura en libros como lliada entre otros mas la historia de la I.A se divide en 3
etapas

Primera Etapa (1966-1970): Desarrollo de técnicas fundamentales

En esta fase, se establecieron las técnicas fundamentales de la IA, especialmente en la línea


cognitiva. Allen Newell y Herbert Simon fueron figuras destacadas en esta etapa.
Adaptaron el trabajo de Emil Post sobre Sistemas de Producción, basados en reglas de
reescritura equivalentes a una máquina de Turing, para representar el conocimiento
humano.

Introdujeron la técnica de representación clave llamada "reglas de producción".

Crearon modelos de memoria y procesamiento de información, conocidos como "sistemas


de producción". Desarrollo de Estrategias de Búsqueda y Solución de Problemas Durante
esta etapa primaria, se enfocaron en desarrollar estrategias de búsqueda y solución de
problemas. Intentaron crear un "Solucionador General de Problemas" para resolver
cualquier tipo de problema, pero resultó ser un objetivo demasiado ambicioso.

A pesar de su optimismo, no lograron crear un programa de ajedrez que superara al


campeón mundial. Utilización de Juegos para Desarrollar Técnicas Básicas Se
desarrollaron técnicas básicas a partir de juegos y problemas combinatorios. Estas técnicas
eran útiles en algunos casos, pero no eran adecuadas para abordar problemas más
complejos que la IA pretendía resolver. Los juegos proporcionaban reglas definidas, lo que
facilitaba la solución, pero problemas más complejos requerían enfoques diferentes. En
resumen, la primera etapa se centró en el desarrollo de técnicas fundamentales y estrategias
de búsqueda. Aunque se hizo un progreso significativo en la representación del
conocimiento humano y la resolución de problemas, se reconoció que abordar problemas
más complejos era un desafío considerable (Munera L.E, 1991).

4 ALVARADO ROJAS, M. (2015). UNA MIRADA A LA INTELIGENCIA


ARTIFICIAL. Revista Ingeniería, Matemáticas Y Ciencias De La Información, 2(3).
Recuperado a partir de http://ojs.urepublicana.edu.co/index.php/ingenieria/article/view/234

A través de los años, el ser humano se ha preocupado por su capacidad de razonamiento y


su habilidad para analizar, planear y dar una solución a un problema. Desde ese entonces en
paralelo también se ha buscado la manera de crear sistemas para reproducir
habilidades mentales que solo poseen los humanos, y que de tal manera se pueda realizar
de una manera más simple algunos procesos. La noción de la Inteligencia artificial tiene
sus inicios con el escritor e inventor húngaro y ajedrecista Johann Wolfgang Von
Kempelen, quien diseño un androide llamado el Turco que aparentemente jugaba ajedrez
simulando ser un mecanismo automático [5], sin embargo era operado por una persona
oculta en el mecanismo; sin embargo gracias a esta idea farsa que simulaba ser un
autómata, fue objeto de inspiración para construir verdaderos autómatas como el caso del
autómata Ajedrecista construido en 1912 por Leonardo Torres Quevedo, invento que
operaba sin intervención humana considerado como el primer juego por computador de la
historia [6].En 1816 fue descrita la máquina analítica realizada por Charles Babbage [5],
matemático inglés y científico proto informático, quine contribuyo con la historia de la
computación ya que el motor analítico de Babbage tenía la capacidad de construir tablas
de logaritmos y de funciones trigonométricas evaluando polinomios por aproximación.
Cien años más tarde se construyeron computadoras aplicando el mismo principio. A partir
del siglo XIX se conciben las analogías biológicas y fenomenológicas para el estudio de la
mente humana. Es así, como a partir de la segunda mitad del siglo XIX, la noción de
mecanismo transformo el poder heurístico con la formalización del concepto de
«computación» [5]. La comunidad científica empezó a manejar el término y concepto
de Inteligencia Artificial en el año 1950 gracias a Alan Mathison Turing, mate-mático,
lógico, científico de la computación, criptógrafo, filósofo, maratonista británico. Dadas
sus contribuciones y en su artículo denominado Maquinaria Computacional e Inteligencia
[7

Algunos afirman que los comienzos de la inteligencia artificial ocurrieron al definirse la


neurona, en 1943, como un elemento binario con varias entradas y salidas [8]. En el año de
1956 se volvió a retomar el tema y se establecieron las bases de la Inteligencia Artificial
como un campo independiente-te dentro de la informática. Bajo el contexto histórico
referenciado por Alan Turing la inteligencia artificial se ha definido desde entonces bajo
diferentes perspectivas como sistemas que piensan como humanos, sistemas que piensan
racionalmente, sistemas que actúan como humanos y sistemas que actúan racionalmente.
Richard Ernest Bellman, matemático y doctor de la universidad de Princeton, destaca
en su publicación En introducción to artificial intelligence: can computers think? que:
La automatización de actividades que vinculamos con procesos de pensamiento humano,
actividades como la toma de decisiones, resolución de problemas, aprendizaje [9].John
Haugeland, profesor de filosofía de la Universidad de Chicago en su publicación
Artificial Intelligence: The Very Idea, dice: El nuevo y excitante esfuerzo de hacer que las
computadoras piensen... máquinas con mentes, en el más amplio sentido literal [10].El
mismo año en 1985, Eugene Charniak, profesor de la Universidad de Brown y Drew
McDermott profesor de la Universidad de Yale afirmaron que la inteligencia artificial es
el estudio de las facultades mentales mediante el uso de modelos computacionales[11].En
años recientes, Raymond Kurzweil inventor estadounidense especializado en Ciencias
de la Computación e Inteligencia Artificia l, actualmente director de ingeniería en Google,
afirma que el arte dé desarrollar máquinas con capacidad para realizar funciones que
cuando son realizadas por personas requieren de inteligencia [12], en concordancia que
la inteligencia artificial son sistemas que actúan con humanos. Neil Nilsson, profesor de la
Universidad de Stanford del departamento de ciencias de la computación afirma que la
inteligencia artificial está relacionada con conductas inteligentes en artefactos [13] y
cuando se relacionan las conductas se habla es un sistema que actúa racionalmente. Se
puede afirmar que la inteligencia artificial se ha venido concibiendo bajo las características
humanas tales como pensar, actuar y a su vez adaptarse y autocorregirse. Un agente
inteligente se puede definir como lo define Russell, como una entidad que percibe y actúa
sobre un entorno [14] y fue en 1987 el año en que se describieron características relevantes
para el uso de un agente inteligente:1. Creencias e intenciones (actitudes mentales).2.
Obtención de conocimiento (aprender).3. Resolver problemas.4. Entendimiento y lógica.5.
Planificación, predicción y evaluación de alternativas.6. Delimitar sus propias habilidades
y conoci-mientos.7. Distinción de situaciones.8. Crear conceptos e ideas.9.
Generalizar.10. Percibir y modelar el mundo exterior.11. Aplicar su propio lenguaje y
símbolos para su propio entendimiento. De acuerdo con las características mencionadas
anteriormente, la Inteligencia Artificial también ha sido empleada como una técnica de
software que los programas utilizan para dar solución óptima a algún tipo de problema,
tratando de asemejar el comportamiento inteligente que se observa en la naturaleza, en
especial la de los seres humanos

Paráfrasis 4: UNA MIRADA A LA INTELIGENCIA ARTIFICIAL. Revista Ingeniería,


Matemáticas Y Ciencias }http://ojs.urepublicana.edu.co/index.php/ingenieria/article/view/
234

Preocupación por la Capacidad de Razonamiento Humano: A lo largo de la historia, los


seres humanos han estado interesados en su capacidad de razonamiento y resolución de
problemas. Desarrollo de Sistemas para Reproducir Habilidades Mentales Humanas: Se ha
buscado crear sistemas que reproduzcan habilidades mentales humanas para simplificar
procesos. Los Primeros Autómatas: Johann Wolfgang Von Kempelen diseñó un autómata
llamado el Turco, que aparentaba jugar al ajedrez, pero en realidad era operado por una
persona oculta. Este concepto inspiró la construcción de autómatas reales, como el
Ajedrecista de Leonardo Torres Quevedo. La Máquina Analítica de Charles Babbage: En
1816, Charles Babbage describió la máquina analítica, un precursor de las computadoras
modernas, capaz de realizar cálculos y construir tablas. Analogías Biológicas y
Fenomenológicas: A partir de la segunda mitad del siglo XIX, se comenzaron a utilizar
analogías biológicas y fenomenológicas para estudiar la mente humana. Origen del
Término "Inteligencia Artificial" en 1950: Alan Turing, matemático y científico de la
computación, contribuyó al campo de la IA con su artículo "Maquinaria Computacional e
Inteligencia". A partir de entonces, se definió la IA bajo diferentes perspectivas. Diversas
Definiciones de IA: A lo largo del tiempo, la IA ha sido definida como sistemas que piensan
como humanos, piensan racionalmente, actúan como humanos o actúan racionalmente.
Conductas Inteligentes en Artefactos: La IA también se ha relacionado con la realización de
conductas inteligentes en artefactos. Características de un Agente Inteligente: Se describen
características relevantes para un agente inteligente, como la percepción, la resolución de
problemas, la planificación y la adaptación. Uso de la IA como Técnica de Software: La IA
se utiliza como técnica de software para resolver problemas y asemejar el comportamiento
inteligente observado en la naturaleza, especialmente en los seres humanos.

ALVARADO, M. (2015).

Inteligencia artificial : definición, historia, usos, peligros. (2022, agosto 10). Formation
Data Science | Datascientest.com. https://datascientest.com/es/inteligencia-artificial-
definicion

La historia de la inteligencia artificial comenzó en 1943 con la publicación del artículo «A


Logical Calculus of Ideas Immanent in Nervous Activity» de Warren McCullough y Walter
Pitts. En ese trabajo, los científicos presentaron el primer modelo matemático para la
creación de una red neuronal. El primer ordenador de red neuronal, Snarc, fue creado en
1950 por dos alumnos de Harvard: Marvin Minsky y Dean Edmonds. Ese mismo año, Alan
Turing publicó el Test de Turing, que todavía se utiliza hoy para valorar las IA. En 1952,
Arthur Samuel creó un software capaz de aprender a jugar al ajedrez de forma autónoma. El
término inteligencia artificial fue utilizado por primera vez en la conferencia «Dartmouth
Summer Research Project on Artificial Intelligence» de John McCarthy en 1956. En ese
acto, los investigadores presentaron los objetivos y la visión de la IA. Muchos consideran
esta conferencia como el verdadero nacimiento de la inteligencia artificial, tal y como se
conoce hoy en día.

Paráfrasis 5

1943: Warren McCullough y Walter Pitts publican un artículo que presenta el primer
modelo matemático para una red neuronal. 1950: Marvin Minsky y Dean Edmonds crean el
primer ordenador de red neuronal llamado Snarc. 1950: Alan Turing publica la prueba de
Turing, que se convierte en una forma de evaluar la IA.1952: Arthur Samuel desarrolla un
software capaz de aprender a jugar al ajedrez de manera autónoma, un importante avance
en el aprendizaje automático.

1956: John McCarthy organiza la conferencia "Dartmouth Summer Research Project on


Artificial Intelligence", donde se establecen los objetivos y la visión de la IA. Esta
conferencia es considerada el punto de partida de la IA tal como se conoce hoy en día.

6 (S/f). Edu.pe. Recuperado el 29 de septiembre de 2023, de


https://ie42003cgalbarracin.edu.pe/biblioteca/LIBR-NIV331012022134652.pdf

La inteligencia artificial (IA) se ha convertido en sinónimo de nuevas promesas, pero


también de los riesgos que conlleva la masificación de las tecnologías digitales en las
diferentes esferas de la vida económica y social del siglo XXI. Expertos y medios de
comunicación proyectan la idea de que robots con apariencia y capacidades humanas serán
realidad a la vuelta de la esquina, realizando labores que podrían salvar vidas, transformar
ciudades y educar niños, pero que también pondrán en peligro los puestos de trabajo de
quienes no se adapten a esta nueva revolución tecnológica. En diversos estudios se intenta
dimensionar el ritmo y profundidad de los cambios que se avecinan, mientras que muchas
industrias automatizan procesos gracias a las nuevas máquinas disponibles y se prueban
prototipos de inventos que hasta hace poco parecían de ciencia ficción
6 Parrafrasis ;

La inteligencia artificial (IA) es vista como una promesa y un riesgo en la sociedad actual.
Se anticipa que robots con apariencia y habilidades humanas pronto estarán presentes en
diversas esferas de la vida económica y social, realizando tareas beneficiosas, pero también
amenazando empleos tradicionales. Los expertos y medios de comunicación proyectan esta
idea, y se realizan estudios para entender la magnitud de los cambios que se avecinan.
Mientras tanto, muchas industrias automatizan procesos y se desarrollan prototipos de
inventos que antes parecían pertenecer a la ciencia ficción. (S/f). Edu.pe. Recuperado el 29
de septiembre de 2023, de https://ie42003cgalbarracin.edu.pe/biblioteca/LIBR-
NIV331012022134652.pdf

Las últimas creaciones tecnológicas llevan a reflexionar hacia dónde va el mundo.


De hecho, de un tiempo a la actualidad, la disciplina técnico-científica viene plantean-
do una gran revolución mundial: la inteligencia artificial (IA). Si bien no hay una
definición exacta sobre lo que significa, la inteligencia artificial es el nombre que
se le asigna a una serie de tecnologías con características o capacidades que antes
eran exclusivas del intelecto hu-mano. El término se aplica cuando una máquina imita las
funciones cognitivas que los humanos asocian con otras mentes humanas, como aprender
o resolver problemas, etc. (Torres, 2014; Icarte, 2016).No existe una definición
universalmente aceptada de la IA. Generalmente, la IA se considera una disciplina
de la informática que tiene por objetivo elaborar máquinas y sistemas que puedan
desempeñar tareas que requie-ren una inteligencia humana. El aprendizaje automático y
el aprendizaje profundo son dos esferas de la IA. En los últimos años, con el desarrollo de
las nuevas técnicas y equipos informáticos basados en redes neuronales, la IA se ha venido
entendiendo como un sinónimo de “aprendi-zaje automático profundo supervisado”.La IA
está cada vez más presente en el día a día. Se in-teractúa con sistemas de IA para realizar
actividades ha-bituales como escuchar música en Spotify, ver series en Netflix, encontrar
una ruta con Google Maps o comprar en Amazon. Muchas tareas, que en el pasado
realizaban personas y en las últimas décadas se sustituyeron por algoritmos y en la
actualidad ya incorporan la IA. Se trata de una tecnología relativamente nueva, aunque
en ple-no auge, que tendrá una repercusión enorme en el futuro (Navarro, 2018). Tal como
ha ocurrido con otras grandes disrupciones tecnológicas, se prevé que la IA también
conlleve una revolución económica a nivel mundial. Actualmente se encuentra en el
punto inicial de este camino, que brindará infinidad de oportunidades para aquellos
países y regiones que sepan posicionarse o in-cluso lleguen a liderar esta disrupción.
Las previsiones indican que la IA será uno de los principales motores de crecimiento de
los próximos años (Azuaje Pirela, 2021). Según el informe “Sizing the Price”, de
PWC, 1 la IA se convertirá en la mayor oportunidad de negocio, y llegará a generar
USD 16.500 trillones en el año 2030: USD 6.600 billones por mejoras en la pro-1 y USD
9.900 billones deri-vados del consumo adicional generado. McKinsey Global Institute
estima que, en 2030, el 70% de las empresas a nivel mundial habrá adoptado algún tipo
de IA. En este contexto, la información (los datos, data en inglés) se convierte en
un activo muy valioso, ya que constituye el elemento esencial para la creación de
algoritmos de IA de valor. Tal es así que la revista The Economist habla de “el nuevo
petróleo” (“the new oil”). Es que los datos re-sultan imprescindibles para que los
sistemas inteligentes puedan entrenarse, mejorar y corregir desviaciones, a fin de obtener
algoritmos más fiables y efectivos. (Auth et al. 2019; Casis et al. 2019).La gestión de los
macrodatos (Big Data) puede dar lugar a conflictos de privacidad, responsabilidad o
intereses. Es por ello que cada gobierno debe abordar el tema es-tableciendo los marcos
legales necesarios para favore-cer su desarrollo. Resulta, pues, de vital importancia re-
accionar inmediatamente ante la irrupción de la IA, con políticas públicas eficaces
que permitan aprovechar las oportunidades que genera el crecimiento de esta tecno-logía
(Arrigain García, 2020), contribuyendo a una mayor prosperidad y bienestar de las
personas, las empresas y el país o la región en todo su conjunto.Cada vez con mayor
frecuencia, la IA genera importan-tes avances en la tecnología y las empresas. Se está
em-pleando en una amplia gama de sectores y tiene repercu-siones en prácticamente todos
los aspectos del proceso creativo. La disponibilidad de grandes cantidades de da-tos de
entrenamiento y los avances que hacen asequible contar con una capacidad de cálculo
elevada impulsan el crecimiento de la IA. Esta interactúa con la propiedad intelectual (PI)
de varias maneras.El crecimiento de la IA en diversos ámbitos técnicos plan-tea una serie
de cuestiones sobre las políticas en materia de PI; de lo que se trata, esencialmente, es de
determinar si debe modificarse el sistema vigente de PI a fin de pre-ver una protección
equilibrada de las obras e invenciones creadas por medio de la IA (Díez et al. 2001),
de la IA propiamente dicha y de los datos en los que se basa la IA para funcionar. La
Organización Mundial de la Propiedad Intelectual (OMPI), ha iniciado un proceso
abierto para llevar adelante el diálogo sobre las repercusiones de las políticas de PI. En la
economía mundial de la innovación, la demanda de derechos de PI –patentes, marcas,
dibujos o modelos in-dustriales y derecho de autor– aumenta con rapidez y es cada vez más
compleja. La IA, el análisis de macrodatos y las nuevas tecnologías como la de cadena de
bloques pueden utilizarse para hacer frente a los desafíos crecien-tes (De Cañas, 2018). No
obstante lo anterior, lo que se pretende es dejar sen-tado en este punto el hecho de que toda
creación intelec-tual que puede ser desarrollada en el actual estado de la técnica siempre
requiere la participación de la creatividad

364UNIVERSIDAD Y SOCIEDAD | Revista Cientíca de la Universidad de Cienfuegos |


ISSN: 2218-3620Volumen 13 | Número S3 | Diciembre, 2021del ser humano bien sea en
forma de persona física o de persona jurídica a través de sus miembros (Ruiz, 2001).Pero si
el derecho de autor nace en virtud de la origi-nalidad, algunos de los productos
“creativos” generados por la IA, que desde cierto punto de vista serían conside-rados obras
originales, podrían quedar desprovistos de protección jurídica precisamente porque la
participación humana es mínima o nula. Y también porque el derecho de autor corresponde
al autor, esto es, una persona hu-mana o natural que crea una obra original, y la normativa
tradicional no contempla situaciones para resolver una eventual “titularidad de los
robots” (Azuaje Pirela, 2021). Esto lleva a cuestionarse si tal consecuencia resulta con-
traria al mandato constitucional de “reconocer y proteger la libertad de crear y difundir las
artes” y, con ello, la pro-piedad intelectual o el derecho de autor que permitirían la
posibilidad de que “alguien” pudiese beneficiarse del producto económico de lo creado, ya
que, en estricto ri-gor, de uno u otro modo en los proyectos de IA sí intervie-nen personas
humanas. Por eso, en las páginas siguientes se analiza si el manda-to constitucional de
proteger la propiedad intelectual im-plica que deben reconocerse derechos de autor o, en su
defecto, nuevos derechos de propiedad intelectual para los productos de la IA. Si es
realmente considerado que no se deba visualizar a los productos de la IA desde la
óptica de la PI.

Parrafrasis 7:

El avance de la inteligencia artificial (IA) plantea importantes reflexiones sobre su impacto


en el mundo actual. Aunque no existe una definición precisa de la IA, generalmente se
refiere a tecnologías que imitan funciones cognitivas humanas como aprender y resolver
problemas.

La IA está cada vez más presente en la vida cotidiana, desde la música en Spotify hasta las
recomendaciones de Netflix y las rutas de Google Maps. Se prevé que la IA sea una
revolución económica global, con pronósticos que indican un enorme crecimiento y
oportunidades en el futuro.

La gestión de grandes conjuntos de datos (Big Data) es esencial para entrenar sistemas de
IA y mejorar su desempeño. Esto hace que la información se considere un recurso
extremadamente valioso, a menudo llamado "el nuevo petróleo".

La IA plantea desafíos relacionados con la privacidad, la responsabilidad y los intereses, lo


que requiere marcos legales sólidos. Los gobiernos deben desarrollar políticas públicas
efectivas para aprovechar las oportunidades que ofrece la IA.

La IA se utiliza en una amplia gama de sectores y afecta prácticamente todos los aspectos
de la creatividad. La propiedad intelectual (PI) se ve influenciada por la IA, lo que plantea
cuestiones sobre cómo proteger las obras e invenciones creadas por medio de esta
tecnología.
La pregunta central es si se deben modificar los sistemas de PI para equilibrar la protección
de las creaciones de IA, y si es necesario crear nuevos derechos de propiedad intelectual
para productos de IA. Esta cuestión se analiza a la luz de los mandatos constitucionales de
protección de la propiedad intelectual.

Estupiñán J,R. (2021).

También podría gustarte