Está en la página 1de 21

El término 

"inteligencia artificial" representa un conjunto de disciplinas de software, lógica,


informática y filosofía que están destinadas a hacer que los PC realicen funciones que se pensaba
que eran exclusivamente humanas, como percibir el significado en el lenguaje escrito o hablado,
aprender, reconocer expresiones faciales, etc. El campo de la inteligencia artificial tiene una larga
historia tras de sí, con muchos avances anteriores, como el reconocimiento de caracteres ópticos,
que en la actualidad se consideran como algo cotidiano.

La Inteligencia Artificial es un campo amplio y difícil de definir. En términos generales, podemos


decir que se centra en el desarrollo de procesos y mecanismos para que las máquinas imiten
funciones cognitivas que solemos asociar con el comportamiento humano.

Cada vez que jugamos un videojuego contra una computadora, estamos frente a un sistema
programado con reglas y estrategias para derrotarnos. Cada vez que una plataforma de música o
video (como YouTube, Spotify o Netflix) nos da alguna recomendación, por detrás hay un programa
que aprende nuestros gustos y costumbres para entregar respuestas más pertinentes. Cada vez que
subimos una foto a Facebook hay una serie de algoritmos que permiten a esa red social reconocer
qué personas están en ella para poder etiquetarlas automáticamente. Todos estos son ejemplos
cotidianos de esta disciplina.

El término “Inteligencia Artificial” fue acuñado formalmente en 1956 por John McCarthy, Marvin
Minsky y Claude Shannon durante la Conferencia de Darthmounth, aunque años atrás Alan Turing ya
había realizado grandes avances en el campo. Él fue quien diseñó el primer programa de ajedrez por
computadora y el experimento que hoy se conoce como Test de Turing, utilizado para comprobar el
comportamiento inteligente de una máquina.

Transcurrido más de medio siglo de desarrollo, la Inteligencia Artificial (o AI, por sus iniciales en
inglés) hoy en día ya no es monopolio de matemáticos, y se caracteriza por ser un campo
multidisciplinario: tanto la computación como la lógica, la filosofía y otras ramas de la ciencia
abordan problemáticas vinculadas a ella, y generalmente lo hacen en conjunto. Esta diversidad de
enfoques, sumada al hecho de que aún es un estudio relativamente nuevo, genera que no sea fácil
acordar una definición de Inteligencia Artificial. No es lo mismo, por ejemplo, plantear el objetivo de
que las máquinas actúen como las personas, resaltando el resultado de una acción,
independientemente de los procesos que lleven a ella -como es el caso de la Robótica-, a proyectar
que razonen como ellas, resaltando justamente lo opuesto, imitar procesos pero no resultados,
como el caso de las Redes Neuronales. Ambas son propuestas válidas para definir Inteligencia
Artificial.

Por otro lado, a medida que va evolucionando el campo de estudio aparece, además, una
clasificación basada en cuáles son los objetivos finales de la investigación en AI:

Inteligencia Artificial Débil


También conocida como AI Estrecha o AI Aplicada, agrupa los sistemas, más o menos complejos, que
sólo están diseñados para una tarea en particular. Desde este lugar, se considera que las
computadoras actúan únicamente de forma que parezca que razonan, que solo pueden simular
procesos cognitivos y nunca podrán ser conscientes. Un ejemplo claro de esto son los asistentes
personales de nuestros dispositivos, como Siri o Google Now: programas que simulan el
comportamiento humano, pero no tienen la autonomía de generar su propio comportamiento. Al
día de hoy, todos los desarrollos en AI están dentro de esta categoría.

Inteligencia Artificial Fuerte


Referida a veces como Inteligencia General Artificial, es la propuesta de que se podrá construir algún
día un programa con todas las capacidades de la mente humana: que pueda resolver tareas para las
cuales no fue programado, y que las pueda resolver a partir de cualidades humanas como la
conciencia y la sensibilidad. Esta es una categoría completamente hipotética y muchos científicos
niegan que se presente como una posibilidad concreta.

Más allá de la factibilidad de desarrollar una Inteligencia Artificial Fuerte, no se puede negar que las
aplicaciones concretas de la AI están creciendo día a día, resolviendo problemas cada vez más
complejos y variados. Sumadas al aumento del poder de procesamiento y a la disminución de su
costo, estrategias como el Machine Learning, o Aprendizaje Automático, aprovechan el gran
volumen de datos que hay disponible hoy en día para generar sistemas cada vez más inteligentes. En
la actualidad hay ciudades que están implementando semáforos que se adaptan al volumen de
tráfico para modificar los tiempos de las luces; encontramos sistemas basados en Redes Neuronales
que han aumentado considerablemente las posibilidades de detectar tumores de forma temprana;
hay desarrollos que ayudan a predecir la evolución de plagas y optimizar el manejo de cultivos. Y los
ejemplos podrían seguir: la tendencia de incorporar Inteligencia Artificial en muchas de las prácticas,
procesos y costumbres que nos afectan día a día es más que clara, y no hay duda que apenas hemos
visto solo una pequeña parte de sus posibles aplicaciones.
 

Tal vez te interese


INTELIGENCIA ARTIFICIAL

Origen del concepto de Inteligencia Artificial


SÍGUENOS EN:

Puede que pienses que la inteligencia artificial es un concepto de reciente


creación, pero lo cierto es que tiene su hueco en la historia. Te explicamos
cuando surgió.





Índice de contenidos

Cuando pensamos en inteligencia artificial es habitual pensar en una secuencia de


imágenes futuristas en las que participa tecnología de última generación. Sin embargo, para
que haya llegado hasta el punto donde se encuentra actualmente, ha tenido que afrontar
diversos retos a lo largo de la historia. Te proponemos un recorrido por los acontecimientos
más puntuales que giran en torno a la IA desde su nacimiento hasta la actualidad.

Origen y evolución cronológica

El origen de la inteligencia artificial es muy antiguo. Se remonta al 300 a.C. y aunque, por
aquel entonces era impensable pensar en un concepto de tal magnitud, los siguientes
hechos de la historia tuvieron un peso importante en su desarrollo.

Aristóteles fue el primero en descubrir de manera estructurada un conjunto de reglas, los


llamados silogismos, que describen una parte del funcionamiento de la mente humana y
que, al seguirlas paso a paso, producen conclusiones racionales a partir de las premisas.

En el 250 a.C., Ctesibio de Alejandría construyó la primera máquina autocontrolada. Se


trataba de un regulador del agua que modificaba su propio funcionamiento, pero sin un
razonamiento previo.

En 1637, uno de los filósofos más influyentes del siglo XVII predijo la posibilidad de crear
máquinas que pensasen por sí mismas. Esta figura se trataba de René Descartes.
Después de años de parón en este sentido, en 1847, el matemático George Boole puso un
componente más a esta historia, estableciendo que el razonamiento lógico podría
sistematizarse, de igual forma que se resuelve una ecuación matemática.

30 años más tarde, Gottlob Frege a partir de los estudios de Boole obtiene la Lógica de
Primer Orden, la cual contaba con mayor énfasis y una mejor expresión. Actualmente se
sigue tomando como referencia.

Alan Turing, un factor clave en el proceso

La inteligencia artificial no sería lo que es sin la tecnología y, no hay nada más futurista que
los robots. La primera vez que se acuñó la esta disruptora palabra fue en el año 1921
por Karel Čapek en su obra de teatro R.U.R.

Siguiendo este hilo, en 1936 entra en juego el que hoy en día se considera como uno de los
padres de la tecnología de la información, Allan Turing. Este matemático introdujo el
concepto de algoritmo a través de su artículo “Computing machinery and intelligence”
mediante el cual sentó las bases de la informática moderna.

A través del cual, surge el conocido Test de Turing, una prueba de comunicación verbal
hombre máquina que evalúa la capacidad de la tecnología de hacerse pasar por los seres
humanos.

5 años más tarde (1941), se crea el primer ordenador de la historia moderna, un dispositivo
programable y automático, el cual fue bautizado como Z3. El mérito de este invento se le
atribuye a Konrad Zuse.

Ese mismo año, con una mayor innovación, eficiencia y cada vez más cerca de la
inteligencia artificial, Isaac Asimov, en su escrito de ciencia ficción “Círculo Vicioso”
argumenta las leyes de la robótica, aquellas que todo robot debe cumplir. Estas son:

 Los robots no podrán dañar al ser humano.


 Los robots cumplirán las órdenes designadas.
 Los robots protegerán su propia existencia siempre y cuando ésta no entre en
conflicto con la primera o segunda ley antes propuestas.

En 1943, Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales,


el cual se considera el primer trabajo del campo de inteligencia artificial, aunque aún no
había sido acuñado como tal.
Estos científicos partieron de tres fuentes principales: conocimientos sobre la fisiología
básica y funcionamiento de las neuronas en el cerebro, el análisis formal de la lógica
preposicional de Russell y Whitehead y la teoría   de Allan Turing.

Nacimiento y evolución

En 1956 nace el término inteligencia artificial gracias al informático John McCarthy y a la


ayuda de Marvin Minsky y Claude Shannon. Este concepto designado en la conferencia de
Dartmouth definía la palabra como la ciencia e ingeniería de “hacer máquinas inteligentes.”

Estos tres científicos plantearon hipótesis para los próximos años que situaban la tecnología
y la inteligencia artificial como algo que conviviría con los seres humanos. Lo cierto es que
no fue así, el desarrollo de este novedoso concepto se producirá lentamente y no es hasta
la década de los 90 hasta que empieza a adoptarse como lo conocemos hoy en día.

Asimismo, a John McCarthy también se le atribuye el diseño y creación de “LISP”, el primer


lenguaje  que logró un procesamiento simbólico y no numérico.

En esta transición, otro aspecto que contribuiría al desarrollo de la inteligencia artificial fue el
diseño de la primera red neuronal artificial en el año 1957. Este hecho se le atribuye a Frank
Rosenblatt.

En esta transición, otro aspecto que contribuiría al desarrollo de la IA fue el diseño de la


primera red neuronal artificial en el año 1957. Este hecho se le atribuye a Frank Rosenbalt

ELIZA fue el otro punto de inflexión en el desarrollo de la inteligencia artificial. Este proyecto
desarrollado por Joseph Weizenbaum (1966) en el Massachussets Institute of Technology
(MIT) y es considerado el primer chatbot.

Este dispositivo incorporaba el procesamiento del lenguaje natural humano y su objetivo


principal era enseñar a los ordenadores a comunicarse con los seres humanos mediante su
propio lenguaje y no mediante un lenguaje de programación.                                                                           

En 1970 se avecina el primer invierno de la inteligencia artificial, que supone una pérdida de
financiación para tratar el tema básicamente porque las expectativas que se habían
planteado no se cumplieron.

Otro de los hitos que supuso un punto de inflexión se produjo en 1973 cuando se creó
“Wave” el primer lenguaje de programación para robots.
Los 90, la IA coge impulso.

Después de unos años de tímido desarrollo, en el año 1990 la inteligencia artificial volvió a
coger impulso y comenzaría lo que se conoce como la edad de oro de la IA. Esto se debe,
en parte, al repentino desarrollo de la tecnología que afectaba directamente a las industrias.

Aquellas empresas que no se sumasen al movimiento tecnológico quedarían obsoletas y se


verían fuera de un sistema que auguraba buenos resultados. Por esto precisamente, se
decidió invertir en la optimización de los procesos en la que se focalizaba la IA.

Un hecho realmente importante se produjo en el año 1997, cuando la multinacional IBM dio
a conocer a Deep Blue, un ordenador provisto de IA, capaz de ganar en una partida de
ajedrez al campeón del mundo Gari Kaspárov.

En esta época también surgen los agentes inteligentes, capaces de percibir su entorno y
actuar de manera racional. En términos de computación, esto puede usarse para referirse a
un agente de software inteligente.

Nuevo siglo, nuevas formas de entender la


tecnología

Ya en el nuevo siglo y con mejoras en los procesos tecnológicos, la inteligencia artificial


crece a una velocidad de vértigo y se empiezan a ver los primeros vestigios de lo que será
la IA del futuro.  

Google, el gigante de internet, siempre ha destacado por sumarse a la innovación y estar


siempre a la última. Por ello, en 2008 decidió lanzar la primera aplicación con capacidad
para reconocer la voz mediante el uso de IA.

IBM también quiso seguir actualizando sus procesos. Por eso, en 2011 presentó a Watson,
un ordenador que seguía la metodología de Deep Blue y que consiguió ganar el concurso
de preguntas y respuestas “Jeopardy!” superando con creces a la mente humana.

Sin embargo, uno de los acontecimientos más reseñables del siglo XXI en relación a la IA
se produjo en el año 2014, cuando un bot computacional llamado Eugene Goostman
consiguió superar el Test de Turing, engañando a 30 de los 150 haciéndoles creer que
estaban hablando con un niño ucraniano de 13 años y no con una máquina.
Siguiendo la línea temporal, en 2015, AlphaGo se convirtió en la primera máquina en ganar
a un jugador profesional del milenario juego oriental Go. Un verdadero reto para la máquina,
puesto que este juego plantea una gran complejidad.

A lo largo de la historia, la IA ha dado muchos palos de ciego. No obstante, todos los


hechos anteriormente expuestos han contribuido a cimentar las bases de lo que tenemos
hoy en día: identificar imágenes, reconocimiento por voz, reconocimiento facial, respuestas
automáticas…

Algunos avances de peso que tienen que ver con la inteligencia artificial son:

 Traducciones.
 Asistentes digitales.
 Respuestas automatizadas.
 Vehículos autónomos.
 Clasificación de imágenes.
 Conversión de texto a diálogo y viceversa.

Aunque parezca mentira, esto solo es la punta del iceberg. La inversión en IA ha aumentado
considerablemente y estamos seguros que en los próximos años seremos testigos de lo que
es realmente capaz.

LOS ORÍGENES DE LA INTELIGENCIA ARTIFICIAL Aunque los primeros referentes


históricos se remontan a los años 30 con Alan Turing, considerado padre de la inteligencia artificial,
se considera que el punto de partida es el año 1950, precisamente, cuando Turing publica un artículo
con el título «Computing machinery and intelligence» en la revista Mind, donde se hacía la
pregunta: ¿pueden las máquinas pensar? y proponía un método para determinar si una máquina puede
pensar. Los fundamentos teóricos de la IA se encuentran en el experimento que propone en dicho
artículo y que pasó a denominarse Test de Turing, y mediante cuya superación por una máquina se
podía considerar que sería capaz de pasar por un humano en una charla ciega. Este test sigue estando
vigente en la actualidad y es motivo de estudios e investigaciones continuas. Sin embargo, numerosos
investigadores e historiadores consideran que el punto de partida de la moderna inteligencia artificial
fue el año 1956, cuando los padres de la inteligencia artificial moderna, John McCarty, Marvin
Misky y Claude Shannon acuñaron formalmente el término durante la conferencia de Darmouth,
como: «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cálculo
inteligente». La conferencia fue financiada por la Fundación Rockefeller y se llamó Dartmouth
Summer Research Project on Artificial Intelligence. Los últimos cinco años han sido la expansión de
la inteligencia artificial (IA) en sectores donde hasta estas fechas no llegaba. Yoshua Bengio -uno de
los investigadores más prestigiosos del mundo en el campo de la inteligencia artificial- en su artículo
de Aprendizaje Profundo publicado en la revista Scientific American, da como fecha de partida de
la explosión de la IA el año 2012, donde se presentaron los primeros productos comerciales que
entendían el habla -como el caso de Google Now- y posteriormente aplicaciones que permitían
identificar el contenido de una imagen, como hoy incorpora Google Photos.  1997 El
supercomputador Deep Blue de IBM ganó en 1997 al campeón mundial de ajedrez Gari Kasparov,
después de un fracaso previo en 1996 donde ganó Kasparov. El año 1997 es considerado por algunos
historiadores de la IA como el punto de inflexión donde comenzó a oírse de la inteligencia artificial
fuera de los ámbitos académicos y de investigación. Sin embargo, es en la segunda década del siglo
XXI cuando comienzan a aparecer los acontecimientos de impacto para llevar la IA al punto de
despegue donde se encuentra en este momento. 2011 En febrero de 2011, el
supercomputador Watson de IBM -el modelo de computador cognitivo, como lo denomina su
creador IBM- gana en el concurso televisivo de Estados Unidos Jeopardy¡, en el que se realizan
preguntas y cuestiones diferentes de todo tipo, cultura y conocimiento, a los dos mejores concursantes
del programa, Brad Ruttler y Ken Jennings. Watson es una computadora capaz de aprender a medida
que trabaja y acumula información y que puede interactuar con el lenguaje humano en un lenguaje
natural. Watson va aprendiendo con las interacciones con el usuario. La computadora cognitiva
Watson está disponible y accesible desde la nube y tiene clientes en numerosos países del mundo; en
el caso de España, CaixaBank y Repsol trabajan con Watson. Lanzamiento de los asistentes
virtuales: Siri, Google Now y Cortana (2011 a 2014) Otro hito importante fue la presentación
de Apple del asistente virtual Siri integrado en el teléfono móvil iPhone 4S en el año 2011  y donde
comenzaron las primeras experiencias de aprendizaje automático y los primeros indicios de
aprendizaje profundo. El año 2012 es considerado como el año clave de la segunda generación de
inteligencia artificial, con el lanzamiento de asistentes virtuales apoyados en IA con algoritmos de
aprendizaje profundo. En junio de 2012 Google presentó su asistente virtual, Google Now, y en abril
de 2014 Microsoft presentó su propio asistente virtual, Cortana. 2016 El 9 de marzo de 2016, el
software de inteligencia artificial Alpha Go de Google se enfrentó al surcoreano Se-Dol, campeón
mundial de Go -un juego milenario de estrategia muy complejo- en una partida a cinco juegos. Alpha
Go ganó los tres primeros juegos limpiamente y solo en el último quinto juego Se-Dol ganó, gracias a
un movimiento inicial que hizo y donde se comprobó que la máquina estaba poco entrenada para
enfrentarse a situaciones inesperadas. 2017 El algoritmo Libratus de Inteligencia Artificial
desarrollado por la Universidad Carnegie Mellon venció claramente a cuatro de los mejores jugadores
profesionales de póquer en un Casino de Estados Unidos. La partida se realizó en enero-febrero de
2017 durante 20 días en un torneo de póquer con sesiones de 11 horas diarias en el  Casino Rivers de
Pittsburgh  (Estados Unidos) dentro del Torneo Cerebros vs. Inteligencia Artificial (Brains vs.
Artificial Intelligence). La modalidad del juego elegida fue mano-a-mano, enfrentando a la máquina
con los cuatro jugadores profesionales y ganó Alpha Go por abrumadora mayoría. PARA
APRENDER MÁS DE IA INVESTIGACIÓN Y CIENCIA. Agosto 2016. No. 479, pp. 46-73
Fernando BERZAL. Inteligencia Artificial. Departamento de Ciencias de la Computación e IA.
Universidad de Granada. Recomendable y excelente introducción, historia y fundamentos teóricos
de la Inteligencia Artificial.
¿Te imaginas un día de tu vida sin la inteligencia artificial? A lo mejor crees que no sería
nada extraordinario. “A fin de cuentas-puedes pensar- no tengo un robot en casa, ni
tampoco lo uso en mi empresa”.

Te levantas a la hora de siempre, realizas tus actividades matutinas habituales y a la hora


del desayuno, cuando empiezas a revisar tus correos electrónicos: “¿De nuevo? ¡No
aguanto más los correos spam en mi bandeja principal!”

Bastante contrariado por lo ocurrido con tus emails, te montas en tu carro. Vas a tu primera
reunión con aquel cliente tan importante, con el que pretendes cerrar
una venta extraordinaria.

El lugar de la reunión lo escogió el cliente y lo recibiste mediante una aplicación


de mensajería instantánea. Es en un barrio nuevo y no sabes a ciencia cierta cómo llegar.
Piensas: “Si el carro tuviese su propio mapa...”

Finalmente llegas al lugar de la cita. Te demoras unos minutos en estacionar. Cuando


encuentras uno de los pocos espacios libres, tienes que esforzarte para colocar tu carro en
un pequeño espacio de difícil acceso.

Te bajas pensando: “Si el carro tuviera alguna función que me ayudara a estacionar...
Además, parece que va a llover. No leí el pronóstico del tiempo. Sería ideal poderle
preguntar al teléfono si debo usar paraguas o no”.

Como seguramente sabes, para cada uno de los problemas de tu día imaginario existe una
solución. En el caso de los correos spam, la mayoría no va a tu bandeja principal gracias al
uso del Machine Learning.

El Google Maps te ayuda a llegar de forma rápida a cualquier dirección, mientras que
los sensores de estacionamiento contribuyen para que puedas estacionar de una forma
más ágil y segura.

Los asistentes virtuales integrados a los dispositivos móviles, “responden” a diversas


preguntas que se le realizan. Alexa, Cortana y Siri (ejemplos de inteligencia artificial) son
nombres bien familiares para muchas personas.
Estas soluciones forman parte de lo que se ha dado en llamar inteligencia artificial. En la
actualidad su presencia se ha hecho tan cotidiana que no siempre logramos percibir que
está entre nosotros.

Un informe de Statista refleja que en 2020, se espera un crecimiento en la facturación


del mercado global de software de inteligencia artificial (IA) de aproximadamente un
154% en comparación con 2019.

Un crecimiento de tal magnitud va a colocar la facturación de este importante

mercado por encima de los 22.000 millones de dólares estadounidenses. Impresionante,


¿verdad?

Si te interesa saber cómo surgió la IA, cómo se ha posicionado con tanta fuerza en el
mercado y cuáles son sus perspectivas; continúa leyendo. Hablaremos también de la
importancia que tiene para tu empresa la utilización de la IA.

¿Qué es la Inteligencia Artificial?


Concepto de Inteligencia Artificial

La simulación que realizan determinadas máquinas y sistemas informáticos de los procesos


de inteligencia humana se conoce como Inteligencia Artificial. Este concepto abarca
desde la automatización de procesos hasta la robótica avanzada.

Existen varios criterios para clasificar la inteligencia artificial. Uno de ellos la divide en dos
grandes tipos: Inteligencia Artificial Débil e Inteligencia Artificial Fuerte.

La inteligencia artificial débil se conoce también como inteligencia artificial estrecha y


agrupa a los sistemas concebidos y entrenados para una tarea particular. Los asistentes
virtuales son un ejemplo de IA débil.

La inteligencia artificial fuerte engloba a sistemas de IA que poseen habilidades cognitivas


humanas generalizadas. Estos sistemas son capaces de resolver tareas desconocidas,
pues cuentan con la “inteligencia” para encontrar una solución.

Un ejemplo de inteligencia general artificial, como también se conoce a la IA fuerte son


los chatbots más avanzados, los cuales cumplen tareas de mayor complejidad en la
organizaciones.
Los procesos que sustentan la inteligencia artificial son el
aprendizaje, el razonamiento y la autocorrección. El aprendizaje incluye la adquisición
de la información y de las reglas para su uso.

Los sistemas de inteligencia artificial utilizan el razonamiento para arribar a conclusiones


sobre la base del uso de las reglas aprendidas. Esto a su vez trae como consecuencia la
autocorrección.

La inteligencia artificial, ya sea débil o fuerte, está presente en muchas de las facetas de
nuestras vidas. ¿Cómo ha sido el camino para llegar hasta aquí? A continuación te lo
mostraremos.

Historia de la Inteligencia Artificial


Antecedentes IA

La idea de crear inteligencia artificial desafía a los seres humanos desde tiempos remotos.


Entre los mitos y leyendas de la antigua Grecia se destaca el de Galatea, escultura
de Pigmalión a la que los dioses le conceden el don de la vida.

Según la mitología griega, los trípodes fabricados por Hefesto servían en las fiestas y


banquetes de los dioses. En su fragua mística, el dios herrero también creó unas ayudantes
de metal para asistirlo en su trabajo diario.

Ya en la Edad Media varios textos místicos hacen referencia a la figura del Golem. Este


término de origen judío describe a un ser animado, creado mágicamente a partir de materia
inanimada.

Probablemente el antecedente de la inteligencia artificial que más se conoce en el mundo


aparece en un filme del siglo XX. Se trata de la película Frankenstein, precursora del
género de ciencia ficción.

La palabra robot es mencionada por primera vez en la obra de teatro checa R.U.R. Es la


historia de unos seres artificiales con características humanoides. Creados para ayudar a la
humanidad, finalmente terminan destruyéndola.

Es cierto que estos ejemplos pertenecen al campo de la ficción. Sin embargo, han servido
como inspiración a numerosos investigadores en su búsqueda incesante por el surgimiento
y consolidación de la inteligencia artificial.
Origen IA

Los orígenes de la inteligencia artificial están íntimamente vinculados a los de la


computación. Grandes nombres de las ciencias computacionales forjaron las condiciones
para el surgimiento de la IA.

Durante las décadas del 30 y del 40 del siglo XX se publican los primeros trabajos que
abordan de alguna manera la inteligencia artificial. Es importante señalar que todavía no
existía oficialmente el término IA.

El artículo Números Calculables, publicado en 1936 por Alan Turing, tuvo una fuerte


repercusión. Se considera que en este texto se establecen las bases teóricas de las
ciencias de la computación.

En este artículo Alan introdujo el concepto de Máquina de Turing. Además de formalizar la


definición de algoritmo, las ideas expuestas en la publicación son consideradas como
precursoras de las computadoras digitales.

Una conclusión trascendental a la que arribó Turing con ayuda de su máquina es la de


que existen problemas que ninguna computadora puede resolver. Por tal demostración
es considerado como el padre de la teoría de la computabilidad.

Un logro extraordinario gestado por Alan Turing en los orígenes de la inteligencia artificial es
la construcción del primer computador electromecánico en el año 1940.

Ya para 1941 otro precursor de la inteligencia artificial, el ingeniero alemán Konrad


Zuse crea la Z3, primera computadora electrónica digital totalmente funcional. Zuse es
también el creador del primer lenguaje de programación de alto nivel.

La primera teoría matemática del cerebro se debe a la conjunción entre un joven


apasionado por la lógica y un eminente neurocientífico, quienes crearon el primer modelo
formal del procesamiento de información a nivel del cerebro.

Considerado oficialmente como el primer trabajo específico del campo de la inteligencia


artificial, en 1943 es presentado el Modelo de Neuronas Artificiales de los autores Warren
McCulloch y Walter Pitts.
Evolución IA (Etapas)

Etapa Primaria (1956-1970)

El año 1956 marca un hito trascendental para el surgimiento y evolución de la inteligencia


artificial. En este año se produce en el Dartmouth College una reunión entre destacados
investigadores de esta incipiente área.

En dicha reunión participó, entre otros, John McCarthy, profesor y famoso matemático.


McCarthy, creador del conocido lenguaje LISP, fue también quien designó a la nueva
ciencia que surgía con el nombre de Inteligencia Artificial.

A partir de esta reunión, comienzan a distinguirse dos tendencias en el estudio de la


inteligencia artificial: la tendencia conocida como conexionismo y la denominada
como ingeniería del conocimiento.

En la Etapa Primaria los investigadores que trabajaban en la línea de investigación cognitiva


produjeron trabajos dirigidos al desarrollo de algoritmos y de estrategias de búsqueda para
la solución de problemas.

Allen Newell y Herbert Simon se destacan dentro de esta tendencia. En su afán de alcanzar
un modelo de representación del conocimiento humano, crearon la técnica más importante
de representación: las reglas de producción.

Por otro lado, los investigadores que formaban parte de la tendencia conexionista también
produjeron trabajos relevantes en esta primera etapa. Un ejemplo es el Perceptrón,
desarrollado por Frank Rosenblatt en 1959.

El Perceptrón es una unidad neuronal artificial que se puede entrenar mediante reglas de
aprendizaje supervisado, no supervisado y por reforzamiento.

Un perceptrón alcanza funcionalidad solamente en una red de iguales.

En esta primera etapa, a pesar de crearse las bases para el desarrollo posterior, las
investigaciones de ambas tendencias tuvieron una limitación en común: promovieron
expectativas exageradas.

La idea de construir un sistema capaz de resolver cualquier tipo de problema, o la de crear


una base de datos que permitiera traducir automáticamente y sin errores, son expectativas
incumplidas que se esbozaron en la primera etapa de IA.
A lo anterior se le sumó el hecho de disponer de insuficientes recursos humanos,
financieros y tecnológicos para sus investigaciones. Siendo así, el reconocimiento
internacional hacia los pioneros de la IA fue prácticamente nulo en esta etapa.

Etapa de Prototipos(1971-1981)

En la etapa de prototipos se realiza un reconocimiento justo a los logros alcanzados en la


primera etapa. Además, se desarrolla un análisis crítico dirigido a comprender las causas de
los fracasos obtenidos en el período anterior.

Al profundizar en el análisis descubren que en muchas de las técnicas propuestas por los
iniciadores de la IA faltaba la consideración de un elemento muy importante:
el conocimiento heurístico.

Este descubrimiento condujo a la inclusión de la experiencia como variable en los sistemas


de inteligencia artificial. Es entonces cuando en las universidades comienzan a
desarrollarse los primeros prototipos exitosos de sistemas.

Aunque no es hasta 1977 que surge el término Sistema Experto, el primero de ellos se da


a conocer en 1974. Se trata de Mycin, un sistema de diagnóstico de enfermedades
infecciosas, producido por la Universidad de Stanford.

En 1975 ve la luz la versión inicial de un lenguaje de programación lógica: PROLOG. Este


período se destaca también por el desarrollo en diversas áreas de importantes prototipos
funcionales.

Puff fue un prototipo diseñado para auxiliar en el diagnóstico de enfermedades


pulmonares. Prospector fue creado para contribuir en la prospección geológica,
mientras Dendral fue desarrollado para el análisis de química orgánica.

Estos y otros prototipos tuvieron éxito en los campos para los cuales fueron diseñados. Por
consiguiente, atrajeron la atención de los inversionistas. Pero ya eso es un tema a tratar en
la próxima etapa.

Etapa de Difusión Industrial (1981-Actualidad)

La etapa que transcurre entre 1981 y la actualidad ha sido denominada como la etapa de
difusión industrial. Esto se debe al hecho de que los prototipos salen de los laboratorios y
universidades para entrar en el mundo de la producción y el mercado.
En el contexto de esta especie de fiebre de difusión de la inteligencia artificial, no se ha
tenido el mismo entusiasmo para el financiamiento de la investigación básica.

Entre los dominios de aplicación de la inteligencia artificial que más se han beneficiado con
inversiones e investigación en en esta tercera etapa se encuentran los sistemas expertos y
las bases de datos inteligentes.

Un ejemplo de sistema experto desarrollado en esta etapa es el R1 / XCON. Este sistema
posee la funcionalidad de elegir un software específico para generar un sistema informático
acorde a las preferencias del usuario.

En esta etapa se han desarrollado numerosos sistemas expertos en el área de la medicina


como DXplain, Cadet y PXDES. Este último permite determinar fácilmente el tipo y el grado
de cáncer de pulmón a través de un análisis de datos.

Con el inicio de la tercera etapa de la inteligencia artificial en la década de los 80 del siglo
pasado surge también el concepto de Base de Datos Inteligentes. Es un concepto
renovador que trasciende al simple almacenamiento de información.

Una base de datos inteligente es un sistema que administra la información de una forma
que parece natural ante los ojos de los clientes. Tiene un carácter interactivo. Es mucho
más que un mantenimiento ordenado de registros.

Entre las bases de datos inteligentes más conocidas están Oracle, DB2, SQL Server.


También se destacan las del tipo NoSQL, concebidas para superar grandes desafíos de
administración de datos y aumentar la eficiencia de la organización.

La robótica, las redes neuronales, el reconocimiento de patrones, el procesamiento


del lenguaje natural y el aprendizaje automático son dominios que también han recibido
una atención especial en la tercera etapa de la IA.

Las perspectivas de la inteligencia artificial en la etapa que transcurre son extraordinarias.


Se avizora que a futuro las aplicaciones robóticas, el blockchain y los servicios en la
nube continúen ganando protagonismo.

Las perspectivas casi ilimitadas de la inteligencia artificial han propiciado que se abra un
necesario debate sobre responsabilidad ética. Una tecnología de tanta complejidad e
impacto debe ser manejada bajo sólidos valores humanos.
Se debaten temas como la prudencia, la fiabilidad y la rendición de cuentas. La
responsabilidad humana sobre la inteligencia artificial y la necesaria limitación de autonomía
de estos sistemas también se integran al debate.

No puede faltar en este debate ético el papel que desempeña el ser humano en cada uno
de los procesos que involucran a la Inteligencia artificial. Hasta hoy la inteligencia artificial
no ha conseguido superar a la humana.

Ventajas de la Inteligencia Artificial


“Con las aplicaciones de Inteligencia Artificial, ahora los clientes tienen nuevas capacidades
en soporte de autoservicio y nuevos tipos de interacciones automatizadas; permitiendo a las
empresas la posibilidad de obtener y analizar grandes volúmenes de datos comparativos,
así como la obtención de información valiosa sobre los gustos y preferencias de los clientes,
facilitando de esta manera la predicción de los mejores escenarios para el desarrollo de
modelos de negocios en plataformas tan complejas como la de eCommerce”

Estas palabras de Jason Maynard, Vicepresidente de Producto de Zendesk, ilustran la


importancia de la Inteligencia Artificial para ofrecerle una excelente experiencia al cliente.

Ventajas como la omnicanalidad, la reducción del tiempo de espera, la automatización y el


análisis eficiente de grandes volúmenes de datos justifican ampliamente la introducción de
la inteligencia artificial en tu empresa.

Zendesk te ofrece una herramienta de inteligencia artificial de gran utilidad, con la que
puedes estar presente las 24 horas en la vida del cliente y brindarle de manera automática
soluciones a problemáticas complejas.

Con Zendesk Chat, un software de chat en vivo, les dirás adiós a las demoras innecesarias
y conseguirás mejorar de forma significativa la experiencia de tu cliente.
Como comenté en mi anterior artículo, deseo mostrar a continuación adónde nos conduce la
AI en el futuro. Sin embargo, en primer lugar es preciso describir cómo ha evolucionado la
IA a lo largo de su corta vida. He escrito tres artículos que desarrollan esta cuestión. En el
primer artículo, perfilo brevemente el contexto de fondo describiendo lo que se ha logrado
hasta el comienzo del nuevo milenio. En el siguiente artículo, describo el impacto que han
tenido en los últimos 20 años los paradigmas de aprendizaje de máquina tales como los
algoritmos genéticos y las redes neuronales. Finalmente, en el tercer artículo, esbozo nuestro
futuro en un mundo dominado por la IA.

La aparición de la Inteligencia Artificial (IA) ha conducido a la aparición de aplicaciones


que en el momento presente están teniendo un profundo impacto en nuestras vidas.Se
trata de una tecnología que apenas tiene 60 años de existencia. Ciertamente, la expresión IA
se acuñó por primera vez en la conferencia de Dartmouth en 1956. Fue el momento en que
empezaron a aparecer los primeros ordenadores digitales en los laboratorios universitarios.
Los participantes en esta conferencia eran fundamentalmente matemáticos y científicos
informáticos, muchos de los cuales estaban interesados en la demostración de teoremas y
algoritmos que pudieran ser comprobados mediante estas máquinas. Había mucho optimismo
en dicha conferencia, ya que los primeros éxitos en este campo suponían un gran aliento. Esto
condujo a predicciones eufóricas acerca de la IA que resultaron exageradas. En aquel
momento se pensaba que si los ordenadores podían resolver problemas que a los seres
humanos les resultasen difíciles, como es el caso de la demostración de teoremas
matemáticos, entonces sería posible lograr que los ordenadores resolvieran problemas
fáciles para nosotros. Sin embargo, ese no fue el caso. La razón por la que prevaleció un
optimismo exagerado en aquellos momentos es que los problemas que los seres humanos
consideraban difíciles podían resultar fáciles para las ordenadores y viceversa.Tal vez
esto no resulte sorprendente porque los ordenadores utilizan el lenguaje de la lógica
matemática y, por tanto, cabía esperar que funcionaran mejor que los seres humanos a la hora
de resolver problemas lógicos de carácter preciso.

Durante aproximadamente los 50 años posteriores el progreso ha resultado en ocasiones errático e


impredecible, ya que la AI es un campo multidisciplinario que en el momento presente no está
respaldado por ninguna teoría fuerte. Los paradigmas y las técnicas de software de la AI han
surgido a partir de teorías de la ciencia cognitiva, la psicología, la lógica, etc., pero no han
madurado suficientemente, en parte por causa del fundamento experimental en el que se basaban y en
parte debido a un hardware que tenía una potencia inadecuada. Los programas de AI requieren un
hardware más potente en lo que respecta a la velocidad operativa y a la memoria que lo que
requiere el software convencional. Por otro lado, la aparición de otras tecnologías, como es el caso
de Internet, ha supuesto un impacto para la evolución de los sistemas de AI. Hace treinta años, se
suponía que los sistemas de AI artificial se convertirían en sistemas individuales, como es el caso de
los robots, o los sistemas expertos. Pero la mayor parte de las actuales aplicaciones de AI combinan
tecnologías. Por ejemplo, las aplicaciones de localización de rutas, como es el caso de las aplicaciones
utilizadas en los dispositivos de navegación por carretera SatNav, combinan tecnología de navegación
por satélite con lógica propia de la AI. En un nivel más avanzado, los coches sin conductor combinan
redes neuronales profundas de AI con tecnología de sistema de posicionamiento global y tecnología
de visión avanzada. En otras aplicaciones, como es el caso del programa de traducción de idiomas de
Google, Google Translate, se combinan técnicas de aprendizaje de máquina (redes neuronales
profundas) con grandes bases de datos y tecnologías de Internet.

EL ENFOQUE CAMBIANTE DE LA INVESTIGACIÓN EN AI

Durante los últimos sesenta años la investigación en AI ha tenido un enfoque


cambiante La primera fase comenzó durante la Conferencia de Dartmouth y se centró en
técnicas relacionadas con la Resolución general de problemas (GPS) (Newell y Simon
1971). Este enfoque asumía que cualquier problema que pudiera escribirse en código de
programación, ya sea una demostración de un teorema matemático, una partida de ajedrez o
encontrar la distancia más corta de una ciudad a otra, podía resolverse. Habitualmente, dichos
problemas implicarían la representación de este conocimiento en un formato informático
legible y luego, la búsqueda a través de posibles estados hasta encontrar una solución. Por
ejemplo, a la hora de jugar ajedrez existiría una representación simbólica del tablero, las
piezas, los posibles movimientos y los mejores movimientos basados en la heurística de
partidas previas, etc. En el transcurso de una partida la búsqueda localizaría el mejor
movimiento.Sin embargo, a pesar de resultar muy prometedor en sus inicios, el enfoque
GPS pronto se quedó sin combustible. La razón fundamental es que, a medida que los
problemas aumentaban de tamaño, el número de combinaciones de búsqueda crecía
exponencialmente. De esta manera, la segunda fase en la investigación intentó encontrar
formas de facilitar la búsqueda, reduciendo o acotando el espacio y, al mismo tiempo, trató de
encontrar formas de representar el conocimiento en la IA. Durante este periodo de la IA se
consiguieron algunos éxitos en la investigación.  Fundamentalmente, cabe destacar el caso de
Shrdlu (Winnograd, 1972) y el caso del robot Shakey.

No obstante, la IA experimentaría un retroceso cuando el informe Lighthill, publicado en el


Reino Unido en 1973, fue muy negativo acerca de las ventajas prácticas de la IA. En los
Estados Unidos y en el resto del mundo se manifestaron recelos similares acerca de la IA. Sin
embargo, en 1982, reconociendo las posibles ventajas de la IA, los japoneses renovaron las
esperanzas con un gran proyecto denominado “Proyecto de Sistemas Informáticos de
Quinta Generación” (FGCS). Se trataba de un proyecto muy ambicioso tanto en hardware
como en software, incluyendo, entre otras cosas, entornos de software inteligente y
procesamiento paralelo de quinta generación. Este proyecto sirvió como catalizador para el
interés en la IA en el resto del mundo. En los Estados Unidos, Europa y el Reino Unido se
desarrolló un movimiento centrado en la construcción de Sistemas Basados en Conocimiento
Inteligente (IKBS). Dichos sistemas también se denominan “sistemas expertos”. El
catalizador para esta actividad en el Reino Unido fue el proyecto ALVEY . Se trataba de un
gran proyecto colaborativo financiado por el gobierno, la industria y el comercio en el Reino
Unido que intentaba probar la viabilidad del uso de los IKBS en más de 200 sistemas de
demostración.
Esto allanó el camino para una tercera fase en la investigación en IA  concentrándose en
los IKBS que, a diferencia del enfoque de conocimiento universal GPS, confiaba en
conocimiento basado en dominio específico para resolver problemas de IA. Con los IKBS, un
problema como puede ser el caso del diagnóstico médico de una enfermedad infecciosa,
podía resolverse incorporando en los IKBS el conocimiento del dominio correspondiente a
dicho problema. Dicho conocimiento podía adquirirse a partir de expertos humanos en este
dominio o por otros medios. A menudo, esta clase de conocimiento se escribe en forma de
reglas. La Fig. 2 muestra una regla típica procedente del sistema médico experto denominado
MYCIN. El conjunto de reglas y hechos que conforman este conocimiento se denominó
“base de conocimiento”. Luego, un motor de inferencia en software utilizaría dicho
conocimiento para extraer conclusiones. El enfoque mediante IKBS tuvo un gran impacto en
aquel momento y muchos de estos sistema tales como R1, MYCIN, Prospector y muchos
otros tuvieron y aún tienen un uso comercial (Darlington 2000).

No obstante, los IKBS presentaban algunos defectos, por ej., su incapacidad de aprender y,
en algunos casos, la estrechez percibida de su enfoque. La capacidad de aprender resulta
importante ya que los IKBS deben actualizarse con regularidad. Realizar esta tarea de forma
manual consume muchísimo tiempo. Actualmente, las técnicas de aprendizaje de máquina en
IA han madurado para permitir que los sistemas aprendan sin ayuda y con intervención
humana escasa o incluso nula. Los sistemas IKBS tiene un enfoque estrecho ya que no tienen
la posibilidad de aprovechar el conocimiento basado en el “sentido común” que posee un
experto humano. Esto significa que muchos de estos sistemas eran muy competentes a la hora
de resolver problemas en márgenes muy estrechos de sus respectivos campos de
conocimiento pero cuando se enfrentaban a un problema inusual que requería
conocimiento vinculado al sentido común, colapsaban. Los expertos en IA se dieron
cuenta de que los sistemas expertos carecían del sentido común que los seres humanos
adquirimos desde el día en que nacemos. Se trataba de un importante impedimento para el
éxito de la IA, ya que dichos sistemas se consideraban “frágiles”.

Por esta razón, para intentar resolver este problema se desarrollaron diversos proyectos. El
primero fue el proyecto CYC (Lenat y Guha, 1991). Se trataba de un proyecto de IA muy
ambicioso que intentaba representar el conocimiento relacionado con el sentido común de
manera explícita ensamblando una ontología de los conceptos familiares respecto al sentido
común, El propósito de CYC era permitir que las aplicaciones de IA llevaran a cabo
razonamientos aplicando el sentido común como los seres humanos. Sin embargo, el
proyecto CYC tenía ciertas deficiencias, una de las cuales estaba relacionada con las
ambigüedades del lenguaje humano. Otros enfoques más recientes se basan en lo que ha dado
en denominarse “big data”, utilizando en ocasiones un modelo de fuente abierta para capturar
datos en la Web. Por ejemplo, ConceptNet captura conocimiento basado en el sentido común
conteniendo un montón de elementos que los ordenadores deberían conocer acerca del mundo
y permitiendo que los usuarios introduzcan conocimientos de forma adecuada.

lo largo de las últimas décadas, el aprendizaje de máquina se ha convertido en un tema de


investigación muy importante en IA. Fundamentalmente, se implementa utilizando técnicas
como las redes neuronales y los algoritmos genéticos. Esto representa la cuarta fase en la
investigación en IA descrita en la Fig. 3, y en mi próximo artículo analizaré su impacto.

REFERENCIAS

Darlington, K.  The Essence of Expert Systems. Pearson Education, 2000.

Lenat, D. y Guha, D. Building Large Knowledge Based Systems. Addison Wesley. 1991.

Winograd, T.  Understanding Natural Language, Academic Press, 1972

Newall, A., y Simon, H. A. Human problem solving. Englewood Cliffs, N. J.: Prentice-Hall,
1971.

En conclusión, podemos decir que la inteligencia artificial actualmente está siendo


aplicada de forma tan sutil que quizá algunos de nosotros, sin siquiera darnos
cuenta, utilizamos aplicaciones que implementan la Inteligencia Artificial. También el
hecho de que se han generado mitos sobre nuestro futuro y la inteligencia artificial,
tales como lo presentan algunas películas de Hollywood, como Terminator,
Inteligencia Artificial (IA) entre otras, donde se ve una realidad creada solamente en
nuestra imaginación y, aunque aún estamos a varios años de lograr ese tipo de
aplicaciones en la vida como la conocemos, no hay duda que se han dado pasos
agigantados en estas últimas décadas y que aún falta más por ver.

También podría gustarte