Está en la página 1de 37

UNIVERSIDAD NACIONAL DE TRUJILLO

UNIVERSIDAD NACIONAL DE TRUJILLO

ESCUELA DE INGENIERA DE SISTEMAS


Docente:
Ing. Luis Tenorio C.
Curso:
Inteligencia Artificial
Tema:
Introduccin a la Inteligencia
Artificial
Integrantes:

ALFARO CARRANZA, Vanessa


CORCUERA CISNEROS, Ana
DELGADO CHAU, Cristhian
LPEZ VERA, Euler
ROJAS ALARCN, Jordan

Ciclo:
VIII - Ciclo

2016

INTRODUCCION
El estudio de la inteligencia es tan antiguo como la civilizacin misma
y se ha dado ya por ms de dos mil aos. La capacidad que tiene el
cerebro humano de poder pensar por s mismo y poder resolver tanto
problemas simples y bsicos como complejos mostrando un mnimo
esfuerzo ha sido sin duda de gran inters de cientficos y filsofos de
poder descubrir y entender cmo es que esto sucede.
Entre algunas de las conocidas definiciones dadas por estos
cientficos se encuentra la de John McCarthy que dice que la
inteligencia es la capacidad que tiene el ser humano de adaptarse
eficazmente al cambio de circunstancias mediante el uso de
informacin sobre esos cambios. Tambin dice Marvin Minsky que
cada mente humana es el accionar de un comit de mentes de menor
poder que conversan entre s y combinan sus respectivas habilidades
con el fin de resolver problemas.
Muchas de las actividades mentales humanas, tales como escribir
programas de cmputo, demostrar teoremas, razonar con sentido
comn y an conducir un vehculo, normalmente se dice que
requieren inteligencia. Durante las dcadas pasadas se ha logrado
construir programas que pueden realizar tareas como esas. Existen
programas que pueden diagnosticar enfermedades, resolver
ecuaciones diferenciales en forma simblica, analizar circuitos
electrnicos, entender en forma limitada frases habladas y escritas o
escribir programas de cmputo cumpliendo especificaciones. Se
puede decir que tales sistemas poseen cierto grado de Inteligencia
Artificial (IA).
En sus orgenes, la construccin de estos sistemas fue, en gran
medida, experimental, con una orientacin ingenieril. Sin embargo los
objetivos y las expectativas que despert, tanto en los protagonistas
como en la comunidad cientfica, excedieron largamente los
resultados obtenidos. Tal es as que, a mediados del siglo pasado,
(solo pocos aos despus que estuviera en funcionamiento la primera
computadora electrnica a vlvulas) existan destacados cientficos
en el rea de la IA que hacan afirmaciones temerarias como la
siguiente:
Sin afn de sorprenderlos y dejarlos atnitos, debo informarles lisa y
llanamente que actualmente en el mundo existen mquinas capaces
de pensar, aprender y crear. Adems, su capacidad para hacer lo

anterior aumentar rpidamente hasta que en un futuro previsible la


magnitud de problemas que tendrn capacidad de manejar ir a la
par con la capacidad de la mente humana para hacer lo mismo.
(Herbert Simon, 1957, Premio Nobel de economa, 1978, por sus
trabajos en la Teora de las decisiones).
Pero cules son tales mquinas maravillosas
que son capaces de realizar las funciones
ms elevadas del cerebro humano? Qu es
una computadora? Es slo una fbrica de
nmeros?
La Inteligencia Artificial comenz como el resultado de
investigacin en psicologa cognitiva y lgica matemtica. Se
enfocado sobre la explicacin del trabajo mental y construccin
algoritmos de solucin a problemas de propsito general. Punto
vista que favorece la abstraccin y la generalidad.

la
ha
de
de

La Inteligencia Artificial es una combinacin de la ciencia del


computador, fisiologa y filosofa, tan general y amplio como eso, es
que rene varios campos (robtica, sistemas expertos, por ejemplo),
todos los cuales tienen en comn la creacin de mquinas que
pueden "pensar". La idea de construir una mquina que pueda
ejecutar tareas percibidas como requerimientos de inteligencia
humana es un atractivo. Las tareas que han sido estudiadas desde
este punto de vista incluyen juegos, traduccin de idiomas,
comprensin de idiomas, diagnstico de fallas, robtica, suministro de
asesora experta en diversos temas.
Es as como los sistemas de administracin de base de datos cada
vez ms sofisticados, la estructura de datos y el desarrollo de
algoritmos de insercin, borrado y locacin de datos, as como el
intento de crear mquinas capaces de realizar tareas que son
pensadas como tpicas del mbito de la inteligencia humana,
acuaron el trmino Inteligencia Artificial en 1956.
Trabajos tericos fundamentales fueron el desarrollo de algoritmos
matemticos por Warren McCullock y Walter Pitts, en 1943,
necesarios para posibilitar el trabajo de clasificacin, o
funcionamiento en sentido general, de una red neuronal. En 1949
Donald Hebb desarroll un algoritmo de aprendizaje para dichas redes
neuronales creando, en conjunto con los trabajos de McCullock y Pitts,
la escuela creacionista. Esta escuela se considera hoy como el origen
de la Inteligencia Artificial, sin embargo se trat poco por muchos

aos, dando paso al razonamiento simblico basado en reglas de


produccin, lo que se conoce como sistemas expertos.

1. QU ES LA INTELIGENCIA ARTIFICIAL?
Hemos proclamado que la IA es excitante, pero no hemos dicho
qu es. La Figura 1.1 presenta definiciones de inteligencia
artificial extradas de ocho libros de texto. Las que aparecen en
la parte superior se refieren a procesos mentales y al
razonamiento, mientras que las de la parte inferior aluden a la
conducta.
Las definiciones de la izquierda miden el xito en trminos de la
fidelidad en la forma de actuar de los humanos, mientras que
las de la derecha toman como referencia un concepto ideal de
inteligencia, que llamaremos racionalidad.
Un sistema es racional si hace lo correcto, en funcin de su
conocimiento.
A lo largo de la historia se han seguido los cuatro enfoques
mencionados. Como es de esperar, existe un enfrentamiento
entre los enfoques centrados en los humanos y los centrados en
torno a la racionalidad. El enfoque centrado en el
comportamiento humano debe ser una ciencia emprica, que
incluya hiptesis y confirmaciones mediante experimentos. El
enfoque racional implica una combinacin de matemticas e
ingeniera. Cada grupo al mismo tiempo ha ignorado y ha
ayudado al otro. A continuacin revisaremos cada uno de los
cuatro enfoques con ms detalle.

1.1. Comportamiento Humano: El Enfoque de la Prueba


de Turing
La Prueba de Turing, propuesta por Alan Turing (1950), se
dise para proporcionar una definicin operacional y
satisfactoria de inteligencia. En vez de proporcionar una
lista larga y quiz controvertida de cualidades necesarias
para obtener inteligencia artificialmente, l sugiri una
prueba basada en la incapacidad de diferenciar entre
entidades inteligentes indiscutibles y seres humanos. El
computador supera la prueba si un evaluador humano no
es capaz de distinguir si las respuestas, a una serie de
preguntas planteadas, son de una persona o no. En el
Captulo 26 se comentan detalles de esta prueba y se
discute si un computador que supera la prueba es
realmente inteligente. Hoy por hoy, podemos decir que
programar un computador para que supere la prueba
requiere un trabajo considerable. El computador debera
poseer las siguientes capacidades:

Procesamiento de lenguaje natural que le permita


comunicarse satisfactoriamente en ingls.
Representacin del conocimiento para almacenar lo
que se conoce o siente.

Razonamiento automtico para utilizar la informacin


almacenada para responder a preguntas y extraer
nuevas conclusiones.
Aprendizaje automtico para adaptarse a nuevas
circunstancias y para detectar y extrapolar patrones.

La Prueba de Turing evit deliberadamente la interaccin


fsica directa entre el evaluador y el computador, dado
que para medir la inteligencia es innecesario simular
fsicamente a una persona. Sin embargo, la llamada
Prueba Global de Turing incluye una seal de vdeo que
permite al evaluador valorar la capacidad de percepcin
del evaluado, y tambin le da la oportunidad al evaluador
de pasar objetos fsicos a travs de una ventanita.
Para superar la Prueba Global de Turing el computador
debe estar dotado de:

Visin computacional para percibir objetos.


Robtica para manipular y mover objetos.

Estas seis disciplinas abarcan la mayor parte de la IA, y


Turing merece ser reconocido por disear una prueba que
se conserva vigente despus de 50 aos. Los
investigadores del campo de la IA han dedicado poco
esfuerzo a la evaluacin de sus sistemas con la Prueba de
Turing, por creer que es ms importante el estudio de los
principios en los que se basa la inteligencia que duplicar
un ejemplar. La bsqueda de un ingenio que volara
artificialmente tuvo xito cuando los hermanos Wright,
entre otros, dejaron de imitar a los pjaros y
comprendieron los principios de la aerodinmica. Los
textos de ingeniera aerodinmica no definen el objetivo
de su campo como la construccin de mquinas que
vuelen como palomas de forma que puedan incluso
confundir a otras palomas.
1.2. Pensar como un humano: El Enfoque del Modelo
Cognitivo
Para poder decir que un programa dado piensa como un
humano, es necesario contar con un mecanismo para
determinar cmo piensan los humanos. Es necesario
penetrar en el funcionamiento de las mentes humanas.

Hay dos formas de hacerlo: mediante introspeccin


(intentando atrapar nuestros propios pensamientos
conforme
stos
van
apareciendo)
y
mediante
experimentos psicolgicos. Una vez se cuente con una
teora lo suficientemente precisa sobre cmo trabaja la
mente, se podr expresar esa teora en la forma de un
programa de computador.
Si los datos de entrada/salida del programa y los tiempos
de reaccin son similares a los de un humano, existe la
evidencia de que algunos de los mecanismos del
programa se pueden comparar con los que utilizan los
seres humanos.
Por ejemplo, a Allen Newell y Herbert Simon, que
desarrollaron el Sistema de Resolucin General de
Problemas (SRGP) (Newell y Simon, 1961), no les bast
con que su programa resolviera correctamente los
problemas propuestos. Lo que les interesaba era seguir la
pista de las etapas del proceso de razonamiento y
compararlas con las seguidas por humanos a los que se
les enfrent a los mismos problemas. En el campo
interdisciplinario de la ciencia cognitiva convergen
modelos computacionales de IA y tcnicas experimentales
de psicologa intentando elaborar teoras precisas y
verificables sobre el funcionamiento de la mente humana.
La ciencia cognitiva es un campo fascinante, merecedor
de una enciclopedia dedicada a ella (Wilson y Keil, 1999).
En este libro no se intenta describir qu se conoce de la
cognicin humana. Ocasionalmente se hacen comentarios
acerca de similitudes o diferencias entre tcnicas de IA y
cognicin humana. La autntica ciencia cognitiva se
fundamenta
necesariamente
en
la
investigacin
experimental en humanos y animales, y en esta obra se
asume que el lector slo tiene acceso a un computador
para experimentar.
En los comienzos de la IA haba confusin entre las
distintas aproximaciones: un autor podra argumentar que
un algoritmo resolva adecuadamente una tarea y que por
tanto era un buen modelo de representacin humana, o
viceversa. Los autores actuales hacen diferencia entre las
dos reivindicaciones; esta distincin ha permitido que
ambas disciplinas, IA y ciencia cognitiva, se desarrollen

ms
rpidamente.
Los
dos
campos
continan
alimentndose entre s, especialmente en las reas de la
visin y el lenguaje natural.
En particular, el campo de la visin ha avanzado
recientemente con la ayuda de una propuesta integrada
que tiene en cuenta la evidencia neurofisiolgica y los
modelos computacionales.
1.3.
Pensamiento racional:
Leyes del Pensamiento

El

Enfoque

de

las

El filsofo griego Aristteles fue uno de los primeros en


intentar codificar la manera correcta de pensar, es
decir, un proceso de razonamiento irrefutable. Sus
silogismos
son
esquemas
de
estructuras
de
argumentacin mediante las que siempre se llega a
conclusiones correctas si se parte de premisas correctas
(por ejemplo: Scrates es un hombre; todos los hombres
son mortales; por lo tanto Scrates es mortal). Estas
leyes de pensamiento supuestamente gobiernan la
manera de operar de la mente; su estudio fue el inicio de
un campo llamado lgica.
Estudiosos de la lgica desarrollaron, en el siglo XIX, una
notacin precisa para definir sentencias sobre todo tipo de
elementos del mundo y especificar relaciones entre ellos
(comprese esto con la notacin aritmtica comn, que
prcticamente slo sirve para representar afirmaciones
acerca de la igualdad y desigualdad entre nmeros). Ya en
1965 existan programas que, en principio, resolvan
cualquier problema resoluble descrito en notacin lgica.
La llamada tradicin logista dentro del campo de la
inteligencia artificial trata de construir sistemas
inteligentes a partir de estos programas.
Este enfoque presenta dos obstculos. No es fcil
transformar conocimiento informal y expresarlo en los
trminos formales que requieren de notacin lgica,
particularmente cuando el conocimiento que se tiene es
inferior al 100 por 100. En segundo lugar, hay una gran
diferencia entre poder resolver un problema en
principio y hacerlo en la prctica. Incluso problemas con
apenas una docena de datos pueden agotar los recursos

computacionales de cualquier computador a menos que


cuente con alguna directiva sobre los pasos de
razonamiento que hay que llevar a cabo primero. Aunque
los dos obstculos anteriores estn presentes en todo
intento
de
construir
sistemas
de
razonamiento
computacional, surgieron por primera vez en la tradicin
lgica.
1.4.
Actuar de forma racional: El Enfoque del
Agente Racional
Un agente es algo que razona (agente viene del latn
agere, hacer). Pero de los agentes informticos se espera
que tengan otros atributos que los distingan de los
programas convencionales, como que estn dotados de
controles autnomos, que perciban su entorno, que
persistan durante un perodo de tiempo prolongado, que
se adapten a los cambios, y que sean capaces de alcanzar
objetivos diferentes. Un agente racional es aquel que
acta con la intencin de alcanzar el mejor resultado o,
cuando hay incertidumbre, el mejor resultado esperado.
En el caso del enfoque de la IA segn las leyes del
pensamiento, todo el nfasis se pone en hacer
inferencias correctas. La obtencin de estas inferencias
correctas puede, a veces, formar parte de lo que se
considera un agente racional, ya que una manera racional
de actuar es llegar a la conclusin lgica de que si una
accin dada permite alcanzar un objetivo, hay que llevar a
cabo dicha accin. Sin embargo, el efectuar una inferencia
correcta no depende siempre de la racionalidad, ya que
existen situaciones para las que no hay nada correcto que
hacer y en las que hay que tomar una decisin. Existen
tambin formas de actuar racionalmente que no implican
realizar inferencias. Por ejemplo, el retirar la mano de una
estufa caliente es un acto reflejo mucho ms eficiente que
una respuesta lenta llevada a cabo tras una deliberacin
cuidadosa.
Todas las habilidades que se necesitan en la Prueba de
Turing deben permitir emprender acciones racionales. Por
lo tanto, es necesario contar con la capacidad para
representar el conocimiento y razonar basndonos en l,
porque ello permitir alcanzar decisiones correctas en una

amplia gama de situaciones. Es necesario ser capaz de


generar sentencias comprensibles en lenguaje natural, ya
que el enunciado de tales oraciones permite a los agentes
desenvolverse en una sociedad compleja. El aprendizaje
no se lleva a cabo por erudicin exclusivamente, sino que
profundizar en el conocimiento de cmo funciona el
mundo facilita la concepcin de estrategias mejores para
manejarse en l.
La percepcin visual es necesaria no slo porque ver es
divertido, sino porque es necesaria para poder tener una
idea mejor de lo que una accin puede llegar a
representar, por ejemplo, el ver un delicioso bocadillo
contribuir a que nos acerquemos l. Por esta razn, el
estudiar la IA desde el enfoque del diseo de un agente
racional ofrece al menos dos ventajas. La primera es ms
general que el enfoque que proporcionan las leyes del
pensamiento, dado que el efectuar inferencias correctas
es slo uno de los mecanismos existentes para garantizar
la racionalidad. La segunda es ms afn a la forma en la
que se ha producido el avance cientfico que los enfoques
basados en la conducta o pensamiento humano, porque la
norma de la racionalidad est claramente definida y es de
aplicacin general. Por el contrario, la conducta humana
se adapta bien a un entorno especfico, en parte, es
producto de un proceso evolutivo complejo, en gran
medida desconocido, que an est lejos de llevarnos a la
perfeccin. Por tanto, esta obra se centrar en los
principios generales que rigen a los agentes racionales y
en los elementos necesarios para construirlos.
Ms adelante quedar patente que a pesar de la aparente
facilidad con la que se puede describir un problema,
cuando se intenta resolver surgen una enorme variedad
de cuestiones. Un elemento importante a tener en cuenta
es el siguiente: ms bien pronto que tarde se observar
cmo obtener una racionalidad perfecta (hacer siempre lo
correcto) no es posible en entornos complejos. La
demanda computacional que esto implica es demasiado
grande. En la mayor parte de esta obra se adoptar la
hiptesis de trabajo de que la racionalidad perfecta es un
buen punto de partida para el anlisis. Lo cual simplifica el

problema y proporciona el escenario base adecuado sobre


el que se asientan los cimientos de este campo.
2. MATEMTICAS (APROXIMADAMENTE DESDE EL AO 800
AL PRESENTE)
Los filsofos delimitaron las ideas ms importantes de la
IA, pero para pasar de ah a una ciencia formal es
necesario contar con una formulacin matemtica en tres
reas fundamentales: lgica, computacin y probabilidad.
(1815-1864):
George
Boole
defini
la
lgica
proposicional o Booleana inicindose as el desarrollo
matemtico de la lgica formal
1879, Gottlob Frege extendi la lgica de Boole para
incluir objetos y relaciones, y cre la lgica de primer
orden que se utiliza hoy como el sistema ms bsico de
representacin de conocimiento no se ha aceptado
universalmente
(1902-1983) Alfred Tarski introdujo una teora de
referencia que ensea cmo relacionar objetos de una
lgica con objetos del mundo real. El paso siguiente
consisti en definir los lmites de lo que se poda hacer
con la lgica y la informtica.

BOOLE
2.1. Algoritmo:
Se piensa que el primer algoritmo no trivial es el
algoritmo Eucldeo para el clculo del mximo comn
divisor. El considerar los algoritmos como objetos en s
mismos se remonta a la poca de Khowarazmi, Boole,
entre otros, present algoritmos para llevar a cabo
deducciones lgicas y hacia el final del siglo XIX se

llevaron a cabo numerosos esfuerzos para formalizar el


razonamiento mate- mtico general con la lgica
deductiva.
1900, David Hilbert present una lista de 23 problemas
que acertadamente predijo ocuparan a los matemticos
durante todo ese siglo. En el ltimo de ellos se
preguntaba si existe un algoritmo que permita determinar
la validez de cualquier proposicin lgica en la que
aparezcan nmeros naturales (el famoso Entscheidungs
problem, o problema de decisin).Bsicamente, lo que
Hilbert se preguntaba es si hay lmites fundamentales en
la capacidad de los procedimientos efectivos de
demostracin.
1930, Kurt Gdel
demostr que existe un
procedimiento eficiente para demostrar cualquier
aseveracin verdadera en la lgica de primer orden de
Frege y Russell, sin embargo con la lgica de primer orden
no era posible capturar el principio de induccin
matemtica necesario para la caracterizacin de los
nmeros naturales.

2.2. Teorema de Incompletitud:


1931 Teorema de incompletitud: en cualquier lenguaje
que tuviera la capacidad suficiente para expresar las
propiedades
de
los
nmeros
naturales,
existen
aseveraciones verdaderas no decidible en el sentido de
que no es posible decidir su validez mediante ningn
algoritmo.
Existen algunas funciones de los nmeros enteros que no
se pueden representar mediante un algoritmo, es decir
no se pueden calcular.

Lo anterior llev a Alan Turing (1912-1954) discrep con


esta teora afirmando que la mquina de Turing (Turing,
1936) es capaz de calcular cualquier funcin computable,
goza de aceptacin generalizada ya que proporciona una
definicin suficiente. Turing tambin demostr que existen
algunas funciones que no se pueden calcular mediante la
mquina de Turing.
2.3. Teorema de Intratabilidad:
Un problema es intratable si el tiempo necesario para la
resolucin de casos particulares de dicho problema crece
exponencialmente con el tamao de dichos casos. La
nocin de intratabilidad tuvo repercusiones ms
importantes.
La diferencia entre crecimiento polinomial y exponencial
de la complejidad se destac por primera vez a mediados
de los aos 60 (Cobham, 1964; Edmonds, 1965). Es
importante porque un crecimiento exponencial implica la
imposibilidad de resolver casos moderadamente grandes
en un tiempo razonable. Por tanto, se debe optar por
dividir el problema de la generacin de una conducta
inteligente en sub-problemas que sean tratables en vez
de manejar problemas intratables.

2.4. Teorema de NP-Completitud:


La teora de la NP-completitud, se propuso para reconocer
un problema intratable por primera vez por Steven Cook
(1971) y Richard Karp (1972 Cook y Karp demostraron la
existencia de grandes clases de problemas de
razonamiento y bsqueda combinatoria cannica que son
NP completos. Toda clase de problema a la que la clase de
problemas NP completos se pueda reducir ser
seguramente intratable.
2.5. Teorema de Probabilidad:
Es la tercera gran contribucin de las matemticas a la
IA. El italiano Gerolamo Cardano (1501-1576) fue el
primero en proponer la
idea de probabilidad,
presentndola en trminos de los resultados de juegos de
apuesta. La probabilidad se convirti pronto en parte

imprescindible de las ciencias cuantitativas, ayudando en


el tratamiento de mediciones con incertidumbre y de
teoras incompletas. Pierre Fermat, Blaise Pascal, James
Bernoulli, Pierre Laplace, entre otros, hicieron avanzar
esta teora e introdujeron nuevos mtodos estadsticos.
Thomas Bayes (1702-1761) propuso una regla para la
actualizacin de probabilidades subjetivas a la luz de
nuevas evidencias.
La regla de Bayes y el rea resultante llamado anlisis
Bayesiano conforman la base de las propuestas ms
modernas que abordan el razonamiento incierto en
sistemas de IA.

3. ECONOMA (DESDE EL AO 1776 HASTA EL PRESENTE)


La ciencia de la economa comenz en 1776, cuando el filsofo
escocs Adam Smith public An Inquiri into the Nature and
Causes of the Wealth of Nations; Aunque los antiguos griegos,
entre otros, haban hecho contribuciones al pensamiento
econmico, Smith fue el primero en tratarlo como una ciencia,
utilizando la idea de que las economas pueden concebirse
como un conjunto de agentes individuales que intentan
maximizar su propio estado de bienestar econmico.
La economa estudia cmo la gente toma decisiones que les
llevan a obtener los beneficios esperados.

Lon Walras formaliz el tratamiento matemtico del beneficio


deseado o utilidad, y fue posteriormente mejorado por Frank
Ramsey (1931) y despus por John von Neumann y Oskar
Morgenstern en su libro The Theory of Games and Economic
Behavior (1944).

3.1. Teora de la Decisin:


Combina la teora de la probabilidad con la teora de la
utilidad proporcionando un marco completo y formal para
la toma de decisiones realizadas bajo incertidumbre, esto
es adecuado para grandes economas en las que cada
agente no necesita prestar atencin a las acciones que
lleven a cabo el resto de los agentes individualmente.
3.2. Teora de juegos:
Cuando se trata de pequeas economas, la situacin
se asemeja ms a la de un juego: las acciones de un
jugador pueden afectar significativamente a la utilidad de
otro (tanto positiva como negativamente). Los desarrollos
de von Neumann y Morgenstern a partir de la teora de
juegos (vase tambin Luce y Raiffa, 1957) mostraban el
hecho sorprendente de que, en algunos juegos, un agente
racional deba actuar de forma aleatoria o, al menos,
aleatoria en apariencia con respecto a sus contrincantes.
La gran mayora de los economistas no se preocuparon de
la tercera cuestin mencionada anteriormente, es decir,
cmo tomar decisiones racionales cuando los resultados
de las acciones no son inmediatos y por el contrario se
obtienen los resultados de las acciones de forma
secuencial.

3.3. Investigacin operativa:


Dicho campo emergi en la Segunda Guerra Mundial con
los esfuerzos llevados a cabo en el Reino Unido en la
optimizacin de instalaciones de radar, y posteriormente
en aplicaciones civiles relacionadas con la toma de
decisiones de direccin complejas. El trabajo de Richard
Bellman (1957) formaliza una clase de problemas de
decisin secuencial llamados procesos de decisin de
Markov.
El trabajo en la economa y la investigacin operativa ha
contribuido en gran medida a la nocin de agente racional
que aqu se presenta, aunque durante muchos aos la
investigacin en el campo de la IA se ha desarrollado por
sendas separadas. Una razn fue la complejidad aparente
que trae consigo el tomar decisiones racionales.
3.4. Satisfaccin:
Herbert Simon, uno de los primeros en investigar en el
campo de la IA, gan el premio Nobel en Economa en
1978 por su temprano trabajo, en el que mostr que los
modelos basados en satisfaccin (que toman decisiones
que son suficientemente buenas, en vez de realizar
clculos laboriosos para alcanzar decisiones ptimas)
proporcionaban
una
descripcin
mejor
del
comportamiento humano real (Simon, 1947). En los aos
90, hubo un resurgimiento del inters en las tcnicas de
decisin terica para sistemas basados en agentes
(Wellman, 1995).
4. NEUROCIENCIA
PRESENTE)

(DESDE

EL

AO

1861

HASTA

EL

Es el estudio del sistema neurolgico, y en especial del cerebro.


Se ha observado durante miles de aos que el cerebro est de

alguna manera involucrado en los procesos de pensamiento.


Tambin es ampliamente conocido que los cerebros humanos
son de alguna manera diferentes; aproximadamente en el 335
a.C. Aristteles escribi, de entre todos los animales el hombre
tiene el cerebro ms grande en proporcin a su tamao. A
mediados del siglo XVIII se acept mayoritariamente que el
cerebro es la base de la conciencia.
El estudio de Paul Broca sobre la afasia (dificultad para hablar)
en pacientes con el cerebro daado, en 1861, le dio fuerza a
este campo y convenci a la sociedad mdica de la existencia
de reas localizadas en el cerebro responsables de funciones
cognitivas especficas. En particular, mostr que la produccin
del habla se localizaba en una parte del hemisferio izquierdo;
hoy en da conocida como el rea de Broca.
4.1. Neuronas:
En esta poca se saba que el cerebro estaba formado
por
neuronas, pero no fue hasta 1873 cuando Camillo
Golgi desarroll una tcnica de coloracin que permiti la
observacin de neuronas individuales en el cerebro
.Santiago Ramn y Cajal utiliz esta tcnica es sus
estudios pioneros sobre la estructura neuronal del
cerebro.
Golgi insisti en la creencia de que las funciones
cerebrales se desarrollaron inicialmente en el medio
continuo en el que las neuronas estaban inmersas,
mientras que Cajal propuso la doctrina neuronal. Ambos
compartieron el premio Nobel en 1906 pronunciando un
discurso de aceptacin antagnico.

En la actualidad se dispone de informacin sobre la


relacin existente entre las reas del cerebro y las partes
del cuerpo humano que controlan o de las que reciben
impulsos sensoriales.
Tales relaciones pueden cambiar de forma radical incluso
en pocas semanas, y algunos animales parecen disponer
de mltiples posibilidades. Ms an, no se tiene
totalmente claro cmo algunas reas se pueden encargar
de ciertas funciones que eran responsabilidad de reas
daadas. No hay prcticamente ninguna teora que
explique cmo se almacenan recuerdos individuales.
En 1929 comenzaron los estudios sobre la actividad de los
cerebros
intactos
con
el
descubrimiento
del
electroencefalograma (EEG) desarrollado por Hans Berger.
El reciente descubrimiento de las imgenes de resonancia
magntica funcional (IRMF) (Ogawa et al., 1990) est
proporcionando a los neurlogos imgenes detalladas de
la actividad cerebral sin precedentes, permitindoles
obtener medidas que se corresponden con procesos
cognitivos en desarrollo de manera muy interesante.
Este campo est evolucionando gracias a los avances en
los estudios en celdas individuales y su actividad
neuronal. A pesar de estos avances, nos queda un largo
camino para llegar a comprender cmo funcionan todos
estos procesos cognitivos.
La conclusin es que una coleccin de simples clulas
puede llegar a generar de razonamiento, accin, y
conciencia o, dicho en otras palabras, los cerebros
generan las inteligencias (Searle, 1992).
4.2. Misticismo:
Es la nica teora alternativa a la neuronal: que nos dice
que existe alguna esfera mstica en la que las mentes
operan fuera del control de la ciencia fsica.
Cerebros y computadores digitales realizan tareas
bastante diferentes y tienen pro- piedades distintas.
La Figura muestra cmo hay 1.000 veces ms neuronas
en un cerebro humano medio que puertas lgicas en la
CPU de un computador estndar.

La ley de Moore9 predice que el nmero de puertas


lgicas de la CPU se igualar con el de neuronas del
cerebro alrededor del ao 2020.
Los circuitos de los computadores pueden ejecutar una
instruccin en un nanosegundo, mientras que las
neuronas son millones de veces ms lentas.
Las neuronas y las sinapsis del cerebro estn activas
simultneamente, mientras que los computadores
actuales tienen una o como mucho varias UCP. Por tanto,
incluso sabiendo que un computador es un milln de
veces ms rpido en cuanto a su velocidad de
intercambio, el cerebro acaba siendo 100.000 veces ms
rpido en lo que hace.

5.
PSICOLOGA (DESDE EL AO 1879 HASTA EL
PRESENTE)
La psicologa cientfica se inici con los trabajos del fsico
alemn Hermann von Helmholtz y su discpulo Wilhelm Wundt.
Helmholtz aplic el mtodo cientfico al estudio de la vista
humana, y su obra Handbook of Physiological Optics se
considera como el tratado actual ms importante sobre la
fsica y la fisiologa de la vista humana.
En 1879, Wundt abri el primer laboratorio de psicologa
experimental en la Universidad de Leipzig.

Unidades
computacionales
Unidades de
Almacenamiento

Computador

Cerebro Humano

1 UCP, 108 puertas


1010 bits RAM

1011 neuronas
1011 neuronas
1014 sinapsis

1011 bits disco


10-9 sec

10-3 sec
1014 bits/sec

Duracin de un
1010 bits/sec
ciclo Ancho de
1014
109
banda
Memoria
actualizacin/sec
Figura
1.3 Comparacin bsica entre los recursos de cmputo
generales de que disponen los computadores (circa 2003) y el
cerebro. Las cifras correspondientes a los computadores se han
incrementado en al menos un factor 10 desde la primera
edicin de este libro, y se espera que suceda la mismo en esta
dcada. Las cifras correspondientes al cerebro no han
Wundt puso mucho nfasis en la realizacin de experimentos
controlados cuidadosamente en la que sus operarios realizaban
tareas de percepcin o asociacin al tiempo que sometan a
introspeccin sus procesos mentales.
Los meticulosos controles evolucionaron durante un largo
perodo de tiempo hasta convertir la psicologa en una ciencia,
pero la naturaleza subjetiva de los datos hizo poco probable que
un investigador pudiera contradecir sus propias teoras.
Bilogos, estudiando el comportamiento humano, por el
contrario, carecan de datos introspectivos y desarrollaron una
metodologa objetiva, tal y como describe H. S. Jennings (1906)
en su influyente trabajo Behavior of the Lower Organisms.
5.1. Conductismo:

El movimiento conductista, liderado por John Watson


aplic este punto de vista a los humanos, rechazando
cualquier teora en la que intervinieran procesos
mentales, argumentando que la introspeccin no aportaba
una evidencia fiable.
Los conductistas insistieron en el estudio exclusivo de
mediciones objetivas de percepciones (o estmulos) sobre
animales y de las acciones resultantes (o respuestas).
El conductismo hizo muchos descubrimientos utilizando
ratas y palomas, pero tuvo menos xito en la comprensin
de los seres humanos. Aun as, su influencia en la
psicologa fue notable (especialmente en Estados Unidos)
desde aproximadamente 1920 hasta 1960.
5.2. Psicologa Conectiva:
La conceptualizacin del cerebro como un dispositivo de
procesamiento de informacin, caracterstica principal de
la psicologa cognitiva, se remonta por lo menos a las
obras de William James (1842-1910). Helmholtz tambin
pone nfasis en que la percepcin entraa cierto tipo de
inferencia lgica inconsciente. Este punto de vista
cognitivo se vio eclipsado por el conductismo en Estados
Unidos, pero en la Unidad de Psicologa Aplicada de
Cambridge, dirigida por Frederic Bartlett (1886-1969), los
modelos cognitivos emergieron con fuerza. La obra The
Nature of Explanation, de Kenneth Craik (1943), discpulo
y sucesor de Bartlett, reestablece enrgicamente la
legitimidad de trminos mentales como creencias y
objetivos, argumentando que son tan cientficos como lo
pueden ser la presin y la temperatura cuando se habla
acerca de los gases, a pesar de que stos estn formados
por molculas que no tienen ni presin ni temperatura.
Craik establece tres elementos clave que hay que tener
en cuenta para disear un agente basado en
conocimiento: (1) el estmulo deber ser traducido a una
representacin interna, (2) esta representacin se debe
manipular mediante procesos cognitivos para as generar
nuevas representaciones internas, y (3) stas, a su vez, se
traducirn de nuevo en acciones. Dej muy claro por qu
consideraba que estos eran los requisitos idneos para
disear un agente:
Si el organismo tiene en su cabeza un modelo a pequea
escala de la realidad externa y de todas sus posibles

acciones, ser capaz de probar diversas opciones, decidir


cul es la mejor, planificar su reaccin ante posibles
situaciones futuras antes de que stas surjan, emplear lo
aprendido de experiencias pasadas en situaciones
presentes y futuras, y en todo momento, reaccionar ante
los imprevistos que acontezcan de manera satisfactoria,
segura y ms competente (Craik, 1943).
5.3. Ciencia cognitiva:
En
Estados Unidos el desarrollo del modelo
computacional llevo a la creacin del campo de la ciencia
cognitiva. Se puede decir que este campo comenz en un
simposio celebrado en el MIT, en septiembre de 1956. En
este simposio, George Miller present The Magic Number
Seven, Noam Chomsky present Three Models of
Language, y Allen Newell y Herbert Simon presentaron
The Logic Theory Machine. Estos tres artculos influyentes
mostraron cmo se podan utilizar los modelos
informticos para modelar la psicologa de la memoria, el
lenguaje y el pensamiento lgico, respectivamente. Los
psiclogos comparten en la actualidad el punto de vista
comn de que la teora cognitiva debe ser como un
programa de computador (Anderson, 1980), o dicho de
otra
forma,
debe
describir
un
mecanismo
de
procesamiento de informacin detallado, lo cual lleva
consigo la implementacin de algunas funciones
cognitivas.

6. HISTORIA DE LA INTELIGENCIA ARTIFICIAL


6.1. Gnesis de la inteligencia artificial (1943- 1955)
Warren Mc Culloch y Walter Pitts, autores del primer
trabajo de IA, partieron de 3 fuentes: filosofa bsica y
funcionamiento de las neuronas, el anlisis formal de la
lgica proposicional de Russell y la teora de la
computacin de Turing; dando entonces un modelo
armado de neuronas artificiales donde cada una de sus
partes estaba o activada o desactivada.
Demostrando entonces que cualquier funcin de cmputo
podra calcularse mediante red de neuronas, esto incluye
tambin a todos los conectores lgicos.

6.2. Nacimiento de la inteligencia artificial (1956)


Allen Newell y Herbert Simon acapararon la atencin por
aquel entonces con un programa de razonamiento, el TL o
Terico Lgico, con el que afirmaban haber inventado un
programa de computacin capas de pensar de manera no
numrica.
Si bien no se produjo ningn avance notable en este corto
periodo, sirvi para que a futuro se separe el campo de
estudio apodndolo con el nombre de Inteligencia
Artificial.
6.3. Entusiasmo
1969)

inicial,

grandes

esperanzas

(1952-

Aunque con ciertas limitaciones, los primeros aos de la


IA estuvo lleno de avances y xitos; cave recalcar que
para aquellos aos los computadores eran considerados
solo como artefactos de clculos aritmticos solamente, y
la idea de hacer que un computador de aquel entonces
hiciese algo inteligente era simplemente sorprendente.
Seguido al xito de Newell y Simon se sum el SRGP
(Sistema de Resolucin General de Problemas) que a
diferencia de TL y con su limitado nmero de puzles que
poda manejar era el nico programa que consideraba que
los subobjetivos y las posibles acciones eran idnticas a la
manera en que los humanos abordaban el mismo
problema, en otras palabras SRGP fue posiblemente el
primer programa que incorporo el enfoque de la forma de
pensar del humano. Gracias al xito de SRGP Newell y
Simon formularon la hiptesis de sistema de smbolos
fsicos.
En 1958 McCarthy defini el lenguaje de Lisp, que se
convertira en el lenguaje de programacin dominante de
la IA; tambin para el mismo ao public el artculo
Programs with Common Sense donde describa el
Generador de Consejos, el cual al igual que el TL o el
SRGP se poda considerar como un sistema de IA
completo, tal programa se dise para aceptar nuevos
axiomas durante el curso de operacin permitindole
entonces competir en reas nuevas sin la necesidad de
ser reprogramado.

6.4. Una dosis de realidad (1966 - 1973)


Surgieron 3 tipos de problemas, la primera de ellas surgi
porque los primeros programas contaban con poco o
ningn conocimiento de la materia objeto de estudio;
pues
obtenan
resultados
gracias
a
sencillas
manipulaciones sintcticas.
El segundo problema era debido a que muchos de los
problemas que intentaban resolver eran simplemente
imposibles o intratables. La mayora de los programas de
IA resolvan problemas experimentando con varios pasos
hasta hallar la solucin, pero esto solo era posible debido
a que los micromundos con los que trataban incluan
pocos objetos, por ende pocas acciones posibles y
entonces soluciones cortas.
El tercer problema se deriva de las limitaciones inherentes
a las estructuras bsicas usadas en la generacin de la
inteligencia artificial. Si bien era posible lograr que una
red neuronal aprendiera cualquier cosa que pudiese
representar, su capacidad de representacin era
simplemente muy limitada.
6.5. Sistemas basados en el conocimiento (1969 - 1979)
Durante la primera dcada de investigacin de IA se
buscaba desarrollar mecanismos de bsqueda de
propsito general, en los que se entrelazaban elementos
de razonamiento bsicos para encontrar soluciones
completas (denominado ahora como mtodos dbiles);
sin embargo el esquema cambio al uso de conocimiento
especfico del dominio con el fin de facilitar el desarrollo
de las etapas de conocimiento; afirmando de tal manera
que para resolver un problema en la prctica es necesario
saber de antemano la respuesta.
El programa DENDRAL, diseado en Stanford bajo la mano
de Ed Feigenbaum, Joshua Lederberg y Bruce Buchanan,
constituye uno de los primeros ejemplos de este nuevo
enfoque al dar solucin al problema de interferir en la
estructura molecular a partir de la informacin
proporcionada por un espectrmetro de masas.

Esto trajo consigo una nueva metodologa, la de los


sistemas expertos, con la que Feigenbaum demostr que
esta nueva visin podra ser aplicada a otras reas de la
actividad humana; y asi fue, MYCIN fue un programa
diseado por Feigenbaum y Edward Shortiffe que era
capaz de hacer diagnsticos de infecciones sanguneas,
diagnsticos que de buenas a primeras eran tan buenos
como las de un experto.
6.6. La IA se convierte en una industria (1980 presente)
RI (1982), el primer sistema experto comercial tuvo xito,
el programa era usado en la elaboracin de pedidos de
nuevos sistemas informticos, representando para la
compaa un ahorro estimado de 40 millones de dlares
anuales. Esto inspiro a compaas importantes de Estados
Unidos a contar con su propio equipo de IA en la que se
utilizaban o se investigaban sistemas expertos.
En conjunto, la industria creci tan rpido que pas desde
1980 de millones de dlares a billones de dlares a fines
de la dcada de los 80. Sin embargo poco despus llego
un periodo de estancamiento que afect a muchas
empresas pues no fueron capaces de desarrollar los
sistemas extravagantes que haban prometido.
6.7. Regreso de las redes neuronales (1986 - presente)
Si bien a finales de los aos 70 se abandon el campo de
las redes neuronales, estas regresaron gracias al trabajo
de fsicos como John Hopfield, que utilizaron tcnicas de la
mecnica estadstica para analizar las propiedades de
almacenamiento y optimizacin de las redes.
Mientras tanto psiclogos como Rumelhart y Hinton
continuaron con el estudio de memoria basados en redes
neuronales y ya para mediados de la dcada de los 80
haban al menos cuatro grupos reinventando el algoritmo
de aprendizaje de retroalimentacin. El algoritmo se
aplic a diversos problemas de aprendizaje en los campos
de informtica y psicologa arrojando resultados ms que
aceptables, lo que suscit gran entusiasmo para el retorno
de las redes neuronales.
6.8. IA se convierte en una ciencia (1987 - presente)

Se puede decir con rotundidad que la IA forma ya parte


del mbito de los mtodos cientficos, para que se
acepten hiptesis se deben someter a rigurosos
experimentos empricos y los resultados deben analizarse
estadsticamente para identificar su relevancia.
Las redes neuronales tambin siguen la misma
trayectoria, la mayor parte del trabajo realizado por redes
neuronales se realiz con la idea de dejar de lado lo que
se podra hacer y de descubrir en que se diferenciaban las
redes neuronales de las otras tcnicas. La utilizacin de
metodologas mejoradas y marcos tericos han autorizado
a este campo alcanzar un grado de conocimiento tal que
le ha permitido ser comparado con otras tcnicas tales
como la estadstica, el reconocimiento de patrones y el
aprendizaje automtico.
Despus de todo, actualmente es ms usual el desarrollo
sobre teoras ya existentes que el proponer teoras
nuevas, tomar como base rigurosos teoremas que
experimentar con la intuicin.
6.9. Emergencia de los sistemas inteligentes (1995 presente)
Debido al proceso y la revolucin de subproblemas de la
IA, los investigadores han estado trabajando de nuevo en
el problema del agente total; trabajos como los de Allen
Newell, John Laird y Paul Rosenbloom en SOAR es el
ejemplo mejor conocido de una arquitectura de agente
completa. Desde esta valla o ao se intenta entender la
forma de actuar de los agentes inmersos en entornos
reales donde se disponen de sensores de entradas
continuas, siendo el medio ms importante Internet;
ejemplos hay tantos que incluso se acuo un trmino ante
las ya comunes aplicaciones desarrolladas para la Web:
bot.
7. Entusiasmo inicial, grandes esperanzas (1952-1969):
Si bien los inicios de la IA contaron con ciertas limitaciones,
tambin estuvieron llenos de logros. Las limitaciones fueron
ms por el pensamiento que se tena en esa poca, ya que se

crea que los fines que podan abarcar las computadoras eran
muy cerrados y restringidos como por ejemplo, solucionar
problemas aritmticos.
Como ya se mencion anteriormente, tambin hubo logros
demostrando as que las computadoras podan hacer ms de lo
que se crea.; es por eso que John McCarthy, un excelente
informtico quien fue el que introdujo el trmino de
inteligencia artificial y que recibi el Premio Turing por sus
contribuciones en esa rea en 1971, se refiere a esa poca
inicial como la era de Mira, mam, ahora sin manos!
A continuacin surgi el sistema de resolucin general de
problemas o SRGP con Newell y Simon, que se puede decir que
fue el primer programa que introdujo este pensamiento: pensar
como humano. Ya que tena el objetivo de imitar protocolos de
resolucin de problemas de los seres humanos. Luego del SRGP,
Newell y Simon formulan la hiptesis del sistema de smbolos
fsicos donde se deca que este sistema era capaz de generar
una accin inteligente. Y adems ellos, queran mostrar una
estructura de datos de smbolo que simule inteligencia.
Por el ao 1958, John McCarthy cre el lenguaje Lisp, que es un
lenguaje de alto nivel basado en el proceso de listas. Asimismo,
invent el Generador de Consejos donde mostraba axiomas que
permitan generar una ruta hasta el aeropuerto y abordar un
avin. Lo que hizo que el Generador de Consejos pueda
considerarse como el primer sistema completo de IA es que no
necesitaba reprogramacin para aceptar nuevos axiomas
durante el transcurso de la operacin.
Luego aparece el trmino de micromundos, que se referan a
dominios limitados que hacan referencia a un nmero de
problemas limitados, hechos por los estudiantes de Marvin
Minsky y supervisados por l, donde se crea que se necesitaba
inteligencia para solucionarlos. El micromundo ms famoso es
el mundo de los bloques donde, con la ayuda de la mano de un
robot, se tena que reordenar bloques slidos sobre una mesa.
7.1. Una dosis de realidad (1966-1973):
En esta etapa, surgieron problemas para el campo de la
IA; el primer problema fue el poco o nulo conocimiento de
las materias de objeto de estudio con los que contaban la
mayora de los programas. Por ejemplo, se quiso trabajar

en la traduccin automtica por parte del Consejo


Nacional de tal manera que se pueda traducir artculos
cientficos rusos; pero se termin cancelando este
proyecto ya que para la traduccin era necesario un
conocimiento ms general, adems del control de las
ambigedades entre los idiomas.
Otro problema que se presento fue que se estaba
tratando de dar solucin a problemas que no la tenan
mediante la IA. Si bien inicialmente no haba muchos
inconvenientes ya que se trabajaba con pocos objetos y
adems soluciones cortas en los micromundos, pero al
querer solucionar problemas ms grandes, era muy difcil
debido a que se necesitaba hardware ms sofisticado, con
mayor velocidad y memoria.
El tercer obstculo con que tuvo que tratan la IA fue con
las limitaciones que incluan las estructuras bsica
utilizadas para la simulacin de conducta inteligente. Un
ejemplo referente a esto son los perceptrones (red
neuronal simple) de Minsky y Papert que aprendan todo
lo que representaban pero esta capacidad de
representacin era demasiado limitada ya que cuando se
no era capaz de identificar cul era su entrada cuando el
perceptron tena dos entradas.
7.2. Sistemas basados en el conocimiento: clave del
poder? (1969-1979)
Mtodos dbiles se conoce a los procedimientos que usan
elementos del razonamiento bsico centrndose en el
desarrollo de mecanismos de bsqueda de propsito
general. Pero existe una alternativa que s permite
resolver casos recurrentes en dominios de conocimiento
restringido que es el conocimiento especfico del dominio;
y que adems hace ms fcil el desarrollo de etapas
largas de razonamiento.
Un ejemplo de este enfoque fue el programa DENTRAL
diseado por Stanford que permita inferir una estructura
molecular mediante informacin que les brindaba un
espectro de masas. La importancia de este programa
radica en que fue el primer exitoso sistema de
conocimiento intenso.
Luego se dio inicio al Proyecto de Programacin Heurstica
(PPH) que estaba orientado a determinar el grado en el

que la nueva metodologa de los sistemas expertos poda


ser aplicada en otras reas de la actividad humana. Lo
que dio como consecuencia el programa MYCIN diseado
por Feigenbaum, Buchanan y Shortliffe. MYCIN contaba
con alrededor de 450 reglas, adems de factores de
certeza, para el diagnstico de infecciones sanguneas
dando productivos resultados, ya que sus diagnsticos
eran igual de buenos que un experimentado en la
materia.
Era evidente el crecimiento de aplicaciones que permitan
dar solucin a problemas del mundo real que se produjo
un incremento en la demanda de esquemas que permitan
representar el conocimiento. Por tal motivo, aparecieron
ms lenguajes de representacin como es el caso de
Prolog que estaba basado en la lgica.
8. LA IA se convierte en una industria (desde 1980 hasta el
presente).
El primer sistema experto comercial, se utilizaba en la
elaboracin de pedidos de nuevos sistemas informticos. En el
ao 1988 ya se haban distribuido 40 sistemas expertos por el
grupo de Inteligencia Artificial de DEC y haba ms en camino,
generando as mayor ahorro de cientos de dlares anuales
aproximadamente. La gran mayora de las compaas
establecidas en los Estados Unidos, ya contaban con su propio
grupo de IA para hacer uso de los sistemas expertos, como
tambin su investigacin.
Para el ao 1981 los japoneses anunciaron el proyecto
denominado <<Quinta Generacin>> cuyo plan era construir
computadoras inteligentes en donde se pidieran ejecutar Prolog.
Ante este acontecimiento, los Estados Unidos constituy un
consorcio
(Microelectronics
and
Computer
Technology
Corporation) encargado de mantener la competitividad nacional
en el rea de Inteligencia Artificial. Para tales eventos
mencionados, la IA formaba parte de un proyecto que inclua el
diseo de chips y la investigacin de la relacin HombreMquina. Sin embargo, los componentes de IA generados en el
marco de MCC como tambin los generados en el proyecto
Quinta Generacin no pudieron alcanzar sus objetivos.
Como se sabe, la industria de la IA ha avanzado a pasos
agigantados, pasando de unos pocos millones de dlares a
billones de dlares en los aos 80. Poco despus de este

periodo lleg la poca denominada <<El invierno de la IA>>,


dado que afect a muchas empresas porque stas no fueron
capaces de desarrollar los productos que haban prometido.
8.1. Regreso de las Redes Neuronales (Desde 1986
Hasta el Presente)
Si bien es cierto, a partir de los aos 70 la informtica
haba abandonado el campo de las redes neuronales, sin
embargo, la atencin se centr en otros campos como la
mecnica estadstica (anlisis de las propiedades de
almacenamiento y optimizacin de las redes); modelos de
memoria (basados en redes neuronales). En los aos 80,
se
reinvent
el
algoritmo
de
aprendizaje
de
retroalimentacin, mencionado por primera vez en 1969
por Bryson y Ho. Este algoritmo se aplic a diferentes
problemas de aprendizajes tanto en el campo de la
informtica como de la psicologa, y la gran difusin de los
resultados obtenidos, suscit mucho entusiasmo.
Aquellos modelos de IA llamados <<conexionistas>>
fueron en algn momento vistos como competidores para
los modelos simblicos de Newell y tambin para la
aproximacin lgica de McCarthy, entre otros.
8.2. IA se convierte en una ciencia (desde 1987 hasta el
presente)
En estos ltimos aos, el contenido como la metodologa
de trabajo de la IA ha cambiado significativamente. Es mal
usual desarrollar en base a teoras existentes, con solidas
evidencias experimentales y demostrar la utilidad de las
aplicaciones en el mundo real que proponer teoras
novedosas y hacer uso de intuiciones.
(Norvig) Segn el autor La IA se fund en parte en el
marco de una rebelin en contra de las limitaciones de los
campos existentes como la teora de control o la
estadstica, y ahora abarca estos campos.
Tal y como indica David McAllester (1998). En otros
trminos, se puede decir que la IA ya forma parte de los
mtodos cientficos.
Cabe resaltar que un buen modelo de la tendencia actual
es el campo de reconocimiento del habla. Como se sabe,
en la dcada de los 70 se sometieron a prueba a una gran

arquitectura y enfoques. En aos recientes, las


aproximaciones basadas en los modelos de Markov
ocultos, MMO, han pasado a dominar el rea. Este modelo
tiene dos caractersticas relevantes: primero, basada en
una rigurosa teora matemtica y segunda, los modelos se
han generado mediante un proceso de aprendizaje en
grandes corpus de datos de lenguaje reales. Lo cual
hace que la funcionalidad sea robusta, y en sucesivas
pruebas ciegas, los MMO han mejorado sus resultados a
ritmo constante.
Las redes neuronales tambin siguen esta tendencia. La
mayor parte del trabajo con redes neuronales en la
dcada de los 80 se realiz con la idea de dejar a un lado
lo que se poda hacer y de descubrir en qu se
diferenciaban las redes neuronales de otras tcnicas
tradicionales. La utilizacin de metodologas mejoradas
y marcos tericos, ha autorizado que este campo alcance
un grado de conocimiento que ha permitido que ahora las
redes neuronales se puedan comparar con otras tcnicas
similares
de
campos
como
la
estadstica,
el
reconocimiento de patrones y el aprendizaje automtico,
de forma que las tcnicas ms prometedoras pueden
aplicarse a cualquier problema. Como resultado de estos
desarrollos, la tecnologa denominada minera de datos ha
generado una nueva y vigorosa industria.
La aparicin de <<Probabilistic Reasoning in Intlligent
Systems de Judea Pearl (1988), hizo que se aceptara de
nuevo la probabilidad y la teora de la decisin como parte
de la IA. El formalismo de las redes de Bayes apareci
para facilitar la representacin eficiente y el razonamiento
riguroso en situaciones en las que se dispona del
conocimiento incierto. Este enfoque supera de manera
ligera algunos de los sistemas de razonamiento
probabilstico en las dcadas de los 60 y 70; y ahora
domina la investigacin de la IA en el razonamiento
incierto y los sistemas expertos.
8.3. Emergencia de los sistemas inteligentes (desde
1995 hasta el presente)
El gran progreso en la solucin de los subproblemas de IA,
anim a los investigadores a trabajar de nuevo el
problema del <<agente total>>. Paul Rosenbloom y Allen

Newell trabajaron en una arquitectura completa que hasta


la actualidad es conocido como el mejor, el llamado
<<movimiento situado>> intenta entender la forma en
que actan los agentes inmersos en ambientes reales.
Uno de los medios ms importantes para los agentes
inteligentes es el internet. Estos sistemas, son muy
conocidos en las aplicaciones desarrolladas para la web y
tambin son la base de muchas herramientas para
internet, como por ejemplo motores de bsqueda,
sistemas de recomendacin y la construccin de sistemas
para portales web.

RESUMEN
La Inteligencia Artificial surge definitivamente a partir de algunos
trabajos publicados en la dcada de 1940 que no tuvieron gran
repercusin, pero a partir del influyente trabajo en 1950 de Alan
Turing, matemtico britnico, se abre una nueva disciplina de las
ciencias de la informacin. Si bien las ideas fundamentales se
remontan
a
la lgica y algoritmos de
los
griegos,
y
a
las matemticas de los rabes, varios siglos antes de Cristo, el
concepto de obtener razonamiento artificial aparece en el siglo XIV. A
finales del siglo XIX se obtienen lgicas formales suficientemente
poderosas y a mediados del siglo XX, se obtienen mquinas capaces
de hacer uso de tales lgicas y algoritmos de solucin.
La Inteligencia Artificial "naci" en 1943 cuando Warren McCulloch y
Walter Pitts propusieron un modelo de neurona del cerebro humano y
animal. Estas neuronas nerviosas abstractas proporcionaron una
representacin simblica de la actividad cerebral. Ms adelante,
Norbert Wiener elabor estas ideas junto con otras, dentro del mismo
campo, que se llam "ciberntica"; de aqu nacera, sobre los aos 50,
la Inteligencia Artificial.
Los primeros investigadores de esta innovadora ciencia, tomaron
como base la neurona formalizada de McCulloch y postulaban que:
"El cerebro es un solucionador inteligente de
problemas, de modo que imitemos al
cerebro".
Pero si consideramos la enorme complejidad del mismo esto es ya
prcticamente imposible, ni que mencionar que el hardware de la

poca ni el software estaban a la altura para realizar semejantes


proyectos.
Se comenz a considerar el pensamiento humano como una
coordinacin de tareas simples relacionadas entre s mediante
smbolos. Se llegara a la realizacin de lo que ellos consideraban
como los fundamentos de la solucin inteligente de problemas, pero
lo difcil estaba todava sin empezar, unir entre s estas actividades
simples.
Es en los aos 50 cuando se logra realizar un sistema que tuvo cierto
xito, se llam el Perceptrn de Rossenblatt. ste era un sistema
visual de reconocimiento de patrones en el cual se asociaron
esfuerzos para que se pudieran resolver una gama amplia de
problemas, pero estas energas se diluyeron enseguida.
Fue en los aos 60 cuando Alan Newell y Herbert Simon, que
trabajando la demostracin de teoremas y el ajedrez por ordenador
logran crear un programa llamado GPS (General Problem Solver:
solucionador general de problemas). ste era un sistema en el que el
usuario defina un entorno en funcin de una serie de objetos y los
operadores que se podan aplicar sobre ellos. Este programa era
capaz de trabajar con las torres de Hanoi, as como con
criptoaritmtica y otros problemas similares, operando, claro est,
con microcosmos formalizados que representaban los parmetros
dentro de los cuales se podan resolver problemas. Lo que no poda
hacer el GPS era resolver problemas ni del mundo real, ni mdicos ni
tomar decisiones importantes. El GPS manejaba reglas heursticas
(aprender a partir de sus propios descubrimientos) que la conducan
hasta el destino deseado mediante el mtodo del ensayo y el error.
En los aos 70, un equipo de investigadores dirigido por Edward
Feigenbaum comenz a elaborar un proyecto para resolver problemas
de la vida cotidiana o que se centrara, al menos, en problemas ms
concretos. As es como naci el sistema experto.
El primer sistema experto fue el denominado Dendral, un intrprete
de espectrograma de masa construido en 1967, pero el ms
influyente resultara ser el Mycin de 1974. El Mycin era capaz de
diagnosticar trastornos en la sangre y recetar la correspondiente
medicacin, todo un logro en aquella poca que incluso fueron
utilizados en hospitales (como el Puff, variante de Mycin de uso
comn en el Pacific Medical Center de San Francisco, EEUU).

Ya en los aos 80, se desarrollaron lenguajes especiales para utilizar


con la Inteligencia Artificial, tales como el LISP o el PROLOG. Es en
esta poca cuando se desarrollan sistemas expertos ms refinados,
como por el ejemplo el EURISKO. Este programa perfecciona su propio
cuerpo de reglas heursticas automticamente, por induccin.
En 1987 Martin Fischles y Oscar Firschein describieron los atributos de
un agente inteligente. Al intentar describir con un mayor mbito (no
slo la comunicacin) los atributos de un agente inteligente, la IA se
ha expandido a muchas reas que han creado ramas de investigacin
enorme y diferenciada. Dichos atributos del agente inteligente son:

Tiene actitudes mentales tales como creencias e intenciones.


Tiene la capacidad de obtener conocimiento, es decir, aprender.
Puede resolver problemas, incluso peticionndolos en otros ms
simples.
Entiende. Posee la capacidad de crearle sentido, si es posible, a
ideas ambiguas o contradictorias.
Planifica, predice consecuencias, evala alternativas (como en
los juegos de ajedrez)
Conoce los lmites de sus propias habilidades y conocimientos.
Puede distinguir a pesar de la similitud de las situaciones.
Puede ser original, creando incluso nuevos conceptos o ideas, y
hasta utilizando analogas.
Puede generalizar.
Puede percibir y modelar el mundo exterior.
Puede entender y utilizar el lenguaje y sus smbolos.

Podemos entonces decir que la IA posee caractersticas humanas


tales como el aprendizaje, la adaptacin, el razonamiento, la
autocorreccin, el mejoramiento implcito, y la percepcin modular
del mundo. As, podemos hablar ya no slo de un objetivo, sino de
muchos, dependiendo del punto de vista o utilidad que pueda
encontrarse a la IA.
En los 90s surgen los agentes inteligentes. El programa Artificial
Linguistic Internet Computer Entity (A.L.I.C.E.) gan el premio Loebner
al Chatbot ms humano en 2000, 2001 y 2004, y en 2007 el
programa Ultra Hal Assistant gan el premio.
En la actualidad se est tan lejos de cumplir la famosa prueba de
Turing como cuando se formul:

Existir Inteligencia Artificial cuando no


seamos capaces de distinguir entre un ser
humano y un programa de computadora en
una conversacin a ciegas
Como ancdota, muchos de los investigadores sobre IA sostienen
que:
La inteligencia es un programa capaz de ser
ejecutado
independientemente
de
la
mquina que lo ejecute, computador o
cerebro
En 2010 el programa Suzette gan el premio Loebner. Algunos
programas de inteligencia artificial gratuitos son Dr. Abuse, Alice,
Paula SG, Virtual woman millenium.

CONCLUSIN
Con el pasar del tiempo el hombre ha desarrollado diferentes
tecnologas para ayudar al ser humano como lo fue
primeramente con la invencin de la rueda hace muchos aos
atrs; hoy a logrado desempear tareas impresionantes que
nuestros antepasados nunca llegaron a pensar e incluso an
hay mucho campo por recorrer y por descubrir.
Con la ayuda de la IA hemos logrado avanzar ms rpido en la
tecnologa inventando artefactos para realizar tareas a nuestro
alrededor as tambin como desarrollar sistemas para ayudar al
ser humano, talvez cambiando una falta de extremidad por una
prtesis tecnolgica. Por medio de estas invenciones la
tecnologa ha llegado a tal punto de crearse en una parte
fundamental y necesaria para nuestro futuro as como lo es en
el mbito de medios de transportes, agricultura, arquitectura,
medicina, biotecnologa y muchas ms.
Para concluir con este tema se ha logrado determinar cules
son las diferencias entre una computadora y una mente
humana, el por qu es necesario crear sistemas computarizados
que puedan suplantar al ser humano y lograr llegar a crear
artefactos tecnolgicos como lo es un robot que pueda
suplantar al ser humano para realizar tareas riesgosas que tal
vez atenten contra la vida del ser humano como lo es la
desactivacin de bombas, lograr llegar a alcanzar una fuga de

gas en un edificio para salvar vidas o el caminar o desenterrar


escombros para lograr encontrar sobrevivientes a un accidente
como lo puede ser un terremoto o an ms simple, para poder
suplantar una persona por un robot que se haga cargo del aseo
en el hogar, del cuidado de los nios o incluso tener tecnologa
artificial como lo son las redes neuronales para llegar al punto
de no necesitar manejar nunca ms, solo decirle a nuestro
transporte donde llevarnos y que se mueva por si solo con toda
la seguridad. Estos son proyectos que el hombre ha tenido en
mente que ya estn siendo puestos en marcha, todo para la
ayuda del ser humano y para volver la vida ms fcil.
La inteligencia artificial ha cambiado el rumbo del ser humano
en todo aspecto y no podemos descifrar hasta donde llegara ya
que cada vez que se encuentra o se desarrolla algo nuevo
siempre las personas van a pensar en algo an mucho mejor,
ms compacto y ms complejo.
Existen muchos proyectos para llegar a tal punto de volver al
ser humano ms mquina que natural; esto puede volverse en
contra ya que puede favorecer a muchos pero algunos pueden
tomar ventajas de esto y seguir con el crimen y la maldad para
destruir en vez de ayudar. Pero con el pasar del tiempo se irn
revelando nuevas tecnologas y ms proyectos ya que la
perspectiva del hombre es lograr la perfeccin

BIBLIOGRAFIA:
Stuart J, Russell y Norvig, Inteligencia Artificial Un Enfoque
Moderno 2 Edicin.

LINKOGRAFIA:
http://www.monografias.com/trabajos16/inteligencia-artificialhistoria/inteligencia-artificialhistoria.shtml#histor#ixzz39Tm82kKR
http://www.lsi.upc.edu/~bejar/ia/transpas/teoria/1-IA-

introduccion.pdf

También podría gustarte