Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Inteligencia Artificial UNT
Inteligencia Artificial UNT
INTRODUCCIN
1.1 INTRODUCCIN
Tiempo atrs se pensaba que algunos problemas como la demostracin de teoremas, el
reconocimiento de la voz y el de patrones, ciertos juegos (como el ajedrez o las damas), y
sistemas altamente complejos de tipo determinista o estocstico, deban ser resueltos por
personas, dado que su formulacin y resolucin requieren ciertas habilidades que slo se
encuentran en los seres humanos (por ejemplo, la habilidad de pensar, observar, memorizar,
aprender, ver, oler, etc.). Sin embargo, trabajos realizados por investigadores procedentes
de varios campos, demostraron que muchos de estos problemas pueden ser formulados y
resueltos por maquinas.
El amplio campo que trata estos problemas se conoce como inteligencia artificial (IA), que
en un principio parecan imposibles, intratables y difciles de formular utilizando
ordenadores. A. Barr y E. A. Feigenbaum, dos de los pioneros de la investigacin en IA,
expresan la siguiente definicin:
La Inteligencia Artificial es la parte de la Ciencia que se ocupa del diseo de sistemas de
computacin inteligentes, es decir, sistemas que exhiben las caractersticas que
asociamos a la inteligencia en el comportamiento humano que se refiere a la
comprensin del lenguaje, el aprendizaje, el razonamiento, la resolucin de problemas,
etc.
Hoy en da, el campo de la IA engloba varias subareas tales como los sistemas expertos, la
demostracin automtica de teoremas, el juego automtico, el reconocimiento de la voz y
de patrones, el procesamiento del lenguaje natural, la visin artificial, la robtica, las redes
neuronales, etc.
El presente trabajo est dedicado a los sistemas expertos. Aunque los sistemas expertos
constituyen una de las reas de investigacin en el campo de la IA, la mayor parte de las
restantes reas, si no todas, disponen de una componente de sistemas expertos formando
parte de ellas.
Segn la
Naturaleza
del
Problema
Figura 1.2 Componentes tpicos de un sistema experto. Las flechas representan el flujo de la informacin.
1.6.1 La Componente Humana: Un sistema experto resulta de la colaboracin de uno o
varios expertos humanos especialistas en el tema de estudio y los ingenieros del
conocimiento con los usuarios en mente. Los expertos humanos suministran el
conocimiento bsico en el tema de inters, y los ingenieros del conocimiento lo trasladan a
un lenguaje que el sistema experto pueda comprender. La colaboracin de stos es el
elemento ms importante en el desarrollo de un sistema experto.
1.6.2 La Base del Conocimiento: Los especialistas deben brindar a los ingenieros del
conocimiento una base de conocimiento ordenada y estructurada, y un conjunto de
relaciones bien definidas y explicadas.
5
De las componentes antes mencionadas se puede ver que los Sistemas Expertos realizan
varias tareas. Estas incluyen, pero no se limitan a las siguientes:
1.3
1)
2)
3)
4)
5)
6)
7)
Los datos: Estn formado por la evidencia o los hechos conocidos en una situacin
particular. Este elemento es dinmico, es decir, puede cambiar de una aplicacin a
otra, por lo tanto no es de naturaleza permanente y se almacena en la memoria de
trabajo. En situaciones deterministas, las relaciones entre un conjunto de objetos
pueden ser representadas mediante un conjunto de reglas.
El conocimiento: Se almacena en la base de conocimiento y consiste en un conjunto
de objetos y un conjunto de reglas que gobierna las relaciones entre esos objetos. La
informacin almacenada en la base de conocimiento es permanente y esttica, es
decir, no cambia de una aplicacin a otra, a menos que se incorporen al sistema
experto elementos de aprendizaje.
Ejemplos de reglas:
Regla 1: si nota > 9, entonces calificacin = sobresaliente.
Regla 2: si puesto < 20 o nota > 7 , entonces admitir = si y notificar = si.
Cada una de estas reglas relacionan dos o ms objetos y estn formadas por las siguientes
partes:
10
11
En la siguiente figura se muestran las siete reglas que gobiernan la estrategia que el CA
debe seguir cuando un usuario desea sacar dinero de su cuenta:
12
Resolucin.
Estrategias de Inferencia:
Encadenamiento de Reglas.
Encadenamiento de Reglas orientado a un objetivo.
Compilacin de Reglas.
2.3.1 Modus Ponens y Modus Tollens
La Modus Ponens se utiliza para obtener conclusiones simples. En ella se examina la
premisa de la regla, y si es cierta, la conclusin pasa a formar parte del conocimiento.
Suponiendo que se tiene la regla, si A es cierto, entonces B es cierto y se sabe que A es
cierto entonces la regla Modus Ponens concluye que B es cierto.
2.2.
La regla de inferencia Modus Tollens tambin se utiliza para obtener conclusiones
simples. En ella se examina la conclusin y si es falsa, se concluye que la premisa tambin
es falsa. Por ejemplo, suponiendo la regla siguiente: si A es cierto, entonces B es cierto;
pero se sabe que B es falso entonces usando la regla Modus Ponens no se obtiene
ninguna conclusin, pero utilizando la regla Modus Tollens se concluye que A es falso.
2.3
13
La regla Modus Ponens necesita informacin de los objetos de la premisa para concluir,
mientras que la regla Modus Tollens necesita informacin sobre los objetos de la
conclusin.
Ejemplo: La regla Modus Tollens equivale a una expansin de la base de
conocimiento: Supngase que la base de conocimiento consiste slo en la regla 1 (figura
2.4). Se puede utilizar la regla de inferencia Modus Tollens para invertir la regla 1 y
obtener alguna conclusin cuando se tiene informacin sobre los objetos de su conclusin.
Aplicar la regla Modus Tollens a la regla si A , entonces B es equivalente a aplicar la
En este caso, la regla 1, utilizando la
regla Modus Ponens a la regla
equivalencia:
se obtiene la regla 1b (figura 2.5).
2.4
2.5
2.6
15
1. Asignar a los objetos sus valores conocidos tales como lo dan los hechos conocidos
o la evidencia.
2. Ejecutar cada regla de la base de conocimiento y concluir nuevos hechos si es
posible.
3. Repetir la etapa dos hasta que no puedan ser obtenidos nuevos hechos.
Ejemplo: Encadenamiento de Reglas:
La figura 2.7 muestra un ejemplo de 6 reglas que relacionan 13 objetos (de la A hasta la
M). La figura 2.8 muestra relaciones entre los objetos, donde cada uno de ellos es
representado por un nodo. Las aristas representan la conexin entre los objetos de la
premisa de la regla y el objeto de la conclusin.
Supngase que se sabe que los objetos A, B ,D ,E, F , H e I son ciertos y los restantes de
valores desconocidos representados en la figura 2.9. En este caso, el algoritmo de
encadenamiento de regla procede de la siguiente manera:
16
2.7
2.8
2.7.
17
2.9
1) Asigna a los objetos sus valores conocidos tales como estn dados en los hechos de
partida, si es que existe alguno. Marcar todos los objetos cuyo valor ha sido
asignado. Si el nodo objetivo est marcado pasar a la etapa siguiente; en otro caso:
a) Designar como objetivo inicial el objetivo en curso.
b) Marcar el objetivo en curso.
c) Sea ObjetivosPrevios = vaco.
d) Designar todas las reglas como activas (ejecutables).
e) Ir a la etapa 2.
18
2) Encontrar una regla activa que incluya el objetivo en curso y ninguno de los
objetivos en ObjetivosPrevios. Si se encuentra una regla ir a la etapa 3; en otro caso
ir a la etapa 5.
3) Ejecutar la regla referente al objetivo en curso. Si concluye, asignar el valor
concluido al objetivo en curso, e ir a la etapa 6; en otro caso ir a la etapa 4.
4) Si todos los objetos de la regla estn marcados, declarar la regla como inactiva e ir a
la etapa 2; en otro caso:
a) Aadir el objetivo en curso a ObjetivosPrevios.
b) Designar uno de los objetos no marcados en la regla como el objetivo en
curso.
c) Marcar el objetivo en curso.
d) Ir a la etapa 2
5) Si el objetivo en curso es el mismo que el objetivo inicial, ir a la etapa 7; en otro
caso, preguntar al usuario por el valor del objetivo en curso. Si no se da un valor, ir
a la etapa 6; en otro caso asignar al objeto el valor dado e ir a la etapa 6.
6) Si el objetivo en curso es el mismo que el objetivo inicial, ir a la etapa 7; en otro
caso, designar el objetivo previo como objetivo en curso, eliminarlo de
ObjetivosPrevios, e ir a la etapa 2.
7) Devolver el valor del objetivo en curso si es conocido.
2.3.5 Compilacin de Reglas
Consiste en comenzar con un conjunto de datos (informacin) y tratar de alcanzar algunos
objetivos. Cuando ambos, datos y objetos, se han determinado previamente, las reglas
pueden ser compiladas, es decir, pueden describirse los objetivos en funcin de los datos
para obtener las llamadas Ecuaciones Objetivos.
Ejemplo: Considrese el conjunto de seis reglas de la figura 2.8 y supngase que son
conocidos los valores de los objetos A, B, D, E, F, H e I y que los restantes C, G, J, K, L, M
son objetivos. Denotemos por ^ el operador lgico Y entonces, utilizando las seis reglas,
pueden obtenerse las siguientes ecuaciones objetivos:
La regla 1 implica C = A ^ B.
La regla 2 implica G = D ^ E ^ F.
La regla 3 implica J = H ^ I.
La regla 4 implica K = C ^ G = (A ^ B) ^ (D ^ E ^ F).
La regla 5 implica L = G ^ J = (D ^ E ^ F) ^ (H ^ I).
La regla 6 implica M = K ^ L = A ^ B ^ D ^ E ^ F ^ H ^ I.
Las tres primeras ecuaciones son equivalentes a las tres primeras reglas.
Las tres ecuaciones objetivos son respectivamente equivalentes a las reglas siguientes:
19
Entonces, si por ejemplo, cada uno de los objetos {A, B, D, E, F, H, I} toma el valor cierto,
entonces se obtiene de forma inmediata, a partir de las reglas 4a, 5a, 6a, que los objetos {K,
L, M} deben ser ciertos.
2.4 CONTROL DE COHERENCIA
Es importante controlar la coherencia del conocimiento tanto durante la construccin de la
base de conocimiento como durante los procesos de adquisicin de datos y razonamiento.
Si la base de conocimiento contiene informacin inconsistente (por ejemplo, reglas y/o
hechos), es muy importante que el Sistema Experto se comporte insatisfactoriamente y
obtenga conclusiones absurdas.
El objetivo del Control de Coherencia consiste en:
1) Ayudar al usuario a no dar hechos inconsistentes, por ejemplo dndole las
restricciones que debe satisfacer la informacin demandada.
2) Evitar que entre en la base de conocimiento cualquier tipo de conocimiento
inconsistente o contradictorio.
El control de la coherencia debe hacerse controlando la coherencia de las reglas y la de los
hechos.
2.4.1 Coherencia de Reglas
Definicin :
un conjunto de reglas se denomina coherente si existe, al menos, un
conjunto de valores de todos los objetos que producen conclusiones no
contradictorias.
Ejemplo : Conjunto de reglas incoherentes: Considrense las cuatro reglas siguientes,
que relacionan dos objetos A y B binarios {C, F}:
. Regla 1: Si A = C, entonces B = C.
. Regla 2: Si A = C, entonces B = F.
. Regla 3: Si A = F, entonces B = C.
. Regla 4: Si A = F, entonces B = F.
Entonces, pueden obtenerse las siguientes conclusiones:
1. Las Reglas 1 - 2 son coherentes puesto que, tal como se muestra en la Tabla 2.3, para A =
F, no producen conclusiones.
2. Las Reglas 1 - 3 son coherentes puesto que para A = F y B = C, producen una conclusin
(B = C) ( Tabla 2.4).
3. Las Reglas 1 - 4 son incoherentes porque producen conclusiones contradictorias para
todos los posibles valores de A y B, tal como se ve en la Tabla 2.5.
Un conjunto de reglas puede ser coherente, aunque algunos conjuntos de valores puedan
producir conclusiones inconsistentes. Estos conjuntos de valores se llaman valores no
20
factibles. Por ejemplo, las Reglas 1 - 2 son coherentes, aunque producen conclusiones
inconsistentes en todos los casos en que A = C. En consecuencia, el subsistema de control
de coherencia eliminar automticamente el valor C de la lista de posibles valores del
objeto A, permitiendo de esta forma al usuario seleccionar slo valores factibles de los
objetos.
2.3
2.4
2.5
21
Ejemplo : Valores no factibles: Considrese el conjunto de las cuatro reglas del ejemplo
anterior. En este caso, el motor de inferencia concluir lo siguiente:
1. Las dos primeras reglas implican que A C, puesto que A = C siempre conduce a
conclusiones inconsistentes. Por tanto, el valor A = C deber ser eliminado
automticamente de la lista de valores factibles de A. Dado que A es binario, entonces
resulta A = F (el nico valor posible).
2. Las tres primeras reglas implican que A = F y B = C. Por tanto, el valor B = F deber ser
eliminado automticamente de la lista de valores factibles de B.
3. Las primeras cuatro reglas implican que A C, A F, B C y B F. Por tanto, los
valores {C, F} son eliminados de las listas de valores de A y B, con lo que las listas de
valores factibles de todos los objetos estn vacas, lo que implica que las cuatro reglas son
incoherentes.
Ejemplo: Coherencia de reglas: Supngase que se tienen los cuatro objetos: A {0, 1}, B
{0, 1}, C {0, 1, 2} y D {0, 1}. Considrense las cuatro reglas:
. Regla 1: Si A = 0 y B = 0, entonces C = 0.
. Regla 2: Si A = 0 y D = 0, entonces C = 1.
. Regla 3: Si A = 0 y B = 0, entonces C = 1.
. Regla 4: Si A = 0, entonces B = 0.
. Regla 5: Si B = 0, entonces A = 1.
Supngase ahora que se desea aadir las tres ltimas reglas a una base de conocimiento que
contiene las dos primeras reglas. Entonces, las Reglas 1 y 3 son inconsistentes, puesto que
tienen la misma premisa pero diferentes conclusiones. Por lo que, la Regla 3 debe ser
rechazada y el experto humano informado de la razn del rechazo. El experto humano
corregir la regla en cuestin y / o las reglas existentes si fueran incorrectas. La Regla 4
entrar en la base de conocimiento, puesto que es consistente con las Reglas 1 y 2. La
Regla 5 es inconsistente con la Regla 4. Por ello, la consistencia de ambas reglas debe ser
comprobada antes de pasar a formar parte de la base de conocimiento.
2.4.2 Coherencia de Hechos
Los datos o evidencias suministrados por los usuarios deben ser tambin consistentes en s
y con el conjunto de reglas de la base de datos. Por ello, el sistema no debe aceptar hechos
que contradigan el conjunto de reglas y / o el conjunto de hechos existente en cada instante
del proceso.
La coherencia de los hechos puede lograrse mediante las estrategias siguientes:
1. Eliminar todos los valores no factibles (los que contradicen el conjunto de reglas y /
o hechos) de los objetos una vez detectados. Cuando se pregunte al usuario por
informacin sobre los valores de un conjunto de objetos, el sistema experto debera
aceptar slo los valores de cada objeto que sean consistentes con las reglas y con el
conocimiento previo.
22
23
24
25
para todos los valores posibles x1, . . . , xm de X1, . . . , Xm. En otro caso, se dice que son
dependientes.
26
Tabla 3.1.
27
pensar en la Regla 2 como una regla generalizada. Por ello, el valor de determina el nivel
de implicacin como sigue (figura 3.1):
Implicacin fuerte ( = 1): Si la premisa de una regla es cierta, su conclusin debe ser
tambin cierta. Por ello, dada la regla Si A es cierta, entonces B es cierta, se puede decir
que A implica B con probabilidad 1. Esto se ilustra en la Figura 3.1(a).
Implicacin dbil (0 < < 1): La regla anterior puede ser vista en un sentido generalizado
cuando A implica B slo en algunas ocasiones. En este caso, se dice que A implica B con
probabilidad p(B = cierto / A = cierto), como se muestra en la Figura 3.1(b).
No implicacin ( = 0): El caso en que A no implica B puede considerarse como que A
implica B con probabilidad 0. Esto se ilustra en la Figura 3.1(c).
Figura 3.1
3.4 INTRODUCIENDO
PROBABILIDAD
LOS
SISTEMAS
EXPERTOS
BASADOS
EN
El ncleo de los sistemas expertos basados en reglas es el conjunto de reglas que describen
las relaciones entre los objetos (variables). En los sistemas expertos probabilsticos las
relaciones entre las variables se describen mediante su funcin de probabilidad conjunta.
Por ello, la funcin de probabilidad conjunta forma parte de lo que se llama conocimiento.
28
Ejemplo: Diagnostico mdico. Supngase que se dispone de una base de datos con
informacin sobre N pacientes y que un paciente puede tener una y slo una de m
enfermedades, e1, . . . , em, tal como muestra la Figura 3.2 para m = 5 enfermedades.
Supngase tambin que un paciente puede tener ninguno, uno, o ms de n sntomas S 1, . . . ,
Sn, como indica la Figura 3.3 para n = 3 sntomas. Supngase que la variable aleatoria
enfermedad, E, toma como valores las enfermedades e1, . . . , em. Supngase tambin que
los sntomas son variables binarias, de forma que cada una toma el valor 1, si est presente,
o el valor 0, si est ausente. Cualquier variable aleatoria en el conjunto {E, S1, . . . , Sn}
define una particin del conjunto universal de pacientes en una clase disjunta y exhaustiva
de conjuntos. Entonces, combinando las enfermedades y los sntomas, cada paciente puede
clasificarse en una y slo una regin tal como se muestra en la Figura 3.4, que proviene de
superponer las Figuras 3.2 y 3.3. Por ejemplo, el crculo negro de la Figura 3.4 representa
un paciente que tiene la enfermedad e4 y los tres sntomas: S1, S2 y S3.
Figura 3.2
Figura 3.3
29
Figura 3.4
30
En este modelo se supone que los sntomas son dependientes pero que las enfermedades
son independientes entre s, dados los sntomas. El MSD se ilustra en la Figura 3.5, donde
todo sntoma se conecta con los dems sntomas y con todo valor posible de E (indicando
dependencia).
Entonces la funcin de probabilidad conjunta para el MSD puede escribirse como:
Figura 3.5
Esta ecuacin se obtiene utilizando (3.6) con X = {E} e Y = {S1, . . . , Sn}. Ahora,
p(ei|s1,....sn) puede expresarse como:
31
Figura 3.6
Por ello, se puede escribir la funcin de probabilidad conjunta de la enfermedad E dados los
sntomas s1, . . . , sn como:
Figura 3.7
32
Por simplicidad de notacin, supngase que S1, . . . , Sri son relevantes para la enfermedad ei
y que los restantes sntomas Sri+1, . . . , Sn son irrelevantes. Segn el MSRI, p(sj|ei) se
supone idntica para todos los sntomas que son irrelevantes para la enfermedad ei.
Entonces la funcin de probabilidad conjunta de la enfermedad ei dados los sntomas s1, . . .
, sn puede escribirse como sigue:
Figura 3.8
33
Supngase que S1, . . . , Sri son relevantes para la enfermedad ei y que los restantes sntomas
Sri+1, . . . , Sn son irrelevantes. Entonces segn el MSRD, la funcin de probabilidad
conjunta de ei dados los sntomas s1, . . . , sn puede escribirse como:
donde pj = p(sj|ei), que es la misma para todas las enfermedades para las que Sj es
irrelevante. Sustituyendo (3.32) en (3.21), se obtiene el MSRD.
Sea cual sea el modelo elegido, la base de conocimiento debe contener el conjunto de
variables de inters y el mnimo de parmetros (probabilidades o frecuencias) necesarios
para especificar la funcin de probabilidad conjunta de las variables.
Una de las tareas del motor de inferencia en los sistemas expertos probabilsticos consiste
en calcular las probabilidades condicionales de diferentes enfermedades cuando se conocen
nuevos sntomas o datos. El motor de inferencia es responsable de actualizar las
probabilidades condicionales:
34
para todos los posibles valores de los sntomas, y de decidir cules tienen probabilidades
condicionales altas.
35
PROBABILISTICOS
Espacio de probabilidad, que
incluye las variables, sus posibles
valores, y su funcin de probabilidad
conjunta.
Inconveniente: el alto nmero de
parmetros que manejan, lo que hace
que sea difcil su especificacin y
definicin.
Motor de
Inferencia
36
CAPTULO 4:
REDES NEURONALES
37
Dogma central de la IA
Los procesos que se llevan a cabo en el cerebro pueden ser analizados, a un nivel de
abstraccin dado, como procesos computacionales de algn tipo".
4.1.1 CONTROVERSIA
Durante el desarrollo de la IA siempre ha existido una controversia sobre los lmites de esta
Ciencia.
Hubert L. Dreyfus: Qu no pueden hacer las computadoras:
Grandes artistas han tenido la sensacin de que la realidad era inflexiblemente rechazada
por ambos filsofos y tecnologstas, y que la base de la inteligencia humana no puede ser
aislada y explcitamente entendida..
Donald Michiel: Jefe cientfico del Instituto Turing:
Es una equivocacin preguntar todo el tiempo, Pueden las computadoras pensar?,
Pueden ellas ser realmente creativas?, para todos los propsitos prcticos que ellas
pueden. El mejor camino para nosotros es dejar a los filsofos en su cuarto oscuro y
avanzar usando la computadora al mximo..
4.2 EVOLUCIN DE LA IA
38
las maquinas pueden algunas veces competir con el hombre en todas las persecuciones
intelectuales..
Claude Shannon (1950) public A Chess-Playing Machine en Scientific American
analizando el problema del juego automtico de ajedrez (10120 movimientos posibles).
En 1953, public Computers and Autmata con nuevos y sugestivos interrogantes.
Podr construirse una mquina que:
1. Localice y repare sus propias averas?.
2. Se programe a s misma?.
3. Aprenda?.
Warren McCulloch and Walter Pitts (1943) desarrollaron el primer modelo matemtico
de red neuronal en A Logical Calculus of the Ideas Immanent in Nervous Activity. Este
modelo consista en una red de neuronas binarias y sinapsis. Este modelo es esencialmente
equivalente a una mquina de Turing.
Segunda Generacin:
Logic Theorist fue uno de los primeros programas eficientes desarrollado por
Allen Newell, Herbert Simon y J.C. Shaw.
Mycin fue el pionero de los sistemas expertos (desarrollado por Edward Shortlie).
Puede diagnosticar infecciones bacterianas a partir de sntomas.
39
Ahora el hombre es reemplazado por una computadora y los resmenes del juego. Si la
computadora puede engaar al interrogante tan a menudo como el hombre lo hizo,
nosotros decimos que la computadora est desplegando inteligencia.
40
41
42
Definicin 2: Red Neuronal Artificial: Una red neuronal artificial (RNA) es un par (N;U),
donde N es un conjunto de nodos y U es un conjunto de unidades procesadoras sobre N
que satisface la siguiente condicin: Cada nodo Xi N tiene que ser un nodo de entrada o
de salida de al menos una unidad procesadora de U.
4.7.3 EJEMPLO
43
4.8 EL APRENDIZAJE
Existen dos fases en toda aplicacin de las redes neuronales: la fase de aprendizaje o
entrenamiento y la fase de prueba.
44
Fase de Prueba: Una vez calculados los pesos de la red, las neuronas de la ltima
capa se comparan con la salida deseada para determinar la validez del diseo.
45
Supervisado: Se ajusta el valor del peso entre las dos unidades en proporcin a la
diferencia entre los valores deseado y calculado en cada una de las unidades de la capa de
salida.
es la constante de aprendizaje (0 < < 1).
2. La raz cuadrada del error cuadrtico medio (Root Mean Square Error, RMSE) definida
como:
3. El error mximo,
donde
es la salida de la red para el vector de entrada a p . Ntese que en el caso de una
nica salida, la funcin norma || . || se reduce a la funcin valor absoluto | . | usual.
46
Neuronas: X = (x1; ... ; xi; ... ; xn), donde xi es el nivel de actividad de la i-sima
neurona.
Pesos: Los pesos de la neurona i-sima forman un vector Wi = (wi1,.....;wij;...;win);
donde wij es el peso de la conexin de xj a xi.
La actividad lineal de xi est dada por la funcin:
Para incluir un valor umbral i para la neurona xi, se considera una neurona auxiliar de
valor X0 = -1 y se conecta a xi con un peso i.
Funciones paso: Dan una salida binaria dependiente de si el valor de entrada est
por encima o por debajo del valor umbral.
Funciones sigmoidales: Funciones montonas acotadas que dan una salida gradual
no lineal.
1. La funcin logstica de 0 a 1:
48
Ahora, supngase que se quieren obtener los pesos apropiados para memorizar un patrn
a=(a1; ... ; an). Entonces, los pesos tienen que satisfacer las siguientes condiciones de
estabilidad:
por tanto la red devuelve el mismo patrn dado como entrada. Como se estn usando los
valores neuronales {-1; 1}, entonces
pueden alcanzar considerando los pesos:
49
50
51
4.18 EL PERCEPTRN
El perceptrn es una red neuronal de dos capas (una de entrada y una de salida) con
conexiones hacia delante.
52
Cmo se pueden obtener los pesos adecuados para aprender un conjunto de patrones?.
53
En general, se tiene:
54
Se puede construir un perceptrn con estos puntos para obtener automticamente el criterio
de clasificacin. Por ejemplo, si se considera un perceptrn con dos entradas, xi y yi, y una
salida ci con funcin de activacin lineal:
55
56
57
58
59
(outputs de
5. Calcular:
60
61
Para aproximar este mapa se utiliza una red neuronal 2:3:1 (la salida es xn y las entradas xn-1
x n-2).
62
63
El efecto es mover el vector peso (wk1; ... ; wkn) directamente hacia (a1j; ... ; anj).
64
CAPTULO 5:
CONCLUSIONES
5.1 CONCLUSIONES
A partir del trabajo realizado se puede demostrar que mediante la Inteligencia Artificial se
pueden resolver problemas que antes eran considerados altamente complejos y difciles de
tratar a travs de ordenadores, como ser: el reconocimiento de la voz, juegos y sistemas de
tipos deterministas y estocsticos, entre otros. Esta engloba varias reas, una de las cuales
son los sistemas expertos, que estn presentes en la mayor parte de las reas de la
Inteligencia Artificial.
A pesar de que la adquisicin de un sistema experto es cara, la ganancia y la amortizacin
son elevadas, adems cuenta con ciertas ventajas: pueden ser utilizados para realizar
trabajos que son considerados inconfortables para el hombre, personal inexperto puede
resolver problemas que requieren un mayor conocimiento, mediante su uso se obtienen
grandes ahorros, entre otras ventajas. Estos se utilizan en transacciones bancarias, control
de trfico, diagnstico mdico, etc.
De los dos tipos de sistemas expertos, la regla determinista constituye la metodologa ms
sencilla empleada en los sistemas expertos y es tratada por los Sistemas Basados en Reglas.
De la misma manera, la incertidumbre es comn en muchas aplicaciones, donde una de las
medidas ms aceptadas para tratar este problema es la probabilidad.
Otra de las ramas de la Inteligencia Artificial son las Redes Neuronales, que pueden
realizar tareas a partir de un proceso de aprendizaje mediante procesadores conectados
entre s y actuando en paralelo.
65
BIBLIOGRAFA
-
Enrique Castillo, ngel Cobo, Jos Manuel Gutirrez y Rosa Eva Pruneda.
Introduccin a las Redes Funcionales con Aplicaciones Un Nuevo Paradigma
Neuronal. Editorial Paraninfo. Madrid, Espaa. 1999. ISBN 84-283-2525-1.
66
NDICE
1. INTRODUCCIN
1.1 Introduccin.
1.2 Sistemas Expertos: Definicin.
1.3 Ejemplos de Aplicacin de Sistemas Expertos.
1.4 Por qu los Sistemas Expertos?.
1.5 Tipos de Sistemas Expertos.
1.6 Componentes de un Sistema Experto.
1.7 Desarrollo de un Sistema Experto.
1.8 Otras reas de la Inteligencia Artificial.
1
1
2
2
3
4
5
7
9
10
10
10
12
20
23
24
24
24
27
28
30
34
35
36
4. REDES NEURONALES
4.1 Definiciones de Inteligencia Artificial.
4.2 Evolucin de la Inteligencia Artificial.
4.3 El Test de Turing.
4.4 Caractersticas de los modelos de Inteligencia Artificial.
4.5 Inspiracin Biolgica.
4.6 Redes Neuronales Artificiales.
4.7 Redes Neuronales. Estructura.
4.8 El Aprendizaje.
4.9 Validacin del modelo.
4.10 Sobreajuste.
4.11 Neuronas Unidades de Proceso.
4.12 Funciones de Activacin.
4.13 Arquitecturas de Red.
4.14 La Red de Hopfield.
37
38
38
39
40
40
41
41
44
46
46
47
47
48
49
67
51
51
52
52
54
57
58
59
61
61
63
65
66
68