Está en la página 1de 42

Introducción a

los
Luis Valencia Cabrera
lvalencia@us.es
Sistemas
(http://www.cs.us.es/~lvalencia) Expertos
Ciencias de la Computacion e IA
basados en
(http://www.cs.us.es/) probabilidad
Universidad de Sevilla (2010/2011)
Antecedentes
 Los sistemas basados en reglas generalmente no
tienen en cuenta la incertidumbre
 Los objetos y reglas son tratados de forma
determinista
 Limitación: en la mayor parte de las
aplicaciones, la incertidumbre es lo común y no
la excepción
 Algunos sistemas introducen factores de certeza,
de manera que dada una premisa se da una
conclusión con un determinado grado de
certeza en función de la fuerza de la regla.
Problema
 Estos sistemas no capturan correctamente las
dependencias entre variables, de forma que
cuando se dispara una regla el peso de la
conclusión depende únicamente de las premisas,
independientemente de las fuentes de las que
provenga.
 El uso de factores de certeza ha recibido muchas
críticas por su incapacidad para representar
ciertas dependencias entre las observaciones y la
forma en la que combina el conocimiento.
 Todo esto provoca la necesidad de encontrar
otros formalismos para trabajar con incertidumbre.
Ejemplo: diagnóstico médico
 Una pregunta típica en diagnóstico médico es: dado que el
paciente presenta un conjunto de síntomas, ¿cuál de las
enfermedades posibles es la que tiene el paciente? Esta
situación implica un cierto grado de incertidumbre puesto que:
 Los hechos o datos pueden no ser conocidos con exactitud. Un
paciente puede no estar seguro de haber tenido fiebre durante la
noche. Hay un cierto grado de incertidumbre en la información de
cada paciente (subjetividad, imprecisión, ausencia de información,
errores, datos ausentes, etc.).
 El conocimiento no es determinista. Las relaciones entre las
enfermedades y los síntomas no son deterministas; un mismo conjunto
de síntomas puede estar asociado a diferentes enfermedades. No es
extraño encontrar dos pacientes con los mismos síntomas pero
diferentes enfermedades.
 Conclusión: es clara la necesidad de contar con sistemas
expertos que traten situaciones de incertidumbre. Un tipo de
sistema experto que trata este tipo de situaciones de forma
efectiva lo constituyen los sistemas expertos basados en
probabilidad.
Un poco de historia
 En los primeros sistemas expertos que se hicieron eco de este problema, se eligió la
probabilidad como medida para tratar la incertidumbre (véase Cheeseman (1985) o
Castillo y Álvarez (1991)).
 Muy pronto se encontraron algunos problemas, debidos al uso incorrecto de algunas
hipótesis de independencia, utilizadas para reducir la complejidad de los cálculos.
Como resultado, en las primeras etapas de los sistemas expertos, la probabilidad fue
considerada como una medida de incertidumbre poco práctica.
 La mayoría de las críticas a los métodos probabilísticos se basaban en:
 el altísimo nº parámetros necesarios
 la imposibilidad de una asignación o estimación precisa de los mismos
 las hipótesis poco realistas de independencia.
 Consecuentemente, en la literatura surgieron medidas alternativas a la probabilidad
para tratar la incertidumbre:
 factores de certeza
 credibilidades,
 plausibilidades,
 Necesidades
 posibilidades
 (véase, por ejemplo, Shafer (1976), Zadeh (1983), Buchanan y Shortliffe (1984), Yager
y otros (1987), y Almond (1995)).
Redes probabilísticas
 Con la aparición de las redes probabilísticas
(principalmente las redes Bayesianas y Markovianas, que
veremos más adelante), la probabilidad ha resurgido de
forma espectacular, siendo hoy en día, la más intuitiva y la
más aceptada de las medidas de incertidumbre.

 Lindley (1987) dice:


 “La única descripción satisfactoria de la incertidumbre es la
probabilidad. Esto quiere decir que toda afirmación incierta
debe estar en forma de una probabilidad, que varias
incertidumbres deben ser combinadas usando las reglas de la
probabilidad, y que el cálculo de probabilidades es adecuado
para manejar situaciones que implican incertidumbre. En
particular, las descripciones alternativas de la incertidumbre son
innecesarias.”
Contenidos
 Vamos a introducir los sistemas expertos de tipo probabilístico, que se basan en la
probabilidad como una medida de incertidumbre.
 Se describen en detalle sus principales componentes:
 la base de conocimiento,
 el motor de inferencia,
 el sistema de control de coherencia
 Y se comparan con los sistemas expertos basados en reglas.
 Para ello anteriormente se da un repaso breve a los conceptos de la teoría de la
probabilidad, que se necesitan para entender este tema y los siguientes.
 Se define y discute las reglas generalizadas como un intento de extender los
sistemas expertos basados en reglas para tratar situaciones de incertidumbre.
Manteniendo el mismo tratamiento de los sistemas basados en reglas, se examina la
estructura de la base del conocimiento, el motor de inferencia, y el sistema de
control de la coherencia de los sistemas expertos basados en probabilidad. Se
ilustra este tipo de sistemas expertos mediante un ejemplo.
 A continuación se describe la base de conocimiento y presenta varios modelos
para describir las relaciones entre un conjunto de variables de interés. Se discute el
motor de inferencia y se atiende el problema del control de la coherencia.
 Se aporta una comparación de los sistemas basados en reglas y los sistemas
basados en probabilidad.
Algunos
Conceptos Básicos de la
Teoría de la Probabilidad
 Vamos a repasar el siguiente material
básico que será utilizado posteriormente:
 Medida de probabilidad.
 Distribuciones de probabilidad.
 Dependencia e independencia.
 Teorema de Bayes.
 Tipos de errores.
Medida de probabilidad
 Para medir la incertidumbre se parte de un marco
«de discernimiento» S, en el que se incluyen todos los
posibles resultados de un cierto experimento como
conjunto exhaustivo y mutuamente exclusivo.
 El conjunto S se conoce como espacio muestral.
 El objetivo consiste en asignar a todo subconjunto
de S un número real que mida el grado de
incertidumbre sobre su realización.
 Para obtener medidas con significado físico claro y
práctico, se imponen ciertas condiciones o
propiedades intuitivas adicionales que definen una
clase de medidas que se conocen como medidas
de probabilidad.
Medida de probabilidad.
Definición
 Una función p que proyecta los subconjuntos A ⊆ S en el
intervalo [0, 1] se llama medida de probabilidad si satisface los
siguientes axiomas:
 Axioma 1 (Normalización)
 p(S) = 1.
 Axioma 2 (Aditividad)
 Para cualquier sucesión infinita, A1,A2, . . ., de subconjuntos disjuntos de
S, se cumple la igualdad

 El Axioma 1 establece que, independientemente de nuestro


grado de certeza, ocurrirá un elemento del conjunto universal S
(el conjunto S es exhaustivo). El Axioma 2 se usa para calcular la
probabilidad de la unión de subconjuntos disjuntos. Establece
que la incertidumbre de un cierto subconjunto es la suma de las
incertidumbres de sus partes (disjuntas). Esta propiedad
también se cumple para sucesiones finitas.
Medida de probabilidad.
Propiedades
Medida de probabilidad.
Propiedades
 La Propiedad 1 establece que la evidencia asociada a una ausencia
completa de información es cero.
 La Propiedad 2 muestra que la evidencia de la pertenencia de un
elemento a un conjunto debe ser al menos la evidencia de cualquiera
de sus subconjuntos. En otras palabras, la evidencia de que un
elemento pertenezca a un conjunto dado A no debe decrecer con la
adición de elementos a A.
 La Propiedad 3 puede ser considerada como una propiedad de
consistencia o continuidad. Si se eligen dos sucesiones de conjuntos
que convergen al mismo subconjunto de S, se debe obtener la misma
evidencia o incertidumbre.
 La Propiedad 4 establece que las probabilidades de los conjuntos A,B,A
∩ B, y A ∪ B no son independientes, sino que están relacionadas por la
fórmula anterior.
 Ejemplo: lanzamiento de un dado no trucado. El espacio muestral es S
= {1, 2, 3, 4, 5, 6}, es decir, el conjunto de los posibles resultados del
lanzamiento. Sea p(A) la probabilidad de que ocurra el suceso A.
Entonces, por ejemplo, se tiene:
 p(S) = 1, p({1}) = 1/6, p({3}) = 1/6, y p({1, 3}) = p({1})+p({3}) = 1/3.
Distribuciones de Probabilidad
 Sea {X1, . . . , Xn} un conjunto de variables aleatorias discretas y {x1, . . . ,
xn} el conjunto de sus posibles realizaciones.
 Sea p(x1, . . . , xn) la función de probabilidad conjunta de las variables de
X:

 Entonces, la función de probabilidad marginal de la i-ésima variable se


obtiene mediante la fórmula

 El conocimiento de la ocurrencia de un suceso puede modificar las


probabilidades de otros. Ejemplo: la probabilidad de que un paciente
tenga una enfermedad puede cambiar tras el conocimiento de los
resultados de un análisis de sangre. Así, cada vez que se dispone de nueva
información, las probabilidades de los sucesos pueden, y suelen, cambiar.
 Esto conduce al concepto de probabilidad condicional.
Probabilidad condicional
 Sean X e Y dos conjuntos disjuntos de variables tales que
p(y) > 0. Entonces, la probabilidad condicional (función de
probabilidad condicionada) de X dado Y = y viene dada
por

 La ecuación implica que la función de probabilidad


conjunta de X e Y puede escribirse como

 Se obtiene un caso particular de cuando X es una única


variable e Y es un subconjunto de variables. En este caso,
se convierte en
Probabilidad condicional

 es la función de probabilidad de la i-ésima variable, Xi, dado


el subconjunto de variables {X1, . . . , Xk}. La suma del
denominador de se extiende a todos los valores posibles de Xi.
 Ambas fórmulas de la probabilidad marginal y de la
probabilidad condicional siguen siendo válidas si la variable Xi
se reemplaza por un subconjunto de variables siempre que los
conjuntos de variables sean disjuntos.
 Si el conjunto {X1, . . . , Xk} se sustituye por el conjunto vacío φ,
entonces se convierte en p(xi).  Se puede ver la
probabilidad marginal como un caso particular de
probabilidad condicional.
Dependencia e
Independencia
 Definición. Independencia de dos variables. Sean X e Y dos
subconjuntos disjuntos del conjunto de variables aleatorias {X1, . . . ,
Xn}. Entonces se dice que X es independiente de Y si y solamente si
p(x|y) = p(x),
 para todos los valores posibles x e y de X e Y ; en otro caso, X se
dice dependiente de Y .
 Si x e y son valores posibles de X e Y , entonces p(x) > 0 y p(y) > 0.
 La condición p(y) > 0 es natural (no puede observarse Y = y si no se
satisface la condición).
 La ecuación significa que si X es independiente de Y, entonces
nuestro conocimiento de Y no afecta nuestro conocimiento sobre
X  Y no tiene información sobre X. También, si X es independiente
de Y, pueden combinarse las fórmulas anteriores para obtener:
p(x, y)/p(y) = p(x), que
 implica
p(x, y) = p(x)p(y).
Dependencia e
Independencia. Propiedades
 La ecuación indica que si X es independiente de Y  la función
de probabilidad conjunta de X e Y es igual al producto de sus
marginales.
 En realidad, es una definición de independencia equivalente a la
anterior.
 Propiedad importante de la relación de independencia: simetría
(si X es independiente de Y, entonces Y es independiente de X).
 Esto ocurre porque:

 Por la propiedad de simetría se dice que X e Y son independientes


o mutuamente independientes.  si el conocimiento de Y es
relevante (irrelevante) para X, entonces el conocimiento de X es
relevante (irrelevante) para Y .
Independencia de un
conjunto de variables
 Las variables aleatorias {X1, . . . , Xm} se dice que son independientes si y
sólo si

para todos los valores posibles x1, . . . , xm de X1, . . . , Xm. En otro caso, se dice
que son dependientes.

 Es decir, se dicen independientes si y sólo si su función de probabilidad


conjunta es igual al producto de sus funciones de probabilidad marginal.
 Es una generalización del caso anterior de X e Y.
 Además, si X1, . . . , Xm son condicionalmente independientes dado otro
subconjunto Y1, . . . , Yn, entonces

 Así, no es rentable obtener información sobre variables independientes,


pues es irrelevante, es decir, independencia significa irrelevancia.
Ejemplo 1
 Considérense las siguientes características (variables y sus posibles valores) de
las personas de una población dada:
 Sexo = {hombre, mujer}
 Fumador = {sí (f), no (𝑓 )}
 Estado Civil = {casado (c), no casado (𝑐 )}
 Embarazo = {sí (e), no (𝑒)}
 La función de probabilidad conjunta de estas cuatro variables se tiene en
esta tabla:

 Ejemplo: el 50% de las personas de una población son mujeres, y el

de los fumadores son mujeres


Ejemplo 1
 Sea A una persona elegida al azar de la población.
 La probabilidad de que sea mujer es p(A = mujer) = 0.50.
 Pero si se sabe que la persona es fumadora, esta probabilidad cambia de
0.50 a p(A = mujer|A = f) = 0.64. Por tanto, se tiene p(A = mujer|A = f) ≠
p(A = mujer); por lo que las variables Sexo y Fumador son dependientes.
 Supongamos que sabemos que la persona está embarazada. p(A =
mujer|A = e) = 1 ≠ p(A = mujer) = 0.50; por lo que, las variables Sexo y
Embarazo son dependientes.
 Las dos variables Fumador y Embarazo contienen información relevante
sobre la variable Sexo.
 Sin embargo, el suceso “la persona está embarazada” contiene mucha
más información sobre Sexo que el suceso “la persona es fumadora.”
 Esto puede medirse por el cociente

 La variable Estado Civil no contiene información relevante sobre la


variable Sexo y viceversa. (las probabilidades conjuntas coinciden con
el producto de las marginales para todos los valores posibles de las dos
variables).  las variables Sexo y Estado Civil son independientes.
Ejemplo 2
 Sea la función de
probabilidad conjunta de
las tres variables binarias X,
Y y Z dadas en la tabla.
 Se muestran las funciones
de probabilidad marginal
de X, Y y Z. Por ejemplo, la
función de probabilidad
marginal de X se calcula
mediante
Ejemplo 2
 Las funciones de probabilidad conjunta de las parejas se dan en la
tabla.

 Por ejemplo, la función de probabilidad conjunta de X e Y es

ok
Ejemplo 2
 Se muestran las funciones de
probabilidad condicional de una
variable dada la otra.
 De los resultados anteriores se ve
que
 p(x, y) = p(x)p(y) para todos los
valores posibles de x e y  X e Y
son independientes.
 Esta independencia puede
comprobarse con la definición
alternativa de independencia
p(x|y) = p(x).
 Sin embargo, p(x, z) ≠ p(x)p(z) para
algunos valores (en este caso
todos) de x y z. Por tanto, X y Z son
dependientes.
 Se puede demostrar también que Y
y Z son dependientes.
 Los conceptos de dependencia e
independencia se refieren a dos
subconjuntos de variables. A
continuación, se generaliza para
más de dos conjuntos.
Dependencia e
independencia condicional
 Sean X, Y y Z tres conjuntos disjuntos de  La definición de independencia
variables, entonces X se dice condicional lleva la idea de que una vez
condicionalmente independiente de Y conocida Z, el conocimiento de Y no
dado Z, si y sólo si altera la probabilidad de X. Si Z ya es
 p(x|z, y) = p(x|z), conocida, el conocimiento de Y no
 para todos los valores posibles de x, y y z añade información sobre X.
de X, Y y Z;  Una definición alternativa, pero
 En otro caso X e Y se dicen equivalente, de independencia
condicionalmente dependientes dado Z. condicional es
 p(x, y|z) = p(x|z)p(y|z).
 Cuando X e Y son condicionalmente
independientes dado Z, se escribe
I(X, Y |Z) (relación de independencia  La independencia (incondicional) puede
condicional). ser tratada como un caso particular de la
 Cuando X e Y son condicionalmente independencia condicional. Por ejemplo,
dependientes dado Z, se escribe se puede escribir I(X, Y |Φ), para indicar
que X e Y son incondicionalmente
D(X, Y |Z) (relación de dependencia independientes.
condicional).
 Ahora bien, X e Y pueden ser
 También se escribe I(X, Y |Z)p o D(X, Y independientes incondicionalmente pero
|Z)p para indicar que la relación se deriva condicionalmente dependientes dado Z,
del modelo probabilístico asociado a la es decir, la relación de independencia
probabilidad p (la función de condicional I(X, Y | Φ) y la de
probabilidad conjunta). dependencia condicional D(X, Y |Z)
pueden satisfacersesimult´aneamente.
Ejemplo 3
 Del ejemplo anterior teníamos la
función de probabilidad conjunta
de las tres variables binarias X, Y y Z.
Se tenían las siguientes relaciones
de independencia condicional:
 I(X, Y | Φ),
 D(X,Z| Φ) y D(Y,Z| Φ).
 Por ejemplo, para determinar si X e
Y son independientes, se necesita  para todos los valores posibles de x, y y z. Para
comprobar si ello, se calculan las probabilidades:
p(x, y) = p(x)p(y)
 para todos los valores posibles de x
e y.
 También se puede determinar si
cualesquiera dos variables son
condicionalmente independientes  En esta tabla puede verse que
dada una tercera variable. p(x|y, z) ≠ p(x|z) y, por tanto, D(X, Y |Z).
 Por ejemplo, para comprobar si X e  Por ello, la función de probabilidad conjunta
Y son condicionalmente implica que X e Y son incondicionalmente
independientes dado Z, es independientes,
necesario comprobar si I(X, Y |Φ), aunque son condicionalmente
p(x|y, z) = p(x, y, z)/p(y, z) = p(x|z) dependientes dado Z, D(X, Y |Z).
Teorema de Bayes
 Supongamos que se tienen n
síntomas {S1, . . . , Sn}. Ahora,
dado que el paciente tiene un
conjunto de síntomas {s1, . . . ,
sk}, se desea calcular la
probabilidad de que el
paciente tenga la
 Supongamos que un paciente
enfermedad Ei, es decir, E = ei.
puede estar sano (no tiene Entonces, aplicando el
enfermedad alguna) o tiene una teorema de Bayes, se obtiene:
de m−1 enfermedades posibles {E1,
. . . , Em−1}. Sea E una variable
aleatoria que puede tomar uno de
m posibles valores, {e1, . . . , em},
donde E = ei significa que el
paciente tiene la enfermedad Ei, y
E = em significa que el paciente no
tiene ninguna enfermedad.
Teorema de Bayes. Notas
 Comentarios sobre la fórmula anterior:
 La probabilidad p(ei) se llama probabilidad marginal, prior, “a
priori” o inicial de la enfermedad E = ei puesto que puede ser
obtenida antes de conocer los síntomas.
 La probabilidad p(ei|s1, . . . , sk) es la probabilidad posterior, “a
posteriori” o condicional de la enfermedad E = ei, puesto que
se calcula después de conocer los síntomas S1 = s1, . . . , Sk = sk.
 La probabilidad p(s1, . . . , sk|ei) se conoce por el nombre de
verosimilitud de que un paciente con la enfermedad E = ei
tenga los síntomas S1 = s1, . . . , Sk = sk.

 Por ello, se puede utilizar el teorema de Bayes para


actualizar la probabilidad “a posteriori” usando ambas, la
probabilidad “a priori” y la verosimilitud, tal como se
muestra en el ejemplo siguiente.
Teorema de Bayes. Ejemplo
 Un centro médico tiene una BD con
las historias clínicas de N = 1000
pacientes.
 Estas historias clínicas se resumen
gráficamente en la figura. Hay 700
 pacientes (región sombreada) que
tienen la enfermedad
adenocarcinoma gástrico (G), y
300 que no la tienen (se considera
estar sano como otro valor posible
de la enfermedad). Tres síntomas,
dolor (D), pérdida de peso (P) y
vómitos (V ), se considera que
están ligados a esta enfermedad.
Por tanto, cuando un paciente
nuevo llega al centro médico, hay
una probabilidad 700/1000 = 70%
de que el paciente tenga
adenocarcinoma gástrico. Esta es
la probabilidad inicial, o “a priori”,
puesto que se calcula con la
información inicial, antes de
conocer información alguna sobre
el paciente.
Teorema de Bayes. Ejemplo
 Por simplicidad de notación, se utiliza g  Puesto que la probabilidad inicial
para indicar que la enfermedad está de que el paciente tenga
presente y 𝑔 para indicar que la adenocarcinoma gástrico, p(g) =
enfermedad está ausente. Pueden 0.7, no es suficientemente alta para
hacerse las afirmaciones: hacer un diagnóstico (tomar una
 probabilidad “a priori”: 440 de 1,000 decisión ahora implica una
pacientes vomitan  p(v) = card(v)/N = probabilidad 0.3 de equivocarse),
440/1, 000 = 0.44, donde card(v) denota el doctor decide examinar al
el número de pacientes de la base de paciente para obtener más
datos que vomitan. Esto significa que el información.
44% de los pacientes vomitan.
 Verosimilitud: El 50% de los pacientes que  Supóngase que los resultados del
tienen la enfermedad vomitan, puesto examen muestran que el paciente
que p(v|g) = card(v, g)/card(g) = tiene los síntomas vómitos (V = v) y
350/700 = 0.5, mientras y sólo 30% de los pérdida de peso (P = p). Ahora,
pacientes que no tienen la enfermedad dada la evidencia (el paciente
vomitan, puesto que p(v|𝑔) = card(v, tiene esos síntomas), ¿cuál es la
𝑔)/card(𝑔) = 90/300 = 0.3. probabilidad de que el paciente
 Verosimilitud: El 45% de los pacientes que tenga la enfermedad? Esta
tienen la enfermedad vomitan y pierden probabilidad “a posteriori” puede
peso, p(v, p|g) = card(v, p, g)/card(g) = ser obtenida de la probabilidad “a
315/700 = 0.45, mientras que s´olo el 12% priori” y de las verosimilitudes,
de los que no tienen la enfermedad aplicando el teorema de Bayes en
vomitan y pierden peso, p(v, p|𝑔) = dos etapas, como sigue:
card(v, p, 𝑔)/card(𝑔) = 35/300 ≈ 0.12.
Teorema de Bayes. Ejemplo
 Tras observar que V = v la  Cuando se aplica el teorema de Bayes
sucesivamente, la probabilidad “a posteriori”
probabilidad “a posteriori” es calculada en una etapa dada es la misma que
la probabilidad “a priori” en la etapa siguiente.
Por ejemplo, la probabilidad “a posteriori”, que
se ha calculado en la primera etapa anterior,
puede ser usada como probabilidad “a priori” en
la segunda etapa, es decir:

 Tras observar que V = v y P = p


la probabilidad “a posteriori”
es  La probabilidad cambia tras observar las
evidencias. La probabilidad de tener la
enfermedad era inicialmente 0.7, después
aumentó a 0.795, y luego a 0.9 tras observar la
evidencia acumulada V = v y P = p,
respectivamente. Al final de la última etapa, el
paciente tiene una probabilidad 0.9de tener la
enfermedad. Puede ser suficientemente alta
(comparada con la probabilidad “a priori” 0.7)
para que el doctor diagnostique que el paciente
tiene la enfermedad. Sin embargo, sería
conveniente observar nuevas evidencias antes
de hacer este diagnóstico.
Conclusiones del Ejemplo
 La probabilidad cambia tras observar las evidencias.
 La probabilidad de tener la enfermedad era
inicialmente 0.7, después aumentó a 0.795, y luego a 0.9
tras observar la evidencia acumulada V = v y P = p,
respectivamente. Al final de la última etapa, el paciente
tiene una probabilidad 0.9 de tener la enfermedad.
 Esta probabilidad puede ser suficientemente alta
(comparada con la probabilidad “a priori” 0.7) para
que el doctor diagnostique que el paciente tiene la
enfermedad.
 No obstante, sería conveniente observar nuevas
evidencias antes de hacer este diagnóstico.
Tipos de Errores
 Los síntomas son observables pero las enfermedades no.
 Como están relacionados, los médicos utilizan los primeros
para el diagnóstico.
 Dificultad: la relación síntomas – enfermedad no es
perfecta, exacta.
 Ejemplo: los mismos síntomas pueden ser causados por
diferentes enfermedades, no hay un determinismo absoluto.
 Estudiando las relaciones el médico gana conocimiento y
experiencia para diagnosticar con mayor grado de
certeza.
 Sin embargo, la toma de decisiones en un ambiente de
incertidumbre puede conducir a decisiones incorrectas.
 Habría dos tipos de errores:
 Decisión positiva falsa (tipo I)
 Decisión negativa falsa (tipo II)
Tipos de Errores en el Ejemplo
 Posibles errores:
 Error de Tipo I: un paciente no tiene la enfermedad pero el doctor
concluye que la tiene.
 Error de Tipo II: Un paciente tiene la enfermedad pero el doctor
concluye que no la tiene.

 En la realidad (el estado de la naturaleza), un paciente puede


tener o no tener la enfermedad.
 El doctor tiene que tomar la decisión de si el paciente tiene o no,
la enfermedad.
 Esta decisión es correcta si coincide con el verdadero estado de la
naturaleza; en otro caso, la decisión es incorrecta.  cuando se
diagnostica, el doctor puede cometer uno de los dos errores
anteriores dependiendo del verdadero estado de la naturaleza.
Consecuencias de los errores
 Las consecuencias de los tipo de errores pueden
revestir distinta gravedad.
 Ejemplo: si la enfermedad sospechada es cáncer, el error
de Tipo II es más serio que el error de Tipo I.
 Si el paciente no tiene la enfermedad pero el doctor
concluye que la tiene, el paciente sufrirá psicológica y
físicamente (por efecto del tratamiento/operación). (Tipo I)
 Si el paciente tiene la enfermedad y el doctor concluye que
no la tiene, este error puede conducir a la muerte del
paciente. (Tipo II)
 El doctor debe reducir las probabilidades de cometer
esos errores al mínimo, pero los riesgos relativos
asociados a los dos tipos de errores deben tomarse en
consideración cuando se hace un diagnóstico.
Ejemplo
síntomas y enfermedades
 Supongamos un nuevo paciente con una
enfermedad desconocida a priori
 Tras el examen se detectan síntomas s1, s2, . . . , sk
 Pregunta: dados estos síntomas, ¿qué
enfermedad es la más probable que tenga el
paciente?
 Se puede responder calculando la probabilidad a
posteriori para cada posible enfermedad (E = ei),
es decir:
 p(ei|s1, s2, . . . , sk).
Ejemplo
síntomas y enfermedades
 Como el paciente tiene los síntomas s1, s2, . . . , sk
  la enfermedad más probable del paciente es la que maximice la
probabilidad, es decir, maxi{p(ei|s1, s2, . . . , sk)}.
 Si este valor está cerca de 1
  el doctor puede decidir que el paciente tiene la enfermedad.
 En otro caso
  se necesita un examen adicional o identificar nuevos síntomas.
 Se puede calcular la nueva probabilidad condicional para cada
enfermedad dados todos los síntomas acumulados (información).
 Este proceso debe repetirse, añadiendo más evidencia, hasta que
la probabilidad maxi{p(ei|s1, s2, . . . , sk)} sea cercana 1.
 Cuando ocurra, el médico podrá tomar una decisión y terminar el
proceso de diagnosis. El nivel de acercamiento a 1 deseado lo
fijará el doctor, dependiendo de los riesgos asociados a decisiones
erróneas.
Medición
de las consecuencias
de las decisiones
 Es necesario medir las consecuencias de nuestras
decisiones.
 Una forma de hacerlo son las
funciones de utilidad.
 Asignan un valor a toda posible decisión.
 Sea X la variable con función de probabilidad p(x) y sea
u(x) el valor asignado por la función de utilidad a la
decisión x.
 El valor esperado es:

 Se pueden asignar diferentes funciones de utilidad


ui(x); i = 1, . . . , q
a decisiones diferentes y optar por la decisión que maximiza
la utilidad.
Reglas generalizadas
 Primera aproximación a los sistemas probabilísticos.
 Se puede emplear la medida de probabilidad anterior para medir la
incertidumbre extendiendo los sistemas basados en reglas a
situaciones de incertidumbre.
 Esta primera aproximación consiste en utilizar
reglas generalizadas.
 Ejemplo: dada la regla determinista
 Regla 1: Si A es cierta, entonces B es cierta,
 asociar una probabilidad a esta afirmación
 Regla 2: Si A es cierta, entonces la probabilidad de que B sea cierta es
p(b) = θ, donde 0 ≤ θ ≤ 1 es una medida de la incertidumbre de B.
 La Regla 1 es un caso especial de la Regla 2 que se obtiene de la
Regla 2 haciendo θ = 1 (certeza). Pero cuando 0 < θ < 1
(incertidumbre), la Regla 1 ya no es apropiada.
 Por tanto, se puede pensar en la Regla 2 como una
regla generalizada.
Reglas generalizadas
 Según el valor de θ distinto nivel de implicación:
a) Implicación fuerte (θ = 1): según la lógica clásica, con las reglas
Modus Ponens y Modus Tollens, si la premisa de una regla es cierta,
su conclusión también. (Dada la regla: Si A es cierta, entonces B es
cierta,  A implica B con probabilidad 1.
b) Implicación débil (0 < θ < 1): A implica B sólo en algunas
ocasiones.  A implica B con probabilidad p(B = cierto|A =
cierto).
c) No implicación (θ = 0): A no implica B 
A implica B con probabilidad 0.
Uso de reglas generalizadas
 Requiere medidas de incertidumbre para objetos y reglas, y
fórmulas de agregación para combinar la incertidumbre de
los objetos en las premisas con la de las reglas para obtener
la de los objetos en las conclusiones.
 Así, toda afirmación (hecho) lleva una medida de
incertidumbre y, cuando se combinan varios hechos
inciertos, deben darse las conclusiones con sus medidas de
incertidumbre.
 Uno de los primeros sistemas expertos que utilizó la
probabilidad como medida de incertidumbre:
 PROSPECTOR, para exploración de mineral (Duda, Hart y Nilsson
(1976), Duda, Gaschnig y Hart (1980)).
 Se asocian probabilidades “a priori” a los objetos del
modelo, y probabilidades condicionales a las reglas.
Cuando se observa nueva evidencia,  utilizarse algún
método de propagación de probabilidades para
actualizarlas.
Limitaciones del uso
de reglas generalizadas
 Cuando se combinan hechos inciertos  deben darse las
conclusiones con sus correspondientes medidas de incertidumbre.
Para propagar las incertidumbres de la evidencia observada, son
necesarias hipótesis de independencia condicional que pueden
no estar justificadas (véase Neapolitan (1990), Capítulo 4).
 Es el caso, por ejemplo, de los métodos de la razón de verosimilitud
(Duda, Hart y Nilsson (1976)) desarrollados para propagar
probabilidades en PROSPECTOR, o los métodos de los factores de
certeza utilizados en el sistema MYCIN (véase Buchanan y Shortliffe
(1984)).
 En definitiva, como ya adelantamos al principio del tema, estos sistemas no
capturan correctamente las dependencias entre variables. Cuando se
dispara una regla el peso de la conclusión depende únicamente de las
premisas, independientemente de las fuentes de las que provenga.
 Presenta cierta incapacidad para representar ciertas dependencias entre
las observaciones y la forma en la que combina el conocimiento.
 Todo esto provoca la necesidad de encontrar otros formalismos para
trabajar con incertidumbre.
Alternativas
 Una alternativa de utilizar la medida de
probabilidad consiste en describir las relaciones
entre los objetos (variables) mediante una función
de probabilidad conjunta.
 A los sistemas expertos que utilizan las funciones
de probabilidad conjunta de las variables como
base para hacer la inferencia, se les conoce
como sistemas expertos de tipo probabilístico.
 A continuación se introducen los sistemas expertos
probabilísticos, se describe sus componentes, y se
comparan con los sistemas expertos basados en
reglas.

También podría gustarte