Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CAMPUS DIGITAL
PLAN CAPACITACIÓN DIGITAL CM
Imagínate que regresas a casa desde San Francisco, recién llegado de la Conferencia RSA. Estás deshaciendo la maleta, abres el cajón de tu cómoda
donde guardas tu ropa interior y, ¿qué descubres? ¡Una prenda de ropa interior que no te pertenece! Lógicamente, te preguntas: ¿cuál es la probabilidad
de que tu pareja te esté engañando? ¡Teorema de Bayes al rescate!
2 RAZONAMIENTO BAYESIANO
Teorema de la probabilidad total
Teorema Bayes
Ejemplos del razonamiento Bayesiano
ÍNDICE Probabilidad Relativa
Normalización
Teorema de Bayes simplificado
pero no escala.
Se necesitan mecanismos que permitan representación e inferencia más eficiente
utilizando:
Concepto de independencia
Regla de la cadena
Teorema de Bayes
En la inferencia por enumeración se suman los casos positivos para calcular la
probabilidad de los eventos buscados y luego se normaliza
En la inferencia por el teorema de Bayes se calcula la probabilidad a posteriori en
función de las probabilidades a priori, si es preciso usando la regla del producto o el
teorema de la probabilidad total
1. PROBABILIDAD
Aplicaciones de la IA ¿Y si el modelo es incorrecto o incompleto?
Tareas típicas: toma de decisiones, clasificación, predicción, . . . . ¿Qué es más probable?
¿Que es cierto? vs ... Uso de probabilidades: redes bayesianas,
Uso de lógica clásica: satisfacción proposicional, predicción de secuencias (reconocimiento de
RAZONAMIENTO CON
Para ello se necesita la distribución conjunta del conjunto de variables aleatorias VA.
▲
Incertidumbre Probabilidad P. Conjunta P. Razonamiento Bayesiano Ejemplos
Condicional
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Ejemplos
Bayesiano
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Ejemplos
Bayesiano
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Ejemplos
Bayesiano
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Ejemplos
Bayesiano
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Ejemplos
Bayesiano
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Ejemplos
Bayesiano
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Ejemplos
Bayesiano
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
20 / 40
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Ejemplos
Bayesiano
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
20 / 40
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
¡Pero... no escala!
En problemas reales puede haber cientos o miles de variables Es
imposible definir todas las probabilidades y trabajar con ellas
¡Pero es la base teórica para otras aproximaciones que escalan mejor!
25 / 40
▲
PROBABILIDAD CONDICIONAL
Probabilidad incondicional
La interpretación de las probabilidades utilizadas hasta ahora nos dan el grado de creencia en una proposición asumiendo que no se sabe
nada más.
Así P(Sarampión) significa la probabilidad de que el paciente tenga sarampión asumiendo que no se sabe nada más.
A estas probabilidades se las llama probabilidades incondicionales o probabilidades a priori.
Cuando aprendemos algo nuevo (por ejemplo el paciente tiene manchas) deberíamos cambiar nuestro grado de creencia
en que el paciente tenga sarampión.
Sin embargo, el valor de P(Sarampión) no se altera cuando se aprende algo nuevo puesto que expresa “asumiendo que
no se sabe nada más”.
En lugar de esto se representa el impacto de la nueva información mediante una proposición distinta.
Probabilidad condicional
P( A B)
P( A | B)
P( B)
EJEMPLO
EJEMPLO
EJEMPLO
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Ejemplos
Bayesiano
Distribución conjunta:
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
Σ
P(A) = P(e)
e∈A
24 / 40
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Ejemplos
Bayesiano
Distribución conjunta:
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
Σ
P(A) = P(e)
e∈A
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
Normalización
¿Cómo calcular P(Caries|dolorDeDientes = V)? (donde ”Caries”
es la variable aleatoria)
Distribución conjunta:
dolorDeDientes ¬ dolorDeDientes
engancha ¬ engancha engancha ¬ engancha
caries 0.108 0.012 0.072 0.008
¬ caries 0.016 0.064 0.144 0.576
P(dolorDeDientes)
P(dolorDeDientes)
= α(P(caries ∧ dolorDeDientes), P(¬caries ∧ dolorDeDientes)⟩
= α(0 .10 8 + 0.012, 0.016 + 0.064⟩
= α ( 0 . 1 2 , 0.08⟩ = ( 0 . 6 , 0.4⟩
24 / 40
▲
PROPIEDASDES PROBABILIDAD
Si A y B son mutuamente excluyentes: P(A,B) =0 P(A | B) = 0 = P(B | A).
Si A B entonces P(B | A) = 1
CONJUNTA/CONDICIONAL
Ejemplo 1
Árbol de probabilidad condicional:
• Los caminos representan intersecciones, y cada arco es
En un aula el 70% de los alumnos son mujeres. De ellas el 10% una probabilidad condicional
son fumadoras. De los hombres, son fumadores el 20%. • Las bifurcaciones representan uniones disjuntas.
Ejemplo 2
Probabilidades a priori
P(Enfermo = si) = 0.008
P(Enfermo = no) = 0.992
Probabilidades condicionadas: P(Test_laboratorio | Paciente_enfermo)
Enfermo = si Enfermo = no
Test = ⊕ 0.98 0.03
Test = - 0.02 0.97
1.Predicción: ej. determinar si una zona se inundará según la situación meteorológica actual
P(Inundación/Meteorología)
2.Diagnóstico: ej. determinar si una persona tiene una enfermedad según unos resultados de pruebas
P(Enfermedad/Resultados_pruebas)
3.Clasificación: determinar a qué clase pertenecen unas observaciones. Ej. dada una imagen determinar si contiene un gato o un
perro:
P(clase = gato/características_imagen)
P(clase = perro/características_imagen)
4.Toma de decisiones: elegir acciones más útiles (maximizan la utilidad esperada), dada cierta evidencia.
UtilidadEsperada(Accion = j)
= Σi P(Salida = i|Accion = j, evidencia) × P (Salida = i)
Ej.
UtilidadEsperada(Accion = tratamientoj)
= Σi P(Salida = i|Accion = tratamientoj, test_negativo) × P (Salida = i),
siendo i =enfermo, no_enfermo)
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
P(Efecto|Causa)P(Causa)
P(Causa|Efecto) =
P(Efecto)
Razonamiento Bayesiano
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
P(e|h) h1 h2 h3
e1 0.30 0.25 0.20 P(h1|e4)= P(e4|h1)P(h1)= 0.05 0.46 = 0.023
P(h1)=0.46 P(h2|e4)= P(e4|h2)P(h2)= 0.10 0.36 = 0.036
P(h2)=0.36 e2 0.40 0.35 0.50
P(h3|e4)= P(e4|h3)P(h3)= 0.20 0.18 = 0.036
P(h3)=0.18 e3 0.25 0.30 0.10
e4 0.05 0.10 0.20 0.023 + 0.036 + 0.036 = 1 =10.526
Si consideramos que X e Y son variables independientes,
BAYES SIMPLIFICADO
Tomas Bayes
Teorema de Bayes simplificado 1702-1761
P(H | X,Y) = αP(H) P (X | H) P (Y | H),
donde α es la constante de normalización que hace que
todos los términos P(h | x,y) sumen 1.
3. APLICACIONES
DEL RAZONAMIENTO
BAYESIANO
Contexto:
Un aula, en la que algunos son fumadores.
Variables:
CASO 1: PREDICCIÓN
Datos:
En un aula el 70 % de los alumnos son mujeres:
P(m) = 0.7; P(¬m) = 0.3
De ellas el 10 % son fumadoras:
P(f |m) = 0.1
De los hombres, el 20 % fuma:
P(f |¬m) = 0.2.
Fumador
38 / 40
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
P(f )
= P(f , m) + P(f , ¬ m)
P(f |¬m) = P(f |m) = = P(f |m)P(m) + P(f |
0.2 0.1 ¬m)P(¬ m)
= 0.1 × 0.7 + 0.2 × 0.3 = 0.13
38 / 40
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
P(f )
= P(f , m) + P(f , ¬ m)
P(f |¬m) = P(f |m) = = P(f |m)P(m) + P(f |
0.2 0.1 ¬m)P(¬ m)
= 0.1 × 0.7 + 0.2 × 0.3 = 0.13
P(¬ m, P(f |¬m)P(¬ m) 0.2 × 0.3
P(¬ m|f ) = = = 0.4615
f ) P(f P(f 0.13
=
) )
38 / 40
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
donde descubrimos
1
1
α = =
0.13 P(F )
CASO 2. DIAGNÓSTICO MÉDICO Ejemplo -¿Qué probabilidad tengo de estar
1. Al llegar un individuo a la consulta tenemos una idea a priori enfermo?
sobre la probabilidad de que tenga una enfermedad. - En principio un 20%. Le haremos unas
2. A continuación se le pasa una prueba diagnóstica que nos pruebas.
aportará nueva información: Presenta glucosuria o no.
3. En función del resultado tenemos una nueva idea (a posteriori)
sobre la probabilidad de que esté enfermo.
Nuestra opinión a priori ha sido modificada por el
resultado de un experimento. - Presentaglucosuria. La probabilidad
ahora es del 88%.
Conceptos
Partimos de la estimación de P(Enfermo) (prob. a priori)
• Prevalencia: % de la población que presenta una
enfermedad.
Aplicamos una prueba diagnóstica, de la cual sabemos:
• Sensibilidad (verdaderos +)= Tasa de acierto sobre
enfermos.
• Especificidad (verdaderos -)= Tasa de acierto sobre
sanos.
Índices predictivos: Usando T. de Bayes, podemos calcular las
probabilidades a posteriori (en función de los resultados del test):
• Índice Predictivo Positivo= P(Enfermo | Test +)
• Índice Predictivo Negativo =P(Sano | Test -)
¿Y si hay varias posibles enfermedades H1,H2,...,Hm ? ¿Y si hay varias enfermedades y varios tests E1,E2,...,Em?
CASO 2. DIAGNÓSTICO MÉDICO • Se asume que no pueden coexistir en el paciente • Enfermedad más probable dadas las evidencias: necesitamos
(exclusividad mutua) y que el paciente tiene una de las calcular el máximo de
enfermedades (completitud). P(H|E1,E2,...,Em)=P(E1,E2,...,Em| H)P(H)/P(E1,E2,...,Em)
• En estas condiciones se puede aplicar la forma general del • Si al paciente se le hace un conjunto de 30 pruebas y por simplificar
Teorema de Bayes. se supone que cada una da como resultado sí o no.
• Se necesita: – Entonces para almacenar la tabla de probabilidad conjunta
– La prevalencia de cada enfermedad: P(hi) P(E1,E2,...,Em |hi) se necesitan guardar unos 2e30 números
– La sensibilidad y especificidad del test para cada reales (unos 10 Terabytes por paciente)
enfermedad: P(e|hi), P(¬ e| ¬ hi). – ¿Cómo estimamos los números a partir de casos (en la
• Se toma la enfermedad con mayor probabilidad: max P(H| Tierra hay 2e32 personas aproximadamente)?
E) – ¿Cómo optimizamos computación?
Distancia
Región de incertidumbre
Cámara: Comparación de firmas
xy
r
x y
(xi mx )( yi m y ) (x i mx ) 2
xy i
x i
N N
( yi my )2
y i
Movimientos de los Robots [0, 200 ] N
Hipótesis:
Humano (H) ->
p(H) = 0,4
Robot (R) -> p(R) =
0.6
Toma de decisiones:
CASO 3. TOMA DE DECISIONES
¿Probabilidad que sea humano cuando los tres sensores dicen que es humano?
¿Probabilidad que sea humano cuando los sensores sonar y temperatura dicen que es humano y el sensor
cámara dice que es robot?
¿Probabilidad que sea humano cuando el sensor sonar dice que es humano y los sensores temperatura y
cámara dicen que es robot?
¿Probabilidad que sea humano cuando los tres sensores, sonar, temperatura y cámara, dicen que es robot?
¿Probabilidad que sea robot cuando los tres sensores dicen que es humano?
¿Probabilidad que sea robot cuando los tres sensores dicen que es robot?