Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CAMPUS DIGITAL
PLAN CAPACITACIÓN DIGITAL CM
Imagínate que regresas a casa desde San Francisco, recién llegado de la Conferencia RSA. Estás deshaciendo la maleta, abres el cajón de tu cómoda
donde guardas tu ropa interior y, ¿qué descubres? ¡Una prenda de ropa interior que no te pertenece! Lógicamente, te preguntas: ¿cuál es la
probabilidad de que tu pareja te esté engañando? ¡Teorema de Bayes al rescate!
2 RAZONAMIENTO BAYESIANO
Teorema de la probabilidad total
Teorema Bayes
Ejemplos del razonamiento Bayesiano
ÍNDICE Probabilidad Relativa
Normalización
Teorema de Bayes simplificado
Para ello se necesita la distribución conjunta del conjunto de variables aleatorias VA.
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
dolorDeDientes ¬ dolorDeDientes
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
dolorDeDientes ¬ dolorDeDientes
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
dolorDeDientes ¬ dolorDeDientes
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
dolorDeDientes ¬ dolorDeDientes
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
dolorDeDientes ¬ dolorDeDientes
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
dolorDeDientes ¬ dolorDeDientes
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
dolorDeDientes ¬ dolorDeDientes
20 / 40
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
dolorDeDientes ¬ dolorDeDientes
20 / 40
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
¡Pero... no escala!
En problemas reales puede haber cientos o miles de variables
Es imposible definir todas las probabilidades y trabajar con ellas
¡Pero es la base teórica para otras aproximaciones que escalan mejor!
25 / 40
▲
Probabilidad incondicional
PROBABILIDAD CONDICIONAL
La interpretación de las probabilidades utilizadas hasta ahora nos dan el grado de creencia en una proposición
asumiendo que no se sabe nada más.
Así P(Sarampión) significa la probabilidad de que el paciente tenga sarampión asumiendo que no
se sabe nada más.
A estas probabilidades se las llama probabilidades incondicionales o probabilidades a priori.
Cuando aprendemos algo nuevo (por ejemplo el paciente tiene manchas) deberíamos cambiar
nuestro grado de creencia en que el paciente tenga sarampión.
Sin embargo, el valor de P(Sarampión) no se altera cuando se aprende algo nuevo puesto que
expresa “asumiendo que no se sabe nada más”.
En lugar de esto se representa el impacto de la nueva información mediante una proposición distinta.
Probabilidad condicional
P( A B)
P( A | B)
P( B)
EJEMPLO
EJEMPLO
EJEMPLO
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
Distribución conjunta:
dolorDeDientes ¬ dolorDeDientes
24 / 40
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
Distribución conjunta:
dolorDeDientes ¬ dolorDeDientes
24 / 40
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
dolorDeDientes ¬ dolorDeDientes
24 / 40
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
Normalización
¿Cómo calcular P(Caries|dolorDeDientes = V)? (donde ”Caries”
es la variable aleatoria)
Distribución conjunta:
dolorDeDientes ¬ dolorDeDientes
24 / 40
▲
Si A y B son mutuamente excluyentes: P(A,B) =0 P(A | B) = 0 = P(B | A).
PROPIEDASDES PROBABILIDAD
Si A B entonces P(B | A) = 1
CONJUNTA/CONDICIONAL
P(Caries/DolorDeDientes,
¡Podemos definir la probabilidad conjunta mediante Engancha)P(DolorDeDientes, Engancha) =
probabilidades condicionales! P(Caries/DolorDeDientes,
Engancha)P(DolorDeDientes/Engancha)P(Engancha)
2. RAZONAMIENTO
BAYESIANO
TEOREMA DE LA PROBABILIDAD TOTAL A y B son independientes si y sólo la ocurrencia
de uno de ellos no afecta a la ocurrencia del
Reducción de tamaño de distribución
otro
de 2exp3 · 6 = 48 probabilidades
P(A|B) = P(A), ó
a 2exp3 + 6 = 14
P(B|A) = P(B), ó
Menor tamaño implica:
P(A, B) = P(A)P(B)
Algoritmos más eficientes
Ejemplo
Menos datos (probabilidades) a especificar
P(DolorDeDientes, Caries, Engancha, D1) =
P(DolorDeDientes, Caries, Engancha)P(D1)
Ejemplo 1
Árbol de probabilidad condicional:
• Los caminos representan intersecciones, y
En un aula el 70% de los alumnos son mujeres. De cada arco es una probabilidad condicional
ellas el 10% son fumadoras. De los hombres, son • Las bifurcaciones representan uniones
fumadores el 20%. disjuntas.
Ejemplo 2
Probabilidades a priori
P(Enfermo = si) = 0.008
P(Enfermo = no) = 0.992
Probabilidades condicionadas: P(Test_laboratorio | Paciente_enfermo)
Enfermo = si Enfermo = no
Test = ⊕ 0.98 0.03
Test = - 0.02 0.97
1. Predicción: ej. determinar si una zona se inundará según la situación meteorológica actual
P(Inundación/Meteorología)
2. Diagnóstico: ej. determinar si una persona tiene una enfermedad según unos resultados de pruebas
P(Enfermedad/Resultados_pruebas)
3. Clasificación: determinar a qué clase pertenecen unas observaciones. Ej. dada una imagen determinar si
contiene un gato o un perro:
P(clase = gato/características_imagen)
P(clase = perro/características_imagen)
4. Toma de decisiones: elegir acciones más útiles (maximizan la utilidad esperada), dada cierta evidencia.
UtilidadEsperada(Accion = j)
= Σi P(Salida = i|Accion = j, evidencia) × P (Salida = i)
Ej.
UtilidadEsperada(Accion = tratamientoj)
= Σi P(Salida = i|Accion = tratamientoj, test_negativo) × P (Salida = i),
siendo i =enfermo, no_enfermo)
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
P(Efecto|Causa)P(Causa)
P(Causa|Efecto) =
P(Efecto)
Razonamiento Bayesiano
▲
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
C = “rigidez cuello”
L = “latigazos”en el cuello
P(C / M)=0.5 P(M)=1/50000
P(C | L)=0.8 P(L)=1/1000
P(e|h) h1 h2 h3
P(h1|e4)= P(e4|h1)P(h1)= 0.05 0.46 = 0.023
P(h1)=0.46 e1 0.30 0.25 0.20
P(h2|e4)= P(e4|h2)P(h2)= 0.10 0.36 = 0.036
P(h2)=0.36 e2 0.40 0.35 0.50 P(h3|e4)= P(e4|h3)P(h3)= 0.20 0.18 = 0.036
P(h3)=0.18 e3 0.25 0.30 0.10
0.023 + 0.036 + 0.036 = 1 =10.526
e4 0.05 0.10 0.20
Si consideramos que X e Y son variables
independientes, considerando la presencia de
BAYES SIMPLIFICADO
H, entonces
P(X | Y,H) = P(X | H) o P(X,Y/H)= P(X/H) P(Y/H)
Tomas Bayes
1702-1761
Teorema de Bayes simplificado
P(H | X,Y) = αP(H) P (X | H) P (Y | H),
donde α es la constante de normalización que
hace que todos los términos P(h | x,y) sumen 1.
3. APLICACIONES
DEL RAZONAMIENTO
BAYESIANO
Contexto:
Un aula, en la que algunos son fumadores.
Variables:
M proposicional. m si es mujer, ¬m si es hombre.
CASO 1: PREDICCIÓN
Datos:
En un aula el 70 % de los alumnos son mujeres:
P(m) = 0.7; P(¬m) = 0.3
De ellas el 10 % son fumadoras:
P(f |m) = 0.1
De los hombres, el 20 % fuma:
P(f |¬m) = 0.2.
Fumador
38 / 40
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
P(f )
= P(f , m) + P(f , ¬ m)
P(f |¬m) = 0.2 P(f |m) = 0.1 = P(f |m)P(m) + P(f |¬m)P(¬ m)
= 0.1 × 0.7 + 0.2 × 0.3 = 0.13
38 / 40
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
P(f )
= P(f , m) + P(f , ¬ m)
P(f |¬m) = 0.2 P(f |m) = 0.1 = P(f |m)P(m) + P(f |¬m)P(¬ m)
= 0.1 × 0.7 + 0.2 × 0.3 = 0.13
38 / 40
Incertidumbre Probabilidad P. Conjunta P. Condicional Razonamiento Bayesiano Ejemplos
donde descubrimos
1 1
α= =
0.13 P(F )
Ejemplo
CASO 2. DIAGNÓSTICO MÉDICO
-¿Qué probabilidad tengo de
1. Al llegar un individuo a la consulta tenemos una idea
estar enfermo?
a priori sobre la probabilidad de que tenga una - En principio un 20%. Le haremos
enfermedad. unas pruebas.
2. A continuación se le pasa una prueba diagnóstica
que nos aportará nueva información: Presenta
glucosuria o no.
3. En función del resultado tenemos una nueva idea (a
posteriori) sobre la probabilidad de que esté enfermo. - Presentaglucosuria. La
Nuestra opinión a priori ha sido modificada por probabilidad ahora es del 88%.
el resultado de un experimento.
Conceptos
Partimos de la estimación de P(Enfermo) (prob. a priori)
• Prevalencia: % de la población que presenta
una enfermedad.
Aplicamos una prueba diagnóstica, de la cual sabemos:
• Sensibilidad (verdaderos +)= Tasa de acierto
sobre enfermos.
• Especificidad (verdaderos -)= Tasa de acierto
sobre sanos.
Índices predictivos: Usando T. de Bayes, podemos
calcular las probabilidades a posteriori (en función de
los resultados del test):
• Índice Predictivo Positivo= P(Enfermo | Test +)
• Índice Predictivo Negativo =P(Sano | Test -)
¿Y si hay varias posibles enfermedades H1,H2,...,Hm ? ¿Y si hay varias enfermedades y varios tests E1,E2,...,Em?
CASO 2. DIAGNÓSTICO MÉDICO • Se asume que no pueden coexistir en el • Enfermedad más probable dadas las evidencias:
paciente (exclusividad mutua) y que el paciente necesitamos calcular el máximo de
tiene una de las enfermedades (completitud). P(H|E1,E2,...,Em)=P(E1,E2,...,Em| H)P(H)/P(E1,E2,...,Em)
• En estas condiciones se puede aplicar la forma • Si al paciente se le hace un conjunto de 30 pruebas y
general del Teorema de Bayes. por simplificar se supone que cada una da como
• Se necesita: resultado sí o no.
– La prevalencia de cada enfermedad: – Entonces para almacenar la tabla de
P(hi) probabilidad conjunta P(E1,E2,...,Em |hi) se
– La sensibilidad y especificidad del test necesitan guardar unos 2e30 números reales
para cada enfermedad: P(e|hi), P(¬ e| (unos 10 Terabytes por paciente)
¬ hi). – ¿Cómo estimamos los números a partir de casos
• Se toma la enfermedad con mayor (en la Tierra hay 2e32 personas
probabilidad: max P(H|E) aproximadamente)?
– ¿Cómo optimizamos computación?
Distancia
Región de incertidumbre
Cámara: Comparación de firmas
xy
r
x y
(x i mx )( yi my ) (xi mx ) 2
xy i
x i
N N
(y i my ) 2
Hipótesis:
Humano (H) ->
p(H) = 0,4
Robot (R) -> p(R)
= 0.6
Toma de decisiones:
CASO 3. TOMA DE DECISIONES
¿Probabilidad que sea humano cuando los tres sensores dicen que es humano?
¿Probabilidad que sea humano cuando los sensores sonar y temperatura dicen que es
humano y el sensor cámara dice que es robot?
¿Probabilidad que sea humano cuando el sensor sonar dice que es humano y los
sensores temperatura y cámara dicen que es robot?
¿Probabilidad que sea humano cuando los tres sensores, sonar, temperatura y cámara,
dicen que es robot?
¿Probabilidad que sea robot cuando los tres sensores dicen que es humano?
¿Probabilidad que sea robot cuando los tres sensores dicen que es robot?