Está en la página 1de 10

REDES Y MTODOS BAYESIANOS

1.

METODOS BAYESIANOS

Que son los mtodos bayesianos?


Los mtodos bayesianos, con una interpretacin diferente del concepto de probabilidad, constituyen una alternativa a la estadstica tradicional centrada en el contraste de hiptesis, denominada por contraposicin estadstica frecuentista, y estn siendo motivo actual de debate. En esencia se diferencian en que incorporan informacin externa al estudio para con ella y los propios datos observados estimar una distribucin de probabilidad para la magnitud -efecto- que se est investigando.

Teorema de Bayes
Dado un conjunto de entrenamiento D, ms conocimiento a priori de la probabilidad de las distintas hiptesis de H, Cul es la hiptesis ms probable? Vamos a llamar P (A) a la probabilidad de que ocurra el suceso A. P (A.B) a la probabilidad de que ocurran los sucesos A y B (ambos). P (A/B) a la probabilidad de que ocurra A cuando sabemos que ha ocurrido B (se denomina probabilidad condicionada). La probabilidad de que ocurra A y B es igual a la probabilidad de B multiplicada por la probabilidad de A condicionada a que haya ocurrido B. P (A.B) = P (B) P (A/B) = P (A) P (B/A) Por simetra es obvio que se cumple la tercera igualdad. Si tenemos un conjunto de posibles sucesos Ai (A1 ...An ), mutuamente excluyentes (no puede ocurrir dos de ellos a la vez) y que constituyen todas las posibles situaciones (o lo que es lo mismo P (A1 ) + P (A2 ) + ... + P (An ) = 1, el que ocurra alguno de los sucesos A tiene probabilidad 1, suceso seguro). Lo representamos grcamente en la gura. El cuadrado corresponde a todas las situaciones posibles, que en este caso pueden dividirse

en tres: A1 , A2 , A3 . El suceso B se puede producir en cualquiera de las tres situaciones.

Figura 1: Conjunto de posibles sucesos Si reescribimos ahora la anterior ecuacin por ejemplo para A1 tenemos: P (A1 .B) = P (A1 /B)xP (B) = P (B/A1 )xP (A1 ) Con un poco de lgebra elemental tenemos: P (B/A1 ) P (A1 ) P (B) P (B Ai ) = P (B/Ai ) P (Ai )

P (A1 /B) =

P (B) = P (B A1 ) + P (B A2 ) + P (B A3 ) = P (A1 /B) =

P (B/A1 ) P (A1 ) P (B/Ai ) P (Ai )

Que constituye el famoso teorema de Bayes. Para cualquiera de las otras situaciones (A2 , A3 ) la frmula es similar.

Funcionamiento
En la metodologa estadstica clsica -frecuentista- se calcula la probabilidad de observar un resultado suponiendo que la realidad sea de una manera determinada (hiptesis nula), sin embargo en la prctica necesitamos los conocimientos para tomar decisiones, y lo que realmente nos interesa es conocer la probabilidad de que las cosas sean de una manera determinada dados los datos (condicionado a..) que hemos observado. Esta es la diferencia que radica en el enfoque bayesiano. En el caso de las pruebas diagnsticas lo que nos interesa en la prctica es el valor predictivo, positivo o negativo, de la prueba no la sensibilidad o especicidad de stas. Aunque estamos habituados a la presentacin de los mtodos bayesianos con sucesos binarios o dicotmicos (enfermo o sano), tambin son aplicables cuando los resultados 2

son continuos (por ejemplo proporcin de pacientes que sobreviven). En el anlisis estadstico clsico para evaluar por ejemplo la ecacia de un nuevo tratamiento frente al tratamiento anterior se utiliza exclusivamente la informacin obtenida en el estudio, ensayo clnico o experimento. Por el contrario en la metodologa bayesiana es fundamental el concepto de probabilidad a priori (o prior, equivalente Al conocimiento de la prevalencia en las pruebas diagnsticas). El anlisis comienza resumiendo cuantitativamente la informacin previa existente y externa al estudio, cuyo origen puede ser diverso, desde datos de laboratorio, otros estudios, opinin de expertos o incluso la propias creencias. Supongamos que se est comparando la tasa de mortalidad, cuanticada mediante el logaritmo del odds ratio. Para utilizar la terminologa habitual vamos a llamar a esa magnitud que interesa calcular . Lo primero que hay que determinar es la distribucin de probabilidad de esa magnitud con la informacin externa de la que se dispone, es lo que se denomina probabilidad a priori y vamos a representar como P () . Seguidamente se cuantica la informacin que aportan los datos observados en nuestro estudio mediante lo que se denomina funcin de verosimilitud (likelihood), que denotaremos como P (Datos/). La verosimilitud representa la probabilidad de los datos observados para cualquier valor del parmetro . Podemos ahora utilizar el teorema de Bayes para actualizar el valor a priori P () a la luz de los datos obtenidos y calcular P (/Datos) , la denominada funcin de probabilidad a posteriori, es decir cmo de probables son los diferentes valores posibles de una vez obtenidos nuestros datos. Segn el teorema de Bayes tenemos que: P (/Datos)P () P (Datos/) Donde el smbolo indica que el lado de la izquierda es proporcional al lado de la derecha, es decir que son iguales salvo por un trmino constante (el denominador del teorema de Bayes) que no depende del parmetro de inters . As pues los resultados se expresan como una funcin de la probabilidad a posteriori de los diferentes valores de . Este proceso se puede representar de forma grca, como ahora veremos. Supongamos que se est comparando la diferencia entre las medias de la presin arterial sistlica de dos grupos de pacientes. En la siguiente gura la curva de la parte superior representa la distribucin de probabilidad que se espera para la diferencia entre las medias a priori, de acuerdo con la informacin de la que se dispone. La curva de la parte central representa la funcin de verosimilitud obtenida a partir de los datos del estudio: probabilidad para cada posible valor de esa diferencia en funcin de los datos. Por ltimo la curva de la parte inferior corresponde a la distribucin de probabilidad a posteriori obtenida al combinar ambas curvas, la correspondiente a la informacin previa y la obtenida en nuestro estudio.

Figura 2: Comparacin de distribuciones y verosimilitud. Ahora las inferencias sobre el parmetro que se estudia en el ejemplo la diferencia en cuanto a la media de la PAS entre los grupos- se basan en utilizar la distribucin a posteriori as calculada: podemos obtener a partir de ella, por ejemplo, un valor medio y una dispersin. Se denomina Intervalo de credibilidad a quel que garantiza que incluye el verdadero valor de con una probabilidad dada, por ejemplo del 95 %. Tambin puede utilizarse la distribucin a posteriori para evaluar la probabilidad de que tenga un valor igual o mayor que un valor concreto para tomar una decisin.

1.1.

EJEMPLOS Y APLICACIONES

La aplicacin ms intuitiva en medicina este teorema, y con la que todo el mundo est familiarizado, la encontramos en el campo de las pruebas diagnsticas, y nos permite, conociendo la prevalencia de una enfermedad en la poblacin a la que pertenece un individuo y los valores de sensibilidad y especicidad de la prueba, calcular la probabilidad de que un sujeto que ha dado positivo en el test, verdaderamente tenga esa enfermedad. Si llamamos P a la probabilidad a priori de que el sujeto est enfermo, y Q = 1 P 4

a su complementaria, S a la sensibilidad y E a la especicidad de la prueba T ; aplicando el teorema de Bayes podemos calcular la probabilidad de que un sujeto est verdaderamente enfermo cuando dio positivo (valor predictivo positivo de la prueba) y la probabilidad de que no est enfermo cuando dio negativo (valor predictivo negativo). Sin ms que reescribir la frmula anterior del teorema de Bayes tenemos P S P S + Q (1 E) QE Q cdotE + P (1 S)

P (Enf./T +) = P (N Enf./T ) =

Pongamos algunos nmeros en estas frmulas: si sabemos que la prevalencia en la poblacin del VIH es de 1/1000 y que el test de VIH que efectuamos tiene una sensibilidad del 98 % y una especidad del 98 % cul es la probabilidad de que un sujeto que ha resultado positivo sea verdaderamente portador del VIH? Substituyendo esos valores en la primera de las frmulas anteriores obtenemos una probabilidad de 0.047, o lo que es lo mismo cerca del 95 % de los positivos obtenidos en el test son realmente falsos positivos!. Esto inicialmente choca con nuestra intuicin, cmo puede ser que una prueba con una sensibilidad y especicidad altas parezca en la prctica tan mala?. El problema radica en el valor de la prevalencia que es muy bajo y si se reere a la poblacin general probablemente no ser aplicable a un sujeto que acude a consulta a un hospital y al que se le realiza la prueba porque hay otros motivos de sospecha porque pertenece a un grupo de riesgo, porque presenta sntomas especcos...- y entonces ya no es aplicable la prevalencia de la poblacin general, sino la del subgrupo de poblacin al que pertenece y en el que la prevalencia (probabilidad a priori) de padecer la enfermedad ser radicalmente mayor. Sin embargo los clculos s que son vlidos si estamos pensando en la poblacin general, por ejemplo porque valoramos la posibilidad de plantear un programa de screening y habr que considerar entonces el coste social, personal y econmico que supone el tener un gran nmero de falsos positivos, frente al benecio de detectar verdaderos enfermos, no vaya ocurrir que sea el propio diagnstico el que cree una epidemia. Partiendo de este pequeo repaso al teorema de Bayes, que en esencia es un razonamiento plasmado en una frmula que nos permite, como en el ejemplo anterior, modicar la probabilidad conocida de que ocurra un suceso cuando tenemos nueva informacin al respecto.

1.2.

DIFICULTADES
Requiere conocer un elevado nmero de probabilidades Elevado coste computacional en el proceso de actualizacin de probabilidades

2.

REDES BAYESIANAS

Una red bayesiana, o red de creencia, es un modelo probabilstico multivariado que relaciona un conjunto de variables aleatorias mediante un grafo dirigido que indica explcitamente inuencia causal. Gracias a su motor de actualizacin de probabilidades, el Teorema de Bayes, las redes bayesianas son una herramienta extremadamente til en la estimacin de probabilidades ante nuevas evidencias. Una red bayesiana es un tipo de red causal. Un hbrido de red bayesiana y Teora de la Utilidad es un diagrama de inuencia. Una red bayesiana es un grafo dirigido acclico que consta de: Un conjunto de nodos, uno por cada variable aleatoria del mundo Un conjunto de arcos dirigidos que conectan los nodos; si hay un arco de X a Y decimos que X es un padre de Y (padres(X) denota el conjunto de v.a. que son padres de X) Cada nodo Xi contiene la distribucin de probabilidad condicional P (Xi |padres(Xi )) Intuitivamente, en una red bayesiana una arco entre X e Y signica una inuencia directa de X sobre Y Es tarea del experto en el dominio el decidir las relaciones de dependencia directa (es decir, la topologa de la red)

Figura 3: Ejemplo de una red bayesiana La topologa de la red de la gura 3 nos expresa que:

Caries es una causa directa de Dolor y Huecos Dolor y Huecos son condicionalmente independientes dada Caries Tiempo es independiente de las restantes variables No es necesario dar la probabilidad de las negaciones de caries, dolor,. . . Otro Ejemplo: Tenemos una alarma antirrobo instalada en una casa La alarma salta normalmente con la presencia de ladrones Pero tambin cuando ocurren pequeos temblores de tierra Tenemos dos vecinos en la casa, Juan y Mara, que han prometido llamar a la polica si oyen la alarma Juan y Mara podran no llamar aunque la alarma sonara: por tener msica muy alta en su casa, por ejemplo Incluso podran llamar aunque no hubiera sonado: por confundirla con un telfono, por ejemplo

Figura 4: Ejemplo de una red bayesiana. Ejemplo de la alarma.

3.

ALGORITMO DE CONSTRUCCIN DE UNA RED BAYESIANA

Supongamos dado un conjunto de variables aleatorias VARIABLES que representan un dominio de conocimiento (con incertidumbre)

1. 2. 3. 4. 5.

Sea (X1 , . . . , Xn ) una ordenacin de las variables de VARIABLES Sea RED una red bayesiana vaca for i = 1 to n do Aadir un nodo etiquetado con Xi a RED Sea padres(Xi ) un subconjunto minimal de {Xi1 , ..., X1 } tal que existe una independencia condicional entre Xi y cada elemento de {Xi1 , ..., X1 } dado padres(Xi ) Aadir en RED un arco dirigido entre cada elemento de padres(Xi ) y Xi Asignar al nodo Xi la tabla de probabilidad P (Xi |padres(Xi )) Devolver RED

6. 7. 8.

3.1.

EJEMPLO DE CONSTRUCCION DE RED BAYESIANA (ALARMA)

Partiendo del orden Robo, Terremoto, Alarma, Juanllama, Mariallama, y aplicando el algoritmo anterior obtenemos la red del ejemplo:

4.

CONSTRUCCIN DE REDES BAYESIANAS

Problema: eleccin del orden entre variables

En general, deberamos empezar por las causas originales, siguiendo con aquellas a las que inuencian directamente, etc. Hasta llegar a las que no inuyen directamente sobre ninguna (modelo causal) Esto har que las tablas reejen probabilidades causales ms que diagnsticos, lo cual suele ser preferible por los expertos Un orden malo puede llevar a representaciones poco ecientes

Figura 5: Construccin de la red bayesiana del ejemplo de la alarma.

Figura 6: Red izquierda (Mariallama, Juanllama, Alarma, Robo y Terremoto); red derecha (Mariallama, Juanllama, Terremoto, Robo y Alarma)

5.

INFERENCIA PROBABILISTICA EN UNA RED BAYESIANA


Calcular la probabilidad a posteriori para un conjunto de variables de consulta, dado que se han observado algunos valores para las variables de evidencia Por ejemplo, podramos querer saber que probabilidad hay de que realmente se haya producido un robo, sabiendo que tanto Juan como Mara han llamado a la polica Es decir, calcular P(Robo|juanllama,mariallama)

El problema de la inferencia en una red bayesiana

Notacin: 9

X denotara la variable de consulta (sin perdida de generalidad supondremos solo una variable) E denota un conjunto de variables de evidencia E1 , E2 , . . . , En y e una observacin concreta para esas variables Y denota al conjunto de las restantes variables de la red (variables ocultas) e y representa un conjunto cualquiera de valores para esas variables

10

También podría gustarte