Está en la página 1de 4

Unit 4: Probability, Bayer’s Rule

and Diagnostic test


1. SENSITIVE AND SPECIFICITY CONCEPT

SENSITIVE: La sensibilidad es la probabilidad de que el test para un paciente que sí


posee la enfermedad de positivo. Es decir, es la proporción de verdaderos positivos que
son identificados correctamente por el test.

SPECIFICITY: La especificidad es la probabilidad de que el test para un paciente no


enfermo de negativo. Es decir, es la proporción de verdaderos negativos que son
correctamente identificados por el test.

Cabe destacar que es


imposible obtener un 100%
de especificidad y
sensibilidad al mismo
tiempo, pues al aumentar la
sensibilidad, se disminuye la
especificidad y viceversa.

El punto de corte, para tener


una buena referencia de
sensibilidad y especificidad,
debe comprenderse en el
territorio que comprendido
por sanos y enfermos.

EJEMPLO EN ESTUDIO SOBRE LA RELACIÓN DEL ESCÁNER DE HÍGADO Y LA


PATOLOGÍA: De los 263 pacientes identificados con un hígado con patología, 231 fueron
correctamente identificados, de manera que la sensibilidad del test será de 231/263=0’9=90%.
Mientras que de los 81 pacientes que no dieron positivo en el test, 54 no tenían la enfermedad, es
decir, estaban correctamente identificados como no enfermos, de manera que la especificidad
sería de 81/54=0’63=63%
Por tanto, podemos concluir, que
encontramos 32 falsos positivos y 27 falsos
negativos.
Si en el gráfico desplazamos el punto de corte
hacia la izquierda, se elevará el número de
falsos positivos y disminuirán los falsos
negativos, reduciendo así, el valor predictivo
de una prueba positiva.
Mientras que, si el punto de corte es desplazado hacia la derecha, disminuirá el valor de falsos
positivos, pero aumentará el número de falsos negativos, lo que aumentará el valor predictivo de
una prueba positiva.
2. DEFINITIONS AND RELATIONS IN PROBABILITY

En probabilidad y estadística, encontramos varios elementos de alta utilidad para definir


el suceso como son: espacio muestral, experimento aleatorio, evento elemental y
evento.

SAMPLE SPACE: Es el conjunto de los posibles acondecimientos,

ELEMENTARY EVENT: Es cada uno de los sucesos de un experimento fortuito. Se


representa con la letra “e”.

EVENT: Es la forma de denominar a los e que suceden de forman conjunta. Por ejemplo,
es un evento que al lanzar un huevo al suelo, éste se rompa.

RANDOM EXPERIMENT: Es un experimento aleatorio aquel que depende del azar. Por
ejemplo, el número que resulte de lanzar un dado al aire.

Un buen método de representar los diferentes eventos dentro de un espacio muestral el


de Diagramas de Venn, que representa gráficamente el espacio muestral como un área
en el plano, donde los eventos, se representan con círculos, que en función de las
características que presenten, pueden o no superponerse.

NOTACIÓN:

Suceso seguro: Ω
Evento A: A
Evento B: B
A y B (intersección): A∩B
A o B (Unión): AUB
Lo contrario de A: Ā

3. PROBABILITY

Cuando una observación se repite n veces, la probabilidad de que esta observación o


evento ocurra, es la proporción de veces que se repite. La probabilidad tiene dos
estados de aproximación diferentes, en primer lugar, puede aproximarse a la
frecuencia, es decir, asigna las probabilidades de acuerdo a las frecuencias relativas.
Por otro lado, puede aproximarse por la subjetividad o grado de credibilidad, es decir,
es una manera de representar el grado de credibilidad dando el valor de evidencia.

Si un experimento se repite n veces, y m veces el evento E ocurre m veces, la


probabilidad de E, es decir, de E, se define como:

𝑚
𝑃(𝐸 ) = lim
𝑛→∞ 𝑛
PROBABILITY’S PROPERTIES: La probabilidad de un evento se comprende entre 0
y 1, donde la probabilidad de que ocurra el suceso seguro será P(Ω)=1.

Por otro lado, si A y B son sucesos incompatibles, la probabilidad de su unión será la


suma de sus probabilidades, es decir que para A∩B=ᴓ , P(AUB)=P(A)+P(B). Por tanto,
de las definiciones anteriores, podemos sacar como conclusión que P(ᴓ)=ᴓ.

También se define que para cualquier par de eventos A y B, tenemos que P(AUB
)=P(A)+P(B)-P(A∩B), y que por tanto, la probabilidad de que suceda el evento
complementario o contrario a A, será P(Ā)=1-P(A).

LA PROBABILIDAD CONDICIONADA: La probabilidad condicionada es la


probabilidad de ocurra A sabiendo que también ocurre B. Es decir que
P(A/B)=P(A∩B)/P(B) para P(B)≠0.

SMOKING OR NOT SMOKING AND RESPIRATORY PROBLEMS STATUS: En una


población, los problemas respiratorios, fueron clasificados en función de si los individuos
fumaban o no. De manera que la probabilidad de tener problemas respiratorios asociados al
hecho de fumar será: P(R∩S)/P(S)=0.15/0.45=1/3, al igual que las probabilidad de no tener
problemas respiratorios a pesar de que fumes será: P(𝑹 ̅ ∩S)/P(S)=0.30/0.45=2/3

̅)
Non smokers (𝑺 Smokers (S)
No resp 0.50 = 𝑃(𝑆̅ ∩ 𝑅̅) ̅̅̅ 0.80=P(𝑅̅ )
0.30=P(S∩𝑅)
̅)
Prob (𝑹
Resp Prob 0.05=P(𝑆̅∩R) 0.15=P(S∩R) 0.20=P(R)
(R)
̅̅̅
0.55=P(𝑆) 0.45=P(S)

MULTIPLICATION RULE: Si tenemos los sucesos A1,A2,A3,A4…..An tal que su


intersección sea distinta a 0, podemos concluir que
P(A1∩A2∩A3∩A4∩...∩An)=P(A1)P(A2)P(A3)….P(An)

LAW OF TOTAL PROBABILITIES: Consideremos un experimento que se lleve a cabo


en dos o más etapas, uno con un sistema completo de sucesos, y una segunda etapa
donde se conozcan las probabilidades condicionadas de
cada uno de los sucesos. De esta manera, el resultado final
del experimento, se encontrará condicionado por la primera
etapa. Supongamos que el evento de la primera etapa es A
y el de la segunda, nos salga B, a probabilidad total será
pues, la intersección de A y B, ya que ambas ocurren al
mismo tiempo.

La ley de las probabilidades totales puede P(A/A)


P(A)
visualizarse de manera más clara mediante los P(A/B)
diagramas de árbol.
P(B/A)
Todos estos conceptos mencionados, nos P(B)
permiten presentar el Teorema de Bayes, que P(B/B)
nos expresa la probabilidad condicional de un evento aleatorio A dado B en términos de
la distribución de probabilidad condicional del evento B. El teorema puede servir
entonces para indicar cómo debemos modificar nuestras probabilidades subjetivas
cuando recibimos información adicional de un experimento. La estadística bayesiana
está demostrando su utilidad en ciertas estimaciones basadas en el conocimiento
subjetivo a priori y el hecho de permitir revisar esas estimaciones en función de la
evidencia empírica es lo que está abriendo nuevas formas de hacer conocimiento

Es pues el teorema de Bayes, un 𝑃(𝐴)·𝑃(𝐵⁄𝐴)


𝑃(𝐴⁄𝐵 ) = donde aplicamos la regla del
procedimiento para obtener 𝑃(𝐵)

probabilidades condicionadas, producto en el numerador y la regla de las


donde: probabilidades totales en el denominador,
obtenemos la ecuación fundamental del Teorema de
Este nos sirve para poder calcular Bayes 𝑃 ( ) =
𝐴
𝐵
𝑃(𝐵/𝐴)·𝑃(𝐴)
𝐵 𝑃( )·𝑃(𝐴)+𝑃(𝐵/𝐴̅)·𝑃(𝐴̅)
el valor predictivo negativo y el 𝐴

valor predictivo positivo que


definimos al principio del tema.
BREAST CANCER AND MAMMOGRAPHY (NPV AND PPV): Una mujer de 54 tiene una
mamografía anormal, ¿cuál es la probabilidad de que ésta tenga cáncer de mama sabiendo
que el test tiene una sensibilidad del 90% y una especificidad del 89%? Considera que la
prevalencia (Probabilidad condicionada) de que una mujer con edad superior a 54 sea del
3%.

Sabemos que la posibilidad de que la mujer, por


su edad tenga cáncer de mama (BC)=0.03 y de
que no lo tenga de un 0.97. Dentro de BCc P(BC/T+)=0.03·0.9
P(T+)=0.9
=0.027
tenemos la probabilidad que haya dado un falso P(BC)=0.03

positivo, de manera que la probabilidad total de p


P(T-)=0.1

que la paciente de positivo en el test: será P(BC/T)=0.97·0.11


P(T+)=0.11
0.027 =0.1096
𝑃(𝐵𝐶/ 𝑇+) = · 100 = 2′4% P(𝐵𝐶)=0.97
0.028+0.1096
P(T-)=0.89

También podría gustarte