Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Principios de Detección
Version 1.4
1
Information and Decision System Group, Universidad de Chile.
Resumen
El objetivo de este apunte es presentar los fundamentos y principios
básicos de la teorı́a de estimación y detección. Se pondrá énfasis en la
formalización matemática y la presentación de resultados fundamenta-
les, junto con ilustrar algunos ejemplos y contextos de aplicación.
Contenidos
1. Detección Paramétrica 1
1.1. Planteamiento del Problema de Decisión 2
1.2. Lema de Neyman Pearson 3
1.3. Curva ROC (Receiver Operating Characteristic) 13
1.4. Caso de Estudio: Detección Binaria con Observaciones
Discretas 16
1.5. Problemas 19
2. Detección Bayesiana 26
i
1
Detección Paramétrica
1
2 Detección Paramétrica
Definición 1.1. (Tamaño del Test) Sea una regla π : X 7→ {0, 1}, se
define el tamaño de π como:
απ ≡ P{π(X(w)) = 1|θ = 0}
| {z }
rechazar Ho dado H0
= EX {π(X(w))|θ = 0}
Z Z
= · · · π(x) · fX (x1 , ..., xd |θ = 0)dx1 ...dxd
Z Z
= ··· fX (x1 , ..., xd |θ = 0)dx1 ...dxd . (1.3)
{x̄:π(x)=1}
απ corresponde a la probabilidad de rechazar H0 cuando H0 es correcto,
la probabilidad de falsa alarma, el error de tipo I, o el tamaño del test.
= EX {π(X(w))|θ = 1}
Z Z
= · · · π(x) · fX (x1 , ..., xd |θ = 1)dx1 ...dxd (1.4)
α = EX {π(X(w))|θ = 0} = απ .
απ̃ = EX {π̃(X(w))|θ = 0} ≤ α
entonces
βπ̃ ≤ βπ = EX {π(X(w))|θ = 1}.
1 si x ∈ A1
π̃(w, x) ≡ 0 si x ∈ A0 (1.7)
ρ(w) si x ∈ A2
Proof. Propuesto.
es un test aleatorio.
Proof. Propuesto.
1.2.3. Demostración
[Optimalidad]: Introducidos estos elementos necesitamos demos-
trar que ∀ν ∈ R+ y ∀p ∈ [0, 1] π ν (w, x) de parámetros {Aν0 , Aν1 , Aν2 , p},
con
Aν0 , {x ∈ X : fX (x|θ = 1) < νfX (x|θ = 0)}
Aν1 , {x ∈ X : fX (x|θ = 1) > νfX (x|θ = 0)}
Aν2 , {x ∈ X : fX (x|θ = 1) = νfX (x|θ = 0)}, (1.15)
es óptimo dado su tamaño
Z Z
απ v = fX (x|θ = 0)dx + p · fX (x|θ = 0)dx
Av1 Av2
f1 (X(w)) fX (X(w)|θ=1)
Supongamos que Y (w) = f0 (X(w)) = fX (X(w)|θ=0) es tal que la fun-
ción F̃Y (ν) = P(Y (w) > ν|θ = 0) no toma el valor α, es decir, ∃ν0 tal
que
P (Y (w) > ν0 |θ = 0) < α y (1.27)
Proposición 1.4.
Proof. Propuestos
Figura 1.3: Gráfico de la función F̃Y (ν) = P(Y (w) > ν|θ = 0) bajo la
condición en (1.27) y (1.28).
o en su defecto como:
1 si f1 (x) ≥ νf0 (x)
π̃ν (x) = (1.34)
0 si f1 (x) < νf0 (x).
por tanto el conjunto de pares {(α, βπα ) : α ∈ [0, 1]} ofrece el compro-
miso óptimo para el problema en Eq.(1.1) entre los errores de tipo I y
tipo II. Se define por tanto la curva ROC del problema como:
fROC (α) = βπα = EX (πα (X)|θ = 1), ∀α ∈ [0, 1]. (1.41)
H0 :S = µ0
H1 :S = µ1 , (1.43)
X = S + Z(w) (1.44)
Λ(x) ≥ ν ⇔ (x − µ1 )2 − (x − µ0 )2 ≥ 2σ 2 ν
⇔ 2x(µ0 − µ1 ) ≥ 2σ 2 ν + µ20 − µ21
2σ 2 ν + µ20 − µ21
⇔x≥ . (1.46)
2(µ0 − µ1 )
| {z }
τ (µ)
(1.57)
18 Detección Paramétrica
y por tanto p = 0.
Si por el contrario para un α dado no es posible encontrar solución
para (1.58) para un x(α) entero positivo, se toma en cambio
( ∞ )
x
−λ0 λ0
X
∗
x0 (α) = arg máx e <α (1.60)
x0 ∈N
x>x
x!
0
tal que
∞ x x (α)∗
X
−λ0 λ0 −λ0 λ0 0
e +e pα = α. (1.62)
x! x0 (α)∗ !
x>x0 (α)∗
1.5. Problemas
Se presentan a continuación una sección de problemas relacionados
con detección paramétrica.
con λ1 > λ2 .
Determine la forma general de la familia de test óptimos
dados por el lema de NP, y analice la forma de las zonas de
decisión considerando que λ1 > λ2 . Comente.
d) Encuentre el test óptimo para el tamaño α = 0,01. Considere
λ1 = 2 y λ2 = 4.
Indicación: Notar que un test aleatorio podrı́a ser necesa-
rio.
20 Detección Paramétrica
ηk = PX1 ,..,Xn |S1 ,..,Sn (B̄k (s1 , .., sn )|s1 , .., sn ). (1.72)
ςk = PX1 ,..,Xn |S1 ,..,Sn (Āk (s1 , .., sn )|s1 , .., sn ). (1.73)
fX1 ,..,Xn (x1 , .., xn |θ) = PX1 ,..,Xn |S1 ,..,Sn (x1 , .., xn |θ, θ, ..., θ).
dH ((x1 , .., xn ); (1, 1, .., 1)) < dH ((x1 , .., xn ); (0, 0, .., 0))+τ (v, ),
(1.74)
y determine la expresión de τ (v, ) ∈ R, función de v y .
Repita el mismo análisis y determine los conjuntos
fX1 ,..,Xn (x1 , .., xn |θ = 1)
A0 = (x1 , .., xn ) : <v
fX1 ,..,Xn (x1 , .., xn |θ = 0)
fX1 ,..,Xn (x1 , .., xn |θ = 1)
A2 = (x1 , .., xn ) : =v
fX1 ,..,Xn (x1 , .., xn |θ = 0)
1.5. Problemas 25
26
2.2. Función de Riesgo 27
Z
PX|Θ (A|θ0 ) = fX|Θ (x|θ0 )dx (2.3)
A
para todo B ⊂ X y θ0 ∈ A.
Bayesiano como:
∀x ∈ Av L(v, π(x)) = 0
∀x 6∈ Av L(v, π(x)) = 1. (2.11)
2.2. Función de Riesgo 29
Alternativamente:
K
X
r0,1 (π) = P(Θ(w) = v) · P(π(X(w)) 6= v|Θ(w) = v)
v=1
K
X
= P(π(X(w)) 6= v, Θ(w) = v)
v=1
= P(π(X(w)) 6= Θ(w)). (2.18)
K
X
Perror (π) = r0,1 (π) = PΘ (v) · R0,1 (v, π). (2.19)
v=1
XZ
EX,Θ {L(Θ, π(X))} = L(v, π(x))fX,θ (x, v)dx
v∈A X
Z "X #
= L(v, π(x))PΘ|X (v|x) fX (x)dx, (2.21)
X v∈A
| {z }
l(π,x)≡
donde
X X
fX (x) = fX,Θ (x, ṽ) = fX|Θ (x|ṽ)PΘ (ṽ). (2.24)
ṽ∈A ṽ∈A
32 Detección Bayesiana
En otras palabras
1 − si x = 0
fX|Θ (x|0) = (2.27)
si x = 1
si x = 0
fX|Θ (x|1) = (2.28)
1 − si x = 1
que son las funciones de probabilidad de masa condicional, por otro
lado, Pθ (0) = 1 − p y Pθ (1) = p. en general consideremos a la función
de costo L(v1 , v2 ) ∀v1 , v2 ∈ {0, 1}
∆
0 1
A
0 l00 = 0 l01 = 5
1 l10 = 7 l11 = 0
(2.30)
Analizamos más en detalle π ∗ (x = 1)
n o
= arg mı́n L(0, θ̃)PΘ|X (0|1) + L(1, θ̃)PΘ|X (1|1)
θ̃∈{0,1}
= arg mı́n L(0, 0)PΘ|X (0|1) + L(1, 0)PΘ|X (1|1), L(0, 1)PΘ|X (0|1) + L(1, 1)PΘ|X (1|1)
θ̃
| {z } | {z }
θ̃=0 θ̃=1
= arg mı́n L(1, 0)PΘ|X (1|1), L(0, 1)PΘ|X (0|1)
θ̃
| {z } | {z }
θ̃=0 θ̃=1
fX,Θ (1, 1) fX,Θ (1, 0)
= arg mı́n l10 , l01
θ̃
fX,Θ (1, 0) + fX,Θ (1, 1) fX,Θ (1, 0) + fX,Θ (1, 1)
| {z } | {z }
θ̃=0 θ̃=1
(2.31)
fX|Θ (1|1)PΘ (1) fX|Θ (1|0)PΘ (0)
= arg mı́n l10 , l01
θ̃
fX|Θ (1|0)PΘ (0) + fX|Θ (1|1)PΘ (1) fX|Θ (1|0)PΘ (0) + fX|Θ (1|1)PΘ (1)
| {z } | {z }
θ̃=0 θ̃=1
(1 − )p (1 − p)
= arg mı́n l10 , l01
θ̃
(1 − p) + (1 − )p (1 − p) + p(1 − )
| {z } | {z }
θ̃=0 θ̃=1
(2.32)
θ̃ = 1
(2.33)
2.3. Decisión óptima: Distribución a posteriori 35
análogamente
p (1 − )(1 − p)
∗
π (x = 0) = arg mı́n l10 , l01
θ̃
p + (1 − )(1 − p) (1 − )(1 − p) + p
| {z } | {z }
θ̃=0 θ̃=1
7 10
= arg mı́n ,
θ̃
3 3
|{z} |{z}
θ̃=0 θ̃=1
θ̃ = 0
(2.34)
Propuesto:
H1 = X(w)|θ(w) = 1 ∼ N (m1 , σ 2 I)
H2 = X(w)|θ(w) = 2 ∼ N (m2 , σ 2 I)
H3 = X(w)|θ(w) = 3 ∼ N (m3 , σ 2 I)
H4 = X(w)|θ(w) = 4 ∼ N (m4 , σ 2 I)
(2.36)
36 Detección Bayesiana
Es decir
||m2 ||2 − ||m1 ||2
2 2 p1
S1,2 = x ∈ R : hx, (m2 − m1 )i ≤ + σ log
2 p2
(2.40)
2.3. Decisión óptima: Distribución a posteriori 37
donde
H1 = X(w)|Θ(w) = 1 ∼ N (m1 , σ 2 I)
H2 = X(w)|Θ(w) = 2 ∼ N (m2 , σ 2 I)
(2.45)
1
entonces cuando p1 = p2 = 2 entonces el criterio de máxima verosimi-
litud es
1 si ||x − m1 || < ||x − m2 ||
πM L (x) = (2.46)
2 si ||x − m1 || ≥ ||x − m2 ||
Por lo tanto
E{(N (w)t (m2 − m1 ))2 } = E{(N (w)t (m2 − m1 ))(N (w)t (m2 − m1 ))}
= E{(m2 − m1 )N (w)t N (w)t (m2 − m1 )}
= (m2 − m1 )E{N (w)t N (w)t }(m2 − m1 )
= (m2 − m1 )σ 2 I(m2 − m1 )
= σ 2 ||m2 − m1 ||2
(2.50)
Luego
R∞ 2
con Q(z) = √1 e−y /2 dy Por lo tanto
2π
z
||m1 − m2 ||
perror,1 = Q (2.52)
2σ
donde la razón ||m12σ
−m2 ||
se conoce como la razón señal a ruido del
problema de detección. Alternativamente cuando se tiene que Z̃(w) es
varianza positiva de esperanza finita, es posible utilizar la desigualdad
de Markov.
E(Z(w))
P(Z(w) > z) ≤ (2.53)
z
con esto se puede obtener una cota superior para la función
Q ||m12σ
−m2 ||
, considerando Z(w) ∼ N (0, 1) se tiene
||m1 − m2 ||2
||m1 − m2 || 2
P Z(w) > ≤ P (Z(w)) >
2σ 4σ 2
E((Z(w))2 )4σ 2
≤
||m1 − m2 ||2
4σ 2
=
||m1 − m2 ||2
4
=
SN R2
(2.54)
2.4. Problemas 43
2.4. Problemas
Se presentan a continuación una sección de problemas relacionados
con detección Bayesiana.
donde N1 (w), ..,Nn (w) son variables aleatorias independientes que dis-
tribuyen N (0, σ 2 ).
48