Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
Ivan Ladino
Notas de clase
——
III - 2019
. . . . . . . . . . . . . . . . . . . .
2/150
. . . . . . . . . . . . . . . . . . . .
Introducción
. . . . . . . . . . . . . . . . . . . .
4/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
. . . . . . . . . . . . . . . . . . . .
5/150
. . . . . . . . . . . . . . . . . . . .
Probabilidad y la intuición
. . . . . . . . . . . . . . . . . . . .
6/150
. . . . . . . . . . . . . . . . . . . .
Probabilidad Frecuentista
. . . . . . . . . . . . . . . . . . . .
7/150
. . . . . . . . . . . . . . . . . . . .
Modelo Secuencial
(1, 2)
1
(1, 6)
(2, 1)
(2, 2)
2
(2, 6)
(6, 1)
(6, 2)
6
(6, 6)
. . . . . . . . . . . . . . . . . . . .
8/150
. . . . . . . . . . . . . . . . . . . .
Definición Axiomática de la Probabilidad
El enfoque axiomático es realmente el enfoque formal desde el cual se
debe estudiar la probabilidad. Pero antes se hace necesario introducir
algunas ideas, como las asociadas a lo que representa un experimento
aleatorio, el espacio muestreal y los eventos:
Definición
Un Experimento aleatorio H es un experimento en el cual los resul-
tados nos son determinísticos, es decir son probabilísticos.
Definición
El Espacio Muestreal se denota por Ω y corresponde a él conjunto
de todos los posibles resultados del experimento.
Definición
Un Evento E es un subconjunto del espacio muestreal que satisfa-
ce ciertas restricciones. Sin embargo, casi cualquier subconjunto del
espacio muestreal es un evento.
. . . . . . . . . . . . . . . . . . . .
9/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
Definición
un Conjunto C es una colección de objetos concretos o abstrac-
tos. Un ejemplo de conjunto de objetos concretos es la colección
de nombres de estudiantes del curso. Formalmente se denota como:
C = {x|x satisface p(x)}; es decir, todos los elementos x tal que
(|), cada x cumple con la propiedad p(x).
. . . . . . . . . . . . . . . . . . . .
11/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
(Álgebra de Conjuntos)
La unión - ∪ de dos conjuntos E y F , se denota por E ∪ F (ó,
E + F ) y, corresponde al conjunto de todos los elementos que se
encuentran en alguno de los dos conjuntos E y F . Por ejemplo, sean
los conjuntos E = {1, 3, 4} y F = {1, 2, 4, 5, 6}, entonces:
E ∪ F = {1, 2, 3, 4, 5, 6}
Por otro lado, si un conjunto A es un subconjunto de un conjunto
B lo denotamos por A ⊂ B (A esta contenido en B), por ejemplo
dados A = {a, d, g } y B = {a, b, c, d, e, f , g , h, i}, entonces A ⊂ B.
(Álgebra de Conjuntos)
La diferencia entre dos conjuntos E y F se denota por E −F y consiste
en la reducción del conjunto E por el conjunto F . En otras palabras,
es el conjunto de elementos que están en E pero no están en F .
Por ejemplo, si E = {blue, red, brown, white, black, orange, pink} y
F = {brown, pink, red}, entonces:
E − F = {blue, white, black, orange}
Formalmente podemos expresar la diferencia entre dos conjuntos de
la siguiente forma:
E − F = {ζ | ζ ∈ E ∧ ζ ∈
/ F}
dónde, el símbolo ∧ significa “y”. Puede mostrarse facilmente que:
E −F = EF
F −E = FE
además, por lo general se tiene que: E − F ̸= F − E .
. . . . . . . . . . . . . . . . . . . .
14/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
(Álgebra de Conjuntos)
La O-exclusiva o XOR entre dos conjuntos E y F se denota por E ⊕F
y corresponde a:
E ⊕ F = (E − F ) ∪ (F − E )
A dos conjuntos se le dicen disjuntos
disjuntos, si E ∩ F = ∅, esto significa
que no tienen elementos en común.
Una n-partición de un conjunto E , consiste en una secuencia de
conjuntos Ei con i = 1, 2, · · · , n tal que:
Ei ∩ Ej = ∅ ∀ i ̸= j con i, j ∈ {1, 2, · · · , n}
#n
Ei = E
i=1
Un caso particular de una partición corresponde a:
F = FE ∪ F E
. . . . . . . . . . . . . . . . . . . .
15/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
(Leyes de Morgan)
Por medio de los diagramas de Venn o mediante la definición formal
de conjuntos es fácil demostrar los siguientes dos resultados:
(E ∪ F ) = E ∩ F y (EF ) = E ∪ F
por inducción matemática, con la sucesión de conjuntos: E1 , · · · , En ,
es fácil demostrar:
$ n % n
# &
Ei = Ei
i=1 i=1
$ n
% n
& #
Ei = Ei
i=1 i=1
a estas dos últimas expresiones se les conoce como las leyes de Mor-
gan.
. . . . . . . . . . . . . . . . . . . .
17/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
. . . . . . . . . . . . . . . . . . . .
18/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
. . . . . . . . . . . . . . . . . . . .
19/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
. . . . . . . . . . . . . . . . . . . .
20/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
. . . . . . . . . . . . . . . . . . . .
22/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
. . . . . . . . . . . . . . . . . . . .
23/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
. . . . . . . . . . . . . . . . . . . .
24/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
con estos axiomas se pueden probar en forma muy fácil, las siguientes
dos propiedades:
(4) P[∅] = 0
(5) P[E F ] = P[E ] − P[EF ] donde E ∈ F y F ∈ F
(6) P[E ] = 1 − P[E ]
(7) P[E ∪ F ] = P[E ] + P[F ] − P[EF ]
. . . . . . . . . . . . . . . . . . . .
25/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
Observación
La demostración se realiza por inducción. Se deja como ejercicio.
. . . . . . . . . . . . . . . . . . . .
26/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
(Eventos)
Si el espacio muestreal Ω de un experimento H tiene un número
contable de elementos, entonces a cada subconjunto de Ω se le pue-
de asignar una probabilidad consistente con los tres axiomas dados
en la definición anterior
. . . . . . . . . . . . . . . . . . . .
27/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
(Eventos)
Si el espacio muestreal Ω de un experimento H tiene un número
contable de elementos, entonces a cada subconjunto de Ω se le pue-
de asignar una probabilidad consistente con los tres axiomas dados
en la definición anterior . Entonces, la clase formada por todos los
subconjuntos de Ω conforman un campo σ y cada subconjunto es un
evento.
. . . . . . . . . . . . . . . . . . . .
28/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
(Eventos)
Si el espacio muestreal Ω de un experimento H tiene un número
contable de elementos, entonces a cada subconjunto de Ω se le pue-
de asignar una probabilidad consistente con los tres axiomas dados
en la definición anterior . Entonces, la clase formada por todos los
subconjuntos de Ω conforman un campo σ y cada subconjunto es un
evento.
. . . . . . . . . . . . . . . . . . . .
29/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
(Eventos)
Si el espacio muestreal Ω de un experimento H tiene un número
contable de elementos, entonces a cada subconjunto de Ω se le pue-
de asignar una probabilidad consistente con los tres axiomas dados
en la definición anterior . Entonces, la clase formada por todos los
subconjuntos de Ω conforman un campo σ y cada subconjunto es un
evento.
. . . . . . . . . . . . . . . . . . . .
30/150
. . . . . . . . . . . . . . . . . . . .
Conjuntos, Campos y Eventos
(Eventos)
Si el espacio muestreal Ω de un experimento H tiene un número
contable de elementos, entonces a cada subconjunto de Ω se le pue-
de asignar una probabilidad consistente con los tres axiomas dados
en la definición anterior . Entonces, la clase formada por todos los
subconjuntos de Ω conforman un campo σ y cada subconjunto es un
evento.
. . . . . . . . . . . . . . . . . . . .
31/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
32/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
33/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
34/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
35/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
36/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Ejemplo (continuación)
Supongamos que el experimento asociado al ejemplo, consiste en
medir diariamente la temperatura y la precipitación en un periodo
de n = 1000 días. Denotaremos con ni el número de días en que el
evento i ocurre, con i igual a A o B o, AB.
. . . . . . . . . . . . . . . . . . . .
37/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Ejemplo (continuación)
Supongamos que el experimento asociado al ejemplo, consiste en
medir diariamente la temperatura y la precipitación en un periodo
de n = 1000 días. Denotaremos con ni el número de días en que el
evento i ocurre, con i igual a A o B o, AB.
Después de las observaciones se obtiene que, nA = 811, nB = 306
y nAB = 283, por la interpretación de frecuencia relativa para la
probabilidad obtenemos:
. . . . . . . . . . . . . . . . . . . .
38/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Ejemplo (continuación)
Supongamos que el experimento asociado al ejemplo, consiste en
medir diariamente la temperatura y la precipitación en un periodo
de n = 1000 días. Denotaremos con ni el número de días en que el
evento i ocurre, con i igual a A o B o, AB.
Después de las observaciones se obtiene que, nA = 811, nB = 306
y nAB = 283, por la interpretación de frecuencia relativa para la
probabilidad obtenemos:
nA 811
P[A] ≃ = = 0,811
n 1000
. . . . . . . . . . . . . . . . . . . .
39/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Ejemplo (continuación)
Supongamos que el experimento asociado al ejemplo, consiste en
medir diariamente la temperatura y la precipitación en un periodo
de n = 1000 días. Denotaremos con ni el número de días en que el
evento i ocurre, con i igual a A o B o, AB.
Después de las observaciones se obtiene que, nA = 811, nB = 306
y nAB = 283, por la interpretación de frecuencia relativa para la
probabilidad obtenemos:
nA 811
P[A] ≃ = = 0,811
n 1000
nB 306
P[B] ≃ = = 0,306
n 1000
. . . . . . . . . . . . . . . . . . . .
40/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Ejemplo (continuación)
Supongamos que el experimento asociado al ejemplo, consiste en
medir diariamente la temperatura y la precipitación en un periodo
de n = 1000 días. Denotaremos con ni el número de días en que el
evento i ocurre, con i igual a A o B o, AB.
Después de las observaciones se obtiene que, nA = 811, nB = 306
y nAB = 283, por la interpretación de frecuencia relativa para la
probabilidad obtenemos:
nA 811
P[A] ≃ = = 0,811
n 1000
nB 306
P[B] ≃ = = 0,306
n 1000
nAB 283
P[AB] ≃ = = 0,283
n 1000
. . . . . . . . . . . . . . . . . . . .
41/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Ejemplo (continuación)
Supongamos que el experimento asociado al ejemplo, consiste en
medir diariamente la temperatura y la precipitación en un periodo
de n = 1000 días. Denotaremos con ni el número de días en que el
evento i ocurre, con i igual a A o B o, AB.
Después de las observaciones se obtiene que, nA = 811, nB = 306
y nAB = 283, por la interpretación de frecuencia relativa para la
probabilidad obtenemos:
nA 811
P[A] ≃ = = 0,811
n 1000
nB 306
P[B] ≃ = = 0,306
n 1000
nAB 283
P[AB] ≃ = = 0,283
n 1000
La probabilidad P[AB] corresponde a la fracción del tiempo para la
cual la precipitación iguala o excede a 5mm y la temperatura iguala
o excede los 10o .
. . . . . . . . . . . . . . . . . . . .
42/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad condicional)
Ahora consideremos la frecuencia relativa nAB /nA , ello equivale a la
frecuencia relativa del evento AB, dado que el evento A ha ocurrido.
notemos que:
. . . . . . . . . . . . . . . . . . . .
43/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad condicional)
Ahora consideremos la frecuencia relativa nAB /nA , ello equivale a la
frecuencia relativa del evento AB, dado que el evento A ha ocurrido.
notemos que:
nAB nAB /n P[AB]
= ≃
nA nA /n P[A]
. . . . . . . . . . . . . . . . . . . .
44/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad condicional)
Ahora consideremos la frecuencia relativa nAB /nA , ello equivale a la
frecuencia relativa del evento AB, dado que el evento A ha ocurrido.
notemos que:
nAB nAB /n P[AB]
= ≃
nA nA /n P[A]
esta última corresponde a la probabilidad condicional de B dado A:
. . . . . . . . . . . . . . . . . . . .
45/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad condicional)
Ahora consideremos la frecuencia relativa nAB /nA , ello equivale a la
frecuencia relativa del evento AB, dado que el evento A ha ocurrido.
notemos que:
nAB nAB /n P[AB]
= ≃
nA nA /n P[A]
esta última corresponde a la probabilidad condicional de B dado A:
P[AB]
P[B|A] ! con P[A] > 0
P[A]
. . . . . . . . . . . . . . . . . . . .
46/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad condicional)
Ahora consideremos la frecuencia relativa nAB /nA , ello equivale a la
frecuencia relativa del evento AB, dado que el evento A ha ocurrido.
notemos que:
nAB nAB /n P[AB]
= ≃
nA nA /n P[A]
esta última corresponde a la probabilidad condicional de B dado A:
P[AB]
P[B|A] ! con P[A] > 0
P[A]
entonces, P[B|A] es la probabilidad de que B ocurra, dado que ocu-
rrió A. En forma similar, la probabilidad de que ocurra A, dado que
ocurrió B, corresponde a:
. . . . . . . . . . . . . . . . . . . .
47/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad condicional)
Ahora consideremos la frecuencia relativa nAB /nA , ello equivale a la
frecuencia relativa del evento AB, dado que el evento A ha ocurrido.
notemos que:
nAB nAB /n P[AB]
= ≃
nA nA /n P[A]
esta última corresponde a la probabilidad condicional de B dado A:
P[AB]
P[B|A] ! con P[A] > 0
P[A]
entonces, P[B|A] es la probabilidad de que B ocurra, dado que ocu-
rrió A. En forma similar, la probabilidad de que ocurra A, dado que
ocurrió B, corresponde a:
P[AB]
P[A|B] ! con P[B] > 0
P[B]
. . . . . . . . . . . . . . . . . . . .
48/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Teorema (Probabilidad Total)
Sean S1 , S2 , · · · , Sk , k eventos mutuamente excluyentes, tales que:
. . . . . . . . . . . . . . . . . . . .
49/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Teorema (Probabilidad Total)
Sean S1 , S2 , · · · , Sk , k eventos mutuamente excluyentes, tales que:
∪ki=1 Si = Ω
. . . . . . . . . . . . . . . . . . . .
50/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Teorema (Probabilidad Total)
Sean S1 , S2 , · · · , Sk , k eventos mutuamente excluyentes, tales que:
∪ki=1 Si = Ω
con p[Si ] ̸= 0 para todo i = 1, 2, · · · , k, entonces:
. . . . . . . . . . . . . . . . . . . .
51/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Teorema (Probabilidad Total)
Sean S1 , S2 , · · · , Sk , k eventos mutuamente excluyentes, tales que:
∪ki=1 Si = Ω
con p[Si ] ̸= 0 para todo i = 1, 2, · · · , k, entonces:
k
(
P[A] = P[A|S1 ]P[S1 ] + · · · + P[A|Sn ]P[Sn ] = P[A|Si ]P[Si ]
i=1
Demostración.
. . . . . . . . . . . . . . . . . . . .
52/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Teorema (Probabilidad Total)
Sean S1 , S2 , · · · , Sk , k eventos mutuamente excluyentes, tales que:
∪ki=1 Si = Ω
con p[Si ] ̸= 0 para todo i = 1, 2, · · · , k, entonces:
k
(
P[A] = P[A|S1 ]P[S1 ] + · · · + P[A|Sn ]P[Sn ] = P[A|Si ]P[Si ]
i=1
Demostración.
Ejercicio.......
Ejemplo
para un canal binario no simétrico, las probabilidades totales a la
salida corresponden a:
. . . . . . . . . . . . . . . . . . . .
53/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
Teorema (Probabilidad Total)
Sean S1 , S2 , · · · , Sk , k eventos mutuamente excluyentes, tales que:
∪ki=1 Si = Ω
con p[Si ] ̸= 0 para todo i = 1, 2, · · · , k, entonces:
k
(
P[A] = P[A|S1 ]P[S1 ] + · · · + P[A|Sn ]P[Sn ] = P[A|Si ]P[Si ]
i=1
Demostración.
Ejercicio.......
Ejemplo
para un canal binario no simétrico, las probabilidades totales a la
salida corresponden a:
P[Y = 0] = P[Y = 0|X = 0]P[X = 0]+P[Y = 0|X = 1]P[X = 1],
P[Y = 1] = P[Y = 1|X = 0]P[X = 0] + P[Y = 1|X = 1]P[X = 1]
. . . . . . . . . . . . . . . . . . . .
54/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
55/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
56/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
57/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
58/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
59/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
60/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
. . . . . . . . . . . . . . . . . . . .
61/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad Condicional)
De la definición de probabilidad condicional tenemos que:
P[AB] = P[A|B]P[B] = P[B|A]P[A]
. . . . . . . . . . . . . . . . . . . .
63/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad Condicional)
De la definición de probabilidad condicional tenemos que:
P[AB] = P[A|B]P[B] = P[B|A]P[A]
de donde podemos despejar:
. . . . . . . . . . . . . . . . . . . .
64/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad Condicional)
De la definición de probabilidad condicional tenemos que:
P[AB] = P[A|B]P[B] = P[B|A]P[A]
de donde podemos despejar:
P[B|A]P[A]
P[A|B] =
P[B]
. . . . . . . . . . . . . . . . . . . .
65/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad Condicional)
De la definición de probabilidad condicional tenemos que:
P[AB] = P[A|B]P[B] = P[B|A]P[A]
de donde podemos despejar:
P[B|A]P[A]
P[A|B] =
P[B]
Definición
Usando la ley de probabilidad total y una partición Si del espacio
muestral Ω, si ocurre un evento A, la probabilidad posterior de Si
dado el evento A corresponde a:
. . . . . . . . . . . . . . . . . . . .
66/150
. . . . . . . . . . . . . . . . . . . .
Probabilidades conjuntas, condicionales y totales
(Probabilidad Condicional)
De la definición de probabilidad condicional tenemos que:
P[AB] = P[A|B]P[B] = P[B|A]P[A]
de donde podemos despejar:
P[B|A]P[A]
P[A|B] =
P[B]
Definición
Usando la ley de probabilidad total y una partición Si del espacio
muestral Ω, si ocurre un evento A, la probabilidad posterior de Si
dado el evento A corresponde a:
P[A|Si ]P[Si ]
P[Si |A] = 'k para i = 1, 2, · · · , k.
i=1 P[A|Si ]P[Si ]
. . . . . . . . . . . . . . . . . . . .
67/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Demostrar que un conjunto S con n elementos tiene Cnk subconjuntos
de k elementos
. . . . . . . . . . . . . . . . . . . .
68/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Demostrar que un conjunto S con n elementos tiene Cnk subconjuntos
de k elementos
Demostración.
La demostración se realiza por inducción sobre k.
. . . . . . . . . . . . . . . . . . . .
69/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Demostrar que un conjunto S con n elementos tiene Cnk subconjuntos
de k elementos
Demostración.
La demostración se realiza por inducción sobre k. Para k = 1 es
evidente que el número de subconjuntos es igual a n, tal como se
puede comprobar al reemplazar k = 1 en Cnk :
. . . . . . . . . . . . . . . . . . . .
70/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Demostrar que un conjunto S con n elementos tiene Cnk subconjuntos
de k elementos
Demostración.
La demostración se realiza por inducción sobre k. Para k = 1 es
evidente que el número de subconjuntos es igual a n, tal como se
puede comprobar al reemplazar k = 1 en Cnk :
) *
n n!
Cn1 = = =n
1 1!(n − 1)!
. . . . . . . . . . . . . . . . . . . .
71/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Demostrar que un conjunto S con n elementos tiene Cnk subconjuntos
de k elementos
Demostración.
La demostración se realiza por inducción sobre k. Para k = 1 es
evidente que el número de subconjuntos es igual a n, tal como se
puede comprobar al reemplazar k = 1 en Cnk :
) *
n n!
Cn1 = = =n
1 1!(n − 1)!
Supongamos que para k el número de subconjuntos es:
) *
k n n!
Cn = =
k k!(n − k)!
. . . . . . . . . . . . . . . . . . . .
72/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Demostrar que un conjunto S con n elementos tiene Cnk subconjuntos
de k elementos
Demostración.
La demostración se realiza por inducción sobre k. Para k = 1 es
evidente que el número de subconjuntos es igual a n, tal como se
puede comprobar al reemplazar k = 1 en Cnk :
) *
n n!
Cn1 = = =n
1 1!(n − 1)!
Supongamos que para k el número de subconjuntos es:
) *
k n n!
Cn = =
k k!(n − k)!
ahora encontremos el resultado para k + 1,
. . . . . . . . . . . . . . . . . . . .
73/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (continuación)
Demostración.
Supongamos que tomamos un conjunto cualquiera de los Cnk sub-
conjuntos de k elementos y le agregamos un elemento de los n − k
elementos restantes.
. . . . . . . . . . . . . . . . . . . .
74/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (continuación)
Demostración.
Supongamos que tomamos un conjunto cualquiera de los Cnk sub-
conjuntos de k elementos y le agregamos un elemento de los n − k
elementos restantes. Este conjunto va a estar repetido k + 1 veces,
. . . . . . . . . . . . . . . . . . . .
75/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (continuación)
Demostración.
Supongamos que tomamos un conjunto cualquiera de los Cnk sub-
conjuntos de k elementos y le agregamos un elemento de los n − k
elementos restantes. Este conjunto va a estar repetido k + 1 veces,
puesto que tenemos k + 1 subconjuntos de k elementos que se dife-
rencian en un solo elemento, y al agregarle otro elemento para con-
formar un conjunto de k +1 elementos vamos a tener k +1 conjuntos
repetidos,
. . . . . . . . . . . . . . . . . . . .
76/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (continuación)
Demostración.
Supongamos que tomamos un conjunto cualquiera de los Cnk sub-
conjuntos de k elementos y le agregamos un elemento de los n − k
elementos restantes. Este conjunto va a estar repetido k + 1 veces,
puesto que tenemos k + 1 subconjuntos de k elementos que se dife-
rencian en un solo elemento, y al agregarle otro elemento para con-
formar un conjunto de k +1 elementos vamos a tener k +1 conjuntos
repetidos, lo mismo ocurre si tomamos cualquier otro subconjunto
de k elementos.
. . . . . . . . . . . . . . . . . . . .
77/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (continuación)
Demostración.
Supongamos que tomamos un conjunto cualquiera de los Cnk sub-
conjuntos de k elementos y le agregamos un elemento de los n − k
elementos restantes. Este conjunto va a estar repetido k + 1 veces,
puesto que tenemos k + 1 subconjuntos de k elementos que se dife-
rencian en un solo elemento, y al agregarle otro elemento para con-
formar un conjunto de k +1 elementos vamos a tener k +1 conjuntos
repetidos, lo mismo ocurre si tomamos cualquier otro subconjunto
de k elementos.
Por lo anterior tendremos en total Cnk (n − k) subconjuntos de k +
1 elementos,
. . . . . . . . . . . . . . . . . . . .
78/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (continuación)
Demostración.
Supongamos que tomamos un conjunto cualquiera de los Cnk sub-
conjuntos de k elementos y le agregamos un elemento de los n − k
elementos restantes. Este conjunto va a estar repetido k + 1 veces,
puesto que tenemos k + 1 subconjuntos de k elementos que se dife-
rencian en un solo elemento, y al agregarle otro elemento para con-
formar un conjunto de k +1 elementos vamos a tener k +1 conjuntos
repetidos, lo mismo ocurre si tomamos cualquier otro subconjunto
de k elementos.
Por lo anterior tendremos en total Cnk (n − k) subconjuntos de k +
1 elementos, pero cada uno va a estar repetido k + 1 veces, en
consecuencia le número de subconjuntos de k + 1 elementos es:
. . . . . . . . . . . . . . . . . . . .
79/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (continuación)
Demostración.
Supongamos que tomamos un conjunto cualquiera de los Cnk sub-
conjuntos de k elementos y le agregamos un elemento de los n − k
elementos restantes. Este conjunto va a estar repetido k + 1 veces,
puesto que tenemos k + 1 subconjuntos de k elementos que se dife-
rencian en un solo elemento, y al agregarle otro elemento para con-
formar un conjunto de k +1 elementos vamos a tener k +1 conjuntos
repetidos, lo mismo ocurre si tomamos cualquier otro subconjunto
de k elementos.
Por lo anterior tendremos en total Cnk (n − k) subconjuntos de k +
1 elementos, pero cada uno va a estar repetido k + 1 veces, en
consecuencia le número de subconjuntos de k + 1 elementos es:
n−k n!(n − k) n!
Cnk = = = Cnk+1
k +1 k!(n − k)!(k + 1) k!(k + 1)(n − k − 1)!
. . . . . . . . . . . . . . . . . . . .
80/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Se tienen dos monedas; una normal y otra de dos caras. Se escoge al
azar una de las monedas y se lanza dos veces, el resultado corresponde
a dos caras. Encontrar la probabilidad de que la moneda elegida sea
la normal.
(desarrollo)
Llamemos C al evento cae cara y N al evento de seleccionar la
moneda normal. Como tenemos dos monedas, una normal y la otra
de dos caras (N), entonces:
1
P(N) = P(N) =
2
de otro lado, las probabilidades condicionales de obtener dos caras
con una moneda normal o una moneda de dos caras corresponden a:
1
P(CC |N) =
4
P(CC |N) = 1
. . . . . . . . . . . . . . . . . . . .
81/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
(continuación)
Por el teorema de probabilidad total, la probabilidad de obtener dos
caras es:
11 1 5
P(CC ) = P(CC |N)P(N) + P(CC |N)P(N) = +1 =
42 2 8
y empleando la regla de Bayes tenemos que:
P(CC |N)P(N) (1/4)(1/2) 1
P(N|CC ) = = =
P(CC ) (5/8) 5
. . . . . . . . . . . . . . . . . . . .
82/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Dos eventos A y B son mutuamente excluyentes. ¿Son independien-
tes también?
. . . . . . . . . . . . . . . . . . . .
83/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Dos eventos A y B son mutuamente excluyentes. ¿Son independien-
tes también?
(Desarrollo)
Dado que los dos eventos A y B son mutuamente excluyentes se
tiene que: P(AB) = 0,
. . . . . . . . . . . . . . . . . . . .
84/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Dos eventos A y B son mutuamente excluyentes. ¿Son independien-
tes también?
(Desarrollo)
Dado que los dos eventos A y B son mutuamente excluyentes se
tiene que: P(AB) = 0, ahora, para que sean independientes se debe
cumplir que: P(AB) = P(A)P(B) = 0,
. . . . . . . . . . . . . . . . . . . .
85/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Dos eventos A y B son mutuamente excluyentes. ¿Son independien-
tes también?
(Desarrollo)
Dado que los dos eventos A y B son mutuamente excluyentes se
tiene que: P(AB) = 0, ahora, para que sean independientes se debe
cumplir que: P(AB) = P(A)P(B) = 0, por lo tanto la única forma
de que se de la independencia es que la probabilidad de uno o ambos
eventos A y B sea cero.
. . . . . . . . . . . . . . . . . . . .
86/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Una caja contiene balotas numeradas de 1 a n.
. . . . . . . . . . . . . . . . . . . .
87/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Una caja contiene balotas numeradas de 1 a n. Si se toman k bolas
en forma sucesiva hallar: La probabilidad de que m (k ≤ m ≤ n) sea
el número mas grande entre las k balotas.
(Desarrollo)
Se tienen Cnk formas de tomar k balotas entre n, entonces la proba-
bilidad de cada una es 1/Cnk ; que m sea el número más grande entre
las k balotas equivale ha haber tomado las restantes k − 1 balotas
entre las balotas numeradas de la 1 a la (m − 1) y, esto se puede
k−1
realizar de Cm−1 formas:
⎛ ⎞
⎝
m−1 ⎠
k −1
P= ⎛ ⎞
⎝
n ⎠
k
. . . . . . . . . . . . . . . . . . . .
88/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Se tienen k cajas idénticas, cada una con balotas numeradas de la 1 a
la n. Se retira al azar una bola de cada caja, ¿Cuál es la probabilidad
de que el mayor número de las balotas retiradas sea m?.
(desarrollo)
La probabilidad de retirar cualquier bola de cada una de la k cajas
es 1/n; la probabilidad de que una bola retirada de una caja tenga
un número entre 1 y m − 1 es (m − 1)/n (es decir que su valor sea
menor a m). Por lo tanto la probabilidad de que al sacar las k bolas,
una este numerada con m y las otras (k-1) bolas estén numeradas
con números menores a m corresponde a la combinatoria:
) *) * ) *
k m − 1 k−1 1 1
1 n n
. . . . . . . . . . . . . . . . . . . .
89/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
de la misma forma, la probabilidad de que q bolas de las k retiradas
de las k cajas tengan el número m y las otras (k − q) restantes
tengan números inferiores a m corresponde a:
) *) * ) *
k m − 1 k−q 1 q
q n n
en consecuencia, la probabilidad de que todas las balotas retiradas
tengan numero menores o iguales a m corresponde a la suma de
todas las posibilidades:
( ) k * ) m − 1 *k−q ) 1 *q
q=k
q n n
q=1
. . . . . . . . . . . . . . . . . . . .
90/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
En una lotería seleccionan 6 números de 51 posibles. Para jugar la
lotería se tienen balotas numeradas del 1 al 51 y se seleccionan al
azar 6 balotas. ¿ Cuál es la probabilidad de que un jugador halla
seleccionado previamente 4 o 5 o 6 números ganadores?.
(Desarollo)
La probabilidad de cada selección de 6 números obedece a 1/Cnm
(n = 51, m = 6). Ahora, las diferentes formas de escoger k bolas
(aciertos) entres las m bolas (m = 6) y m − k (no aciertos) entre
las n − m restantes es:
) *) *
m n−m
k m−k
. . . . . . . . . . . . . . . . . . . .
91/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
Por lo tanto, la probabilidad de tener k aciertos (k = 4, 5, 6) obedece
a: ) *) *
m n−m
k m−k
) *
n
m
con n = 51, m = 6 y k = 4, 5, 6
. . . . . . . . . . . . . . . . . . . .
92/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
En una linea de producción de resistencias de 100Ω solo se aceptan
las resistencias que tienen valores entre 96Ω y 104Ω. Calcular el
porcentaje de resistencias aceptadas bajo las siguientes condiciones:
(a) La distribución de los valores de las resistencias es uniforme
entre 95Ω y 105Ω.
(b) La distribución es Normal con µ = 100 y σ = 2.
(Desarrollo)
. . . . . . . . . . . . . . . . . . . .
93/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
. . . . . . . . . . . . . . . . . . . .
94/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
. . . . . . . . . . . . . . . . . . . .
95/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
. . . . . . . . . . . . . . . . . . . .
96/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
. . . . . . . . . . . . . . . . . . . .
97/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
u
. . . . . . . . . . . . . . . . . . . .
98/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo
. . . . . . . . . . . . . . . . . . . .
99/150
. . . . . . . . . . . . . . . . . . . .
Fundamentos
Dado un evento B, la función de densidad de X condicionada a dicho
evento corresponde a:
FX |B (x|B) = P[X ≤ x|B]
P[X ≤ x, B]
= P[B ] ̸= 0
P[B]
Supongamos ahora, que tenemos una partición del espacio muestreal:
{Bi , i = 1, · · · , n}, con P[Bi ] > 0, entonces:
#n
Bi = Ω con Bi ∩ Bj = ∅ ∀ i ̸= j
i=1
y, del teorema de la probabilidad total se tiene:
( n
FX (x) = FX |Bi (x|Bi )P[Bi ]
i=1
en consecuencia, la función de densidad de probabilidad (PDF) es:
∂ n FX |B (x|B)
fX |B (x|B) =
∂x1 · · · ∂xn
. . . . . . . . . . . . . . . . . . . .
100/150
. . . . . . . . . . . . . . . . . . . .
Fundamentos
De la última expresión y el teorema de la probabilidad total obtene-
mos:
(n
fX (x) = fX |B (x|Bi )P[Bi ]
i=1
. . . . . . . . . . . . . . . . . . . .
102/150
. . . . . . . . . . . . . . . . . . . .
Ejemplo
Ejemplo
Sea X = (X1 , X2 , X3 )T la posición de una partícula dentro de una
esfera de radio a centrada en el origen. Asumiendo que un instante
de observación la partícula tiene la misma de probabilidad de estar
en cualquier punto dentro de la esfera:
. /
3
4πa3
, x12 + x22 + x32 < a
fX (x) =
0, en otro caso
calcular la probabilidad de que la partícula caiga dentro de una esfera
de radio 2a/3 que esta contenida dentro de la esfera mas grande
Solución:
Denotemos por E el evento de que la partícula caiga dentro de la
esfera: /
R = {x1 , x2 , x3 : x12 + x22 + x32 < 2a/3}
. . . . . . . . . . . . . . . . . . . .
103/150
. . . . . . . . . . . . . . . . . . . .
Ejemplo
Ejemplo
al evaluar P[E ] obtenemos:
---
P[E ] = fX (x1 , x2 , x3 )dx1 dx2 dx3
R
empleando coordenadas esféricas se convierte en:
- 2a/3 - π - 2π
3
P[E ] = r 2 sin φdrdφ dθ ≃ 0,3
4πa3 r =0 φ=0 θ=0
. . . . . . . . . . . . . . . . . . . .
104/150
. . . . . . . . . . . . . . . . . . . .
Vector de esperanza
Definición
La esperanza de un vector X = (X1 , · · · Xn )T es un vector µ (o
X̄ ), con cada una de sus entradas dadas por:
- ∞ - ∞
µi = ··· xi fX (x1 , · · · , xn )dx1 · · · dxn
−∞ −∞
en terminos de la probabilidad marginal:
- ∞ - ∞
fXi (xi ) = ··· fX (x)dx1 · · · dxi−1 dxi+1 · · · dxn
−∞ −∞
así, la media µi corresponde a:
- ∞
µi = xi fXi (xi )dxi para i = 1, · · · , n
−∞
. . . . . . . . . . . . . . . . . . . .
105/150
. . . . . . . . . . . . . . . . . . . .
Matrices de covarianza
Definición
La matriz de covarianza K asociada con vector aleatorio X
corresponde al valor esperado el producto punto de (X − µ) con
(X − µ)T :
K = E [(X − µ) (X − µ)T ]
con:
Kij = E [(Xi − µi )(Xj − µi )]
= E [(Xj − µi )(Xi − µi )] = Kji
en particular con σi2
= Kii podemos escribir a K como:
⎡ ⎤
σ12 ··· K1n
⎢ .. ⎥
⎢ . ⎥
⎢ ⎥
K = ⎢ ... .. ⎥
⎢ 2
⎢ σi . ⎥⎥
⎢ .. ⎥
⎣ . ⎦
Kn1 ··· σn 2
. . . . . . . . . . . . . . . . . . . .
106/150
. . . . . . . . . . . . . . . . . . . .
Procesos Estocásticos
Definición
Sea un espacio de probabilidad (Ω, F, P). entonces definimos una
aplicación X del espacio muestral Ω a l espacio de funciones conti-
nuas. A los elementos de este espacio se le denomina Proceso Aleato-
rio si en cada tiempo fijo la aplicación es una variable aleatoria, esto
es, X (t, ζ) ∈ F para cada t fijo sobre la recta real −∞ < t < ∞.
. . . . . . . . . . . . . . . . . . . .
109/150
. . . . . . . . . . . . . . . . . . . .
Procesos Estocásticos Importantes
. . . . . . . . . . . . . . . . . . . .
110/150
. . . . . . . . . . . . . . . . . . . .
Procesos Estocásticos Importantes
. . . . . . . . . . . . . . . . . . . .
111/150
. . . . . . . . . . . . . . . . . . . .
Procesos Estocásticos Importantes
$ % 7 8
6t 6∞ 6t λn αn−1 e −λα
6∞
fT (α, n) fτ (β)dβ dα = (n−1)! λe −λβ dβ dα u(t)
0 t−α 0 t−α
) *
6t λn e −λt
= αn−1 dα (n−1)! u(t)
0
(λt)n −λt
= n! e u(t) para t ≥ 0, n ≥ 0
el valor esperado para este proceso corresponde a: E [N(t)] = λt
. . . . . . . . . . . . . . . . . . . .
113/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
(Introducción)
La inferencia es el acto de derivar conclusiones a partir de las eviden-
cias. En el caso de la predicción de un proceso aleatorio con base en
las señales relacionadas, la Inferencia Bayesiana usufructúa no solo
las evidencias. también el conocimiento a priori de la distribución de
probabilidad del proceso.
. . . . . . . . . . . . . . . . . . . .
114/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
(Introducción)
La inferencia es el acto de derivar conclusiones a partir de las eviden-
cias. En el caso de la predicción de un proceso aleatorio con base en
las señales relacionadas, la Inferencia Bayesiana usufructúa no solo
las evidencias. también el conocimiento a priori de la distribución de
probabilidad del proceso. Los métodos contemplados son los siguien-
tes:
. . . . . . . . . . . . . . . . . . . .
115/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
(Introducción)
La inferencia es el acto de derivar conclusiones a partir de las eviden-
cias. En el caso de la predicción de un proceso aleatorio con base en
las señales relacionadas, la Inferencia Bayesiana usufructúa no solo
las evidencias. también el conocimiento a priori de la distribución de
probabilidad del proceso. Los métodos contemplados son los siguien-
tes:
Estimador de máximo a posteriori - MAP
Máxima verosimilitud - ML
Mínimo error cuadrático medio - MMSE
Valor absoluto medio del error - MAVE
. . . . . . . . . . . . . . . . . . . .
116/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
(Introducción)
La inferencia es el acto de derivar conclusiones a partir de las eviden-
cias. En el caso de la predicción de un proceso aleatorio con base en
las señales relacionadas, la Inferencia Bayesiana usufructúa no solo
las evidencias. también el conocimiento a priori de la distribución de
probabilidad del proceso. Los métodos contemplados son los siguien-
tes:
Estimador de máximo a posteriori - MAP
Máxima verosimilitud - ML
Mínimo error cuadrático medio - MMSE
Valor absoluto medio del error - MAVE
Un ejemplo clásico del modelo Bayesiano corresponde al modelo de
Markov escondido.
. . . . . . . . . . . . . . . . . . . .
117/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
(Introducción)
La inferencia es el acto de derivar conclusiones a partir de las eviden-
cias. En el caso de la predicción de un proceso aleatorio con base en
las señales relacionadas, la Inferencia Bayesiana usufructúa no solo
las evidencias. también el conocimiento a priori de la distribución de
probabilidad del proceso. Los métodos contemplados son los siguien-
tes:
Estimador de máximo a posteriori - MAP
Máxima verosimilitud - ML
Mínimo error cuadrático medio - MMSE
Valor absoluto medio del error - MAVE
Un ejemplo clásico del modelo Bayesiano corresponde al modelo de
Markov escondido.
La inferencia Bayesiana se basa en la minimización de la función de
Riesgo de Bayes.
. . . . . . . . . . . . . . . . . . . .
118/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
.
. . . . . . . . . . . . . . . . . . . .
119/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
. . . . . . . . . . . . . . . . . . . .
121/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
Definición
El Espacio de Parámetros de un proceso aleatorio Θ corresponde a
la colección de valores que puede tomar el vector de parámetros θ .
. . . . . . . . . . . . . . . . . . . .
122/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
Ejemplo
Sea un proceso con ruido y de media cero, para el cual se desea
estimar la media de la señal sin ruido y la señal en si misma. A
medida que el periodo de observación aumenta, el valor de la media
tiende a la media de la señal sin ruido; sin embargo la estimación de
la señal limpia depende de la estructura de correlación de la señal y
la relación señal a ruido, como también del método de estimación
empleada.
. . . . . . . . . . . . . . . . . . . .
124/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
Ejemplo
Consideremos ahora, la interpolación de muestras perdidas a partir de
N muestras almacenadas de una secuencia de una señal (ver figura).
Ejemplo (Continuación)
De la ecuación (3) tenemos que la restauración consiste en estimar
tanto a θ como a e . Si se asume que θ es invariante en el tiempo,
entonces la estimación de θ puede ser obtenida con base en las N
muestras almacenadas; a medida que N se hace mas grande, el valor
de la estima se aproximará al valor del parámetro. La dificultad para
la interpolación de la señal radica en que la exitación e subyacente
de la señal x es puramente aleatoria y, a diferencia de θ no se puede
estimar a partir de un promedio.
. . . . . . . . . . . . . . . . . . . .
126/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
Por ejemplo, la probabilidad de que una variable como el clima del fin
de semana, θ , tome un valor o estado particular dadas algunas ob-
servaciones meteorológicas y , se puede ponderar con la probabilidad
a priori de los estados climáticos (independientemente de la observa-
ción), que en sí misma podría obtenerse de los datos meteorológicos
de años anteriores y también estaría condicionada a la época del año.
Consideremos un proceso con parámetro Θ , espacio de observación
Y y un PDF conjunta fY ,Θ (yy , θ ), de la regla de Bayes tenemos:
fY |Θ (yy |θ
|θ)fΘ (θ)
θ|y ) =
fΘ|Y (θ|y
fY (yy )
. . . . . . . . . . . . . . . . . . . .
132/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
Ejemplo
Una señal ruidosa de N muestras esta modelada como:
y (m) = x (m) + n (m)
asumamos que la señal x (m) es gaussiana con vector media µx y
matriz de covarianza Σxx , tomemos también al ruido n (m) gaussiano
con media µn y matriz de covarianza Σnn . Las PDFs de la señal y
el ruido modelan los espacios de la señal y el ruido respectivamente.
Dado un vector de observación y (m) la señal subyacente x (m) tendrá
una distribución con un vector de media y (m) − µn y una matriz de
covarianza Σnn , tal como se muestra en la figura (8). La función de
verosimilitud está dada por:
1
fX |Y [yy (m)|xx (m)] = fN [yy (m) − x (m)] = N/2
(2π) |Σ Σnn |1/2
? @
1 T −1
×exp − ([yy (m) − µn ] − x (m)) Σnn ([yy (m) − µn ] − x (m))
2
. . . . . . . . . . . . . . . . . . . .
133/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
Ejemplo
. . . . . . . . . . . . . . . . . . . .
134/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
Ejemplo (continuación)
Los términos en la última expresión se organizarón para enfatizar el
espacio de verosimilitud mostrado en la figura (8). Por lo tanto la
PDF a posteriori se puede expresar como:
fY |X [yy (m)|xx (m)]fX [xx (m)]
fX |Y [xx (m)|yy (m)] = fY [yy (m)]
1 1
= Σnn |1/2 |Σ
fY [yy (m)] (2π)N |Σ Σxx |1/2
(Estimación Bayesiana)
La estimación bayesiana de un vector de parámetros θ se fundamen-
ta en la minimización de una Función de Riesgo Bayesiana definida
como una función de promedio de costo del error:
R (θ̂θ ) = E[C (θ̂θ , θ )]
- -
= C (θ̂θ , θ )fY ,Θ (yy , θ )dyy dθθ
-θ -Y
= C (θ̂θ , θ )fY |Θ (yy |θθ )fΘ (θθ )dyy dθθ
θ Y
La función de costo del error C (θ̂θ , θ ) permite la ponderación adecua-
da de los diversos resultados para lograr algún tipo de propiedades
objetivas o subjetivas. Así, la función de costo se escoge para que
los resultados no deseados tengan un alto costo. El promedio de la
función de costo de error R (θ̂θ ) se realiza sobre todo el espacio de θ
e y.
. . . . . . . . . . . . . . . . . . . .
136/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
A - B
∂R (θ̂θ |yy ) ∂
θ̂θ bayesiana = arg cero = arg cero
θ̂θ ∂θ̂θ θ̂θ ∂θ̂θ θ
. . . . . . . . . . . . . . . . . . . .
138/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
. . . . . . . . . . . . . . . . . . . .
139/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
. . . . . . . . . . . . . . . . . . . .
140/150
. . . . . . . . . . . . . . . . . . . .
Inferencia Bayesiana
. . . . . . . . . . . . . . . . . . . .
141/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (2 sección 6.1 - Tromba ed 6)
Sea el mapa T definido como T (x, y ) = ((x + y )/2, (x − y )/2) y
sea D ∗ = [−1, 1] × [−1, 1] ⊂ R2 . Determinar la imagen D de D ∗ a
través de T .
. . . . . . . . . . . . . . . . . . . .
142/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (2 sección 6.1 - Tromba ed 6)
Sea el mapa T definido como T (x, y ) = ((x + y )/2, (x − y )/2) y
sea D ∗ = [−1, 1] × [−1, 1] ⊂ R2 . Determinar la imagen D de D ∗ a
través de T .
Como cada componente de la función T corresponde a una función
lineal de x e y podemos analizar el mapa T a partir de lineas en
D ∗ . Tomemos lineas paralelas al eje y y veamos como se envían a
D.
. . . . . . . . . . . . . . . . . . . .
143/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (2 sección 6.1 - Tromba ed 6)
Sea el mapa T definido como T (x, y ) = ((x + y )/2, (x − y )/2) y
sea D ∗ = [−1, 1] × [−1, 1] ⊂ R2 . Determinar la imagen D de D ∗ a
través de T .
Como cada componente de la función T corresponde a una función
lineal de x e y podemos analizar el mapa T a partir de lineas en
D ∗ . Tomemos lineas paralelas al eje y y veamos como se envían a
D. Definimos a L α (t) = (α, t) con α una constante en [−1, 1] y el
parámetro o variable t tal que −1 ≤ t ≤ 1 (ver figura).
. . . . . . . . . . . . . . . . . . . .
144/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (2 sección 6.1 - Tromba ed 6)
Sea el mapa T definido como T (x, y ) = ((x + y )/2, (x − y )/2) y
sea D ∗ = [−1, 1] × [−1, 1] ⊂ R2 . Determinar la imagen D de D ∗ a
través de T .
Como cada componente de la función T corresponde a una función
lineal de x e y podemos analizar el mapa T a partir de lineas en
D ∗ . Tomemos lineas paralelas al eje y y veamos como se envían a
D. Definimos a L α (t) = (α, t) con α una constante en [−1, 1] y el
parámetro o variable t tal que −1 ≤ t ≤ 1 (ver figura).
Para α = −1, L−1 (t) = (−1, t) (cc 4 en la
figura) es enviada por T a T (L−1 (t)) =
T (−1, t) = ((−1 + t)/2, (−1 − t)/2);
. . . . . . . . . . . . . . . . . . . .
145/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (2 sección 6.1 - Tromba ed 6)
Sea el mapa T definido como T (x, y ) = ((x + y )/2, (x − y )/2) y
sea D ∗ = [−1, 1] × [−1, 1] ⊂ R2 . Determinar la imagen D de D ∗ a
través de T .
Como cada componente de la función T corresponde a una función
lineal de x e y podemos analizar el mapa T a partir de lineas en
D ∗ . Tomemos lineas paralelas al eje y y veamos como se envían a
D. Definimos a L α (t) = (α, t) con α una constante en [−1, 1] y el
parámetro o variable t tal que −1 ≤ t ≤ 1 (ver figura).
Para α = −1, L−1 (t) = (−1, t) (cc 4 en la
figura) es enviada por T a T (L−1 (t)) =
T (−1, t) = ((−1 + t)/2, (−1 − t)/2); para
t = −1 T (−1, −1) = (−1, 0) y para t = 1,
T (−1, 1) = (0, −1),
. . . . . . . . . . . . . . . . . . . .
146/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
Ejemplo (2 sección 6.1 - Tromba ed 6)
Sea el mapa T definido como T (x, y ) = ((x + y )/2, (x − y )/2) y
sea D ∗ = [−1, 1] × [−1, 1] ⊂ R2 . Determinar la imagen D de D ∗ a
través de T .
Como cada componente de la función T corresponde a una función
lineal de x e y podemos analizar el mapa T a partir de lineas en
D ∗ . Tomemos lineas paralelas al eje y y veamos como se envían a
D. Definimos a L α (t) = (α, t) con α una constante en [−1, 1] y el
parámetro o variable t tal que −1 ≤ t ≤ 1 (ver figura).
Para α = −1, L−1 (t) = (−1, t) (cc 4 en la
figura) es enviada por T a T (L−1 (t)) =
T (−1, t) = ((−1 + t)/2, (−1 − t)/2); para
t = −1 T (−1, −1) = (−1, 0) y para t = 1,
T (−1, 1) = (0, −1), lo que indica que la
curva L−1 (t) se envia en la linea que une a
los puntos (−1, 0) y (0, −1) (T (cc 4 ) en la
figura).
. . . . . . . . . . . . . . . . . . . .
147/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
. . . . . . . . . . . . . . . . . . . .
148/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
. . . . . . . . . . . . . . . . . . . .
149/150
. . . . . . . . . . . . . . . . . . . .
Ejemplos
. . . . . . . . . . . . . . . . . . . .
150/150
. . . . . . . . . . . . . . . . . . . .