Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Temas de trabajo
Universidad Técnica Federico Santa María
Departamento de Informática
ILI-280
Modelos Bayesianos
Capítulo 2: Métodos de Kernel y CP
Máquinas de Vector de Soporte
Series Temporales
BOOTSTRAP Reglas de Inducción
Estadística Computacional Redes Neuronales Artificiales (FANN, autoorganizativas)
II Semestre 2005 Ensemble de ANN
Redes MANN
Lógica Difusa
Análisis de Clustrering
Prof. Héctor Allende
Cadenas de Markov Ocultas
Página : www.inf.utfsm.cl/~hallende Visualización
e-mail : hallende@inf.utfsm.cl
H. Allende, R Ñanculef
H. Allende R. Ñanculef 2
Tarea 1 INTRODUCCION
1 n Si no poseemos información
G( ⋅ ,F0 ) ≅ G∞ (⋅)
Fn = ∑ I ( X i ≤ x)
n i =1
F0 confiable acerca de la realidad,
dejemos que los datos hablen
Teoría Asintótica
Técnica Bootstrap
G( ⋅ ,F0 ) ≅ G (⋅, Fˆ0 )
Glivenko-Cantelli Theorem
La teoría asintótica reemplaza la distribución desconocida por G∞
n →∞
Fn ( x ; X n ) → F0 ( x)
a . s.
(
P lim Fn = F0 = 1
n →∞
) El Bootstrap reemplaza la distribución desconocida por F̂0
Método Bootstrap
Números Aleatorios
APPROACHES DE BOOTSTRAP
Generador RANDU
Generadores Congruenciales
x
E[g(u)] = ∫ g (u) * f (u )du
{
R = ( x, y ) : x, y ∈ ℜ ∧ x 2 + y 2 ≤ 1 } 0
siendo f (u ) = (1−10 ) ; g (u ) = g ( x) y du = dx
H. Allende R. Ñanculef 37 H. Allende R. Ñanculef 38
Sea y=
x−a
a
dy =
dx
Caso 4 : θ = ∫ ∫ ... ∫ g ( x1 , x 2 ,..., x n )dx 1dx 2 ... dx n
0 0 0
b−a b−a ∧
θ puede ser calculado mediante θ = E[ g (u1 , u 2 ,..., un )]
1
θ = ∫ g [ a + ( b − a ) y ] ⋅ ( b − a ) dy
Entonces 0
donde U1, U2, ..., Un sucesiones v.a.i.i.d. U(0,1)
1
θ = ∫ h ( y ) dy
k
∑ g (u , u ,..., u )
0 i i i
h( y ) = (b − a ) ⋅ g (a + (b − a ) y ) ∧ 1 2 n
donde
Luego podemos estimar mediante el cálculo de E[h(y)]
θ= i =1
k
H. Allende R. Ñanculef 41 H. Allende R. Ñanculef 42
Caso 5 : Para θ = ∫ g ( x ) dx
0 Tarea 2 : Usando el método de Monte Carlo resolver
1 dx
Sea y= dy = − = − y 2 dx 1 1 1
1+ x (1 + x) 2 2 2
∫ ∫ ∫
− x ( x + y )
1) e dx ; 2 ) e dxdy
1
g( 1 − 1) o 0 0
∫
y
Entonces θ = dy 0 ≤ y ≤1
0
y2 3) Derive un método aproximado para resolver el problema
de integración, vía Simulación de Monte Carlo y proponga
Luego θ = E[h( y )] siendo un Algoritmo ∞
θ = ∫ g ( x)dx
g ( 1 y − 1)
h( y ) = −∞
y2
H. Allende R. Ñanculef 43 H. Allende R. Ñanculef 44
1.
n →∞ * * * *
Sea Gn (τ ) = P (Tn ≤ τ ) y Gn (τ ) = P (Tn ≤ τ ) ,donde P es la distribución de
probabilidad inducida por el muestreo de Bootstrap. Entonces G n* (⋅)
2. G∞ (τ , F0 ) es una función continua de τ para cada F ∈ℑ
estima consistentemente a G n (⋅) sí y sólo si
3. Para cualquier τ y cualquier secuencia {H n } ∈ ℑ
lim ρ ( H n , F0 ) = 0 Gn (τ , H n ) → G∞ (τ , F0 )
Tn → N (0,1)
d
n→ ∞
H. Allende R. Ñanculef 45 H. Allende R. Ñanculef 46
Métodos Bootstrap para estimar Error Estándar Métodos Bootstrap para estimar Error Estándar
Métodos Bootstrap para estimar Error Estándar Métodos Bootstrap para estimar Sesgo (BIAS)
BOOTSTRAP PARA ERROR ESTÁNDAR
θ = t (F ) θˆ = s ( x)
Lim seˆ BS = se Fˆ (θˆ * )
BIAS F = BIAS F (θ , θˆ) = E F [s ( x)] − t ( F )
B →∞
mˆ
[
VAR( seˆB ) ≈ VAR mˆ 12 / 2 + E 2 (∆ˆ + 2) ]
4B Estimación Ideal
∆ˆ = mˆ / mˆ 2 − 3
4 2
2.- Rara vez es necesario tomar más de B ≥ 200 re-muestras para estimar el error estándar. En la práctica se aproxima ese valor mediante una Simulación de Montecarlo
3.-La aproximación de Bootstrap se puede analizar como una simulación de Montecarlo.
4.- Siempre es posible hacer un análisis adecuado para determinar el B que garantiza
determinada precisión.
H. Allende R. Ñanculef 49 H. Allende R. Ñanculef 50
P
3. Aproximar E Fˆ [s( x )] por : θˆ (⋅) = ∑ θˆ (b ) / B
B
µ i = E ( yi | ci ) = ∑ cij β j β = ( β1 ,...., β p ) T ?
* * *
b =1
j =1
4. Computar el estimador de Plug-in : t (Fˆ )
5. Estimar el BIAS a partir de de 3 – 4: θˆ * − t ( Fˆ ) µ i = m(c ) Modelo general de regresión
BOOTSTRAP EN MODELOS DE REGRESION BPor ejemplo si quiere estimar el error estándar de , calcule
* * *
Idea: Mantener los predictores fijos y gererar versiones
1. Construya B conjuntos de Bootstrap { x1 , x 2 ,..., x n } donde cada remuestradas de las observaciones, a partir de los residuos
elemento se obtiene muestreando de la distribución muestral
empírica de x
ε i = y i − ci βˆ
Para el i-ésimo conjunto calcule β i de acuerdo al modelo de
*
2.
minimización que esté considerando. 1. Calcule los observados usando βˆ
3. Estime el error estándar como 2. Muestree εi desde, obteniendo un conjunto de Boostrap {ε 1* , ε 2* ,..., ε n* }
B
( β i* − β * ) 2 B
β *i y i = ci βˆ + ε i
* *
se BNP = ∑ β* =∑ 3. Calcule
i =1 B −1 i =1 B
4. Calcule β̂
*
desde la versión remuestrada de la data, de acuerdo
{
VAR ( βˆ ) = σˆ F2 (C T ⋅ C ) −1 } G jj = diag G −1 = diag C T C ( ) al modelo de minimización que esté utilizando, por ejemplo minimización
de la mediana de errrores cuadráticos.
j j
Bootstrap-t Bootstrap-t
* * * *
1. Generar B muestras de Bootstrap de la forma X = {xi , x 2 ,... x n }
Técnica inspirada en los intervalos t-Student para la media de a partir de la data X = {x1 , x 2 ,...x n } .Como no estamos haciendo
poblaciones normales suposiciones paramétricas acerca de la población cada valor del conjunto
de Bootstrap ha sido obtenido muestrando con reemplazo de la data
original, de acuerdo a la función de distribución empírica. Si se desean
θˆ − θ Válido si el parámetro es la esperanza de una
hacer suposiciones paramétricas se puede cambiar el esquema de re-
Z= ~ t n −1 Población normal y el estimador es la media de
seˆ una muestra de tamaño n muestreo, utilizando otro estimador para distribución F de la data.
realizamos el paso
Buenas Propiedades
cup clo
[θˆ ,θˆ ] = [G
lo up
−1
(α ), G −1 (1 − α ) ]
Pr ob{θ > θˆup } = α + Pr ob{θ < θˆlo } = α +
n n
Bootstrap
Smoothed Bootstrap
Bootstrap Methods for Time series
ANN Bootstrap
Bootstrapping Regression Models
Bootstrap realizations of a stationary
process
H. Allende R. Ñanculef 63