Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Martín Weigel*
Física Teórica, Universidad del Sarre, D-66041 Saarbrücken, Alemania
y Instituto de Física, Universidad Johannes Gutenberg de Maguncia, Staudinger Weg 7, D-55099 Maguncia,
Alemania
Wolfhard Janke†
Instituto de Física Teórica y Centro de Ciencias Teóricas (NTZ), Universidad de Leipzig, P.O. Box 100 920,
D-04009 Leipzig, Alemania
Recibido el 24 de febrero de 2010; publicado el 8 de junio de 2010; Error del editor corregido el 8 de junio de 2010
Además del efecto bien conocido de las autocorrelaciones en series temporales de datos de simulación de
Monte Carlo resultantes del proceso de Markov subyacente, el uso del mismo grupo de datos para calcular varias
estimaciones implica correlaciones cruzadas adicionales. Este efecto, si no se tiene debidamente en cuenta,
conduce a estimaciones de error sistemáticamente erróneas para cantidades combinadas. Utilizando una receta
sencilla de análisis de datos que emplea la navaja o técnicas de remuestreo similares, se pueden evitar tales
problemas. Además, un análisis de covarianza permite la formulación de estimadores óptimos con varianza a
menudo significativamente reducida en comparación con los más convencionales.
Promedios. bastante estándar en los estudios de simulación por
computadora 1,un análisis adecuado y la reducción de los
DOI: 10.1103/PhysReve.81.066701
errores estadísticos y el sesgo parecen ser mucho menos
comunes. Aquí, los métodos de remuestreo resultan ser muy
I. INTRODUCCIÓN valiosos. Aunque tales técnicas ofrecen una serie de
beneficios sobre los enfoques más tradicionales de estimación
Las simulaciones de Monte Carlo, y en particular los de errores, su adopción por parte de los profesionales en el
métodos basados en cadenas de Markov, han madurado en las campo de las simulaciones por computadora ha
últimas décadas hasta convertirse en una caja de herramientas
altamente versátil y poderosa para estudios de sistemas en
física estadística y de materia condensada 1,2, que van
desdemodelos clásicos de espín 3 sobre problemas de materia *weigel@uni-mainz.de
† janke@itp.uni-
blanda 4 hasta sistemas cuánticos 5 . Su competitividad con
leipzig.de
otros enfoques como, por ejemplo, las expansiones teóricas de
Números PACS: 05.10.Ln, 05.70.Fh, 64.60.F
campo para el estudio de fenómenos críticos 6,7, se basa en
gran medida en el desarrollo y refinamiento de una serie de
técnicas avanzadas de simulación como los algoritmos de aún no ha sido tan universal como deseable. Tenemos
clúster 8 y los métodos de conjunto generalizado 9,10. entendido que esto se debe, en parte, a una cierta falta de
Igualmente importante para la generación de datos de presentaciones ampliamente accesibles de las ideas básicas
simulación, sin embargo, es su análisis correcto y óptimo. En que, de hecho, son muy simples y fáciles de implementar en
este campo, también se han logrado una serie de avances los códigos informáticos, como se demuestra a continuación.
importantes sobre las técnicas utilizadas en los primeros días. Más específicamente, los datos generados por una
Estos incluyen, por ejemplo, el enfoque FSS de escala de simulación MC MC de Monte Carlo están sujetos a dos tipos
tamaño finito 11,convertir la limitación de los métodos de de fenómenos de correlación, a saber, una autocorrelación o
simulación a tamaños de sistemas finitos en una herramienta correlaciones temporales para el caso de las simulaciones
sistemática para acceder al límite termodinámico, técnicas de MCMC MCMC de cadena de Markov, que están directamente
reponderación 12,levantar la limitación de técnicas numéricas relacionadas con la naturaleza markoviana del proceso
al estudio de puntos individuales en el espacio de parámetros estocástico subyacente y conducen a una reducción efectiva
para permitir que se estudien funciones continuas de en el número de eventos muestreados independientemente y
estimaciones, así como herramientas estadísticas avanzadas correlaciones cruzadas b entre diferentes estimaciones
como la navaja y otros esquemas de remuestreo de análisis de extraídas del mismo conjunto de series temporales originales
datos 13. que se originan por el origen de las estimaciones en el mismo
De estas técnicas, el análisis de datos estadísticos parece conjunto de datos estadísticos. El primero puede tenerse más
haber recibido la menor atención. Por lo tanto, si bien los convenientemente en cuenta mediante una determinación de
análisis FSS, incluso incluyendo términos de corrección, son los tiempos de autocorrelación relevantes y una
066701-1
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010
transformación de bloqueo o agrupación que resulte en una resuelven fácilmente utilizando técnicas de remuestreo como
serie temporal auxiliar efectivamente no correlacionada 14. la navaja.
Tales análisis son ahora estándar, al menos en estudios de
simulación realizados seriamente. Por el contrario, los efectos A. Autocorrelaciones
de las correlaciones cruzadas se han descuidado en su mayoría
Considere una simulación general de Monte Carlo con los
hasta la fecha ver, sin embargo, Refs. 15–18, pero sólo se posibles valores O de un observable dado O que aparecen
están discutiendo sistemáticamente siguiendo nuestra reciente de acuerdo con una distribución de probabilidad pO. Esta
sugerencia 19,20. En este artículo, mostramos cómo tales forma, por supuesto, implica que el sistema está en equilibrio
correlaciones cruzadas conducen a estimaciones
térmico, es decir, que el proceso estocástico subyacente es
sistemáticamente erróneas de errores estadísticos de estacionario. La probabilidad
cantidades promediadas o combinadas de otra manera cuando
la densidad pO podría ser idéntica a la distribución de
se emplea un análisis ingenuo, y cómo se puede lograr
Boltzmann de la termodinámica de equilibrio en cuanto a la
fácilmente un análisis estadísticamente correcto en el marco
importancia de la técnica de exploración 21,pero también
del método jackknife. Además, incluso se puede aprovechar
sepueden concebir diferentes situaciones, véase la discusión
de la presencia de tales efectos de correlación para reducir
en Sec. III infra. Si asumimos la ergodicidad de la cadena, el
significativamente la varianza de las estimaciones sin un
promedio
esfuerzo adicional sustancial. Demostramos la relevancia
N
práctica de estas consideraciones para un estudio de escala de
tamaño finito del modelo de Ising en dos y tres dimensiones. Acerca de ̄ 1 Oy
El resto de este documento está organizado de la siguiente N i= 1
manera. En sec. II damos una receta general para un camino
a prueba de fallos de Monte Carlo para una serie temporal O1,O2,... de las mediciones de N es
análisis de datos, teniendo en cuenta los efectos de las un estimador imparcial de la media
autocorrelaciones y correlaciones cruzadas mencionadas
anteriormente. Después de discutir las complicaciones para
laboratorio independientes. Las simulaciones de cadena de la introducción de un tiempo de corte 26,27. Se han
Markov implican la presencia de correlaciones temporales, sin desarrollado varios esquemas de aproximación utilizando
embargo, tales que la función de autocorrelación conectada, tales estimadores, pero resultan tener graves inconvenientes al
ser computacionalmente costosos y difíciles.
COs,t OsOt − Os
Ot 3
(t−1) Nb tNb
̄
2
O = 2O1 + 2N 1 − t COt. 4º
FIGURA 1. Color en línea Transformación de bloqueo en una
N t= 1 N C O0 serie temporal. En el análisis de binning, la serie se divide en bloques
de longitud Nb a. En el análisis jackknifing, los bloques consisten en
Las correlaciones de Monte Carlo disminuyen
exponencialmente, es decir, toda la serie aparte de las entradas de un solo bloque b.
uno tiene
y define promedios de bloques
2
2El ̄ O .
1
séptimo
ONt b = Ok, t = 1, ... ,n, 9
N/2intO
N
bkBt
En vista de la reducción de1 /N en la varianza del promedio
̄
O en relación con una sola medición en Eq. 1, Eq. 7 establece cf. Fig. 1a. Este procedimiento da como resultado una serie
que el número efectivo de mediciones independientes en temporal efectiva más corta ON1 b,ON2 b,... con n entradas.
presencia de autocorrelaciones se reduceen un factor de
Asumimos por simplicidad que N es un múltiplo entero de n.
1/2intO. Los tiempos de autocorrelación exp e int no son
idénticos, pero se puede demostrar que este último es un límite Obviamente, el promedio
inferior del primero, intOexpO 25.
Mientras el tiempo de autocorrelación sea finito, la
distribución de los promedios todavía se vuelve gaussiana
asintóticamente, de modo que para Nla varianza sigue siendo
la cantidad relevante que describe las fluctuaciones. Para
̄
determinar prácticamente 2O a partir de Eq. 4, se requiere una
estimación para la función de autocorrelación. Esto se puede
encontrar en la definición 3 reemplazando los valores de
expectativa con promedios de tiempo. Resulta, sin embargo,
que al sumar las contribuciones de la función de
autocorrelación para diferentes retrasos de tiempo t en Eq.
Se incurre en 4 fluctuaciones divergentes, haciendo cumplir
066701-3
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010
̄ ̄ Nb
O y su varianza 1O son invariantes bajo esta transformación.
Bajo la desintegración exponencial 5 de autocorrelaciones de FIGURA 2. Color en línea Representación esquemática de la
la serie original es claro y se puede mostrar explícitamente estimación
14,sin embargo, que los promedios de bloque posteriores ONt ̄
b
, OtN+1b están menos correlacionados que las medidas ˆ 2O de la varianza del promedio según Eq. 2 para una serie temporal
originales Ot y Ot+1 . Además, las correlaciones restantes rebloqueada en función de la longitud del bloque Nb.
deben reducirse a medida que aumenta la longitud del bloque
Nb, de modo que asintóticamente para Nb→ al tiempo que se
garantiza que n1 se produzca una serie temporal no 1ˆ 2O اNb
correlacionada. En consecuencia, el ingenua estimador 2 O
ˆint = 10
puede ser utilizado legalmente en este límite para determinar
2 ˆ 2El̄ 1
̄
la varianza 2O de la media. Para las series temporales finitas
encontradas en la práctica, se debe utilizar una longitud de dentro de este esquema, donde Nb debe elegirse en el régimen
bloque N b y NbN. Esto se ilustra en la Figura 2 que muestra de meseta de la Fig. 2.
la estimación 2 para una serie de tiempo bloqueada con
tiempo de autocorrelación int13 en función de la longitud del B. Covarianza y sesgo
bloque Nb. Se acerca a la verdadera varianza 2Ō desde abajo,
llegando finalmente a un valor de meseta donde cualquier ̄
Además de proporcionar una estimación de 2O para
desviación preasintótica restante se vuelve insignificante en
cantidades simples, el procedimiento de bloqueo tiene la
comparación con las fluctuaciones estadísticas. Si la serie
ventaja de dar como resultado una serie temporal auxiliar
temporal disponible es lo suficientemente larga en
efectivamente no correlacionada que luego puede introducirse
comparación con , a menudo es suficiente simplemente
en maquinaria estadística adicional, gran parte de la cual se
agrupar los datos en tan solo unos cien bloques y restringir el
limita al caso de variables independientes. Los esquemas de
análisis de datos posterior a esos bloques. Como regla general,
remuestreo como el jackknife 13 proporcionan estimaciones
en aplicaciones prácticas resulta que se requiere una serie
de error y sesgo también para funciones no lineales de
temporal de longitud N10 000 para una determinación fiable
observables sin implicar un error de truncamiento o requerir
de los errores estadísticos, así como de los tiempos de
suposiciones sobre las distribuciones de probabilidad
autocorrelación. De Eqs. 2 y 6 se deduce que el tiempo de
subyacentes.
autocorrelación integrado se puede estimar a partir de
Si bien se puede calcular directamente a partir de la
serie temporal bloqueada de O a través del estimador 2,este
enfoque falla para las funciones no lineales f A,
B ,... de los valores de expectativa A, B ,... tales como,
por ejemplo, susceptibilidades o cumulantes. Un enfoque
estándar para tales casos es el uso de fórmulas de propagación
de errores basadas en expansiones de Taylor 22,
1
f A, B ,... = De 2A + Bf 2B + correlacionados debido a su origen en la misma simulación,
¯. también deben incluirse términos de correlación cruzada.
Peor aún, para el caso de las estimaciones de parámetros no
paramétricos, como la determinación del máximo de alguna
11 cantidad mediante la reponderación, véase a continuación o
Aparte del error de truncamiento resultante de la restricción al extraer un exponente crítico con un procedimiento de
al primer orden en la expansión, esto conlleva una serie de ajuste, la propagación de errores no se puede usar fácilmente
¯ ¯ en absoluto.
problemas adicionales: si los promedios A, B, etc. están
066701-4
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010
directamente aplicable es el procedimiento jackknife, donde debido a que se basan en casi los mismos datos. El Eq. general.
las meta muestras consisten en todas las series temporales 15 forma una estimación conservadora y a lo sumo
originales excepto un bloque de datos, cf. Fig. 1b. débilmente sesgada de la verdadera varianza 13, que carece
Supongamos que un conjunto de simulaciones dio lugar a una del error de truncamiento de los esquemas basados en Eq. 11
colección de series temporales Ok,1,Ok,2, ... Ok,Nk, k=1, 2,... y es aplicable a las estimaciones de parámetros no
para diferentes observables, tamaños de sistema, paramétricos.
temperaturas, etc. Aplicando el procedimiento de bloqueo En una ligera generalización de Eq. 15 es posible estimar
descrito anteriormente, es sencillo dividir la serie en bloques también las covarianzas. Para un número de estimadores
efectivamente no correlacionados. A menudo es conveniente ˆ
iOt, i = 1,2,..., un estimador robusto de navaja de la matriz de
utilizar el mismo número de bloques n para todas las series,
covarianza está dado por
por ejemplo, 100 que se pueden organizar fácilmente
n
mediante la transformación de bloqueo, siempre que Nk/k sea
mayor que algún valor mínimo, por ejemplo, 10 000 para cada
ˆ 2ij ˆ n− 1
simulación y observable. Si entonces Bt= B1,t,... ,Bk,tT denota
ˆes − ˆi·
el bloque tésimo sobre todas las series de acuerdo con Eq. 8,
ˆ js − ˆ j· .
donde para un número constante de bloques las longitudes de
16
bloque Nb,k =Nk/n pueden variar entre las diferentes series en
n s= 1
consideración, se define el bloque jackknife correspondiente
como el complemento De manera similar se puede reducir el sesgo de los
estimadores, es decir, las desviaciones entre la media de un
Jk,t 1 ا, ... ,Nk \ Bk,t, 12 observable y el valor de expectativa de algún estimador que
desaparecen con el aumento de la longitud de la muestra. Para
ˆ una discusión detallada, remitimos al lector a Refs. 13,29.
cf. Fig. 1. Considerando ahora un estimador Ot para algún Por lo tanto, un procedimiento general para el análisis de
parámetroen función de algunas o todas las diferentes datos de simulación basado en técnicas de bloqueo y navaja
series, definimos las estimaciones correspondientes tiene la siguiente forma:
restringidas al bloque jackknife Js, 1 Decida el número n de bloques de navajas que se
utilizarán. Para la mayoría de los propósitos, del orden de 100-
ˆ s= 500 bloques son suficientes.
ˆ O1,tJ1,s, ...,Ok,tJk,conT. 13
2 Para cada serie temporal original registrada en una
colección de simulaciones, examine los promedios de bloque
La variación entre estas estimaciones tomadas de los mismos
9 en función de la longitud del bloque N/n. Si el resultado
datos originales se puede utilizar para inferir la varianza de la
para n bloques está en el régimen de meseta de la Fig. 2 todo
muestra. Si se denota el promedio de los estimadores de
está bien; de lo contrario, uno necesita registrar una serie de
bloque jackknife 13 como
tiempo más larga y posiblemente tomar medidas con menos
n frecuencia para mantener la cantidad de datos manejable.
ˆ· = 1 3 Para cada parámetro a estimar, calcule las estimaciones
ˆs, n 14 del bloque n jackknife 13, así como el promedio 14 y
s=1
combínelos para calcular la varianza 15 . Para una serie de
una estimación para la varianza muestral del ˆ
estimador ˆ estimaciones de parámetros diferentes i,
está dada por 29
lasestimaciones del bloque jackknife también se pueden usar
n para calcular la covarianza 16.
2
ˆ n−1 ˆs − III. HISTOGRAMAS Y ERRORES
ˆ·2. 15 Un número creciente de técnicas exitosas de Monte Carlo
ˆ jack se basan en la reponderación y el uso de histogramas 1. Esto
n s= 1
incluye el método multihistograma de Refs. 12,30, así como
la plétora de técnicas de conjunto generalizadas que van desde
Esto es muy similar a la estimación simple 2 para la varianza simulaciones multicanónicas 9 hasta muestreo de
del promedio, pero viene con un prefactor diferente que sirve WangLandau 10. Tales métodos se basan en el hecho de que
para un doble propósito: repondera el resultado de la serie las muestras tomadas de una distribución de probabilidad
efectiva de navajas de la longitud n−1 a la longitud original conocida siempre se pueden traducir en muestras de otra
n y se encarga del hecho de que todas las estimaciones del distribución en el mismo espacio de estados. Supongamos,
están para simplificar, que los estados se etiquetan como si como
bloque de navajas fuertemente correlacionadas
066701-5
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010
apropiados para un sistema de espín. Si una secuencia esella, promedio de navaja 14, por ejemplo, la estimación de
t=1,2,... se muestreó a partir de una simulación estacionaria ˆ ˆ
varianza 15 con =O se puede calcular directamente.
con densidad de probabilidad psimsi , unestimador para el valor
Consideraciones similares se aplican a las estimaciones de
de expectativa de la O observable en relación con la
covarianza o a los estimadores con sesgo reducido 13. Los
distribución de equilibrio está dado por
valores extremos de los promedios térmicos se pueden
N
determinar con alta precisión a partir de la familia continua de
Osit peqsit estimaciones 19,donde las estimaciones de error nuevamente
Oˆ = t= 1 N psimsit . 17 siguen directamente la prescripción de la navaja.
21 uncorr2 err ˆ = k 1
26
Para el caso uno anterior, introducimos un multiplicador de
Lagrange para hacer cumplir la restricción ii= 1, y la elección
ˆ
óptima de i es 1/2 i
fácilmente obtenido como 22 i= 1
k
ya ni siquiera es correcto cuando entran en juego las
ˆ−1ij correlaciones cruzadas. Como se verá a continuación de la
j=1
discusión de las simulaciones del modelo de Ising en Sec. V,
i= k, 2 err ˆ
uncorr conduce genéricamente a la subestimación de la
ˆ−1ij verdadera varianza, pero ocasionalmente también son
i,j= 1 posibles sobreestimaciones.
La implementación práctica del esquema descrito de
dando lugar a una varianza mínima de
ponderación y análisis de errores es sencilla con el conjunto
2 ˆ = de herramientas descrito en las secciones anteriores. La matriz
k 1 . 23 ˆ
de covarianza de las estimaciones i se calcula fácilmente a
ˆ−1ij
i,j= 1
través de la expresión jackknife 16. Esto permite estimar los
de ˆ
pesos óptimos de la inserción ij en Eq. 22 o el análogo
De manera muy similar, el caso dos conduce a la elección 33 24 para el caso dos y la varianza del estimador óptimo
k
resultante se determina a partir de la expresión 23. En total,
ˆ−1 el análisis necesario se puede resumir de la siguiente manera:
i= − ij
1 Realice un análisis de binning para ver si para un número
ˆ dado de bloques n los promedios de bloque 9 para todas las
j1, 24
j=2 series de tiempo en cuestión no están efectivamente
correlacionados.
066701-7
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010
066701-9
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010
066701-10
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010
Los promedios simples, ponderados por error y ponderados otro lado, da como resultado la estimación = 0.993578, cuya
por covarianza para las estimaciones de varianza fluctuación es aproximadamente 2-3 veces menor que las del
correspondientes se enumeran en las partes inferiores de las promedio ponderado por error y la estimación más precisa. La
columnas cuatro y cinco del cuadro I. Al igual que con las varianza reducida de esta última estimación parece estar
estimaciones individuales, cada uno de los tres promedios es corroborada por la menor desviación también del resultado
estadísticamente compatible con el resultado exacto = 1. Si exacto =1. Un vistazo a los datos recogidos en la Tabla I
bien las estimaciones de error ingenuas nocorr parecen indicar revela que, de manera un tanto sorprendente, el promedio
que realizar el promedio simple o ponderado por error reduce óptimo es menor que todas las estimaciones individuales de
las fluctuaciones estadísticas en comparación con las ver también la representación gráfica de este hecho en la Fig.
estimaciones individuales, teniendo en cuenta las 1 de la Ref. 19. Esta situación, que, por supuesto, nunca puede
correlaciones con el esquema jackknifing que resulta en corr2 ocurrir para el promedio ponderado por error donde todos los
revela que las varianzas son subestimadas groseramente por pesos 0i1, está relacionada con el hecho de que los pesos más
uncorr2 y, de hecho, en comparación con el corr = 0.0269 simple generales de Eq. 22 son ilimitados y, en particular, pueden
y el corr ponderado por error =0.0208 promedios la llegar a ser negativos. Este hecho se refleja en los pesos
estimación única de derivados de d ln m /dtiene calculados para los diferentes esquemas de promedio
fluctuaciones estadísticas máspequeñas = 0.0183. Por lo tanto, recogidos en la parte inferior derecha de la Tabla I.
realizar esos promedios disminuye la precisión en lugar de Claramente, los pesos para los promedios ponderados por
TABLA I. Ajuste de parámetros y datos de correlación para estimar el exponente crítico a partir de simulaciones Monte Carlo de
actualización de clúster único del modelo 2D Ising. Las estimaciones de exponentes se extraen de los ajustes de las formas funcionales 30 y
31 a los datos, descuidando los términos de corrección entre paréntesis. Las desviaciones del valor exacto =1 se calculan en relación con =1
rel y en múltiplos de los errores estimados enumerados en la columna etiquetada "" .
Enc Correlacióncoeficientes/pesos
aja
Rel dE m d E m2 dE m3 del 2 del 4
Lmin LMáxi % Q dof
nd nd nd d d
mo
dE m
nd 32 192 1.0085 0.0183 0.85 0.47 0.52 4 1.0000 0.9743 0.9385 0.9197 0.8971
d ln m2
d 32 192 1,0128 0,0194 1,28 0,66 0,47 4 0,9743 1,0000 0,9910 0,8167 0,8687
d ln m3
32 192 1.0175 0.0201 1.75 0.87 0.40 4 0.9385 0.9910 1.0000 0.7431 0.8198
d
del2
32 192 1,0098 0,0281 0,98 0,35 0,57 4 0,9197 0,8167 0,7431 1,0000 0,8596
d
del4
32 192 1,0149 0,0511 1,49 0,29 0,70 4 0,8971 0,8687 0,8198 0,8596 1,0000
d
̄llanura incorr 1.0127 0.0141 1.27 0.90 1.0000 1.0000 1.0000 1.0000 1.0000
Corr 0.0269 1.27 0.47
̄errar incorr 1.0123 0.0102 1.23 1.21 0.3145 0.2714 0.2483 0,1322a 0.0336
Corr 0.0208 1.23 0.59
̄cov Corr 0.9935 0.0078 −0,65 −0,84 5.0067 −2,4259 −0,2807 −1.1958 −0,1043
a Obsérese que el cuadro II similar de la Ref. 19 contiene un error en las dos últimas líneas, donde las ponderaciones 0.1322 y 0.0336, así
como −1.1958 y −0.1043 aparecen intercambiadas con respecto a los datos correctos representados aquí.
mejorarla. El promedio verdaderamente óptimo de Eq. 22, por error y ponderados por covarianza son dramáticamente
066701-11
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010
diferentes y, en particular, algunos de estos últimos resultan cambia sustancialmente de =−0.2807 a =−0.5499. La
ser negativos. Es intuitivamente claro que tales pesos estimación óptima final ̄=0.990878 es totalmente compatible
CUADRO II. Ajuste y promedio de resultados para estimar el acoplamiento crítico c del modelo 2D Ising a partir de los cambios de
temperaturas pseudocríticas según Eq. 28. Para realizar los ajustes, el exponente de longitud de correlación se fijó en su valor exacto = 1. La
1
columna rel indica la desviación relativa de las estimaciones del resultado exacto c= 2 ln1+20,440 686 8.
Enc Correlacióncoeficientes/pesos
aja
3
Rel
d m dE m d E m2 dE m del 2 del 4
c % Q cE d nd nd nd d d
n
cE 0.440709 0.000101 0.0051 0.35 1.0000 0.7881 0.3965 0.3645 0.3569 0.3502 0.2599 0.1394
n
d m
d 0,440798 0,000073 0,0251 0,09 0,7881 1,0000 0,7116 0,6417 0,6043 0,7166 0,5345 0,6236 d ln m
d 0,440711 0,000408 0,0055 0,56 0,3965 0,7116 1,0000 0,9740 0,9365 0,9122 0,8613 0,6477 d ln m2
d 0,440799 0,000504 0,0254 0,42 0,3645 0,6417 0,9740 1,0000 0,9899 0,8119 0,8111 0,5264 d ln m3
d 0,440918 0,000567 0,0525 0,29 0,3569 0,6043 0,9365 0,9899 1,0000 0,7415 0,7608 0,4554
dU2
d 0,440576 0,000338 −0,0251 0,70 0,3502 0,7166 0,9122 0,8119 0,7415 1,0000 0,8854 0,8413
dU4
d 0.440308 0.000708 −0,0860 0.94 0.2599 0.5345 0.8613 0.8111 0.7608 0.8854 1.0000 0.6265
0.440699 0.000045 0.0028 0.67 0.1394 0.6236 0.6477 0.5264 0.4554 0.8413 0.6265 1.0000
̄
c,liso incorr 0.440690 0.000151 0.0007 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
Corr 0.000322 0.0007
̄c,err incorr 0.440725 0.000036 0.0086 0.1364 0.2530 0.0073 0.0049 0.0039 0.0105 0.0024 0.5815
̄c,cov 0.440687 0.000018 0.0001 0.2601 −0,3347 0.2086 −0,0566 −0,0186 −0,2997 0.0276 1.2133
Corr
negativos son necesarios para cancelar los efectos de fuertes estadísticamente con el análisis utilizando 100 bloques de
correlaciones mutuas. La asimetría en los pesos que conduce navajas. Utilizando como comprobación de consistencia
a la posibilidad de que el promedio se encuentre fuera del simulaciones completamente independientes para producir las
rango de las estimaciones individuales resulta de la asimetría estimaciones individuales de , por otro lado, de hecho da como
de las varianzas individuales en relación con las correlaciones resultado una matriz unitaria de coeficientes de correlación
cruzadas. Este efecto puede entenderse explícitamente para el dentro de errores estadísticos y, en consecuencia, los
caso de sólo dos estimaciones, véase la discusión en el promedios ponderados por error y ponderados por covarianza
Apéndice. coinciden en este límite. Finalmente, también encontramos
Uno podría preguntarse si el esquema de ponderación que la inversión numérica de la matriz de covarianza
sugerido que requiere estimar la matriz de covarianza requerida para calcular los pesos en Eq. 22 es en general
completa es estadísticamente robusto. Está claro, por ejemplo, estable y no problemático. Está claro, sin embargo, que en
que el estimador de jackknife 16 para la covarianza se volverá presencia de correlaciones muy fuertes, los pesos resultantes
más preciso a medida que se utilicen más bloques de de las estimaciones individuales dependerán sensiblemente de
jackknife, a expensas de un mayor esfuerzo computacional. las entradas de la matriz de covarianza, ya que en el límite de
Para comprobar tales efectos, repetimos nuestro análisis correlaciones perfectas todas las opciones de pesos se
mientras usábamos n= 200 en lugar de n= 100 bloques de degeneran, véase también la discusión del caso de sólo dos
navajas. La mayoría de las estimaciones para los coeficientes estimaciones en el Apéndice.
de correlación casi no han cambiado por este nuevo análisis, Pasamos ahora a la determinación del acoplamiento de
siendo la mayor desviación del orden del 3%. Lo mismo transición c a partir de la relación de desplazamiento 28.
ocurre con los pesos resultantes en el promedio óptimo, donde Consideramos las ubicaciones del extremo del calor
solo el peso de la estimación resultante de d ln m3 /d específico cV,la pendiente d m /d del módulo de la
066701-12
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010
magnetización, las derivadas logarítmicas d ln m i/d conduce a una subestimación considerable de los errores y,
para i=1, 2 y 3, las derivadas cumulantes dU 2/dy dU4 /dasí por otro lado, utilizando el
comola susceptibilidad magnética. Con el fin de demostrar CUADRO III. Promediar los resultados para las estimaciones del
más claramente los efectos de las correlaciones presentes, exponente crítico y el acoplamiento crítico c del modelo de Ising
primero realizamos ajustes de la forma 28 utilizando el 2D a partir de ajustes no lineales de tres parámetros a la forma
exponente exacto de longitud de correlación = 1. Los funcional 28. Los observables utilizados son los enumerados en la
resultados de ajuste correspondientes se recogen en la Tabla Tabla II.
II. Para los ajustes ignoramos los términos de corrección c
066701-13
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010
TABLA V. Parámetros de ajuste y datos de correlación para estimar el exponente crítico a partir de simulaciones Monte Carlo de
actualización de clúster único del modelo 3D Ising. Se utilizaron ajustes de forma funcional 31 incluyendo el término de corrección para las
derivadas de magnetización logarítmica d ln mi /dpara i=1, 2 y 3, mientras que los ajustes de forma 30 sin término de corrección se
utilizaron para las derivadas de los cumulantes U2 y U4. Los valores de referencia relevantes son =0,63014 tomados de Ref. 47.
Enc Correlacióncoeficientes/pesos
aja
Rel dE m d E m2 dE m3 del 2 del 4
Lmin LMáxi % Q dof nd nd nd
mo d d
dE m
nd 8 128 0.6358 0.0127 0.91 0.45 0.61 5 1.0000 0.9809 0.9490 0.4401 0.4507
2
dE m
nd 8 128 0.6340 0.0086 0.63 0.46 0.71 5 0.9809 1.0000 0.9910 0.4357 0.4630
dE m3
nd 8 128 0.6326 0.0062 0.39 0.40 0.77 5 0.9490 0.9910 1.0000 0.4363 0.4639
del 2
d 32 128 0.6313 0.0020 0.20 0.62 0.54 3 0.4401 0.4357 0.4363 1.0000 0.9267
del 4
d 32 128 0.6330 0.0024 0.46 1.20 0.77 3 0.4507 0.4630 0.4639 0.9267 1.0000
¯ llanur incorr 0.6334 0.0038 0.52 0.85 1.0000 1.0000 1.0000 1.0000 1.0000
a Corr 0.0067 0.52 0.49
̄errar incorr 0.6322 0.0015 0.33 1.35 0.0106 0.0254 0.0503 0.5315 0.3823
Corr 0.0024 0.33 0.84
̄cov Corr 0.6300 0.0017 −0,01 −0,05 0.2485 −1,5805 1.6625 0.7948 −0,1253
066701-15
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010
débilmente correlacionados, de modo que los promedios deficiencias, en particular tan pronto como entran en juego
ponderados por error y ponderados por covarianza son muy pasos no paramétricos como la determinación de un máximo
similares, véase el lado derecho de la Tabla VI. Las mediante procedimientos de reponderación o ajuste. Estos
correlaciones más grandes están presentes nuevamente entre problemas se eluden recurriendo a la clase de esquemas de
las diferentes estimaciones de la dimensión de escala remuestreo no paramétricos, de los cuales hemos discutido la
energética xt de las diversas estimaciones de via xt= 3−1/ y la técnica de la navaja como un representante conceptual y
escala del calor específico a través de xt= 3/2−/ 2, lo que lleva prácticamente muy simple. Usando esta técnica, hemos
a una mejora considerable en la precisión de la media óptima esbozado un marco muy general de análisis de datos para
con respecto a los esquemas de ponderación simple y de simulaciones MCMC que consiste en una transformación del
errores. Los resultados para ambas dimensiones de escala son conjunto original de series de tiempo en un conjunto auxiliar
bien compatibles con los valores xh= 0.5181758 y xt= de series "binned", donde las muestras sucesivas son
1.413010 extraídos de los valores de referencia de Ref. 47. aproximadamente no correlacionadas en el tiempo y b un
CUADRO VI. Diferentes promedios para el modelo de Ising 3D y las desviaciones estándar asociadas para el acoplamiento de transición
c de ajustes de la forma 28 con = 0.6301 fijos, de ajustes no lineales de tres parámetros de la forma 28 que rinden y c simultáneamente, y
para las dimensiones de escala magnética y energética de acuerdo con Eq. 34. Los valores de referencia para xh y xt se han calculado a
partir de los valores =0,32653 y =0,63014 tomados de ref. 47 vía Eq. 34.
Eq. 28,=0,6301 Eq. 28 Eq. 34
xt
c c xh
̄llanura incorr 0.22165681 0.00000108 0.6020 0.0105 0.2216530 0.0000025 0.51364 0.00401 1.4137 0.0138
Corr 0.00000170 0.0150 0.0000032 0.00435 0.0184
̄errar incorr 0.22165741 0.00000059 0.6247 0.0062 0.2216550 0.0000008 0.51489 0.00381 1.4180 0.0038
̄cov Corr 0.22165703 0.00000085 0.6381 0.0044 0.2216552 0.0000011 0.51516 0.00412 1.4121 0.0043
Referencia 0.22165459 0.00000006 0.6301 0.0004 0.22165459 0.00000006 0.51817 0.00058 1.4130 0.0010
VI. CONCLUSIONES marco general de jackknifing, donde los pasos requeridos para
Los datos de series temporales de las simulaciones de la calcular una estimación de parámetros, posiblemente
cadena de Markov Monte Carlo generalmente se analizan de incluyendo procedimientos de reponderación o ajuste, etc.: se
diversas maneras para extraer estimaciones para los realizan en la serie temporal subyacente completa, aparte de
parámetros de interés, como, por ejemplo, exponentes una pequeña ventana cortada del flujo de datos, lo que permite
críticos, temperaturas de transición, calores latentes, etc. una estimación confiable y robusta de las varianzas y
Siempre que al menos algunas de estas estimaciones se basen covarianzas, así como los efectos de sesgo sin ninguna
en los mismos datos de simulación, es inevitable un cierto aproximación no estocástica. Si bien esta técnica de análisis
grado de correlaciones cruzadas entre los estimadores. Hemos de datos no es nueva, creemos que aún no ha encontrado el
demostrado para el caso de un análisis de escalado de tamaño uso generalizado que merece y esperamos que la introducción
finito del modelo ferromagnético de peso más cercano en suave y detallada dada anteriormente contribuya a una
celosías cuadradas y cúbicas que la mayoría de las veces, tales adopción más amplia de este enfoque.
correlaciones son muy fuertes, con coeficientes de correlación Un ejemplo particular de dónde entra en juego la presencia
muy por encima de 0,8. Si bien tales correlaciones, aunque su de correlaciones cruzadas ocurre cuando se toman promedios
existencia es bastante obvia, se han descuidado de diferentes estimaciones para un parámetro de la misma
tradicionalmente en su mayoría incluso en estudios de base de datos. Descuidar las correlaciones allí conduce a
simulación numérica de alta precisión, se demostró aquí que estimaciones sistemáticamente erróneas, la mayoría de las
su presencia es importante en diferentes etapas del proceso de veces demasiado pequeñas, de errores estadísticos de los
análisis de datos, y descuidarlas conduce a estimaciones promedios resultantes y b una ponderación subóptima de los
sistemáticamente erróneas de fluctuaciones estadísticas, así valores individuales en el promedio que conduce a varianzas
como a una combinación no óptima de estimaciones mayores que innecesarias. Las varianzas correctas se pueden
individuales en promedios finales. estimar directamente a partir del enfoque de jackknifing,
En lo que respecta al análisis estadístico general de los mientras que la ponderación óptima implica el conocimiento
datos de simulación, se ha discutido que las prescripciones de la matriz de covarianza, que también es un subproducto
tradicionales, como la propagación de errores, tienen sus natural de la técnica de jackknife. Hemos discutido estos
066701-16
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010
conceptos con cierto detalle para el caso de un análisis de 50,51 o el muestreo de configuraciones de polímeros con
escala de tamaño finito de los puntos críticos de los modelos métodos de crecimiento en cadena 52,53.
2D y 3D ising. Se ve allí que los promedios simples y
ponderados por error más utilizados, de hecho, pueden tener RECONOCIMIENTOS
fluctuaciones mayores que las estimaciones individuales más
precisas que ingresan, pero este defecto no está siendo M.W. reconoce el apoyo del DFG a través del Programa
detectado por el análisis convencional debido a la Emmy Noether bajo el Contrato No. WE4425/1-1, así como
subestimación genérica de las varianzas. Por el contrario, el tiempo de computadora proporcionado por NIC Jülich bajo
mediante el uso de la ponderación verdaderamente óptima de la Subvención No. hmz18.
las estimaciones individuales, se puede lograr una reducción
a menudo sustancial de las fluctuaciones estadísticas en APÉNDICE: PROMEDIO ÓPTIMO DE DOS VARIABLES
comparación con el esquema de ponderación por errores. Para CORRELACIONADAS
algunos de los ejemplos considerados, una reducción de tres
veces en la desviación estándar, correspondiente a ahorrar un Considere un promedio general de dos variables aleatorias
aumento de aproximadamente diez veces en el tiempo de x1 y x2 17,
computadora necesario para lograr el mismo resultado con el
análisis convencional, se puede lograr esencialmente sin
sobrecarga computacional. En vista de estos resultados, las
reglas heurísticas como, por ejemplo, tomar un promedio
ponderado por error utilizando la desviación estándar única
más pequeña como estimación de error se encuentran
claramente inadecuadas. Por lo tanto, solo vemos dos formas
estadísticamente aceptables de tratar la existencia de varias
estimaciones para la misma cantidad: a seleccionar la
estimación más precisa y descartar el resto o b combinar todas
las estimaciones de una manera estadísticamente óptima
teniendo en cuenta las correlaciones cruzadas. No hace falta
decir que este último enfoque es generalmente preferible en el
caso de que conduce a resultados más precisos a costos muy
bajos.
Sugerimos utilizar la existencia de relaciones de escalado FIGURA 4. Color en línea Forma genérica de la varianza mínima
2
entre los exponentes críticos para el caso de una transición de ̄x de Eq. A3 en función del coeficiente de correlación .
fase continua para mejorar la precisión de las estimaciones
considerando las dimensiones de escala como los parámetros
de interés primario. La realización del análisis ̄x =x1 + 1 −x2,
correspondiente teniendo en cuenta las correlaciones donde 01. Según Eq. 21, la varianza de ̄x es
cruzadas, da como resultado un conjunto de exponentes
2
críticos con fluctuaciones estadísticas reducidas que cumplen ̄x =221 + 21 −12 + 1 −222, A1
exactamente las relaciones de escala. Una aplicación de este
tipo de enfoque sugerido inicialmente en la Ref. 19 para usar donde 21 y 22 son las varianzas de x1 y x2,respectivamente, y
relaciones de valor medio como las identidades de Callen o denota el coeficiente de correlación de x1 y x2, = 12/12. Eq.
las ecuaciones de Schwinger-Dyson en lugar de las relaciones A1 es una forma cuadrática en , que tiene un mínimo siempre
de escalado se ha discutido en ref. 20. que
Si bien los ejemplos discutidos fueron específicos, debe
21 + 22 − 212 0, que casi siempre
quedar claro que el método en sí es bastante genérico y debe
aplicarse a todos los conjuntos de datos generados a partir de se cumple desde −11:
simulaciones MCMC. En particular, es fácil prever
aplicaciones en la teoría de los fenómenos críticos, que va 21 + 22 − 212 1 − 22 0.
desde la mecánica estadística clásica 48 sobre la física de la
La igualdad se mantiene solo para 1=2= y = 1, en cuyo caso
materia blanda 4 hasta las transiciones de fase cuánticas 5 o
cualquier elección de produce la misma varianza 2̄x=2. En
para estudiar las transiciones de fase de primer orden 49. Sin
todos los demás casos, los pesos óptimos son
embargo, la gama de aplicaciones no se limita a las
simulaciones MCMC, sino que se aplica con pocas o ninguna 1/22 − /12
modificación a otros problemas de muestreo aleatorio, como,
= 1/2 + 1/22 − 2/12 ,
por ejemplo, los cálculos estocásticos de estado fundamental 1
066701-17
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010
20 L. A. Fernández y V. Martín-Mayor, Phys. Rev. E 79, 051109 40 W. Janke y R. Kenna, Phys. Rev. B 65,064110 2002.
2009. 41 K. Aglutinante, Z. Phys. B 43, 119 1981.
21 N. Metropolis, A. W. Rosenbluth, M. N. Rosenbluth, A. H. Teller 42 M. E. Fisher, Rev. Mod. Phys. 70, 653 1998.
y E. Teller, J. Chem. Phys. 21, 1087 1953. 43 W. Janke y M. Weigel, Acta Phys. Pol.B 34,4891 2003. 44 M.
22 S. Brandt, Data Analysis: Statistical and Computational Methods Henkel, Conformal Invariance and Critical Phenomena Springer,
for Scientists and Engineers,3ª ed. Springer, Berlín, 1998. Berlín, 1999.
23 A. D. Sokal, en Functional Integration: Basics and 45 W. H. Press, S. A. Teukolsky, W. T. Vetterling y B. P. Flannery,
Applications,Proceedings of the1996 NATO Advanced Study Numerical Recipes: The Art of Scientific Computing,3ª ed.
Institute in Cargèse, editado por C. DeWitt-Morette, P. Cartier Cambridge University Press, Cambridge, 2007.
y A. Folacci Plenum Press, Nueva York, 1997, págs. 131-192. 46 H. W. J. Blöte, L. N. Shchur y A. L. Talapov, Int. J. Mod.
24 M.B. Priestley, Spectral Analysis and Time Series Academic Phys. C 10, 1137 1999.
Press, Londres, 1996. 47 A. Pelissetto y E. Vicari, Phys. Rep. 368,549 2002.
25 A. D. Sokal y L. E. Thomas, J. Stat. Phys. 54, 797 1989. 48 K. Binder y D. W. Heermann, Monte Carlo Simulation in
26 K. Binder, en Phase Transitions and Critical Phenomena,editado Statistical Physics: An Introduction Springer, Berlín, 1988.
por C. Domb y M. S. Green Academic Press, Nueva York, 1976, 49 W. Janke, en Computer Simulations of Surfaces and
Vol. 5b, pp. 1-105. Interfaces,NATO Science Series II. Mathematics, Physics, and
27 N. Madrás y A. D. Sokal, J. Stat. Phys. 50, 109 1988. Chemistry Vol. 114, editado por B. Dünweg, D. P. Landau y A.
28 K. G. Wilson, en Recent Developments in Gauge I.
Theories,editado por G. 't Hooft, Proceedings of the 1979 Milchev Kluwer Academic, Dordrecht, 2003, pp. 111-135.
NATO Advanced Study Institute in Cargèse Plenum Press, 50 M. Weigel, Phys. Rev. E 76,066706 2007.
Nueva York, 1980, pp. 363-402. 51 M. Weigel y M. J. P. Gingras, Phys. Rev. B 77,104437
29 B. Efron, The Jackknife, the Bootstrap, and Other Resampling Año 2008.
Plans Society for Industrial and Applied Mathematics, 52 P. Grassberger, Físico. Rev. E 56, 3682 1997.
Filadelfia, 1982 SIAM. 53 M. Bachmann y W. Janke, Phys. Rev. Lett. 91, 208105
30 A.M. Ferrenberg y R. H. Swendsen, Phys. Rev. Lett. 63, 1195 Año 2003.
1989.
31 W. Janke, en Proceedings of the Euro Winter School "Quantum
Simulations of Complex Many-Body Systems: From Theory to
Algorithms",NIC Series Vol. 10, editado por J. Grotendorst, D.
Marx y A. Muramatsu John von Neumann Institute for
Computing, Jülich, 2002, pp. 423–445.
32 Obsérese que, cuando se utiliza el método de Wang-Landau como
estimación directa de la densidad de estados que se utilizará para
calcular los valores de expectativa térmica, debido a la
naturaleza no markoviana del algoritmo, actualmente no existe
un enfoque conocido de estimar de manera confiable las
fluctuaciones estadísticas actuales, aparte de repetir todo el
cálculo un cierto número de veces.
33 Obsérese que los Eqs. 4 y 5 de la Ref. 20 contienen algunos
errores, pero Eq. 7 y la implementación 24 son correctas.
34 B. A. Berg, Informática. Físico. Común. 69, 7 1992.
35 U. Wolff, Phys. Rev. Lett. 62, 361 1989.
36 A.M. Ferrenberg y D. P. Landau, Phys. Rev. B 44,5081
1991. 37 H. G. Ballesteros, L. A. Fernández, V. Martín-Mayor,
and A.
Muñoz Sudupe, Phys. Lett. B 378, 207 1996.
38 M. Hasenbusch, J. Phys. A 32, 4851 1999.
39 V. Privman, en Finite Size Scaling and Numerical Simulation of
Statistical Systems,editado por V. Privman World Scientific,
Singapur, 1990, pp. 1-98.
066701-19