Está en la página 1de 19

PHYSICAL REVIEW E 81, 066701 2010

Estimación y reducción de errores con correlaciones cruzadas

Martín Weigel*
Física Teórica, Universidad del Sarre, D-66041 Saarbrücken, Alemania
y Instituto de Física, Universidad Johannes Gutenberg de Maguncia, Staudinger Weg 7, D-55099 Maguncia,
Alemania

Wolfhard Janke†
Instituto de Física Teórica y Centro de Ciencias Teóricas (NTZ), Universidad de Leipzig, P.O. Box 100 920,
D-04009 Leipzig, Alemania
Recibido el 24 de febrero de 2010; publicado el 8 de junio de 2010; Error del editor corregido el 8 de junio de 2010
Además del efecto bien conocido de las autocorrelaciones en series temporales de datos de simulación de
Monte Carlo resultantes del proceso de Markov subyacente, el uso del mismo grupo de datos para calcular varias
estimaciones implica correlaciones cruzadas adicionales. Este efecto, si no se tiene debidamente en cuenta,
conduce a estimaciones de error sistemáticamente erróneas para cantidades combinadas. Utilizando una receta
sencilla de análisis de datos que emplea la navaja o técnicas de remuestreo similares, se pueden evitar tales
problemas. Además, un análisis de covarianza permite la formulación de estimadores óptimos con varianza a
menudo significativamente reducida en comparación con los más convencionales.
Promedios. bastante estándar en los estudios de simulación por
computadora 1,un análisis adecuado y la reducción de los
DOI: 10.1103/PhysReve.81.066701
errores estadísticos y el sesgo parecen ser mucho menos
comunes. Aquí, los métodos de remuestreo resultan ser muy
I. INTRODUCCIÓN valiosos. Aunque tales técnicas ofrecen una serie de
beneficios sobre los enfoques más tradicionales de estimación
Las simulaciones de Monte Carlo, y en particular los de errores, su adopción por parte de los profesionales en el
métodos basados en cadenas de Markov, han madurado en las campo de las simulaciones por computadora ha
últimas décadas hasta convertirse en una caja de herramientas
altamente versátil y poderosa para estudios de sistemas en
física estadística y de materia condensada 1,2, que van
desdemodelos clásicos de espín 3 sobre problemas de materia *weigel@uni-mainz.de
† janke@itp.uni-
blanda 4 hasta sistemas cuánticos 5 . Su competitividad con
leipzig.de
otros enfoques como, por ejemplo, las expansiones teóricas de
Números PACS: 05.10.Ln, 05.70.Fh, 64.60.F
campo para el estudio de fenómenos críticos 6,7, se basa en
gran medida en el desarrollo y refinamiento de una serie de
técnicas avanzadas de simulación como los algoritmos de aún no ha sido tan universal como deseable. Tenemos
clúster 8 y los métodos de conjunto generalizado 9,10. entendido que esto se debe, en parte, a una cierta falta de
Igualmente importante para la generación de datos de presentaciones ampliamente accesibles de las ideas básicas
simulación, sin embargo, es su análisis correcto y óptimo. En que, de hecho, son muy simples y fáciles de implementar en
este campo, también se han logrado una serie de avances los códigos informáticos, como se demuestra a continuación.
importantes sobre las técnicas utilizadas en los primeros días. Más específicamente, los datos generados por una
Estos incluyen, por ejemplo, el enfoque FSS de escala de simulación MC MC de Monte Carlo están sujetos a dos tipos
tamaño finito 11,convertir la limitación de los métodos de de fenómenos de correlación, a saber, una autocorrelación o
simulación a tamaños de sistemas finitos en una herramienta correlaciones temporales para el caso de las simulaciones
sistemática para acceder al límite termodinámico, técnicas de MCMC MCMC de cadena de Markov, que están directamente
reponderación 12,levantar la limitación de técnicas numéricas relacionadas con la naturaleza markoviana del proceso
al estudio de puntos individuales en el espacio de parámetros estocástico subyacente y conducen a una reducción efectiva
para permitir que se estudien funciones continuas de en el número de eventos muestreados independientemente y
estimaciones, así como herramientas estadísticas avanzadas correlaciones cruzadas b entre diferentes estimaciones
como la navaja y otros esquemas de remuestreo de análisis de extraídas del mismo conjunto de series temporales originales
datos 13. que se originan por el origen de las estimaciones en el mismo
De estas técnicas, el análisis de datos estadísticos parece conjunto de datos estadísticos. El primero puede tenerse más
haber recibido la menor atención. Por lo tanto, si bien los convenientemente en cuenta mediante una determinación de
análisis FSS, incluso incluyendo términos de corrección, son los tiempos de autocorrelación relevantes y una

066701-1
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010

transformación de bloqueo o agrupación que resulte en una resuelven fácilmente utilizando técnicas de remuestreo como
serie temporal auxiliar efectivamente no correlacionada 14. la navaja.
Tales análisis son ahora estándar, al menos en estudios de
simulación realizados seriamente. Por el contrario, los efectos A. Autocorrelaciones
de las correlaciones cruzadas se han descuidado en su mayoría
Considere una simulación general de Monte Carlo con los
hasta la fecha ver, sin embargo, Refs. 15–18, pero sólo se posibles valores O de un observable dado O que aparecen
están discutiendo sistemáticamente siguiendo nuestra reciente de acuerdo con una distribución de probabilidad pO. Esta
sugerencia 19,20. En este artículo, mostramos cómo tales forma, por supuesto, implica que el sistema está en equilibrio
correlaciones cruzadas conducen a estimaciones
térmico, es decir, que el proceso estocástico subyacente es
sistemáticamente erróneas de errores estadísticos de estacionario. La probabilidad
cantidades promediadas o combinadas de otra manera cuando
la densidad pO podría ser idéntica a la distribución de
se emplea un análisis ingenuo, y cómo se puede lograr
Boltzmann de la termodinámica de equilibrio en cuanto a la
fácilmente un análisis estadísticamente correcto en el marco
importancia de la técnica de exploración 21,pero también
del método jackknife. Además, incluso se puede aprovechar
sepueden concebir diferentes situaciones, véase la discusión
de la presencia de tales efectos de correlación para reducir
en Sec. III infra. Si asumimos la ergodicidad de la cadena, el
significativamente la varianza de las estimaciones sin un
promedio
esfuerzo adicional sustancial. Demostramos la relevancia
N
práctica de estas consideraciones para un estudio de escala de
tamaño finito del modelo de Ising en dos y tres dimensiones. Acerca de ̄ 1 Oy
El resto de este documento está organizado de la siguiente N i= 1
manera. En sec. II damos una receta general para un camino
a prueba de fallos de Monte Carlo para una serie temporal O1,O2,... de las mediciones de N es
análisis de datos, teniendo en cuenta los efectos de las un estimador imparcial de la media
autocorrelaciones y correlaciones cruzadas mencionadas
anteriormente. Después de discutir las complicaciones para

1539-3755/2010/816/06670115 ©2010 La Sociedad Americana de Física


los esquemas de análisis más convencionales, pero no el O dO pOO.
método de navaja introducida por el reponderado del ̄
En contraste con O , el estimador O es un número aleatorio,
histograma y las técnicas de simulación de conjunto
generalizado en Sec. III, esbozamos el papel de las que sólo coincide con O en el límite N→. En estas
correlaciones cruzadas en el proceso de promediar sobre un circunstancias, los resultados de la simulación solo son
̄
conjunto de estimaciones de MC en Sec. IV y discutir la significativos si además del promedio de O también podemos
elección de un procedimiento de promedio óptimo. En Sec. ̄.
V,estas ideas se aplican a un estudio simulacional de los presentar una estimación de su varianza 2O Nótese que,
puntos críticos de los modelos de Ising bidimensionales y aunque la distribución pO de las medidas individuales puede
tridimensionales. Finalmente, sec. VI contiene nuestras ser arbitraria, en virtud del teorema del límite central la
conclusiones. ̄
distribución de los promedios O debe convertirse en
̄
II. ANÁLISIS DE ERRORES DE MONTE CARLO gaussiana para N→. Por lo tanto, la varianza 2O es el único
̄
En comparación con la tarea de estimar la incertidumbre parámetro relevante que describe las fluctuaciones de O . Si
en el resultado de un experimento de laboratorio simplemente las mediciones posteriores O1, O2,...
repiténdolo varias veces, hay una serie de complicaciones no están correlacionados, tenemos
para determinar correctamente, y posiblemente incluso 2 ̄ ̄ ̄
El O2− O2=
reducir, las fluctuaciones estadísticas en las estimaciones de
O
parámetros extraídas de las simulaciones de MCMC. En 2 , 1N
primer lugar, debido a la memoria del proceso de Markovian,
las mediciones posteriores en las series temporales están que se puede estimar sin sesgo a partir de 22
correlacionadas, de modo que las fluctuaciones N

genéricamente parecen más pequeñas de lo que son. Este


̄ 1 ̄
problema se puede resolver mediante un bloqueo de los datos ˆ 2O = Oa − O 2, 2
originales de la serie temporal. En segundo lugar, a menudo NN − 1 i= 1
se necesita conocer la precisión de las estimaciones de
parámetros que son funciones complicadas y, a veces, no ̄ ̄
paramétricas de los observables medidos. Tales problemas se es decir, ˆ 2O =2O . Esto es lo que hacemos al estimar las
fluctuaciones estadísticas de una serie de experimentos de
066701-2
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010

laboratorio independientes. Las simulaciones de cadena de la introducción de un tiempo de corte 26,27. Se han
Markov implican la presencia de correlaciones temporales, sin desarrollado varios esquemas de aproximación utilizando
embargo, tales que la función de autocorrelación conectada, tales estimadores, pero resultan tener graves inconvenientes al
ser computacionalmente costosos y difíciles.
COs,t OsOt − Os
Ot 3

es distinto de cero en general véase, por ejemplo, Ref. 23. La


estacionariedad de la cadena implica que COs,s+t=CO0,tCOt. (a)
̄
Entonces, la varianza de O se convierte en
(b)

(t−1) Nb tNb
̄
2
O = 2O1 + 2N 1 − t COt. 4º
FIGURA 1. Color en línea Transformación de bloqueo en una
N t= 1 N C O0 serie temporal. En el análisis de binning, la serie se divide en bloques
de longitud Nb a. En el análisis jackknifing, los bloques consisten en
Las correlaciones de Monte Carlo disminuyen
exponencialmente, es decir, toda la serie aparte de las entradas de un solo bloque b.

COt CO0y−t/expO 5 para automatizar y en que estimar su exactitud estadística es


tedioso ver Ref. 14.
a orden principal, definiendo el tiempo de autocorrelación Una técnica más eficiente y muy intuitiva para tratar las
exponencial expO. Debido a este decaimiento exponencial, autocorrelaciones resulta de una transformación de bloqueo
para Nexp las desviaciones de los factores 1−t/N de Eq. 4 en el espíritu del grupo de renormalización 14 de hecho, esta
de la unidad se puede descuidar 24, y definir el tiempo de idea ya fue formulada por Wilson 28. Al igual que los giros
autocorrelación integrado como de bloque se definen allí, se combina Nb=N/n entradas
N
adyacentes de la serie temporal,
1 COt
int O+, 6
2 t= 1 CO0
Btª t − 1Nb + 1, ... ,tNb, 8

uno tiene
y define promedios de bloques
2

2El ̄ O .
1
séptimo
ONt b = Ok, t = 1, ... ,n, 9
N/2intO
N
bkBt
En vista de la reducción de1 /N en la varianza del promedio
̄
O en relación con una sola medición en Eq. 1, Eq. 7 establece cf. Fig. 1a. Este procedimiento da como resultado una serie
que el número efectivo de mediciones independientes en temporal efectiva más corta ON1 b,ON2 b,... con n entradas.
presencia de autocorrelaciones se reduceen un factor de
Asumimos por simplicidad que N es un múltiplo entero de n.
1/2intO. Los tiempos de autocorrelación exp e int no son
idénticos, pero se puede demostrar que este último es un límite Obviamente, el promedio
inferior del primero, intOexpO 25.
Mientras el tiempo de autocorrelación sea finito, la
distribución de los promedios todavía se vuelve gaussiana
asintóticamente, de modo que para Nla varianza sigue siendo
la cantidad relevante que describe las fluctuaciones. Para
̄
determinar prácticamente 2O a partir de Eq. 4, se requiere una
estimación para la función de autocorrelación. Esto se puede
encontrar en la definición 3 reemplazando los valores de
expectativa con promedios de tiempo. Resulta, sin embargo,
que al sumar las contribuciones de la función de
autocorrelación para diferentes retrasos de tiempo t en Eq.
Se incurre en 4 fluctuaciones divergentes, haciendo cumplir
066701-3
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010

̄ ̄ Nb
O y su varianza 1O son invariantes bajo esta transformación.
Bajo la desintegración exponencial 5 de autocorrelaciones de FIGURA 2. Color en línea Representación esquemática de la
la serie original es claro y se puede mostrar explícitamente estimación
14,sin embargo, que los promedios de bloque posteriores ONt ̄
b
, OtN+1b están menos correlacionados que las medidas ˆ 2O de la varianza del promedio según Eq. 2 para una serie temporal
originales Ot y Ot+1 . Además, las correlaciones restantes rebloqueada en función de la longitud del bloque Nb.
deben reducirse a medida que aumenta la longitud del bloque
Nb, de modo que asintóticamente para Nb→ al tiempo que se
garantiza que n1 se produzca una serie temporal no 1ˆ 2O‫ ا‬Nb
correlacionada. En consecuencia, el ingenua estimador 2 O
ˆint = 10
puede ser utilizado legalmente en este límite para determinar
2 ˆ 2El̄ 1
̄
la varianza 2O de la media. Para las series temporales finitas
encontradas en la práctica, se debe utilizar una longitud de dentro de este esquema, donde Nb debe elegirse en el régimen
bloque N b y NbN. Esto se ilustra en la Figura 2 que muestra de meseta de la Fig. 2.
la estimación 2 para una serie de tiempo bloqueada con
tiempo de autocorrelación int13 en función de la longitud del B. Covarianza y sesgo
bloque Nb. Se acerca a la verdadera varianza 2Ō desde abajo,
llegando finalmente a un valor de meseta donde cualquier ̄
Además de proporcionar una estimación de 2O para
desviación preasintótica restante se vuelve insignificante en
cantidades simples, el procedimiento de bloqueo tiene la
comparación con las fluctuaciones estadísticas. Si la serie
ventaja de dar como resultado una serie temporal auxiliar
temporal disponible es lo suficientemente larga en
efectivamente no correlacionada que luego puede introducirse
comparación con , a menudo es suficiente simplemente
en maquinaria estadística adicional, gran parte de la cual se
agrupar los datos en tan solo unos cien bloques y restringir el
limita al caso de variables independientes. Los esquemas de
análisis de datos posterior a esos bloques. Como regla general,
remuestreo como el jackknife 13 proporcionan estimaciones
en aplicaciones prácticas resulta que se requiere una serie
de error y sesgo también para funciones no lineales de
temporal de longitud N10 000 para una determinación fiable
observables sin implicar un error de truncamiento o requerir
de los errores estadísticos, así como de los tiempos de
suposiciones sobre las distribuciones de probabilidad
autocorrelación. De Eqs. 2 y 6 se deduce que el tiempo de
subyacentes.
autocorrelación integrado se puede estimar a partir de
Si bien se puede calcular directamente a partir de la
serie temporal bloqueada de O a través del estimador 2,este
enfoque falla para las funciones no lineales f A,
B ,... de los valores de expectativa A, B ,... tales como,
por ejemplo, susceptibilidades o cumulantes. Un enfoque
estándar para tales casos es el uso de fórmulas de propagación
de errores basadas en expansiones de Taylor 22,

Tales problemas se evitan mediante métodos basados en


muestreos repetidos del grupo de datos original, utilizando las
propiedades de estas meta muestras para estimar la
covarianza, reducir el sesgo, etc. Se trata de técnicas modernas
de estadística matemática cuya aplicación sólo se hizo factible
con la disponibilidad general de ordenadores 13. El más

1
f A, B ,... = De 2A + Bf 2B + correlacionados debido a su origen en la misma simulación,
¯. también deben incluirse términos de correlación cruzada.
Peor aún, para el caso de las estimaciones de parámetros no
paramétricos, como la determinación del máximo de alguna
11 cantidad mediante la reponderación, véase a continuación o
Aparte del error de truncamiento resultante de la restricción al extraer un exponente crítico con un procedimiento de
al primer orden en la expansión, esto conlleva una serie de ajuste, la propagación de errores no se puede usar fácilmente
¯ ¯ en absoluto.
problemas adicionales: si los promedios A, B, etc. están
066701-4
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010

directamente aplicable es el procedimiento jackknife, donde debido a que se basan en casi los mismos datos. El Eq. general.
las meta muestras consisten en todas las series temporales 15 forma una estimación conservadora y a lo sumo
originales excepto un bloque de datos, cf. Fig. 1b. débilmente sesgada de la verdadera varianza 13, que carece
Supongamos que un conjunto de simulaciones dio lugar a una del error de truncamiento de los esquemas basados en Eq. 11
colección de series temporales Ok,1,Ok,2, ... Ok,Nk, k=1, 2,... y es aplicable a las estimaciones de parámetros no
para diferentes observables, tamaños de sistema, paramétricos.
temperaturas, etc. Aplicando el procedimiento de bloqueo En una ligera generalización de Eq. 15 es posible estimar
descrito anteriormente, es sencillo dividir la serie en bloques también las covarianzas. Para un número de estimadores
efectivamente no correlacionados. A menudo es conveniente ˆ
iOt, i = 1,2,..., un estimador robusto de navaja de la matriz de
utilizar el mismo número de bloques n para todas las series,
covarianza está dado por
por ejemplo, 100 que se pueden organizar fácilmente
n
mediante la transformación de bloqueo, siempre que Nk/k sea
mayor que algún valor mínimo, por ejemplo, 10 000 para cada
ˆ 2ij ˆ n− 1
simulación y observable. Si entonces Bt= B1,t,... ,Bk,tT denota
ˆes − ˆi·
el bloque tésimo sobre todas las series de acuerdo con Eq. 8,
ˆ js − ˆ j· .
donde para un número constante de bloques las longitudes de
16
bloque Nb,k =Nk/n pueden variar entre las diferentes series en
n s= 1
consideración, se define el bloque jackknife correspondiente
como el complemento De manera similar se puede reducir el sesgo de los
estimadores, es decir, las desviaciones entre la media de un
Jk,t 1 ‫ا‬, ... ,Nk \ Bk,t, 12 observable y el valor de expectativa de algún estimador que
desaparecen con el aumento de la longitud de la muestra. Para
ˆ una discusión detallada, remitimos al lector a Refs. 13,29.
cf. Fig. 1. Considerando ahora un estimador Ot para algún Por lo tanto, un procedimiento general para el análisis de
parámetroen función de algunas o todas las diferentes datos de simulación basado en técnicas de bloqueo y navaja
series, definimos las estimaciones correspondientes tiene la siguiente forma:
restringidas al bloque jackknife Js, 1 Decida el número n de bloques de navajas que se
utilizarán. Para la mayoría de los propósitos, del orden de 100-
ˆ s= 500 bloques son suficientes.
ˆ O1,tJ1,s, ...,Ok,tJk,conT. 13
2 Para cada serie temporal original registrada en una
colección de simulaciones, examine los promedios de bloque
La variación entre estas estimaciones tomadas de los mismos
9 en función de la longitud del bloque N/n. Si el resultado
datos originales se puede utilizar para inferir la varianza de la
para n bloques está en el régimen de meseta de la Fig. 2 todo
muestra. Si se denota el promedio de los estimadores de
está bien; de lo contrario, uno necesita registrar una serie de
bloque jackknife 13 como
tiempo más larga y posiblemente tomar medidas con menos
n frecuencia para mantener la cantidad de datos manejable.
ˆ· = 1 3 Para cada parámetro a estimar, calcule las estimaciones
ˆs, n 14 del bloque n jackknife 13, así como el promedio 14 y
s=1
combínelos para calcular la varianza 15 . Para una serie de
una estimación para la varianza muestral del ˆ
estimador ˆ estimaciones de parámetros diferentes i,
está dada por 29
lasestimaciones del bloque jackknife también se pueden usar
n para calcular la covarianza 16.
2
ˆ n−1 ˆs − III. HISTOGRAMAS Y ERRORES
ˆ·2. 15 Un número creciente de técnicas exitosas de Monte Carlo
ˆ jack se basan en la reponderación y el uso de histogramas 1. Esto
n s= 1
incluye el método multihistograma de Refs. 12,30, así como
la plétora de técnicas de conjunto generalizadas que van desde
Esto es muy similar a la estimación simple 2 para la varianza simulaciones multicanónicas 9 hasta muestreo de
del promedio, pero viene con un prefactor diferente que sirve WangLandau 10. Tales métodos se basan en el hecho de que
para un doble propósito: repondera el resultado de la serie las muestras tomadas de una distribución de probabilidad
efectiva de navajas de la longitud n−1 a la longitud original conocida siempre se pueden traducir en muestras de otra
n y se encarga del hecho de que todas las estimaciones del distribución en el mismo espacio de estados. Supongamos,
están para simplificar, que los estados se etiquetan como si como
bloque de navajas fuertemente correlacionadas
066701-5
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010

apropiados para un sistema de espín. Si una secuencia esella, promedio de navaja 14, por ejemplo, la estimación de
t=1,2,... se muestreó a partir de una simulación estacionaria ˆ ˆ
varianza 15 con =O se puede calcular directamente.
con densidad de probabilidad psimsi , unestimador para el valor
Consideraciones similares se aplican a las estimaciones de
de expectativa de la O observable en relación con la
covarianza o a los estimadores con sesgo reducido 13. Los
distribución de equilibrio está dado por
valores extremos de los promedios térmicos se pueden
N
determinar con alta precisión a partir de la familia continua de
Osit peqsit estimaciones 19,donde las estimaciones de error nuevamente
Oˆ = t= 1 N psimsit . 17 siguen directamente la prescripción de la navaja.

peqsit t=1 psimsit IV. REDUCCIÓN DE LA VARIANZA

Las correlaciones temporales resultantes de la naturaleza


Para una simulación finita, esto funciona siempre que las markoviana del proceso de muestreo se han discutido en la
distribuciones muestreada y de equilibrio tengan suficiente Sección II A anterior, y suponemos que se han eliminado
superposición,de modo que las configuraciones muestreados efectivamente mediante un procedimiento de binning
puedan ser representativas del promedio de equilibrio en apropiado. Extraer una serie de estimaciones de parámetros
cuestión. Para el muestreo simple se tiene psim= const y, por ˆ
diferentes i, i=1,2,... del mismo número de
lo tanto, se debe ponderar la serie temporal resultante con el
simulaciones originales está claro, sin embargo, que también
factor de Boltzmann
pueden ocurrir correlaciones cruzadas significativas entre las
ˆ ˆ
estimaciones i y j. Estos tienen profundas
peqsi psi = 1 e si , 18
consecuencias para estimar el error estadístico y reducirlo
Con
haciendo el mejor uso de los datos disponibles 19.
donde Hsi denota la energía de la configuración si y Z es la ˆ
Si una estimación de parámetro dada depende de
función de partición a temperatura inversa = 1/kBT. Por
varios observables de las series temporales subyacentes que
importancia del muestreo, por otro lado, psim =peq, de modo exhiben correlaciones cruzadas, este hecho se tiene en cuenta
que lospromedios de las series temporales son estimaciones automáticamente correctamente por la estimación de error de
directas de los valores de expectativa térmica. Si las muestras navaja 15. Esto contrasta con los esquemas de análisis de
de una simulación de muestreo de importancia con psim=p0 errores basados en fórmulas de propagación de errores del tipo
11,donde cualquier correlación cruzada debe tenerse en
deben utilizarse para estimar los parámetros de peq=p, Eq. 17
cuenta explícitamente. En la medida en que el enfoque
produce la relación familiar de reponderación de temperatura esbozado del análisis de datos es a prueba de fallos. Sin
Osite−−0Et embargo, queremos ir más allá de eso, al tratar de optimizar
t la precisión estadística de las estimaciones a partir de los
datos disponibles. Si intentamos estimar un parámetro
, deberíamos construir un estimador
Oˆ=−−0Et , 19
y ˆ
t
= FOt,

que es una función de la serie temporal subyacente con la


donde Et=Hsit. Se pueden escribir ecuaciones completamente ˆ
análogas, por supuesto, para reponderar en parámetros propiedad de que =al menos para n→.
distintos de la temperatura. Del mismo modo, los promedios Obviamente, generalmente habrá un gran número de tales
canónicos a temperatura inversa se recuperan de simulaciones funciones F y no es posible, en general, encontrar el estimador
multicanónicas mediante el uso de Eq. 17 con psim=pmuca y ˆ
de varianza mínima. Por lo tanto, nos concentramos en el
peq=p.
ˆ
La estimación fiable de errores, así como la reducción del caso tratable donde es una combinación lineal de
sesgo, las estimaciones de covarianza, etc. para cantidades ˆ
otros estimadores i, i
reponderadas es bastante tediosa con técnicas estadísticas
=1, ... ,k,
tradicionales como la propagación de errores 31. Los métodos
de remuestreo, por otro lado, permiten una forma muy directa k
y confiable de abordar tales problemas 32. Para el enfoque de
jackknife, por ejemplo, se calculan las estimaciones del en el ˆ, ˆ=.
i= 1 20
bloque jackknife del tipo 17 simplemente restringiendo el
conjunto de series de tiempo al sth jackknife block Js. Con el
066701-6
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010

Existen diferentes posibilidades para asegurar la condición ˆ ˆ


donde denota la submatriz de ij con i,j 2. Dado que el
ˆ
= : formalismo para ambos casos es prácticamente idéntico, a
1 Todos los estimadores tienen la misma expectativa, continuación nos concentraremos en el caso uno.
Tomemos el tiempo para comparar la elección óptima de
ˆ
i =, e i i=1. los pesos expresados en Eqs. 22 y 24 con el utilizado en
ˆ enfoques más tradicionales. Ignorando la presencia de
2 Se señala un estimador, digamos 1 = correlaciones cruzadas, varias estimaciones de parámetros a
, 1=1, y el resto tiene expectativas que se desvanecen, menudo se combinan utilizando solo un esquema de
ˆ ponderación de errores, es decir, eligiendo ponderaciones.
i = 0, i arbitrarias, i 2.
3 Situaciones más complicadas.
1/2 ˆ
El primer tipo describe el caso de que tenemos varios
erri = ki .
estimadores diferentes para la misma cantidad y queremos
25
tomar un promedio de varianza mínima 19. El segundo caso
está adaptado para situaciones en las que las simetrías
1/2 ˆi
existentes permiten construir estimadores con expectativas i= 1
que desaparecen cuyas correlaciones cruzadas podrían reducir
la varianza 20. Mientras que la expresión más general 22 se reduce a los
Para optimizar el análisis, los parámetros i en Eq. Se deben pesos 25 en ausencia de correlaciones, la opción 25 no es
elegir 20 de tal manera que se minimice la varianza óptima tan pronto como las correlaciones cruzadas están
k kk ˆ
presentes. Aún así, el promedio resultante sigue siendo un
2 ˆ = ij estimador válido del parámetro. Por el contrario, la
ˆi ˆ j − estimación de varianza generalmente utilizada deriva de la
ˆi ˆ j ij ij ˆ. expresión
i,j= 1 y,j= 1

21 uncorr2 err ˆ = k 1
26
Para el caso uno anterior, introducimos un multiplicador de
Lagrange para hacer cumplir la restricción ii= 1, y la elección
ˆ
óptima de i es 1/2 i
fácilmente obtenido como 22 i= 1

k
ya ni siquiera es correcto cuando entran en juego las
ˆ−1ij correlaciones cruzadas. Como se verá a continuación de la
j=1
discusión de las simulaciones del modelo de Ising en Sec. V,
i= k, 2 err ˆ
uncorr conduce genéricamente a la subestimación de la
ˆ−1ij verdadera varianza, pero ocasionalmente también son
i,j= 1 posibles sobreestimaciones.
La implementación práctica del esquema descrito de
dando lugar a una varianza mínima de
ponderación y análisis de errores es sencilla con el conjunto
2 ˆ = de herramientas descrito en las secciones anteriores. La matriz
k 1 . 23 ˆ
de covarianza de las estimaciones i se calcula fácilmente a
ˆ−1ij
i,j= 1
través de la expresión jackknife 16. Esto permite estimar los
de ˆ
pesos óptimos de la inserción ij en Eq. 22 o el análogo
De manera muy similar, el caso dos conduce a la elección 33 24 para el caso dos y la varianza del estimador óptimo
k
resultante se determina a partir de la expresión 23. En total,
ˆ−1 el análisis necesario se puede resumir de la siguiente manera:
i= − ij
1 Realice un análisis de binning para ver si para un número
ˆ dado de bloques n los promedios de bloque 9 para todas las
j1, 24
j=2 series de tiempo en cuestión no están efectivamente
correlacionados.

066701-7
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010

ˆ actualización de un solo clúster 35, lo que resultó en una


2 Para cada parámetro estimado i calculo las
aceleración dramática del proceso de relajación. Para dos y
estimaciones del bloque n jackknife 13 así como su promedio
tres dimensiones, realizamos simulaciones a una temperatura
y estimo su matriz de covarianza a partir de Eq. 16.
fija cercana a la temperatura crítica asintótica para varios
ˆ tamaños de sistema diferentes para permitir un estudio
3 Para que esas estimaciones i se combinen en un
sistemático de FSS. Los datos brutos consistieron en series
ˆ
promedio , Eq da unaestimación de los parámetros de temporales con 4105 muestras aproximadamente
ˆ independientes de la energía de configuración y
ponderación óptimos i. 22 con la estimación ij calculada
magnetización para cada tamaño de sistema considerado.
en el paso anterior. Asimismo, la varianza de la media
Utilizando el análisis de jackknifing descrito anteriormente,
resultante se estima a partir de Eq. 23.
estas series de tiempo originales se analizaron utilizando n
En algunos casos, es necesario tener ya disponibles
contenedores efectivamente no correlacionados, donde se
estimaciones de varianza de datos intermedios para
eligió n=100 a menos que se indique lo contrario.
determinar adecuadamente las estimaciones del bloque
ˆ ˆ
jackknife i· . Esto ocurre típicamente cuando i es un B. Análisis de escalado de tamaño finito
parámetro que resulta de un ajuste ponderado por error ideal Ahora existe un amplio consenso de que los efectos de
a una serie de puntos de datos, como para el caso de un tamaño finito no son en la mayoría de los casos simplemente
exponente crítico, consulte la discusión a continuación en Sec. un inconveniente de los enfoques que dependen de los
V. En estos casos, es sencillo iterar el procedimiento de tamaños de sistemas finitos, sino que pueden convertirse en
jackknifing a segundo orden considerando cada bloque de una poderosa herramienta para extraer el comportamiento
jackknife como la serie de tiempo inicial de otro análisis de asintótico 11. Una serie de diferentes implementaciones
jackknife 34. prácticas de esta idea en términos de esquemas específicos de
En vista de los resultados a veces contraintuitivos del FSS se han derivado y aplicado con éxito al análisis de
cálculo de promedios ponderados teniendo en cuenta las fenómenos críticos, véase, por ejemplo, Refs. 36–38. Aunque
correlaciones cruzadas, consulte los resultados en la Sección nuestras consideraciones con respecto al análisis de datos se
V a continuación, es instructivo examinar el caso simple de aplican de manera bastante general a todas estas técnicas, con
ˆ ˆ fines ilustrativos nos concentramos aquí en el método bastante
solo dos estimaciones diferentes 1 y 2 con algo más
de detalle. Esto se hace en el Apéndice. popular descrito en Ref. 36. Se centra en el análisis de las
ubicaciones y valores de extrema de cantidades
V. APLICACIÓN AL MODELO ISING termodinámicas estándar como el calor específico,
susceptibilidad magnética, cumulantes, etc. De acuerdo con la
Aunque el esquema esbozado del análisis de datos de teoría de la escala de tamaño finito 11,39, las ubicaciones de
Monte Carlo es completamente general, es útil ver cómo tales puntos pseudocríticos se alejan del verdadero
funciona para un ejemplo específico. En particular, uno acoplamiento crítico c de acuerdo con
quisiera saber si las correlaciones cruzadas típicas son lo
suficientemente fuertes como para tener un impacto Amax,L =c + A0L−1 + AcL−w + ̄, 28 donde A denota
significativo en los resultados. Para responder a esta pregunta, un observable con un máximo pseudocrítico como el calor
realizamos un análisis FSS de escala de tamaño finito de la específico para 0. El valor genérico para el exponente de
transición de orden del modelo ferromagnético de Ising en dos desplazamiento predicho por la teoría FSS es =1/, donde es el
y tres dimensiones. exponente de longitud de correlación para excepciones ver,
por ejemplo, Ref. 40. Un inconveniente de usar Eq. 28
A. Detalles de la simulación directamente es que los ajustes no lineales en los tres
parámetros c, A0,y respectivamente son necesarios incluso
Estudiamos el comportamiento crítico del modelo de Ising
para el caso más simple de ignorar los términos de corrección
ferromagnético de campo cero vecino más cercano con
a escala entre paréntesis. Para aliviar este problema, se ha
hamiltoniano
sugerido considerar cantidades como los cumulantes de
magnetización 41
H = − J si sj, si = 1 27
i,j m2y
En2i = 1 − y 2, i = 1.2,3,... 29 3 m
en celosías cúbicas cuadradas y simples de longitud de arista
L,utilizando condiciones de contorno periódicas. Cerca de la para los cuales los máximos de los derivados de temperatura
criticidad, una simulación monte carlo de muestreo de tienen una forma de escala crítica
importancia con regla de actualización local sufre de
desaceleración crítica, Lz,con un exponente crítico dinámico
z2. Para aliviar este problema, utilizamos el algoritmo de
dUd2ymax = U L1/1 + Ui,cL−w + ̄, 30 i,0
066701-8
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010

y por lo tanto permiten determinar sin conocimiento previo d= 3 m2 3


del acoplamiento de transición c. Si, de nuevo, se ignoran los .
términos de corrección entre paréntesis, esta forma incluso
representa un ajuste lineal en la representación logarítmica 33
que resulta en resultados muy estables. Si bien inicialmente Por lo tanto, no se requiere diferenciación numérica cuando se
solo se consideró el cumulante U4 de cuarto orden, los autores hace uso de las relaciones 30 y 31. En algunas situaciones,
de Ref. 36 sugirió utilizar una variedad de diferentes puede ser poco práctico almacenar toda la serie temporal de
cumulantes U2i con i=1,2,3,... para mejorar la precisión de la mediciones originales de energía interna y magnetización, en
estimación. Se pueden construir varias cantidades en cuyo caso la relación exacta de reponderación 19 podría
adicionales con el mismo comportamiento de ser sustituida por una expansión de Taylor con respecto a
escala, por ejemplo, derivadas de temperatura alrededor del acoplamiento de simulación 0, donde entonces
logarítmica de la magnetización, aparecenlos cumulantes de e y m como coeficientes de
expansión. En la mayoría de los casos, sin embargo, es mucho
más simple y versátil en términos del análisis de datos trabajar
d lnd mi max = Dy L1/1 + con la serie temporal original. En vista de los recursos de
Dy,cL−w + ,̄ 31 almacenamiento normalmente disponibles en la actualidad,
,0 este enfoque debería ser cómodamente factible en la mayoría
de las situaciones.
que para i= 1,2,... arroja otra serie de estimaciones. Teniendo en cuenta el conjunto de exponentes críticos , , ,
Una vez que se ha determinado a partir de los ajustes de las y así como y , es útil recordar que están sujetos a una serie de
formas funcionales 30 y 31 a los datos, se podría volver a la relaciones de escala exactas, a saber, la identidad de
relación de desplazamiento 28 y asumir =1/ determinar el Rushbrooke +2+=2, la ley de escala de Fisher =2−, la relación
acoplamiento de transición c de ajustes lineales con un valor +1+=2, así como en la mayoría de los casos la relación de
fijo de . Finalmente, los exponentes críticos estándar restantes hiperescala =2−d,donde d es la dimensión espacial 42 .
se pueden estimar a partir de lasformasFSS bien conocidas del Como consecuencia de estas cuatro ecuaciones, sólo dos de
calor específico cV,la magnetización m y la susceptibilidad los seis exponentes originales son independientes. Si bien las
magnética, relaciones de escala se han utilizado ocasionalmente para
verificar la consistencia de un conjunto de exponentes
cVmax = c0L/1 + ckL−w + ,̄ estimados de forma independiente, nos gustaría señalar que la
existencia de estas relaciones exactas debería utilizarse más
m inf = m0L−/1 + mkL−w + ,̄ bien para mejorar la precisión de las estimaciones de
exponentes. En particular, en el lenguaje del grupo de
renormalización, es natural expresar los exponentes de escala
max = 0L/1 + kL−w + ̄, 32 convencionales en términos de las dimensiones de escala xt y
xh de los operadores que se acoplan a la temperatura y al
donde m inf denota el módulo de la magnetización en su campo magnético 43,respectivamente, que son los únicos
punto de inflexión. Los exponentes directamente estimados operadores relevantes para el modelo de Ising 44. Para los
son, por lo tanto, y los exponentes FSS /, /, y /, quese pueden cuatro exponentes considerados aquí, esto significa que
combinar para producir , , , y . Los exponentes restantes y no
se determinan directamente aquí; en cambio, asumimos que
sus valores se deducen de los exponentes , , , y a través de = d − 2xt, = xh,
relaciones de escala estándar.
Para determinar la ubicación y el valor de los máximos que
1
se producen en Eqs. 28 y 30–32,utilizamos la técnica de
reponderación descrita en Sec. III a partir de los datos de una = d − 2xh, = d − xt, 34
única simulación por tamaño de sistema realizada en o cerca
del punto de transición asintótica. Los derivados con respecto tal que xh puede estimarse independientemente a partir de
a en Eqs. Se demuestra fácilmente que 30 y 31 son xh=/ y xh=d/2−/2, mientras que xt podría determinarse a partir
equivalentes a combinaciones de momentos de energía y de xt=d−1/ así como xt=d/2−/ número arábigo.
magnetización a una sola temperatura fija 36. Para el
cumulante de cuarto orden
U4, por ejemplo, uno tiene dU4 2 m4 m2 e−
m2e − m2 m4 e − m4e

066701-9
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010

22 enumerados en la octava columna del cuadro I. Las


columnas cuarta y quinta contienen las estimaciones
resultantes del exponente junto con los errores estadísticos
estimados a partir de un procedimiento ponderado de ajuste
de mínimos cuadrados 45. Un vistazo a la Tabla I revela que
todas las estimaciones individuales son estadísticamente
consistentes con el resultado exacto = 1, pero exhiben una
variación bastante grande en la precisión estadística con el
mayor error estadístico siendo casi tres veces mayor que el
más pequeño. Utilizamos el estimador jackknife 16 y un
procedimiento jackknifing de segundo orden para estimar las
correlaciones estadísticas de las estimaciones individuales de
. Los datos del lado derecho de la Tabla I que muestran los
coeficientes de correlación = ij/ij para las diferentes
estimaciones revelan que las correlaciones entre todos los
FIGURA 3. Color en línea Ajustes de las formas funcionales 30, pares de estimaciones son grandes con 0,8. Dado que todas las
estimaciones se derivan de expresiones similares que
respectivamente, 31 a los datos máximos Unmáximo de las
contienen momentos magnéticos, este resultado
siguientes cantidades calculadas para el caso del modelo de Ising 2D:
probablemente no sea una sorpresa.
A= d lnd m3 , d lnd m2 , d lnd m , ddU ,y
4 ddU2 de arriba a abajo. En estas circunstancias, cabría preguntarse si merece la
Para realizar los ajustes, los términos de corrección entre paréntesis pena intentar una combinación lineal de la forma 20 de las
de Eqs. 30 y 31 fueron descuidados. Los ajustes reales se han distintas estimaciones en lugar de citar como resultado final
realizado en el rango de tamaño 32 L192. Las pendientes de las la estimación más precisa, que en el presente caso está dada
líneas son idénticas a la inversa de las estimaciones correspondientes por el valor =1,0085183 resultante del FSS de d ln m/d.
del exponente de longitud de correlación enumerado en la Tabla I.
Con el propósito de combinar estimaciones, consideramos los
enfoques tradicionales de tomar un promedio simple l̄ lanura
con
C. Modelo bidimensional de Ising

Para el modelo bidimensional 2D Ising, clúster único llanura 1


Se realizaron simulaciones de actualización para celosías 35
cuadradas de tamaño L= 16, 24, 32, 48, 64, 96, 128 y 192. i =
Todas las simulaciones se realizaron directamente en el k
acoplamiento crítico asintótico c= 21ln1 +20.440 686 8. Para
así como el error ponderado promedio ē rr de Eq. 25 y
el rango de tamaños de sistema considerados, resultó que las
compararlos con el promedio ponderado por covarianza
simulaciones a esta temperatura única eran suficientes para
verdaderamenteóptimo ̄cov definido por los pesos de Eq. 22.
estudiar de manera confiable los puntos pseudocríticos
definidos por los máximos de las diversas cantidades Ignorando la presencia de correlaciones como fue el caso en
consideradas mediante reponderación, es decir, la la mayoría de los estudios previos, se estimaría el error
superposición de histogramas entre las temperaturas de asociado al promedio simple como
simulación y análisis resultó ser lo suficientemente grande.
Primero extrajimos una serie de estimaciones del 2 llanura 1 2ˆi, 36
exponente de longitud de correlación de la investigación de uncorr = 2
los máximos de las derivadas logarítmicas de los momentos
k i
de magnetización para i= 1, 2 y 3, así como los máximos de
las derivadas de los cumulantes de segundo y cuarto orden U2 y, del mismo modo, la varianza de la media ponderada por
y U4 utilizando el esquema de reponderación descrito error está dada por uncorr2 err como se define en Eq. 26. Las
anteriormente. Las ubicaciones y los valores de los máximos verdaderas varianzas de ̄plain y ̄erran en presencia de
mismos fueron determinados por un algoritmo de búsqueda correlaciones, por otro lado, también se pueden derivar
de sección áurea 45. Los máximos resultantes en función del fácilmente formalmente y contendrán los elementos de la
tamaño del sistema se muestran en la Fig. 3 junto con los matriz de covarianza de las estimaciones individuales ˆi.
ajustes de los formularios 30 y 31 a los datos. Aquí, usamos Desde la perspectiva práctica, el análisis de jackknifing
ajustes sin los términos de corrección entre paréntesis de Eqs. descrito aquí tiene automáticamente en cuenta esas
30 y 31 en el rango de ajuste L 32, que funciona muy bien correlaciones. Nos referimos a estas varianzas correctamente
como se desprende de la presentación en la Fig. 3 y los definidas con la notación corr2 .
valores correspondientes del parámetro de calidad de ajuste Q

066701-10
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010

Los promedios simples, ponderados por error y ponderados otro lado, da como resultado la estimación = 0.993578, cuya
por covarianza para las estimaciones de varianza fluctuación es aproximadamente 2-3 veces menor que las del
correspondientes se enumeran en las partes inferiores de las promedio ponderado por error y la estimación más precisa. La
columnas cuatro y cinco del cuadro I. Al igual que con las varianza reducida de esta última estimación parece estar
estimaciones individuales, cada uno de los tres promedios es corroborada por la menor desviación también del resultado
estadísticamente compatible con el resultado exacto = 1. Si exacto =1. Un vistazo a los datos recogidos en la Tabla I
bien las estimaciones de error ingenuas nocorr parecen indicar revela que, de manera un tanto sorprendente, el promedio
que realizar el promedio simple o ponderado por error reduce óptimo es menor que todas las estimaciones individuales de
las fluctuaciones estadísticas en comparación con las ver también la representación gráfica de este hecho en la Fig.
estimaciones individuales, teniendo en cuenta las 1 de la Ref. 19. Esta situación, que, por supuesto, nunca puede
correlaciones con el esquema jackknifing que resulta en corr2 ocurrir para el promedio ponderado por error donde todos los
revela que las varianzas son subestimadas groseramente por pesos 0i1, está relacionada con el hecho de que los pesos más
uncorr2 y, de hecho, en comparación con el corr = 0.0269 simple generales de Eq. 22 son ilimitados y, en particular, pueden
y el corr ponderado por error =0.0208 promedios la llegar a ser negativos. Este hecho se refleja en los pesos
estimación única de derivados de d ln m /dtiene calculados para los diferentes esquemas de promedio
fluctuaciones estadísticas máspequeñas = 0.0183. Por lo tanto, recogidos en la parte inferior derecha de la Tabla I.
realizar esos promedios disminuye la precisión en lugar de Claramente, los pesos para los promedios ponderados por
TABLA I. Ajuste de parámetros y datos de correlación para estimar el exponente crítico a partir de simulaciones Monte Carlo de
actualización de clúster único del modelo 2D Ising. Las estimaciones de exponentes se extraen de los ajustes de las formas funcionales 30 y
31 a los datos, descuidando los términos de corrección entre paréntesis. Las desviaciones del valor exacto =1 se calculan en relación con =1
rel y en múltiplos de los errores estimados enumerados en la columna etiquetada "" .

Enc Correlacióncoeficientes/pesos
aja
Rel dE m d E m2 dE m3 del 2 del 4
Lmin LMáxi % Q dof
nd nd nd d d
mo

dE m
nd 32 192 1.0085 0.0183 0.85 0.47 0.52 4 1.0000 0.9743 0.9385 0.9197 0.8971

d ln m2

d 32 192 1,0128 0,0194 1,28 0,66 0,47 4 0,9743 1,0000 0,9910 0,8167 0,8687

d ln m3
32 192 1.0175 0.0201 1.75 0.87 0.40 4 0.9385 0.9910 1.0000 0.7431 0.8198
d
del2
32 192 1,0098 0,0281 0,98 0,35 0,57 4 0,9197 0,8167 0,7431 1,0000 0,8596
d
del4
32 192 1,0149 0,0511 1,49 0,29 0,70 4 0,8971 0,8687 0,8198 0,8596 1,0000
d

̄llanura incorr 1.0127 0.0141 1.27 0.90 1.0000 1.0000 1.0000 1.0000 1.0000
Corr 0.0269 1.27 0.47

̄errar incorr 1.0123 0.0102 1.23 1.21 0.3145 0.2714 0.2483 0,1322a 0.0336
Corr 0.0208 1.23 0.59

̄cov Corr 0.9935 0.0078 −0,65 −0,84 5.0067 −2,4259 −0,2807 −1.1958 −0,1043
a Obsérese que el cuadro II similar de la Ref. 19 contiene un error en las dos últimas líneas, donde las ponderaciones 0.1322 y 0.0336, así
como −1.1958 y −0.1043 aparecen intercambiadas con respecto a los datos correctos representados aquí.
mejorarla. El promedio verdaderamente óptimo de Eq. 22, por error y ponderados por covarianza son dramáticamente
066701-11
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010

diferentes y, en particular, algunos de estos últimos resultan cambia sustancialmente de =−0.2807 a =−0.5499. La
ser negativos. Es intuitivamente claro que tales pesos estimación óptima final ̄=0.990878 es totalmente compatible

CUADRO II. Ajuste y promedio de resultados para estimar el acoplamiento crítico c del modelo 2D Ising a partir de los cambios de
temperaturas pseudocríticas según Eq. 28. Para realizar los ajustes, el exponente de longitud de correlación se fijó en su valor exacto = 1. La
1
columna rel indica la desviación relativa de las estimaciones del resultado exacto c= 2 ln1+20,440 686 8.

Enc Correlacióncoeficientes/pesos
aja
3
Rel
d m dE m d E m2 dE m del 2 del 4
c % Q cE d nd nd nd d d
n
cE 0.440709 0.000101 0.0051 0.35 1.0000 0.7881 0.3965 0.3645 0.3569 0.3502 0.2599 0.1394
n
d m
d 0,440798 0,000073 0,0251 0,09 0,7881 1,0000 0,7116 0,6417 0,6043 0,7166 0,5345 0,6236 d ln m
d 0,440711 0,000408 0,0055 0,56 0,3965 0,7116 1,0000 0,9740 0,9365 0,9122 0,8613 0,6477 d ln m2
d 0,440799 0,000504 0,0254 0,42 0,3645 0,6417 0,9740 1,0000 0,9899 0,8119 0,8111 0,5264 d ln m3
d 0,440918 0,000567 0,0525 0,29 0,3569 0,6043 0,9365 0,9899 1,0000 0,7415 0,7608 0,4554
dU2
d 0,440576 0,000338 −0,0251 0,70 0,3502 0,7166 0,9122 0,8119 0,7415 1,0000 0,8854 0,8413
dU4
d 0.440308 0.000708 −0,0860 0.94 0.2599 0.5345 0.8613 0.8111 0.7608 0.8854 1.0000 0.6265

0.440699 0.000045 0.0028 0.67 0.1394 0.6236 0.6477 0.5264 0.4554 0.8413 0.6265 1.0000

̄
c,liso incorr 0.440690 0.000151 0.0007 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
Corr 0.000322 0.0007

̄c,err incorr 0.440725 0.000036 0.0086 0.1364 0.2530 0.0073 0.0049 0.0039 0.0105 0.0024 0.5815

Corr 0.000059 0.0086

̄c,cov 0.440687 0.000018 0.0001 0.2601 −0,3347 0.2086 −0,0566 −0,0186 −0,2997 0.0276 1.2133
Corr

negativos son necesarios para cancelar los efectos de fuertes estadísticamente con el análisis utilizando 100 bloques de
correlaciones mutuas. La asimetría en los pesos que conduce navajas. Utilizando como comprobación de consistencia
a la posibilidad de que el promedio se encuentre fuera del simulaciones completamente independientes para producir las
rango de las estimaciones individuales resulta de la asimetría estimaciones individuales de , por otro lado, de hecho da como
de las varianzas individuales en relación con las correlaciones resultado una matriz unitaria de coeficientes de correlación
cruzadas. Este efecto puede entenderse explícitamente para el dentro de errores estadísticos y, en consecuencia, los
caso de sólo dos estimaciones, véase la discusión en el promedios ponderados por error y ponderados por covarianza
Apéndice. coinciden en este límite. Finalmente, también encontramos
Uno podría preguntarse si el esquema de ponderación que la inversión numérica de la matriz de covarianza
sugerido que requiere estimar la matriz de covarianza requerida para calcular los pesos en Eq. 22 es en general
completa es estadísticamente robusto. Está claro, por ejemplo, estable y no problemático. Está claro, sin embargo, que en
que el estimador de jackknife 16 para la covarianza se volverá presencia de correlaciones muy fuertes, los pesos resultantes
más preciso a medida que se utilicen más bloques de de las estimaciones individuales dependerán sensiblemente de
jackknife, a expensas de un mayor esfuerzo computacional. las entradas de la matriz de covarianza, ya que en el límite de
Para comprobar tales efectos, repetimos nuestro análisis correlaciones perfectas todas las opciones de pesos se
mientras usábamos n= 200 en lugar de n= 100 bloques de degeneran, véase también la discusión del caso de sólo dos
navajas. La mayoría de las estimaciones para los coeficientes estimaciones en el Apéndice.
de correlación casi no han cambiado por este nuevo análisis, Pasamos ahora a la determinación del acoplamiento de
siendo la mayor desviación del orden del 3%. Lo mismo transición c a partir de la relación de desplazamiento 28.
ocurre con los pesos resultantes en el promedio óptimo, donde Consideramos las ubicaciones del extremo del calor
solo el peso de la estimación resultante de d ln m3 /d específico cV,la pendiente d m /d del módulo de la
066701-12
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010

magnetización, las derivadas logarítmicas d ln m i/d conduce a una subestimación considerable de los errores y,
para i=1, 2 y 3, las derivadas cumulantes dU 2/dy dU4 /dasí por otro lado, utilizando el
comola susceptibilidad magnética. Con el fin de demostrar CUADRO III. Promediar los resultados para las estimaciones del
más claramente los efectos de las correlaciones presentes, exponente crítico y el acoplamiento crítico c del modelo de Ising
primero realizamos ajustes de la forma 28 utilizando el 2D a partir de ajustes no lineales de tres parámetros a la forma
exponente exacto de longitud de correlación = 1. Los funcional 28. Los observables utilizados son los enumerados en la
resultados de ajuste correspondientes se recogen en la Tabla Tabla II.
II. Para los ajustes ignoramos los términos de corrección c

indicados entre paréntesis de Eq. 28, dejando de ser los


tamaños de sistema más pequeños. Este enfoque parece
̄llanura incorr 0.8101 0.0428 0.439491 0.000337
justificado en vista de las cualidades de buen ajuste reflejadas
en los valores Q de la Tabla II. En cuanto a los ajustes para Corr 0.0973 0.000715
determinar , todas las estimaciones individuales de c son
̄errar incorr 0.8949 0.0228 0.440295 0.000099
consistentes con los valores asintóticos verdaderos de c0.440
686 8 dentro de las barras de error. Las desviaciones estándar Corr 0.0435 0.000169
correspondientes, sin embargo, varían dramáticamente,
disminuyendo en un factor de 15 de la estimación resultante ̄cov Corr 0.9980 0.0148 0.440658 0.000072
de dU4/da la de lasusceptibilidad. Los resultados del análisis
Exacto 1.0000 0.440687
de correlación se presentan en el lado derecho de la Tabla
II:mientras que losderivados de magnetización logarítmica y
El esquema de ponderación óptimo de los errores estadísticos
los cumulantes muestran de nuevo correlaciones muy fuertes,
de Eq. 22 se reduce significativamente, un efecto que también
los resultados de las cantidades restantes son algo más
se ilustra muy bien por el muy buen ajuste de las estimaciones
independientes, mostrando, en particular, una separación
de parámetros resultantes con los valores exactos.
bastante clara del sector energético del magnético. Para los
Finalmente, pasamos a la determinación de los exponentes
promedios de estimaciones individuales, las correlaciones
críticos restantes. Como se describió anteriormente, hacemos
actuales conducen nuevamente a una subestimación
esto combinando diferentes estimaciones utilizando el análisis
significativa de la verdadera varianza para los casos simples y
de covarianza para mejorar los resultados de las dimensiones
ponderados por error y, de hecho, ambos son menos precisos
de escala, asegurando así que las relaciones de escala se
que la mejor estimación única derivada de la escala de la
cumplan exactamente. De un vistazo a la Eq. 34 se lee que la
susceptibilidad, cf. los datos en la parte inferior de la Tabla II.
dimensión de escala magnética xh se puede determinar a partir
El promedio verdaderamente óptimo de Eq. 22 resultados en
de xh=/ y xh=d/2−/2. Por lo tanto, determinamos / a partir
c= 0,440 68718, donde el error estadístico se reduce
del FSS del módulo de la magnetización en su punto de
aproximadamente tres veces en comparación con el esquema
inflexión y estimamos / a partir del FSS de los máximos de
de ponderación de errores. Resultados muy similares se
susceptibilidad, resultando en / = 0.116754 y /= 1.745840,
encuentran cuando se utiliza el valor =0,993578 encontrado
respectivamente. Como revela el análisis de correlación, las
a partir del análisis resumido en la Tabla I,donde se llega a
dos estimaciones resultantes de xh están
una media final ponderada por covarianza de c=0,440
anticorrelacionadaen un grado considerable con el
6581735. Aquí, la segunda estimación de error entre corchetes
coeficiente decorrelación −0,64. Como consecuencia, el
se refiere a la sensibilidad del resultado para c a la análisis de error convencional que descuida las correlaciones
incertidumbre indicada anteriormente, que resulta ser sobreestima las fluctuaciones estadísticas. Aún así, eligiendo
simétrica con respecto a las desviaciones hacia arriba y hacia pesos óptimos de acuerdo con Eq. 22 es capaz de reducir la
abajo de aquí. varianza, lo que resulta en una estimación combinada xh=
Como alternativa al proceso de dos pasos de determinar 0.125010 justo encima del resultado exacto xh= 1/8, cf. los
primero a partir de las relaciones 30 y 31 y solo después datos recopilados en la Tabla IV. La dimensión de escala
estimar c de Eq. 28, se podría considerar ajustes directos de la energética xt,por otro lado, podría calcularse a partir de xt=d
forma 28 a los datos máximos de los ocho observables −1/ así como xt=d/2−/2. Por lo tanto, utilizamos las cinco
enumerados anteriormente determinando y c de una sola vez. estimaciones individuales enumeradas en la Tabla I, así
Aquí, de nuevo, los ajustes en el rango 32L192 descuidando como el FSS del máximo del calor específico para estimar xt.
cualquier corrección al comportamiento de escalado principal Estos últimos ajustes son algo problemáticos debido a la
se encuentran suficientes. Los resultados para los promedios singularidad logarítmica del calor específico correspondiente
simples, ponderados por error y ponderados por covarianza a /=0, y resulta que un ajuste de la forma
para ambos parámetros, y c, serecogen en la Tabla III. De
CUADRO IV. Determinación de las dimensiones de escala
acuerdo con los resultados anteriores, se observa que
magnética y energética xh y xt del modelo 2D ising mediante
descuidar las correlaciones en la estimación de errores
promedios ponderados sobre varias estimaciones individuales.

066701-13
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010

de ajuste diferentes para los dos tipos de cantidades. Los


xh xt ajustes para U2 y U4 también incluyen un rango reducido de
tamaños de celosía que podrían conducir a una decorrelación,
̄llanura incorr 0.1219 0.0027 1.0085 0.0117 pero este efecto se encuentra que es mucho menos importante
Corr 0.0021 0.0213 que la diferencia en las formas de ajuste. Teniendo en cuenta
los promedios de las estimaciones individuales, como
̄errar incorr 0.1261 0.0016 1.0048 0.0082 resultado de estas correlaciones más pequeñas, la
subestimación de los errores estadísticos en el enfoque
Corr 0.0013 0.0136
ingenuo, así como la reducción de la varianza a través del
estimador optimizado 22 es algo menos dramática que para
̄cov Corr 0.1250 0.0010 1.0030 0.0096
el modelo bidimensional, pero el comportamiento cualitativo
Exacto 0.1250 1.0000 parece ser muy similar. Como nuestra estimación final
citamos =0.630017, muy bien de acuerdo con el valor de
cV,máx. = c0 + c1L/ ln L referencia =0.63014 tomado de una encuesta de estimaciones
de literatura reciente compilada en Ref. 47.
incluir una corrección de escala es necesario para describir los
En un segundo paso determinamos el acoplamiento de
datos. Combinando todas las estimaciones individuales de una
transición de los ajustes de la forma funcional 28 a los
manera óptima, llegamos a xt=1.003096, bien de acuerdo con
máximos de las cantidades enumeradas en la Tabla II. En
el resultado exacto xt= 1, cf. el lado derecho de la Tabla IV.
cuanto a los ajustes, sin embargo, la inclusión de un término
de corrección efectivo como se indica en Eq. 28 resultaron
D. Modelo de Ising tridimensional
ser necesarios para una descripción fiel de los datos de escala.
Se realizaron simulaciones de actualización de clúster del La simple, ponderada por error y covarianza-
modelo ferromagnético de Ising en tres dimensiones 3D para
celosías cúbicas simples de longitudes de borde L= 8, 12, 16,
24, 32, 48, 64, 96 y 128. Todas las simulaciones se realizaron
en el acoplamiento = 0,221 654 9 reportado en un estudio de
alta precisión como estimación para el punto de transición
46,ya que resultó que los máximos de las diversas cantidades
consideradas estaban todos dentro del rango de reponderación
de este punto de simulación elegido para los tamaños del
sistema y las longitudes de las series de tiempo en cuestión.
Para determinar el exponente de longitud de correlación
consideramos nuevamente la escala de las derivadas de
magnetización logarítmica d ln mi /dpara i=1, 2 y 3 y las
derivadas de los cumulantes U2 y U4. Encontramos que las
correcciones de escala son algo más pronunciadas que para el
modelo bidimensional para los tamaños de sistema estudiados
aquí. Por lo tanto, para las derivadas de magnetización
logarítmica, realizamos ajustes de la forma 31, incluido el
término de corrección en el rango completo 8L128, donde los
valores resultantes del exponente de corrección efectiva w
fueron w=0.5763 i=1, w = 0.6956 i=2 y w=0.8052 i=3,
respectivamente. Para los cumulantes U2 y U4,por otrolado,
las correcciones eran demasiado pequeñas para ajustarse de
manera confiable con nuestros datos, de modo que se tuvieron
en cuenta de manera efectiva al eliminar los tamaños de red
pequeños en su lugar, mientras que el uso de ajustes de la
forma 30 con Ui,c = 0 fijo. Los datos de ajuste
correspondientes se recogen en la Tabla V. Las desviaciones
estándar estimadas de las estimaciones individuales se
encuentran nuevamente muy heterogéneas, pero las
correlaciones entre las diferentes estimaciones son algo
menores que en dos dimensiones, en particular entre los
derivados de magnetización y los cumulantes, cf. Tabla V. En
comparación con el caso de los ajustes sin correcciones, se ve
que este último efecto se debe en parte al uso de dos formas
066701-14
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010

TABLA V. Parámetros de ajuste y datos de correlación para estimar el exponente crítico a partir de simulaciones Monte Carlo de
actualización de clúster único del modelo 3D Ising. Se utilizaron ajustes de forma funcional 31 incluyendo el término de corrección para las
derivadas de magnetización logarítmica d ln mi /dpara i=1, 2 y 3, mientras que los ajustes de forma 30 sin término de corrección se
utilizaron para las derivadas de los cumulantes U2 y U4. Los valores de referencia relevantes son =0,63014 tomados de Ref. 47.

Enc Correlacióncoeficientes/pesos
aja
Rel dE m d E m2 dE m3 del 2 del 4
Lmin LMáxi % Q dof nd nd nd
mo d d

dE m
nd 8 128 0.6358 0.0127 0.91 0.45 0.61 5 1.0000 0.9809 0.9490 0.4401 0.4507
2
dE m
nd 8 128 0.6340 0.0086 0.63 0.46 0.71 5 0.9809 1.0000 0.9910 0.4357 0.4630
dE m3
nd 8 128 0.6326 0.0062 0.39 0.40 0.77 5 0.9490 0.9910 1.0000 0.4363 0.4639
del 2
d 32 128 0.6313 0.0020 0.20 0.62 0.54 3 0.4401 0.4357 0.4363 1.0000 0.9267
del 4
d 32 128 0.6330 0.0024 0.46 1.20 0.77 3 0.4507 0.4630 0.4639 0.9267 1.0000

¯ llanur incorr 0.6334 0.0038 0.52 0.85 1.0000 1.0000 1.0000 1.0000 1.0000
a Corr 0.0067 0.52 0.49

̄errar incorr 0.6322 0.0015 0.33 1.35 0.0106 0.0254 0.0503 0.5315 0.3823
Corr 0.0024 0.33 0.84

̄cov Corr 0.6300 0.0017 −0,01 −0,05 0.2485 −1,5805 1.6625 0.7948 −0,1253

los promedios ponderados de las estimaciones


correspondientes se enumeran en las dos primeras columnas
de datos del cuadro VI junto con sus desviaciones típicas,
siendo los resultados coherentes con el valor de referencia.
También probamos ajustes no lineales de tres parámetros del
formulario 28 a los datos, determinando y c
simultáneamente. Para este caso, la precisión de los datos no
es lo suficientemente alta como para incluir de manera
confiable correcciones a la escala. Aún así, los resultados
mejorados son consistentes con los valores de referencia de
Refs. 46,47, véanse las columnas centrales del cuadro VI.
Finalmente, también consideramos las dimensiones de
escala xh y xt. Para la dimensión de escala magnética,
encontramos que las determinaciones de xh=/ y xh=3/2−/2
son solo muy

066701-15
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010

débilmente correlacionados, de modo que los promedios deficiencias, en particular tan pronto como entran en juego
ponderados por error y ponderados por covarianza son muy pasos no paramétricos como la determinación de un máximo
similares, véase el lado derecho de la Tabla VI. Las mediante procedimientos de reponderación o ajuste. Estos
correlaciones más grandes están presentes nuevamente entre problemas se eluden recurriendo a la clase de esquemas de
las diferentes estimaciones de la dimensión de escala remuestreo no paramétricos, de los cuales hemos discutido la
energética xt de las diversas estimaciones de via xt= 3−1/ y la técnica de la navaja como un representante conceptual y
escala del calor específico a través de xt= 3/2−/ 2, lo que lleva prácticamente muy simple. Usando esta técnica, hemos
a una mejora considerable en la precisión de la media óptima esbozado un marco muy general de análisis de datos para
con respecto a los esquemas de ponderación simple y de simulaciones MCMC que consiste en una transformación del
errores. Los resultados para ambas dimensiones de escala son conjunto original de series de tiempo en un conjunto auxiliar
bien compatibles con los valores xh= 0.5181758 y xt= de series "binned", donde las muestras sucesivas son
1.413010 extraídos de los valores de referencia de Ref. 47. aproximadamente no correlacionadas en el tiempo y b un
CUADRO VI. Diferentes promedios para el modelo de Ising 3D y las desviaciones estándar asociadas para el acoplamiento de transición
c de ajustes de la forma 28 con = 0.6301 fijos, de ajustes no lineales de tres parámetros de la forma 28 que rinden y c simultáneamente, y
para las dimensiones de escala magnética y energética de acuerdo con Eq. 34. Los valores de referencia para xh y xt se han calculado a
partir de los valores =0,32653 y =0,63014 tomados de ref. 47 vía Eq. 34.
Eq. 28,=0,6301 Eq. 28 Eq. 34

xt
c c xh

̄llanura incorr 0.22165681 0.00000108 0.6020 0.0105 0.2216530 0.0000025 0.51364 0.00401 1.4137 0.0138
Corr 0.00000170 0.0150 0.0000032 0.00435 0.0184

̄errar incorr 0.22165741 0.00000059 0.6247 0.0062 0.2216550 0.0000008 0.51489 0.00381 1.4180 0.0038

Corr 0.00000114 0.0077 0.0000016 0.00413 0.0061

̄cov Corr 0.22165703 0.00000085 0.6381 0.0044 0.2216552 0.0000011 0.51516 0.00412 1.4121 0.0043

Referencia 0.22165459 0.00000006 0.6301 0.0004 0.22165459 0.00000006 0.51817 0.00058 1.4130 0.0010

VI. CONCLUSIONES marco general de jackknifing, donde los pasos requeridos para
Los datos de series temporales de las simulaciones de la calcular una estimación de parámetros, posiblemente
cadena de Markov Monte Carlo generalmente se analizan de incluyendo procedimientos de reponderación o ajuste, etc.: se
diversas maneras para extraer estimaciones para los realizan en la serie temporal subyacente completa, aparte de
parámetros de interés, como, por ejemplo, exponentes una pequeña ventana cortada del flujo de datos, lo que permite
críticos, temperaturas de transición, calores latentes, etc. una estimación confiable y robusta de las varianzas y
Siempre que al menos algunas de estas estimaciones se basen covarianzas, así como los efectos de sesgo sin ninguna
en los mismos datos de simulación, es inevitable un cierto aproximación no estocástica. Si bien esta técnica de análisis
grado de correlaciones cruzadas entre los estimadores. Hemos de datos no es nueva, creemos que aún no ha encontrado el
demostrado para el caso de un análisis de escalado de tamaño uso generalizado que merece y esperamos que la introducción
finito del modelo ferromagnético de peso más cercano en suave y detallada dada anteriormente contribuya a una
celosías cuadradas y cúbicas que la mayoría de las veces, tales adopción más amplia de este enfoque.
correlaciones son muy fuertes, con coeficientes de correlación Un ejemplo particular de dónde entra en juego la presencia
muy por encima de 0,8. Si bien tales correlaciones, aunque su de correlaciones cruzadas ocurre cuando se toman promedios
existencia es bastante obvia, se han descuidado de diferentes estimaciones para un parámetro de la misma
tradicionalmente en su mayoría incluso en estudios de base de datos. Descuidar las correlaciones allí conduce a
simulación numérica de alta precisión, se demostró aquí que estimaciones sistemáticamente erróneas, la mayoría de las
su presencia es importante en diferentes etapas del proceso de veces demasiado pequeñas, de errores estadísticos de los
análisis de datos, y descuidarlas conduce a estimaciones promedios resultantes y b una ponderación subóptima de los
sistemáticamente erróneas de fluctuaciones estadísticas, así valores individuales en el promedio que conduce a varianzas
como a una combinación no óptima de estimaciones mayores que innecesarias. Las varianzas correctas se pueden
individuales en promedios finales. estimar directamente a partir del enfoque de jackknifing,
En lo que respecta al análisis estadístico general de los mientras que la ponderación óptima implica el conocimiento
datos de simulación, se ha discutido que las prescripciones de la matriz de covarianza, que también es un subproducto
tradicionales, como la propagación de errores, tienen sus natural de la técnica de jackknife. Hemos discutido estos
066701-16
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010

conceptos con cierto detalle para el caso de un análisis de 50,51 o el muestreo de configuraciones de polímeros con
escala de tamaño finito de los puntos críticos de los modelos métodos de crecimiento en cadena 52,53.
2D y 3D ising. Se ve allí que los promedios simples y
ponderados por error más utilizados, de hecho, pueden tener RECONOCIMIENTOS
fluctuaciones mayores que las estimaciones individuales más
precisas que ingresan, pero este defecto no está siendo M.W. reconoce el apoyo del DFG a través del Programa
detectado por el análisis convencional debido a la Emmy Noether bajo el Contrato No. WE4425/1-1, así como
subestimación genérica de las varianzas. Por el contrario, el tiempo de computadora proporcionado por NIC Jülich bajo
mediante el uso de la ponderación verdaderamente óptima de la Subvención No. hmz18.
las estimaciones individuales, se puede lograr una reducción
a menudo sustancial de las fluctuaciones estadísticas en APÉNDICE: PROMEDIO ÓPTIMO DE DOS VARIABLES
comparación con el esquema de ponderación por errores. Para CORRELACIONADAS
algunos de los ejemplos considerados, una reducción de tres
veces en la desviación estándar, correspondiente a ahorrar un Considere un promedio general de dos variables aleatorias
aumento de aproximadamente diez veces en el tiempo de x1 y x2 17,
computadora necesario para lograr el mismo resultado con el
análisis convencional, se puede lograr esencialmente sin
sobrecarga computacional. En vista de estos resultados, las
reglas heurísticas como, por ejemplo, tomar un promedio
ponderado por error utilizando la desviación estándar única
más pequeña como estimación de error se encuentran
claramente inadecuadas. Por lo tanto, solo vemos dos formas
estadísticamente aceptables de tratar la existencia de varias
estimaciones para la misma cantidad: a seleccionar la
estimación más precisa y descartar el resto o b combinar todas
las estimaciones de una manera estadísticamente óptima
teniendo en cuenta las correlaciones cruzadas. No hace falta
decir que este último enfoque es generalmente preferible en el
caso de que conduce a resultados más precisos a costos muy
bajos.
Sugerimos utilizar la existencia de relaciones de escalado FIGURA 4. Color en línea Forma genérica de la varianza mínima
2
entre los exponentes críticos para el caso de una transición de ̄x de Eq. A3 en función del coeficiente de correlación .
fase continua para mejorar la precisión de las estimaciones
considerando las dimensiones de escala como los parámetros
de interés primario. La realización del análisis ̄x =x1 + 1 −x2,
correspondiente teniendo en cuenta las correlaciones donde 01. Según Eq. 21, la varianza de ̄x es
cruzadas, da como resultado un conjunto de exponentes
2
críticos con fluctuaciones estadísticas reducidas que cumplen ̄x =221 + 21 −12 + 1 −222, A1
exactamente las relaciones de escala. Una aplicación de este
tipo de enfoque sugerido inicialmente en la Ref. 19 para usar donde 21 y 22 son las varianzas de x1 y x2,respectivamente, y
relaciones de valor medio como las identidades de Callen o denota el coeficiente de correlación de x1 y x2, = 12/12. Eq.
las ecuaciones de Schwinger-Dyson en lugar de las relaciones A1 es una forma cuadrática en , que tiene un mínimo siempre
de escalado se ha discutido en ref. 20. que
Si bien los ejemplos discutidos fueron específicos, debe
21 + 22 − 212 0, que casi siempre
quedar claro que el método en sí es bastante genérico y debe
aplicarse a todos los conjuntos de datos generados a partir de se cumple desde −11:
simulaciones MCMC. En particular, es fácil prever
aplicaciones en la teoría de los fenómenos críticos, que va 21 + 22 − 212 1 − 22 0.
desde la mecánica estadística clásica 48 sobre la física de la
La igualdad se mantiene solo para 1=2= y = 1, en cuyo caso
materia blanda 4 hasta las transiciones de fase cuánticas 5 o
cualquier elección de produce la misma varianza 2̄x=2. En
para estudiar las transiciones de fase de primer orden 49. Sin
todos los demás casos, los pesos óptimos son
embargo, la gama de aplicaciones no se limita a las
simulaciones MCMC, sino que se aplica con pocas o ninguna 1/22 − /12
modificación a otros problemas de muestreo aleatorio, como,
= 1/2 + 1/22 − 2/12 ,
por ejemplo, los cálculos estocásticos de estado fundamental 1

066701-17
MARTIN WEIGEL Y WOLFHARD JANKE REVISIÓN FÍSICA E 81, 066701 2010

0,1−1 tan pronto como 1/2 resp. 2/1, dependiendo de si 12 o 21,


1 −= /21 + 11/22 − 21/2 12 , 1 A2 esdecir,
y la varianza resultante del promedio es sólo para correlaciones positivas fuertes a la derecha del
máximo en la Fig. 4. Por lo tanto, si el más pequeño de x1 y
1−2 x2 tiene la varianza más pequeña y ambos están fuertemente
correlacionados, el promedio está por debajo de ambos
A3 valores. Si el valor mayor tiene la varianza menor, el
2̄x = /21 + 1/22 − 2/12 .
promedio óptimo está por encima de ambos valores. La
1
asimetría viene aquí de la diferencia en la varianza. Para
1/2 − /
entender esto intuitivamente, supongamos, por ejemplo, que
x1x2 y 12 con fuertes correlaciones positivas 1/2. Lo más
probable, entonces, es que x1 y x2 se desvíen en la misma
dirección de la media verdadera x . Dado que 12, la
desviación de x1 debe ser genéricamente menor que la de x2.
Para x1x2, sin embargo, esto sólo es posible six x 1x2.
Esto se ilustra en la Fig. 5.
Una serie de observaciones son inmediatas
1 K. Binder y D. P. Landau, A Guide to Monte Carlo Simulations
i Para el caso no correlacionado =0, se vuelve a la media
in Statistical Physics,2ª ed. Cambridge University Press,
ponderada por error de Eqs.
Cambridge, 2005.
25 y 26.
2 B. A. Berg, Markov Chain Monte Carlo Simulations and Their
x2
Statistical Analysis World Scientific, Singapur, 2004.
3 W. Janke, en Computational Physics,editado por K. H. Hoffmann
x1 y M. Schreiber Springer, Berlín, 1996, pp. 10-43.
4 Advanced Computer Simulation Approaches for Soft Matter
Sciences,editado porC. Holm y K. Kremer Springer, Berlín,
2005, Vols. 1 y 2.
FIGURA 5. Para correlaciones positivas fuertes, es decir, para 1/2 5 M. Vojta, Rep. Prog. Phys. 66, 2069 2003.
en el caso 12,la ubicación más probable de la verdadera expectativa 6 J. Zinn-Justin, Quantum Field Theory and Critical Phenomena,4ª
x está fuera del corchete minx1,x2,maxx1,x2. ed. Oxford University Press, Oxford, 2002. 7 H. Kleinert y V.
4
Schulte-Frohlinde, Critical Properties of -Theories World
Scientific, Singapur, 2001.
ii En el caso correlacionado, y para las varianzas fijas 21 y 8 D. Kandel y E. Domany, Phys. Rev. B 43,8539 1991.
2
2
2,la varianza ̄x depende suavemente del coeficiente de
9 B. A. Berg y T. Neuhaus, Phys. Rev. Lett. 68, 9 1992.
correlación. Tiene máximos en 1/2 y 2/1,solo uno de los cuales
10 F. Wang y D. P. Landau, Phys. Rev. Lett. 86, 2050 2001.
está enel rango 1. En particular, el máximo relevante está
siempre en valores no negativos de . 11 M. E. Barber, en Phase Transitions and Critical
iii Para = 1, la varianza desaparece idénticamente,aparte Phenomena,editado por C. Domb y J. L. Lebowitz Academic
del caso singular 1=2 y = 1. Press, Nueva York, 1983, Vol. 8, pp. 146–266.
La forma genérica de 2̄x en función de se representa en la 12 A.M. Ferrenberg y R. H. Swendsen, Phys. Rev. Lett. 61, 2635
Fig. 4. En presencia de correlaciones moderadas, por lo tanto, 1988.
las anticorrelaciones son preferibles a las correlaciones en 13 B. Efron y R. J. Tibshirani, An Introduction to the Bootstrap
términos de reducción de la varianza del promedio. Tenga en Chapman and Hall, Boca Raton, FL, 1994.
cuenta que el resultado A3 es diferente del de Eq. 8 en Ref. 14 H. Flyvbjerg y H. G. Petersen, J. Chem. Phys. 91, 461
20, ya que la definición de coeficiente de correlación utilizada Año 1989.
allí es diferente de la de nuestra situación de tomar un
15 J.M. Hammersley y D.C. Handscomb, Monte Carlo Methods
promedio. En lugar de medir la correlación entre x1 y
Methuen, Londres, 1964.
x2,sudefinición se refiere a la correlación de x1 y x2−x1.
16 H. G. Ballesteros, L. A. Fernández, V. Martín-Mayor, and A.
Los pesos y 1−de Eq. A2 no están restringidos a estar entre
Muñoz Sudupe, Phys. Lett. B 387, 125 1996.
cero y uno. Es fácil ver que para 1 o 0, el promedio ̄x está de
hecho fuera del paréntesis. 17 W. Janke y T. Sauer, J. Chem. Phys. 107, 5821 1997.
minx1,x2,maxx1,x2. Este efecto aparentemente paradójico se 18 M. Weigel y W. Janke, Phys. Rev. B 62,6343 2000.
entiende fácilmente a partir de los pesos óptimos derivados 19 M. Weigel y W. Janke, Phys. Rev. Lett. 102, 100601 2009.
aquí. Desde Eq. A2 se lee que los pesos y 1− salen del rango
066701-18
ESTIMACIÓN Y REDUCCIÓN DE ERRORES CON CROSS … REVISIÓN FÍSICA E 81, 066701 2010

20 L. A. Fernández y V. Martín-Mayor, Phys. Rev. E 79, 051109 40 W. Janke y R. Kenna, Phys. Rev. B 65,064110 2002.
2009. 41 K. Aglutinante, Z. Phys. B 43, 119 1981.
21 N. Metropolis, A. W. Rosenbluth, M. N. Rosenbluth, A. H. Teller 42 M. E. Fisher, Rev. Mod. Phys. 70, 653 1998.
y E. Teller, J. Chem. Phys. 21, 1087 1953. 43 W. Janke y M. Weigel, Acta Phys. Pol.B 34,4891 2003. 44 M.
22 S. Brandt, Data Analysis: Statistical and Computational Methods Henkel, Conformal Invariance and Critical Phenomena Springer,
for Scientists and Engineers,3ª ed. Springer, Berlín, 1998. Berlín, 1999.
23 A. D. Sokal, en Functional Integration: Basics and 45 W. H. Press, S. A. Teukolsky, W. T. Vetterling y B. P. Flannery,
Applications,Proceedings of the1996 NATO Advanced Study Numerical Recipes: The Art of Scientific Computing,3ª ed.
Institute in Cargèse, editado por C. DeWitt-Morette, P. Cartier Cambridge University Press, Cambridge, 2007.
y A. Folacci Plenum Press, Nueva York, 1997, págs. 131-192. 46 H. W. J. Blöte, L. N. Shchur y A. L. Talapov, Int. J. Mod.
24 M.B. Priestley, Spectral Analysis and Time Series Academic Phys. C 10, 1137 1999.
Press, Londres, 1996. 47 A. Pelissetto y E. Vicari, Phys. Rep. 368,549 2002.
25 A. D. Sokal y L. E. Thomas, J. Stat. Phys. 54, 797 1989. 48 K. Binder y D. W. Heermann, Monte Carlo Simulation in
26 K. Binder, en Phase Transitions and Critical Phenomena,editado Statistical Physics: An Introduction Springer, Berlín, 1988.
por C. Domb y M. S. Green Academic Press, Nueva York, 1976, 49 W. Janke, en Computer Simulations of Surfaces and
Vol. 5b, pp. 1-105. Interfaces,NATO Science Series II. Mathematics, Physics, and
27 N. Madrás y A. D. Sokal, J. Stat. Phys. 50, 109 1988. Chemistry Vol. 114, editado por B. Dünweg, D. P. Landau y A.
28 K. G. Wilson, en Recent Developments in Gauge I.
Theories,editado por G. 't Hooft, Proceedings of the 1979 Milchev Kluwer Academic, Dordrecht, 2003, pp. 111-135.
NATO Advanced Study Institute in Cargèse Plenum Press, 50 M. Weigel, Phys. Rev. E 76,066706 2007.
Nueva York, 1980, pp. 363-402. 51 M. Weigel y M. J. P. Gingras, Phys. Rev. B 77,104437
29 B. Efron, The Jackknife, the Bootstrap, and Other Resampling Año 2008.
Plans Society for Industrial and Applied Mathematics, 52 P. Grassberger, Físico. Rev. E 56, 3682 1997.
Filadelfia, 1982 SIAM. 53 M. Bachmann y W. Janke, Phys. Rev. Lett. 91, 208105
30 A.M. Ferrenberg y R. H. Swendsen, Phys. Rev. Lett. 63, 1195 Año 2003.
1989.
31 W. Janke, en Proceedings of the Euro Winter School "Quantum
Simulations of Complex Many-Body Systems: From Theory to
Algorithms",NIC Series Vol. 10, editado por J. Grotendorst, D.
Marx y A. Muramatsu John von Neumann Institute for
Computing, Jülich, 2002, pp. 423–445.
32 Obsérese que, cuando se utiliza el método de Wang-Landau como
estimación directa de la densidad de estados que se utilizará para
calcular los valores de expectativa térmica, debido a la
naturaleza no markoviana del algoritmo, actualmente no existe
un enfoque conocido de estimar de manera confiable las
fluctuaciones estadísticas actuales, aparte de repetir todo el
cálculo un cierto número de veces.
33 Obsérese que los Eqs. 4 y 5 de la Ref. 20 contienen algunos
errores, pero Eq. 7 y la implementación 24 son correctas.
34 B. A. Berg, Informática. Físico. Común. 69, 7 1992.
35 U. Wolff, Phys. Rev. Lett. 62, 361 1989.
36 A.M. Ferrenberg y D. P. Landau, Phys. Rev. B 44,5081
1991. 37 H. G. Ballesteros, L. A. Fernández, V. Martín-Mayor,
and A.
Muñoz Sudupe, Phys. Lett. B 378, 207 1996.
38 M. Hasenbusch, J. Phys. A 32, 4851 1999.
39 V. Privman, en Finite Size Scaling and Numerical Simulation of
Statistical Systems,editado por V. Privman World Scientific,
Singapur, 1990, pp. 1-98.

066701-19

También podría gustarte