Está en la página 1de 5

Momentos lineales (L-moments)

Los mementos lineales (L-moments), constituyen una metodología moderna que permita
estimar los parámetros estadísticos de una población o de una muestra. Son similares a los
momentos ordinarios pues proporcionan las medidas de localización, dispersión asimetría,
curtosis, pero se calculan de las combinaciones lineales de los datos (de aquí el nombre de
momento lineal). Los parámetros estadísticos estimados con esta metodología, son menos
sensibles a los valores extremos, por lo que permite determinar la distribución teórica de
probabilidad que mejor ajusta a los datos analizados.
Método tradicional
Por este método la media aritmética, la varianza, la desviación estándar, el coeficiente de
variación, el coeficiente de asimetría y el coeficiente de curtosis de una población,
constituida por “n” valores de la variable aleatoria X, se definen de la siguiente manera:

 Media aritmética,  :
n

X i
 i 1
n
 Varianza, σ 2:
σ 2=¿
 Desviación estándar, σ :
σ =√ σ 2
 Coeficiente de variación, CV:
σ
CV =
u
 Coeficiente de asimetría o coeficiente de sesgo, CS:
n

(X i 1
i   )3

CS  n
3
 Coeficiente de curtosis, CK:
n

(X
i 1
i   )4

CK  n
4
Es conveniente recordar que en el caso de una distribución simétrica, como la normal, el
coeficiente de asimetría es cero. Las distribuciones con coeficiente de asimetría positivo
están sesgadas hacia la derecha (cola larga hacia la derecha), mientras que las que tienen
coeficiente de asimetría negativo están sesgados hacia la izquierda (cola larga hacia la
izquierda). Además, la distribución normal tiene un coeficiente de curtosis igual a 3 y se le
llama mesocúrtica; las distribuciones con curtosis mayor de 3 se llaman leptocúrticas, las
que tienen curtosis menor de 3 se llaman platicúrticas.
En este método tradicional la dispersión de los datos se calcula con respecto a un valor
central, la media aritmética; es decir, se calculan las diferencias de cada uno de los datos
con respecto a la media aritmética, elevándose luego estas diferencias a una potencia según
el parámetro estadístico por calcular (por ejemplo, para el cálculo de la varianza de la
potencia es 2; para el coeficiente de asimetría es 3, etc.). En consecuencia, los parámetros
así calculados son muy sensibles a los valores extremos, puesto que, si la diferencia de
alguno o de algunos de los datos con respecto a la media es muy grande, al elevar esa
diferencia a una potencia se obtienen valores enormes, lo cual afecta mucho el resultado de
los parámetros obtenidos. Puesto que los parámetros estadísticos citados constituyen la base
para la determinación de las distribuciones teóricas de probabilidad que mejor se ajustan al
comportamiento de los datos, también se ve afectada la escogencia de una distribución
teórica apropiada. En ocasiones, un solo valor extremo muy diferente de la media
aritmética impide determinar cuál es la distribución teórica de probabilidad que mejor se
ajusta a los datos analizados.
Por el método de momentos lineales la dispersión no se calcula con respecto a un valor
central, si no que se calculan las diferencias de todos los datos entre sí, considerando todas
las posibles combinaciones. Además, las diferencias nunca se elevan a ninguna potencia, se
manifiestan lineales, por lo cual los parámetros estimados por este método son menos
sensibles a los valores extremos.
Definición de los momentos lineales
Jonathan R. M. Hosking (1990) desarrolló la teoría de los mementos lineales basada en el
ordenamiento estadístico, a diferencia de los cálculos indirectos usando la probabilidad de
los momentos pesados. Hosking definió los 4 primeros momentos lineales de la siguiente
forma:

1  E  X 1:1 
1
2  E  X 2:2  X 1:2 
2
1
3  E  X 3:3  2 X 2:3  X 1:3 
3
1
4  E  X 4:4  3 X 3:4  3 X 2:4  X 1:4 
4
dónde :
X j:m 

Es el j-ésimo valor de la variable aleatoria X, de un grupo de tamaño m, cuyos valores han


sido ordenados en forma ascendente.
E = valor esperado
El primer momento lineal 1 representa la media aritmética de la muestra, es una medida de
localización y su valor es el mismo que el calculado por el método tradicional. El segundo
momento lineal 2 es equivalente a la desviación estándar pero calculada mediante las
diferencias de todos los datos entre sí, no con respecto a un valor central; es un parámetro
de escala o dispersión de la variable aleatoria X.
Dividiendo el segundo momento lineal entre el primer momento lineal (desviación estándar
entre la media), se obtiene el coeficiente lineal de variación (CLV), es decir:

CLV= 2 / 1
Que toma los valores entre 0y 1.
Dividiendo el momento lineal de orden r, entre la medida de dispersión, se obtiene la
relación de momentos, es decir:

r= 1 / 2
para r=3, 4,...

El t3 es una medida de asimetría y t4 es una medida de curtosis, estas son respectivamente el


coeficiente lineal de asimetría o sesgo (CLS) y el coeficiente lineal de curtosis (CLK), es
decir:

t3= 3 / 2

t4= 4 / 2
Ellos toman valores entre -1 y +1 (existe excepción para algunas muestras muy pequeñas,
las cuales pueden tener valores menores de -1). Si es casi seguro que X  0, entonces
0<CLV<1. En el caso de una distribución normal, t3 es igual a cero, mientras que para esta
misma distribución, t4= 0.1226
Estimado directo de los momentos lineales
Existe una manera indirecta para el cálculo de los momentos lineales, la cual es utilizar los
momentos pesados por probabilidad, definido por Greenwood et al. Sin embargo una forma
de estimar momentos lineales, es siguiendo la definición misma de los momentos lineales
desarrollada por Hosking.

El cálculo de 2 , para una población finita de tamaño n, se realiza con la combinación de n


elementos tomados de grupos de 2 en 2 (C2n), tomando en todos los casos la diferencia entre
el valor mayor (X2:2), menos el menor (X1:2).

El cálculo de 3 , se realiza en forma similar considerando todas las posibles combinaciones


de n elementos tomados en grupos de 3 en 3 (C 3n), en este caso, cada elemento del valor
esperado está dado por el valor mayor (X3:3), menos 2 veces el valor intermedio (X1:3), es
decir: (X3:3-2X2:3-X1:3).

Similarmente, el cálculo de 4 , se obtiene de las combinaciones de n elementos tomados de


grupos de 4 en 4 (C4n), en este caso, cada elemento del valor esperado está compuesto del
valor mayor (X4:4), menos 3 veces el valor inmediato inferior del grupo (X 1:4), es decir:
(X4:4-3X3:4-3X2:4-X1:4).
Cuando la población es reemplazada por una muestra, los momentos lineales dan sus
respectivos estimados.
Dado que los resultados de los posibles números de combinaciones de (C 2n), 3 (C3n) y 4
(C4n), valores de la muestra, pueden ser cantidades grandes, esto hace que los cálculos de
los momentos lineales sea un poco laborioso. En este caso, a fin de simplificar los cálculos,
Hosking muestra el conjunto de ecuaciones equivalentes de estimación directa de los
momentos lineales, las cuales resultan más sencillas para implementar cálculos
computacionales, las ecuaciones simplificadas son:

1 n
1   Xi
c1n i1

1 1 n
2   (C1i1  C1ni ) X i
2 c2n i 1

1 1 n
3   (Ci21 2C1i1C1ni  C2ni ) X i
3 c3n i 1

1 1 n i 1
4   (C3 3Ci21C1ni  3Ci21C2ni  C3ni ) X i
4 c4n i 1

Dónde:
Xi (para i=1,2,3,…,n)=son los valores de la muestra ordenados ascendentemente

Cnk =combinaciones de n elementos en grupos de k en k

C nk   n
k   k !(nn! k )!  n(n  1)(n  k2)...(
!
n  k  1)

Para k<n

Si k  n  Cn  1
n

Si k>n
 C nk  0

Por propiedad de los números combinatorios, se tiene:


C nk  C nnk

C nn  Cnnn  C0n  1

La derivación de las ecuaciones 1 y 4 se explica detalladamente tomando como ejemplo


el estimador de 3 en una muestra de tamaño n, ordenada ascendentemente, hay (i-1)
valores iguales o más pequeños y (n-i) valores iguales o más grandes que el valor de la
muestra Xi. Para que Xi se un valor más grande de una combinación de 3 valores de la
muestra, los otros dos tiene que venir de los (i-1) valores más pequeños y hay un total de
Ci2 1 de tales combinaciones. Para que X sea el segundo más grande de una combinación de
i
tres valores de una muestra, los otros dos tienen que venir de los (i-1) valores más pequeños
i 1 n i
y de (n-i) valores más grandes, y hay un total de C1 C1 de tales combinaciones. Para que
Xi sea el valor más pequeño de una combinación de 3 valores de una muestra, los otros dos
n i
tienen que venir de los (n-i) valores más grandes, y hay un total de C2 de tales
combinaciones.

1 1 n
n 
3  (Ci21  2C1i 1C1ni  C n2i ) X i
La ecuación de 3 c3 i 1 , es derivada de la ecuación
1
3  E  X 3:3  2 X 2:3  X 1:3  i1 i 1 n i n i
3 , reemplazando X3:3, X2:3 y X1:3 por Xi para C 2 , C1 C1 y C2
veces respectivamente, y haciendo para todos los casos i=1,2,3,…,n, luego dividiéndolo
entre el número de todas las posibles combinaciones de 3 valores de la muestra de tamaño
n
n, es decir C3 , para obtener el promedio. Los otros momentos lineales se derivan de
manera similar.

Los cálculos de los momentos lineales 1 , 2 , 3 , 4 , con el uso de calculadoras e incluso de


la computadora, resulta bastante complejo. Con el fin de simplificar éstos cálculos, en la
tabla 3.3 se presenta el código fuente en Basic, de la subrutina que calcula estos momentos,
también se incluyen los cálculos de los parámetros estadísticos lineales. En el código
L1  1 , L 2  2 , L3  3 , L4  4 , y xxord(j) es la serie ordenada en forma ascendente.