Está en la página 1de 1

En teoría de probabilidad, la varianza o variancia (que suele representarse

como σ 2 {\displaystyle \sigma ^{2}} ) de una variable aleatoria es una


medida de dispersión definida como la esperanza del cuadrado de la
desviación de dicha variable respecto a su media.
Su unidad de medida corresponde al cuadrado de la unidad de medida de la
variable: por ejemplo, si la variable mide una distancia en metros, la varianza
se expresa en metros al cuadrado. La varianza tiene como valor mínimo 0. La
desviación estándar (raíz cuadrada de la varianza) es una medida de
dispersión alternativa, expresada en las mismas unidades que los datos de la
variable objeto de estudio.
Hay que tener en cuenta que la varianza puede verse muy influida por los
valores atípicos y no se aconseja su uso cuando las distribuciones de las
variables aleatorias tienen colas pesadas. En tales casos se recomienda el uso
de otras medidas de dispersión más robustas.
El término varianza fue acuñado por Ronald Fisher en un artículo publicado
en enero de 1919 con el título The Correlation Between Relatives on the
Supposition of Mendelian Inheritance.1

También podría gustarte