Está en la página 1de 6

Distribución estadística

Una distribución estadística, o distribución de probabilidad, describe cómo se distribuyen los valores para un campo. En
otras palabras, la distribución estadística muestra qué valores son comunes y poco comunes.

Hay muchos tipos de distribuciones estadísticas, incluyendo la distribución normal en forma de campana. Utilizamos una
distribución estadística para determinar la probabilidad de que sea un valor particular. Por ejemplo, si tenemos un valor
chi-cuadrado, podemos utilizar la distribución chi-cuadrado para determinar qué probabilidad tiene este valor chi-
cuadrado.

La probabilidad de cada uno de los posibles valores que puede tomar un estadístico en muestras extraídas al azar viene
dada por una función matemática denominada distribución muestral, que depende del estadístico en cuestión. Se habla así,
por ejemplo, de la distribución muestral de la media aritmética o de la distribución muestral de la proporción.

Una distribución muestral es una función de probabilidad, ya que asigna a cada posible valor de un estadístico su
probabilidad de aparecer en una muestra extraída al azar. En realidad, esta definición es estrictamente cierta solo cuando
la variable toma valores discretos; por ejemplo, cuando procede de un contaje y sus posibles valores son 0, 1, 2, 3, etc.
Cuando el valor del estadístico muestral es una variable continua, la distribución muestral correspondiente se
denomina función de densidad de probabilidad. La probabilidad en este caso corresponde gráficamente a un área bajo la
curva de esa función, delimitada por un cierto intervalo de la variable. Analíticamente, esa área se calcula como la integral
de la función entre los límites del intervalo de la variable, que en la práctica se obtiene con un ordenador o se consulta en
una tabla. El área total bajo la curva, que se extiende a todos los posibles valores de la variable, es siempre uno, que
corresponde a la probabilidad de un suceso seguro.

Error típico
Sirve para establecer un margen en torno a la PUNTUACIÓN real obtenida por un estudiante en una
prueba. Dentro de dicho margen deberían localizarse todas sus posibles puntuaciones en caso de que
el estudiante repitiese varias veces la prueba. El error estándar vendría siendo la desviación
típica (DESVIACIÓN ESTÁNDAR) de una DISTRIBUCIÓN hipotética de puntuaciones posibles.
En ESTADÍSTICA, el error típico o estándar sirve para indicar el intervalo de confianza con respecto a
la FIABILIDAD de los cálculos realizados sobre una MUESTRA; en otras palabras, determina el grado en
que la ESTIMACIÓN de una muestra puede diferir con respecto al PARÁMETRO de una POBLACIÓN. El
término se emplea comúnmente para aludir al llamado error estándar de la media, que se refiere a
cuánto puede desviarse la MEDIA de la muestra analizada con respecto a la media de la población total.
Se halla dividiendo la desviación típica entre la raíz cuadrada del número de individuos de la muestra.
Un buen intervalo para estimar la media de la población es el que resulta de restar y sumar a la media
de la muestra dos veces su error estándar. 
Un error típico se refiere a las variaciones que son a menudo inevitables. El error típico puede
definirse también como la variación producida por factores distorsionantes tanto conocidos como
desconocidos.

Otra pregunta sería, ¿cómo calcular el error típico en estadística?


Se halla dividiendo la desviación típica entre la raíz cuadrada del número de individuos de la muestra.
Un buen intervalo para estimar la media de la población es el que resulta de restar y sumar a la media
de la muestra dos veces su error estándar.

Tipos de error[editar]
Se pueden definir los siguientes tipos de error:

 Error de tratamiento. Debido a la incapacidad de replicar o repetir el tratamiento desde una aplicación a la
siguiente.

 Error de estado. Debido a cambios aleatorios en el estado físico de las unidades experimentales.

 Error de medida. Debido a las impresiones en el proceso de medición o recuento.

 Error de muestreo. Debido a la selección aleatoria de unidades experimentales para la investigación.

 Error experimental. Está asociado a una unidad experimental, refleja las diferencias entre las múltiples unidades
experimentales, es decir, una unidad experimental no puede ser replicada en forma exacta.

 Error observacional. Está asociado a las unidades observacionales; es un reflejo del error de medición y del error
del muestreo (además de otros factores).

Error típico (o error estándar)


Las investigaciones rara vez se hacen sobre el conjunto de la población; lo habitual es realizarlas en un subconjunto
(muestra) de ella. Esta práctica está justificada porque la teoría estadística establece que, si la muestra se selecciona
aleatoriamente, sus características (forma de la distribución, media, desviación estándar, etc.) son parecidas a las de la
población y tanto más parecidas cuanto mayor sea la muestra.

En la figura 2 se representa el histograma de la edad de una muestra aleatoria de 100 individuos extraída de la población
representada en la figura 1 A (que eran 100.000 individuos). Obsérvese que es parecido al de la población aunque, por
ejemplo, su ajuste a la curva normal es peor.
En esta muestra, la media y la desviación estándar son 46,2 y 14,7 respectivamente, también parecidas a las de la
población. Si se tomara otra muestra aleatoria se obtendrían otros valores distintos, aunque probablemente
también parecidos a los de la población (que son 44,5 de media y 14,9 desviación estándar).

El error estándar de la media (en inglés “standard error of the mean”; SEM o SE) es el valor que cuantifica cuánto se
apartan los valores de la media de la población. Es decir, el error estándar de la media cuantifica las oscilaciones de la
media muestral (media obtenida en base a los datos medidos en la muestra utilizada) alrededor de la media
poblacional (verdadero valor de la media). Es una medida del error que se comete al tomar la media calculada en una
muestra como estimación de la media de la población total.

A partir del error estándar se construye el intervalo de confianza de la medida correspondiente.

1) El error estándar de la media estimado en la muestra del ejemplo es 1,47. Se calcula dividiendo la desviación estándar
por la raíz cuadrada del tamaño muestral 14,7/√100=14,7/10

2) Calculado a partir de él, el intervalo de confianza al 95% para la media va desde 43,3 a 49,1

Límite inferior = media - 1,96 veces el error estándar = 46,2 – 1,96 * 1,47 = 43,3 (límite inferior)

Límite superior = media + 1,96 veces el error estándar = 46,2 + 1,96 * 1,47 = 49,1 (límite superior)

Este es uno de los métodos estadísticos que exige normalidad de la población. Quiere decir que podemos afirmar, con una
confianza del 95%, que la media poblacional está incluida en dicho intervalo. Compárese con el valor de la media
poblacional (verdadero valor de la media) que, en este ejemplo y en contra de lo que ocurre en las investigaciones reales,
es conocido. Vemos que el valor verdadero (44,5 años) está dentro del intervalo de confianza que habíamos calculado (43,3
– 49,1). Por tanto, hablar de una confianza del 95% significa que en el 95% de las posibles muestras que podríamos tomar
de la población total, la edad media (44,5) estaría contenida en el intervalo construido.

DISTRIBUCIÓN MUESTRAL DE MEDIAS

Cada muestra de tamaño n que podemos extraer de una población proporciona una media. Si consideramos cada una de
estas medias como valores de una variable aleatoria podemos estudiar su distribución que llamaremos distribución
muestral de medias.

 Si tenemos una población normal N(m,s) y extraemos de ella muestras de tamaño n, la distribución muestral de
medias sigue también una distribución normal

 Si la población no sigue una distribución normal pero n>30, aplicando el llamado Teorema central del límite la
distribución muestral de medias se aproxima también a la normal anterior.

En las últimas entregas hablamos de la distribución de probabilidades de datos individuales. Pero en la práctica cotidiana de
la investigación no trabajamos para ubicar en una distribución los datos individuales que ya tenemos; para saber si un valor
tiene alta o baja probabilidad de ocurrencia bastaría en este caso con ordenar todos los valores de menor a mayor y ver
qué lugar ocupa en la distribución, cuán cercano está a la media o la mediana.
Cuando hacemos investigación nos interesa inferir si los hallazgos de un grupo de pacientes son similares a los de la
población general, o a los de otro grupo, o bien si se trata de valores distintivos. Para inferir si hay o no diferencias es que
resulta fundamental trabajar con la distribución muestral de medias.

Cuando en una población se toma una muestra y se mide una variable continua, se obtiene un conjunto de mediciones que
puede resumirse en un valor de media. Si se toma otra muestra de la misma medición se obtendrá otra media. Puede
intuirse entonces que podemos tomar infinitas muestras y obtener por lo tanto infinitas medias. Esas medias por lo tanto
constituyen a su vez una variable continua, que como toda variable continua tiene determinada distribución de
probabilidades.

Algunas características de la distribución muestral de la Media

1) La variación de la distribución muestral es menor cuanto mayor sea n (tamaño de la muestra) siempre que la Varianza de
la población sea la misma.

Explicación: La fórmula de la Varianza de la distribución muestral de la Media es:

cuanto mayor es el denominador (n), más pequeño es el valor del término a la izquierda del "igual".

Ejemplo

A continuación se presenta las Varianzas y los Histogramas de tres distribuciones muestrales de la Media (número de
muestras=100) en que los tamaños de las muestras son n=25, n= 100 y n=1000.

n=25

Varianza= 0.43

n=100

Varianza= 0.11
n= 1000

Varianza= 0.01

Los valores de la Varianza de la distribución de Medias muestrales son inferiores y la dispersión observada en los
Histogramas (ver en el eje horizontal que la amplitud de la variable disminuye) cuanto mayor es n.

2) Cuando la distribución de Medias muestrales aproxima la distribución Normal, podemos obtener probabilidades de las
Medias muestrales.

Diferencia muestral de dos medias

https://es.khanacademy.org/math/ap-statistics/sampling-distribution-ap/xfb5d8e68:sampling-distribution-diff-means/a/
diff-sample-means-probability-examples

Dos poblaciones que sigan distribuciones normales  N(μ1, σ1) y  N(μ2, σ2), o bien, si ambas poblaciones tienen
distribuciones cualesquiera con media μ1 y μ2, desviaciones típicas σ1 y σ2, y las respectivas muestras son de tamaño n1 y
n2, suficientemente grandes, entonces la distribución muestral de diferencia de medias sigue una distribución normal:
Tema 2
Diferencia entre estimador y estimación https://www.uv.es/ceaces/tex1t/4%20estimacion/estiesti.htm

El estimador es la versión genérica de una estimación, esto es, la estimación que se obtendría para la propia muestra
aleatoria simple. Un estimador no es, por tanto, un número, sino una función de una variable aleatoria n-

dimensional,  , y por tanto, una variable aleatoria.

LA ESTIMACION , como proceso, consiste en que dada una población que siga una distribución de cierto tipo con función de

probabilidad (de cuantía o de densidad)    f( X,  ) dependiente de un parámetro o varios desconocido(s) "  ",


aventurar en base a los datos muestrales el valor que toma o puede tomar el parámetro o parámetros .

UN ESTIMADOR  (x) es una función de una muestra genérica

x=[x 1,x2 , ,...,x n ], es decir , un estadístico que utilizaremos para estimar el valor del parámetro . Por tanto es una variable
aleatoria y será necesario para la estimación conocer la distribución muestral del estimador.

Una estimación es un valor numérico específico para un estimador, que resulta de lamuestra particular que se está
observando.

También podría gustarte