Está en la página 1de 9

UNIVERSIDAD AUTÓNOMA CHAPINGO

DEPARTAMENTO DE INGENIERÍA AGROINDUSTRIAL


ESTADÍSTICA
TAREA: ESTADÍSTICAS DESCRIPTIVAS, DEFINICIÓN Y FÓRMULA.
Alumno: Carlos Mauricio Montiel Flores. 4°1.

-De tendencia central:


Media aritmética: Media (media aritmética): es el promedio con el que probablemente el
lector esté más familiarizado. La media muestral se representa por x (léase “x barra”
o “media muestral”). La media se encuentra al sumar todos los valores de la variable x, y
dividir la suma entre el número de estos valores, n (el “tamaño muestral”).

Media ponderada: La media ponderada es un tipo de media que otorga diferentes pesos a
los distintos valores sobre los que se calcula.
Una de las medias más utilizadas por su versatilidad es la media ponderada. Se diferencia de
la media aritmética en que no le da la misma importancia a todos los valores. De hecho, como
veremos más tarde, en realidad la media aritmética es una media ponderada en la que todos
los valores son igual de importantes

Media podada: La media podada es una medida más resistente que la media a la presencia
de valores anormales. Para calcular la Media Podada, primero se ordenan los datos en forma
creciente y luego se elimina un cierto porcentaje de datos (redondear si no da entero) en cada
extremo de la distribución, finalmente se promedian los valores restantes.
Media Windsor: Otra variante de la media aritmética que se suele utilizar para evitar el
excesivo protagonismo de los datos extremos consiste en sustiruir los datos extremos superior
e inferior por sus inmediatos anteriores. Posteriormente se calcula la media aritmética de
todos los datos así actualizados.
En el caso anterior se tendría: 7, 6, 6, 5, 10, 8 y 5. La nota más elevada es 10 y se actualiza a
8. La nota más pequeña es 5 y se actualiza a 5.
Media armónica: La media armónica es igual al número de elementos de un grupo de cifras
entre la suma de los inversos de cada una de estas cifras.
En otras palabras, la media armónica es una medida estadística recíproca a la media
aritmética, que es la suma de un conjunto de valores entre el número de observaciones.

Mediana: La mediana es el valor que ocupa el lugar central de todos los datos cuando éstos
están ordenados de menor a mayor. Se representa por . Se puede hallar solo
para variables cuantitativas.

Ordenamos los datos de menor a mayor. Si la serie tiene un número impar de medidas la
mediana es la puntuación central de la misma

Si la serie tiene un número par de puntuaciones la mediana es la media entre las dos
puntuaciones centrales.

Moda: La moda estadística de un conjunto de datos, se define como el número que está
representado más veces dentro de esos datos, es decir, aquel número que presenta una mayor
frecuencia absoluta dentro de la muestra.
Cuantiles: Un cuantil es aquel punto que divide la función de distribución de una variable
aleatoria en intervalos regulares.
Por tanto, no es más que una técnica estadística para separar los datos de una distribución.
Eso sí, debe cumplirse que los grupos sean iguales. Por eso, existen diversos tipos de cuantil,
como veremos más adelante, en función del número de particiones que hacen.

Los cuantiles pueden calcularse desde un punto de vista paramétrico y no paramétrico.


Veamos ambos con mayor detalle y también la llamada «función cuantil».
• Paramétricos: Se utilizan en distribuciones cuya forma conocemos. Es decir, la
distribución será normal, uniforme, exponencial, etcétera. De esta forma, se asume
que es conocida y sus principales parámetros (media aritmética y varianza) también.
• No paramétricos: Es adecuado con muestras pequeñas en las que es difícil saber su
forma exacta y, por tanto, no conocemos su función de distribución. Este método
aporta valores similares al anterior cuando la muestra aumenta y, por tanto, es
indiferente el uso de ambos.
• Función cuantil: Estamos ante una forma de cálculo de tipo probabilístico. El objetivo
es calcular un valor que tenga una probabilidad determinada en una función de
distribución.

-De dispersión:

Desviación media: La desviación respecto a la media es la diferencia entre cada valor de la


variable estadística y la media aritmética.

Di = x - x
La desviación media es la media aritmética de los valores absolutos de las desviaciones
respecto a la media.
La desviación media se representa por

Varianza: La varianza es la media aritmética del cuadrado de las desviaciones respecto a la


media de una distribución estadística.

La varianza se representa por .

Desviación estándar: La desviación estándar o desviación típica es la raíz cuadrada de la


varianza.
Es decir, la raíz cuadrada de la media de los cuadrados de las puntuaciones de desviación.
La desviación estándar se representa por σ.

Error estándar:
El error estándar de la media (SEM, en notación en inglés, por standard error of the mean)
puede ser expresado como:

donde
σ es la desviación estándar de la población
n es el tamaño (número de observaciones) de la muestra.
La asimetría es la medida que indica la simetría de la distribución de
una variable respecto a la media aritmética, sin necesidad de hacer la representación gráfica.
Los coeficientes de asimetría indican si hay el mismo número de elementos a izquierda y
derecha de la media.

Existen tres tipos de curva de distribución según su asimetría:

• Asimetría negativa: la cola de la distribución se alarga para valores inferiores a


la media.
• Simétrica: hay el mismo número de elementos a izquierda y derecha de la media.
En este caso, coinciden la media, la mediana y la moda. La distribución se adapta
a la forma de la campana de Gauss, o distribución normal.
• Asimetría positiva: la cola de la distribución se alarga (a la derecha) para valores
superiores a la media.
El coeficiente de asimetría de Fisher CAF evalúa la proximidad de los datos a
su media x. Cuanto mayor sea la suma ∑(xi–x)3, mayor será la asimetría. Sea el
conjunto X=(x1, x2,…, xN), entonces la fórmula de la asimetría de Fisher es:
Cuando los datos están agrupados o agrupados en intervalos, la fórmula del coeficiente
de asimetría de Fisher se convierte en:

• Si CAF<0: la distribución tiene una asimetría negativa y se alarga a valores


menores que la media.
• Si CAF=0: la distribución es simétrica.
• Si CAF>0: la distribución tiene una asimetría positiva y se alarga a valores
mayores que la media.
Coeficiente de asimetría de Pearson

El coeficiente de asimetría de Pearson CAP mide la diferencia entre la media y


la moda respecto a la dispersión del conjunto X=(x1, x2,…, xN).

Este procedimiento, menos usado, lo emplearemos solamente en distribuciones


unimodales y poco asimétricas.

• Si CAP<0: la distribución tiene una asimetría negativa, puesto que la media es


menor que la moda.
• Si CAP=0: la distribución es simétrica.
• Si CAP>0: la distribución tiene una asimetría positiva, ya que la media es mayor
que la moda.

Coeficiente de asimetría de Bowley

El coeficiente de asimetría de Bowley CAB toma como referencia los cuartiles para
determinar si la distribución es simétrica o no. Para aplicar este coeficiente, se supone que el
comportamiento de la distribución en los extremos es similar. Sea el conjunto X=(x1, x2,…,
xN), la asimetría de Bowley es:

La curtosis (o apuntamiento) es una medida de forma que mide cuán escarpada o


achatada está una curva o distribución.

Este coeficiente indica la cantidad de datos que hay cercanos a la media, de manera que
a mayor grado de curtosis, más escarpada (o apuntada) será la forma de la curva.

La curtosis se mide promediando la cuarta potencia de la diferencia entre cada elemento


del conjunto y la media, dividido entre la desviación típica elevado también a la cuarta
potencia. Sea el conjunto X=(x1, x2,…, xN), entonces el coeficiente de curtosis será:
En la fórmula se resta 3 porque es la curtosis de una distribución Normal. Entonces la
curtosis valdrá 0 para la Normal, tomándose a ésta como referencia.

Cuando los datos están agrupados o agrupados en intervalos, la fórmula del coeficiente
de curtosis se convierte en:

La covarianza es el valor que refleja en qué cuantía dos variables aleatorias varían de forma
conjunta respecto a sus medias.
Nos permite saber cómo se comporta una variable en función de lo que hace otra variable.
Es decir, cuando X sube ¿Cómo se comporta Y? Así pues, la covarianza puede tomar los
siguiente valores:

Covarianza (X,Y) es menor que cero cuando “X” sube e “Y” baja. Hay una relación negativa.

Covarianza (X,Y) es mayor que cero cuando “X” sube e “Y” sube. Hay una relación positiva.

Covarianza (X,Y) es igual que cero cuando no hay relación existente entre las variables “X”
e “Y”.

Cálculo de la covarianza

La fórmula de la covarianza se expresa como sigue:

La correlación es una medida estadística que expresa hasta qué punto dos variables están
relacionadas linealmente (esto es, cambian conjuntamente a una tasa constante). Es una
herramienta común para describir relaciones simples sin hacer afirmaciones sobre causa y
efecto.

El coeficiente de correlación de la muestra, r, cuantifica la intensidad de la relación. Las


correlaciones también se someten a pruebas para establecer su significancia estadística.

Tipos de frecuencias
Frecuencia absoluta: La frecuencia absoluta o simplemente frecuencia es el número de veces
que aparece un determinado valor en un estudio estadístico. Se representa por 𝑓𝑖 , aunque
otros autores la representan como 𝑛𝑖 . La suma de las frecuencias absolutas es igual al número
total de datos, que se representa con la letra 𝑁. Para indicar resumidamente estas sumas se
utiliza la letra griega 𝛴 (sigma mayúscula) que se lee suma o sumatoria. 𝑁 = ∑ 𝑛 𝑖=1 𝑓𝑖
Frecuencia acumulada
La frecuencia acumulada es la suma de las frecuencias absolutas de todos los valores
inferiores o iguales al valor considerado. Se representa por 𝑓𝑎𝑖 .
Frecuencia relativa
La frecuencia relativa (𝑓𝑟𝑖 ) es el cociente entre la frecuencia absoluta de un determinado
valor y el número total de datos. 𝑓𝑟𝑖 = 𝑓𝑖 𝑁 La frecuencia relativa es un número comprendido
entre 0 y 1. La suma de las frecuencias relativas es igual a 1.
Frecuencia relativa acumulada
La frecuencia relativa acumulada (𝑓𝑟𝑎𝑖 ) es la suma de las frecuencias relativas de todos los
valores inferiores o iguales al valor considerado. También se pueden calcular como el
cociente entre la frecuencia acumulada de un determinado valor y el número total de datos.
Frecuencia porcentual
La frecuencia porcentual (𝑓𝑝𝑖 ) es el porcentaje de la frecuencia absoluta respecto al total de
datos. Y se calcula multiplicando a frecuencia relativa por 100. Se expresar en tanto por
ciento. 𝑓𝑝𝑖 = 𝑓𝑟𝑖 × 100

También podría gustarte