Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Media ponderada: La media ponderada es un tipo de media que otorga diferentes pesos a
los distintos valores sobre los que se calcula.
Una de las medias más utilizadas por su versatilidad es la media ponderada. Se diferencia de
la media aritmética en que no le da la misma importancia a todos los valores. De hecho, como
veremos más tarde, en realidad la media aritmética es una media ponderada en la que todos
los valores son igual de importantes
Media podada: La media podada es una medida más resistente que la media a la presencia
de valores anormales. Para calcular la Media Podada, primero se ordenan los datos en forma
creciente y luego se elimina un cierto porcentaje de datos (redondear si no da entero) en cada
extremo de la distribución, finalmente se promedian los valores restantes.
Media Windsor: Otra variante de la media aritmética que se suele utilizar para evitar el
excesivo protagonismo de los datos extremos consiste en sustiruir los datos extremos superior
e inferior por sus inmediatos anteriores. Posteriormente se calcula la media aritmética de
todos los datos así actualizados.
En el caso anterior se tendría: 7, 6, 6, 5, 10, 8 y 5. La nota más elevada es 10 y se actualiza a
8. La nota más pequeña es 5 y se actualiza a 5.
Media armónica: La media armónica es igual al número de elementos de un grupo de cifras
entre la suma de los inversos de cada una de estas cifras.
En otras palabras, la media armónica es una medida estadística recíproca a la media
aritmética, que es la suma de un conjunto de valores entre el número de observaciones.
Mediana: La mediana es el valor que ocupa el lugar central de todos los datos cuando éstos
están ordenados de menor a mayor. Se representa por . Se puede hallar solo
para variables cuantitativas.
Ordenamos los datos de menor a mayor. Si la serie tiene un número impar de medidas la
mediana es la puntuación central de la misma
Si la serie tiene un número par de puntuaciones la mediana es la media entre las dos
puntuaciones centrales.
Moda: La moda estadística de un conjunto de datos, se define como el número que está
representado más veces dentro de esos datos, es decir, aquel número que presenta una mayor
frecuencia absoluta dentro de la muestra.
Cuantiles: Un cuantil es aquel punto que divide la función de distribución de una variable
aleatoria en intervalos regulares.
Por tanto, no es más que una técnica estadística para separar los datos de una distribución.
Eso sí, debe cumplirse que los grupos sean iguales. Por eso, existen diversos tipos de cuantil,
como veremos más adelante, en función del número de particiones que hacen.
-De dispersión:
Di = x - x
La desviación media es la media aritmética de los valores absolutos de las desviaciones
respecto a la media.
La desviación media se representa por
Error estándar:
El error estándar de la media (SEM, en notación en inglés, por standard error of the mean)
puede ser expresado como:
donde
σ es la desviación estándar de la población
n es el tamaño (número de observaciones) de la muestra.
La asimetría es la medida que indica la simetría de la distribución de
una variable respecto a la media aritmética, sin necesidad de hacer la representación gráfica.
Los coeficientes de asimetría indican si hay el mismo número de elementos a izquierda y
derecha de la media.
El coeficiente de asimetría de Bowley CAB toma como referencia los cuartiles para
determinar si la distribución es simétrica o no. Para aplicar este coeficiente, se supone que el
comportamiento de la distribución en los extremos es similar. Sea el conjunto X=(x1, x2,…,
xN), la asimetría de Bowley es:
Este coeficiente indica la cantidad de datos que hay cercanos a la media, de manera que
a mayor grado de curtosis, más escarpada (o apuntada) será la forma de la curva.
Cuando los datos están agrupados o agrupados en intervalos, la fórmula del coeficiente
de curtosis se convierte en:
La covarianza es el valor que refleja en qué cuantía dos variables aleatorias varían de forma
conjunta respecto a sus medias.
Nos permite saber cómo se comporta una variable en función de lo que hace otra variable.
Es decir, cuando X sube ¿Cómo se comporta Y? Así pues, la covarianza puede tomar los
siguiente valores:
Covarianza (X,Y) es menor que cero cuando “X” sube e “Y” baja. Hay una relación negativa.
Covarianza (X,Y) es mayor que cero cuando “X” sube e “Y” sube. Hay una relación positiva.
Covarianza (X,Y) es igual que cero cuando no hay relación existente entre las variables “X”
e “Y”.
Cálculo de la covarianza
La correlación es una medida estadística que expresa hasta qué punto dos variables están
relacionadas linealmente (esto es, cambian conjuntamente a una tasa constante). Es una
herramienta común para describir relaciones simples sin hacer afirmaciones sobre causa y
efecto.
Tipos de frecuencias
Frecuencia absoluta: La frecuencia absoluta o simplemente frecuencia es el número de veces
que aparece un determinado valor en un estudio estadístico. Se representa por 𝑓𝑖 , aunque
otros autores la representan como 𝑛𝑖 . La suma de las frecuencias absolutas es igual al número
total de datos, que se representa con la letra 𝑁. Para indicar resumidamente estas sumas se
utiliza la letra griega 𝛴 (sigma mayúscula) que se lee suma o sumatoria. 𝑁 = ∑ 𝑛 𝑖=1 𝑓𝑖
Frecuencia acumulada
La frecuencia acumulada es la suma de las frecuencias absolutas de todos los valores
inferiores o iguales al valor considerado. Se representa por 𝑓𝑎𝑖 .
Frecuencia relativa
La frecuencia relativa (𝑓𝑟𝑖 ) es el cociente entre la frecuencia absoluta de un determinado
valor y el número total de datos. 𝑓𝑟𝑖 = 𝑓𝑖 𝑁 La frecuencia relativa es un número comprendido
entre 0 y 1. La suma de las frecuencias relativas es igual a 1.
Frecuencia relativa acumulada
La frecuencia relativa acumulada (𝑓𝑟𝑎𝑖 ) es la suma de las frecuencias relativas de todos los
valores inferiores o iguales al valor considerado. También se pueden calcular como el
cociente entre la frecuencia acumulada de un determinado valor y el número total de datos.
Frecuencia porcentual
La frecuencia porcentual (𝑓𝑝𝑖 ) es el porcentaje de la frecuencia absoluta respecto al total de
datos. Y se calcula multiplicando a frecuencia relativa por 100. Se expresar en tanto por
ciento. 𝑓𝑝𝑖 = 𝑓𝑟𝑖 × 100