Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Hace más de cien años, el escritor e historiador británico Wells dice que el
razonamiento cuantitativo algún día será tan importante como la capacidad de leer para
la gran mayoría de los ciudadanos. No mencionó las obras, porque la revolución
industrial acababa de comenzar. Sin embargo, Wells tenía razón. Si bien la experiencia
comercial, cierta previsión racional e intuición son rasgos esenciales de los gerentes
exitosos, los problemas comerciales actuales tienden a ser tan complejos que las
decisiones solo se pueden tomar en función de criterios. (Bencardino, 2006)
En las distribuciones unimodales simétricas, es decir, que tienen una sola moda,
la media, la mediana y la moda coinciden. En cambio, en las distribuciones asimétricas,
la simetría se pierde y tanto la media como la mediana aparecen en posiciones distintas.
(Requena, 2022)
2.3.2.1.2. Fórmulas:
N 2
Σ i=1 (x i−x)
CA F = 3
N∗S x
N 3
Σ i=1 ( x i−x) ∗ni
CA F = 3
N∗S x
2.3.2.2.1. Dispersión:
En otras palabras, las medidas de dispersión son números que indican si una
variable se mueve mucho, poco, más o menos que otra. La razón de ser de este tipo de
medidas es conocer de manera resumida una característica de la variable estudiada. En
este sentido, deben acompañar a las medidas de tendencia central. Juntas, ofrecen
información de un sólo vistazo que luego podremos utilizar para comparar y, si fuera
preciso, tomar decisiones. (Universidad Nacional del Callao, 2022)
2.3.2.2.2. Varianza:
N 2
2Σ 1 ( x i− X)
σ =
N
N → Número de observaciones.
x̄ → Es la media de la variable X.
La desviación estándar es la raíz cuadrada positiva de la varianza.
√
N 2
Σ i=1( x i−μ)
σ =√ σ =
2
N
Ten en cuenta que, si tienes una serie de valores de una población y necesitas
calcular su varianza y su desviación estándar, deberás calcular primero la media
poblacional µ con la siguiente fórmula:
N
Σ i=1 xi
μ=
N
2.3.2.3.1. Fórmula:
N 3
Σ i=1 ( x i−x)
CA F = 3
N∗S x
2.3.2.3.2. Curtosis:
N 4
Σ i=1 ( xi −x) ∗ni
g2 = 4
N∗S x
ni la frecuencia absoluta de x i
N 4
Σ i=1 ( X i−x) ∗n i
Exceso de curtosis= 4
−3
N∗S x
Un rectángulo (caja) delimitado por el primer y tercer cuartil (Q1 y Q3). Dentro
de la caja una línea indica dónde se encuentra la mediana (segundo cuartil Q2)
Dos brazos, uno que empieza en el primer cuartil y acaba en el mínimo, y otro
que empieza en el tercer cuartil y acaba en el máximo.
Los datos atípicos (o valores extremos) que son los valores distintos que no
cumplen ciertos requisitos de heterogeneidad de los datos.
IQR=Q3 −Q1
LI =Q1−1,5∗IQR
LS=Q3−1,5∗IQR
Los límites marcarán los datos atípicos de la variable. Todos aquellos puntos que
sean menores que LI (x < LI) o mayores que LS (x > LS) son valores extremos. Es
decir, son todos aquellos valores que no están en el intervalo [LI,LS].
El mínimo es el menor valor del conjunto que sea mayor o igual que LI.
El máximo es el mayor valor del conjunto que es menor o igual que LS. Dibujamos los
dos brazos. El primero va desde el primer cuartil hasta el mínimo. El segundo, desde el
tercer cuartil hasta el máximo.
Para comenzar a hacer chi cuadrado en SPSS, lo primero que debes hacer es clic
en Analizar -> Estadística Descriptiva -> Cruces.
Esto hará que aparezca el diálogo de las tablas de contingencia donde verás tus
variables a la izquierda.
Importante:
En nuestro ejemplo, son dos variables, pero si tienes más, tendrás que identificar
las dos que quieres probar para la independencia.
Para hacer esto, puedes arrastrar y soltar, o usar las flechas, como arriba.
Una vez que tengas tus variables en sus cajas correctas, puedes configurar la
prueba de chi cuadrado presionando el botón de «Estadísticas» y seleccionando la
opción chi cuadrado en el diálogo que aparece.
Si también quieres una medida del tamaño del efecto, selecciona Phi y la V de
Cramer en el mismo cuadro de diálogo, y luego presiona Continuar, de lo contrario sólo
presiona Continuar.
Presiona «OK» para generar la estadística del chi cuadrado y la tabla de contingencia.
Una prueba de hipótesis es una regla que especifica cuando se puede aceptar o
rechazar una afirmación sobre una población dependiendo de la evidencia
proporcionada por una muestra de datos.
Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: la
hipótesis nula y la hipótesis alternativa. La hipótesis nula es la afirmación que se está
comprobando. Normalmente la hipótesis nula es una afirmación de "sin efecto" o "sin
diferencia". La hipótesis alternativa es la afirmación que se desea ser capaz de concluir
que es verdadera basándose en la evidencia proporcionada por los datos de la muestra.
2.3.2.6.1. Fórmulas:
- Ho: Hipótesis nula
- H1: Hipótesis alterna (de la cual se sospecha pudiera ser cierta, es planteada por
el investigador)
Cov xy
P xy=
σxσ y
Bibliografía