Está en la página 1de 69

Gráficos cuantitativos

• Diagramas de barras
• Histogramas
Medidas de tendencia central
• Media= suma todos los valores dividido entre el total de valores
observados. (solo variables continuas).
• Mediana=número que esta a la midad de los valores ordenados de
mayor a menor. Es mas robusto que la media
• Moda= Dato con mayor frecuencia valores cualitativos y cuantitativos
• Tipos de distribución
Medidas de dispersion
• Rango: diferencia entre valor mayor y menor
• Varianza: sigma permite identificar la diferencia entre el promedio y
un valor dado, a mayor varianza mayor dispersion
• Desviacion estandar:
• Coeficiente de variación: se empleo para comparer la variabilidad
entre 2 grupos de datos referidos a distintas sistemas de unidadades
de medidas.
• Compara la variabilidad entre 2 grupos de datos por 2 o más
personas
• Error estandar corrige con base al numero de muestras EE= s/√ (n)
• Medidas de posición(cuantiles)
• Son valores de la distribución que divididen la curva en partes iguales
que comprenden el mismo número de valores.
• Cuartiles: dividen a la distribución en 4 partes iguales.
• Quintiles:5 partes
• Percentiles: 100 partes
• Necesariamente los datos tienen que estar ordenados de menor a
mayor
Medidas de distribución o forma
• Nos permite identificar la forma en que se separan o aglomeran los
valores de acuerdo a una representación grafica.
• Medidas de simetría: cuando la media moda y mediana coinciden es
una curva simetrica
• CA= 0 es simetrica CA >0 derecha asimetrica CA<0 Asimetrica
izquierda.
• Puntaje Z: Número de desviaciones estandar que un valor se aleja del
promedio
• Definición de Probabilidad Clásica
• La probabilidad que se dé un fenómeno determinado es igual al
cociente entre el número de casos favorables al fenómeno y el
número total de casos posibles.
• Estadística La probabilidad estimada de un suceso se toma como la
frecuencia relativa de la aparición del suceso, cuando n es muy
grande.
Distribuciones en el muestreo
• Pocas observaciones y mucho razonamiento conducen al error; muchas observaciones y poco
razonamiento, a la verdad.
Muestreo aleatorio
En multitud de ámbitos de la vida real es evidente que la mejor forma de aprender algo es a partir de la
experiencia. Eso quiere decir que solemos utilizar aquello que vemos para aprender pautas y conductas que
luego generalizamos.
• El concepto clave en este planteamiento es el de muestra aleatoria simple. Supongamos que estamos
observando una variable aleatoria, X, en una población determinada. Ya dijimos que una muestra aleatoria
simple
de X consiste en la recopilación de datos de la variable, mediante la repetición del experimento al que está
asociada, con dos condiciones básicas:
1. Que todos los elementos de la población tengan las mismas posibilidades de salir en la muestra.
2. Que las distintas observaciones de la muestra sean independientes entre sí.
• Un parámetro muestral es un parámetro (media, varianza, ...) referido
a una muestra de una variable
aleatoria.
Un parámetro poblacional es un parámetro (media, varianza, ...)
referido a la distribución poblacional de
una variable aleatoria.
• La distribución en el muestreo de un parámetro muestral es su
distribución de probabilidad.
El error estandar de un parámetro muestral es la desviación típica de
su distribución en el muestreo
• Estimación de parámetros de una
distribución
En Estadística hay tres formas de inferir un valor a un parámetro de
una población:
Estimando el valor concreto de ese parámetro.
Estimando una región de confianza para el valor del parámetro.
Tomando una decisión sobre un valor hipotético del parámetro.
• Ejemplo. El rendimiento de un equipo de trabajo en una cadena de producción
puede estar representado
por el número medio de componentes producidas. Supongamos que un ingeniero
pretende proporcionar
información acerca de este promedio en su equipo. Existen varias posibilidades:
Podría simplemente tratar de estimar el promedio de componentes producidas a
través de un único
valor estimado.
Podría proporcionar un intervalo de valores en el que tenga mucha confianza que
se encuentra el
valor promedio.
• Podría comparar el valor promedio de su equipo con un valor hipotético para, por
ejemplo, demostrar a la empresa que tiene un mejor rendimiento que el
promedio general de la empresa.
• Un estimador puntual, θ^, es una regla que nos dice cómo calcular una
estimación numérica de un parámetro
poblacional desconocido, θ, a partir de los datos de una muestra. El
número concreto que resulta de un cálculo,
para una muestra dada, se denomina estimación puntual.
• En este sentido, se define el error estandar de un estimador como la
desviación típica de dicho estimador,
y se nota s.e.
El estimador insesgado de mínima varianza de un parámetro θ es el
estimador θ^ que tiene la varianza
más pequeña de entre todos los estimadores insesgados.
• Intervalos de confianza
• Volvemos a nuestro ejemplo de la estatura de las mexicanas entre 19 y 49
en 2007. Si sacamos una muestra aleatoria de esta población de tan solo
30 observaciones. de manera que:
• Muestra = {163, 171, 171, 167, 164, 160, 153, 176, 162, 171, 166, 164, 169,
160, 151, 155, 156, 147, 162, 170, 164, 160, 158, 159, 157, 159, 156, 162,
159, 174}
• podemos calcular la media y la desviación estándar de la muestra.
Obtenemos ¯x=160,94x¯=160,94 y s = 6,89 respectivamente. Con esto
podemos calcular el error estándar:
• SE=s√N=6,89√30=s5,477=1,257
• Ahora podemos estimar que la media de la población es de
160,94 ±± 1,257. Hemos reportado muestra estimación con un
margen de error. Pero ¿cómo se interpreta este número?
• Sea μμ la media real –por convención se usa la letra griega μμ que
corresponde a m para la media de la población. La desviación de la
media de la muestra entonces es de 161,94−μ161,94−μ. Podemos
normalizar esta variable por división con la desviación estándar de la
muestra:z=161,94−μ1,257

• Recordemos que se usa z para la variable normalizada. Para muestras desde más o
menos 30 observaciones, z tiene una distribución normal, para darnos cuenta qué tan
probable es que nuestro valor caiga dentro o fuera de los rangos esperados. El error
estándar es, entonces, el rango de valores que caen dentro de una desviación estándar
en la curva normal del error, es decir que hay un 68% de probabilidad de que el valor real
esté dentro del rango reportado.
• Podemos valernos de esta información para calcular rangos que nos den más confianza
en nuestra estimación. La regla empírica dice que el 95% de las observaciones se
encuentran entre dos desviaciones estándar de la media. Si se expresa con un poco más
de precisión es de 1,96. Este número mágico o valor crítico de usa mucho en los textos
con análisis cuantitativo ya que se puede demostrar matemáticamente que: media de la
muestra±(1,96×SE) media de la muestra±(1,96×SE) es un estimado de la media de la
población con un 95% de confianza.
• De la misma manera tenemos:
• media de la muestra±(2,58×SE)media de la muestra±(2,58×SE)
• que nos da un rango con 99% de confianza.
• Entonces, para nuestra muestra de argentinas podemos decir que estimamos que la
media de la población (μμ) es:
• entre 160,94 y 162,20 con un 68% de confianza
• entre 159,73 y 164,66 con un 95% de confianza
• entre 158,94 y 165,44 con un 99% de confianza
• La hipótesis nula y alternativa
• Para testear una hipótesis el primer paso es establecer una hipotesis nula. Esta
hipótesis afirma que no existe el efecto que estamos investigando. Siguiendo los
lineamientos del método cientifico, ahora nuestra labor es, a través de
mediciones u observaciones, refutar esta hipótesis, con lo cual podemos
proponer otra, llamada hipótesis alternativa. Una hipótesis nula se formula como
una afirmación precisa y empiricamente refutable. En el ejemplo de los dos
grupos de estudiantes la hipotesis nula podría expresarse como: «No existe
diferencia entre la media de notas entre los dos grupos».

• También debemos formular una o dos hipotesis alternativas. Si formulamos dos,


una va a afirmar que la media de notas del grupo A es superior a la del grupo B y
la otra que la media de notas del grupo B es mayor a la media de notas del grupo
A. Si usamos una sola hipótesis alternativa esta simplemente plantea que la
media notas de los dos grupos es desigual.
• Notación formal
• En notación formal, muy frecuente en textos académicos, se usa la
letra H (mayuscula) para significar una hipótesis y tiene subindice «0» o
«null». Las hipótesis alternativas reciben subindice numérica (1 y 2
etcétera). En el caso descrito en la sección anterior se podría expresar así:
• H0:No hay diferencia entre los gruposH0:No hay diferencia entre los grupos
• H1:Hay diferenciaH1:Hay diferencia
• o, includo más formal:
• H0:μA=μBH0:μA=μB
• H1:μA≠μBH1:μA≠μB.
• Niveles de significanza
• Dado que siempre existe la posibilidad de refutar injustificadamente
nuestra H0H0, tenemos que determinar un nivel debajo del cual
estamos dispuestos a equivocarnos en nuestra afirmación. Este se
llama el nivel de significanza, también se describe con la letra
griega αα y se llama nivel-αα (nivel alfa).
• Si estamos dispuestos a rechazar H0H0 si la probabilidad (p) de hacerlo
injustificadamente es igual o menor a 0,05, eligimos un nivel de significanza
de 0,05, también llamado «nivel de 5%». Su notación a menudo se
encuentra como: p⩽0,05p⩽0,05. Este nivel es bastante común en las
ciencias humanas, en cambio en otras disciplinas de las ciencias exactas y
médicas por ejemplo, a veces se opera
con p⩽0,01p⩽0,01 o p⩽0,001p⩽0,001, lo que significa que se acepta
rechazar injustificadamente H0H0 una vez en cien o una vez en mil
respectivamente.
• Para cada test estadístico y cada nivel de significanza eligido existirá un
valor crítico o un rango crítico dentro del cual el valor del cálculo
estadístico tiene que encontrarse para que las diferencias observadas en
las muestras se consideren estadísticamente significativos. Si el valor del
test estadístico no cae en ese rango no podemos rechazar H0H0 sobre la
base este conjunto específico de observaciones, pero es posible que
debamos repetir el estudio con muestras más grandes.
• Tipos de error
• Cuando tomamos la decisión de rechazar o aceptar la hipótesis nula
hay dos errores que podemos cometer. Podemos
rechazar H0H0 cuando H0H0 es correcta, o podemos aceptar H0H0,
cuando es falsa. En el primer caso estamos hablando de un error de
tipo I, también denominado error de tipo αα o falso positivo. En el
segundo caso hablamos de un error de tipo II, error de tipo ββ (beta)
o falso negativo.
• Tests direcionales y no direcionales
• En la sección propusimos una hipótesis nula y su alternativa:
• Ejemplo (Hipotesis nula y una alternativa)
• H0:μA=μBH0:μA=μB
• H1:μA≠μBH1:μA≠μB.
• H1H1 se leería: «la media de A es desigual a la media de B». Este
ejemplo es de una predición no direcional. Es decir que no hemos
tomado una posición a priori sobre si esperamos que las diferencias
que observemos sean positivos o negativos.
• H0:μM=μFH0:μM=μF
• H1:μM>μFH1:μM>μF.
• La diferencia entre usar un test direccional o no direccional influye en
los valores críticos de los diferentes tests. Si usamos un test
direccional –y está justificado su uso, claro– disminuye el riesgo de
cometer un error de tipo II. Está ilustrado en la figura : para un test
no-direcional necesitamos un 2,5% en cada extremo de la curva para
que sume 5%, en el test direccional «gastamos» todo el lado positivo.

• Prueba t de Student para muestras independientes
• Supongamos que tenemos dos muestras aleatorias e independientes
con medias de ¯x1x1¯ y ¯x2x2¯ y que queremos saber si estas dos
medias son signifacativamente distintas a un nivel de p⩽0,05p⩽0,05.
Esto es lo mismo que decir que si afirmamos que hay una diferencia
entre las muestras tenemos un 95% de probabilidad de tener razón.
Lo que tenemos que calcular, entonces, es la probabilidad de que las
dos muestras pueder provenir de la misma distribución y que la
diferencia que vemos es por varianza en esa población. En otras
palabras: queremos saber si dos muestras con la diferencia observada
(¯x1−¯x2x1¯−x2¯) podrían tener provenir de la misma población.
• Definición (Prueba de t)t=(¯x1−¯x2)SED.t=(x1¯−x2¯)SED.
• Si aplicamos la fórmula de la definición nos sale un valor que
podemos comparar con los valores críticos de la tabla del para
determinar si rechazamos H0H0 o no.
• Prueba de Shapiro-Wilks
• existen algunas maneras de estimar si una variable tiene una distribución
normal o no. Nos basamos sobre todo en la forma de los polígonos de
frecuencias . Ahora vamos a introducir un test más formal de normalidad.
• El test de Shapiro-Wilks plantea la hipótesis nula que una muestra proviene
de una distribución normal. Eligimos un nivel de significanza, por ejemplo
0,05, y tenemos una hipótesis alternativa que sostiene que la distribución
no es normal.
• Tenemos:
• H0: La distribución es normal
• H1: La distribución no es normal
• (Prueba t para muestras dependientes)t=
• donde:
• ¯XDX¯D: media de las diferencias
• sDsD: la desviación estándar de las diferencias
• n: número de pares de observaciones.
• Lo que nos va a decir la prueba t en este caso es si la diferencia es
significativamente diferente a cero: Si la variable independiente no tiene
efecto entonces debería dar lo mismo medir antes o después. Las hipótesis
planteadas son, por tanto:
• H0:¯XD=0
• H1:¯XD≠0
• Prueba de los rangos con signo de Wilcoxon
• la prueba U de Mann-Whitney puede ser una alternativa a la prueba
de t de Student para muestras intependiente cuando los requisitos
para un test paramétrico no se cumplen. Si los datos son pareados
tenemos la prueba de los rangos con signo de Wilcoxon como
alternativa a prueba t para muestras pareadas que vimos en la
sección
• La lógica de la prueba de los rangos con signo de Wilcoxon es similar a
la de la prueba de t pareada. Si no hay diferencia en el antes y
despues, por ejemplo, las diferencias entre las observaciones
deberían tender a cero.
• El test de χ2χ2 nos permite comparar las frecuencias que observamos
con las frecuencias que esperaríamos en base a un modelo teórico o
una hipótesis sobre la distribución de la variable en cuestión. Por cada
par de valores observados y esperados calculamos la diferencia y
aplicamos la fórmula de la definición .
• (χ2χ2)χ2=∑(O−E)2Eχ2=∑(O−E)2Edonde:
• O: la frecuencia observada
• E: la frecuencia esperada
• Coeficientes de correlación
• Para tener una medida cuantitativa precisa de la correlación entre las
variables calculamos un coeficiente de correlación. A continuación vamos a
tres de ellos, el de Pearson, el de Spearman y el coeficiente ϕϕ (de la letra
griega que corresponde a f en minúscula – se pronuncia «fi». Los
coeficientes de correlación se expresan por un número con varios
decimales entre -1 y 1, donde -1 y 1 indican correlaciones perfectas,
negativas y positivas respectivamente y 0 indica correlación nula.
• El coeficiente Pearson es adecuado para datos de escala de razón o
intervalo, el de Spearman para datos de escala ordinal y el
coeficiente ϕϕ se usa para datos nominales.
Correlación
• Es muy importante entender que una correlación, incluso alta, entre dos
variables no quiere decir que la relación entre ellas es de causa y efecto. Si
hacemos una muestra en la escuela secundaria y medimos estatura, por un
lado, y nivel de inglés por otra, es bastante probable que encontremos una
correlación muy fuerte entre las dos variables. Pero debería estar claro que
ni la estatura causa conocimientos de inglés ni tampoco lo contrario. Lo
que claramente pasa es que mas edad los estudiantes tienen más estatura
y han cursado más niveles de inglés.
• Saltar a conclusiones sobre causalidad basadas en correlaciones es tal vez
el error estadístico más frecuente en la literatura tanto académica como
periodística. Nunca hay que olvidar que una correlación significativa solo
nos dice que existe una relación matemática entre dos variables. No nos
indica cómo interpretarla ni mucho menos sobre sus causas y efectos.
• Coeficiente Pearson
• Como ya mencionamos, el coeficiente de Pearson es apropiado cuando las
variables a comparar con de escala de intervalo o razón ya que toma en
cuenta la magnitud relativa de las observaciones.
• Si tenemos un conjunto de pares de observaciones podemos representar el
primer elemento del par por x y el segundo por y. Entonces el conjunto de
los x van a tener una desviación estándar se calcula según la definición
• así

• Coeficiente Spearman
• Si una o ambas variables que estamos comparando son de escala
ordinal, el coeficiente apropiado es el de Spearman. Para calcularlo
ordenamos las observaciones de la primer variable de manera
ascendiente y les damos el valor de su orden. Si dos observaciones de
la misma variable tienen el mismo valor, si hay empates, se saca el
promedio cual si el empate no hubiera existido. Hacemos lo mismo
para la segunda variable. Calculamos la diferencia entre los rangos
para cada par de observaciones. La correlación Spearman o ρρ de la
letra griega r se calcula según la definición
• Análisis De Varianza
• El análisis de varianza (ANOVA), se refiere en general a un conjunto de
situaciones experimentales y procedimientos estadísticos para el
análisis de respuestas cuantitativas de unidades experimentales. El
problema más sencillo de ANOVA se conoce como el análisis de
varianza de un solo factor o diseño completamente al azar, éste se
utiliza para comparar dos o más tratamientos, dado que sólo
consideran dos fuentes de variabilidad, los tratamientos y el error
aleatorio.
• PRUEBA DE TUKEY
• La prueba de Tukey, nombrado después Juan Tukey, es una prueba estadística
utilizada general y conjuntamente con ANOVA, La prueba Tukey se usa en
experimentos que implican un número elevado de comparaciones. Es de fácil
cálculo puesto que se define un solo comparador, resultante del producto del
error estándar de la media por el valor tabular en la tabla de Tukey usando como
numerador el número de tratamientos y como denominador los grados de
libertad del error Se conoce como Tukey-Kramer cuando las muestras no tienen el
mismo número de datos • Dado que el análisis de varianza acuse un efecto
significativo, la prueba de Tukey provee un nivel de significancia global de α
cuando los tamaños de las muestras son iguales y de α a lo sumo a cuando no son
iguales. • Se basa en la construcción de intervalos de confianza de las diferencias
por pares. Si estos intervalos incluyen al 0, entonces no se rechaza la hipótesis
nula
• PRUEBA DE SCHEFFÉ
• La prueba de Scheffé es una prueba que se aplica para hacer comparaciones
múltiples de las medias de grupos. Su uso está relacionado con la prueba del
análisis de la varianza, y se incluye dentro de las llamadas pruebas de
comparaciones múltiples. La prueba del análisis de la varianza contrasta la
hipótesis de igualdad de medias de dos o más grupos. Si el resultado se considera
estadísticamente significativo, lo que se puede afirmar es que al menos la media
de uno de los grupos es distinta a las restantes, o bien que hay otras medias
diferentes entre sí. El siguiente paso consiste en identificar qué grupos son los
que tienen medias diferentes entre sí. Una solución es comparar las medias por
pares, usando una prueba estadística como la t de Student. Pero al hacerlo así se
produce un aumento del error tipo I que se quiere admitir. Las pruebas de
comparaciones múltiples corrigen el error para conseguir que no sobrepase el
nivel establecido, por ejemplo del 5%. La prueba de Scheffé se realiza
comparando todos los posibles pares de medias, pero usando como error típico
el valor de la varianza residual o intragrupos obtenida en el análisis de la varianza.
• MÉTODO DE LA DIFERENCIA MÍNIMA DE FISHER El método de la
diferencia mínima de Fisher utiliza el estadístico F: • Calcula una
diferencia crítica a la que se comparan cada par de promedios • Se
pueden construír también intervalos de confianza para las diferencias
por pares • Sin embargo, el riesgo global α, tiende a crecer con este
método (este método utiliza tasas de error individuales).
• PRUEBA DEL RANGO MÚLTIPLE (DUNCAN)
• La prueba del rango múltiple prueba las diferencias entre las medias
empezando con la media más grande contra la segunda más grande, y
así sucesivamente, comparando en cada caso con un valor crítico
obtenido por tablas. • Muy eficaz y popular debido a su poder de
discriminación. • Si el nivel de protección es α, entonces las pruebas
de las medias tienen un nivel de significación igual o mayor que α.
• PRUEBA DE BONFERRONI
• La prueba de Bonferroni permite comparar las medias de los t niveles de un
factor después de haber rechazado la hipótesis nula (Ho) de igualdad de medias
mediante la técnica ANOVA. Es un método que se utiliza para controlar el nivel de
confianza simultáneo para un conjunto completo de intervalos de confianza. Es
importante considerar el nivel de confianza simultáneo cuando se examinan
múltiples intervalos de confianza porque las probabilidades de que al menos uno
de los intervalos de confianza no contenga el parámetro de población es mayor
para un conjunto de intervalos que para cualquier intervalo individual. Para
contrarrestar esta tasa de error más elevada, el método de Bonferroni ajusta el
nivel de confianza para cada intervalo individual, de manera que el nivel de
confianza simultáneo resultante sea igual al valor que ha especificado. Ajusta el
nivel de significación en relación al número de pruebas estadísticas realizadas
simultáneamente sobre un conjunto de datos.
Es un test de comparaciones múltiples. En este procedimiento se fija un nivel de
significación α que se reparte entre cada una de las comparaciones consideradas y
se utiliza la desigualdad de Bonferroni. El Test de Bonferroni se basa en la creación
de un umbral por encima del cual la diferencia entre las dos medias será
significativa y por debajo del cual esa diferencia no lo será de estadísticamente
significativa. Suele ser bastante conservador y se utiliza más que todo cuando no
son muchas las comparaciones a realizar y además, los grupos son homogéneos en
varianzas. Una aproximación muy buena para su cálculo consiste en multiplicar el
valor original de p, por el número de comparaciones posibles a realizar. El método
de Bonferroni ajusta el nivel de confianza para cada intervalo individual, de manera
que el nivel de confianza simultáneo resultante sea igual al valor que ha
especificado. Los intervalos de confianza más amplios de Bonferroni proveen
estimaciones menos precisas del parámetro de población, pero limitan a un
máximo de 5 % la probabilidad de que uno o más de los intervalos de confianza no
contenga el parámetro.
• Prueba de Kruskal-Wallis
• En estadística, la prueba de Kruskal-Wallis (de William Kruskal y W.
Allen Wallis) es un método no paramétrico para probar si un grupo de
datos proviene de la misma población. Intuitivamente, es idéntico al
ANOVA con los datos reemplazados por categorías. Es una extensión
de la prueba de la U de Mann-Whitney para 3 o más grupos. Ya que
es una prueba no paramétrica, la prueba de Kruskal-Wallis no asume
normalidad en los datos, en oposición al tradicional ANOVA. Sí asume,
bajo la hipótesis nula, que los datos vienen de la misma distribución.
Una forma común en que se viola este supuesto es con datos
heterocedásticos.
• Prueba de Friedman
• En estadística la prueba de Friedman es una prueba no paramétrica
desarrollado por el economista Milton Friedman. Equivalente a la
prueba ANOVA para medidas repetidas en la versión no paramétrica,
el método consiste en ordenar los datos por filas o bloques,
reemplazándolos por su respectivo orden. Al ordenarlos, debemos
considerar la existencia de datos idénticos.
• La curva normal de define por dos propiedades: La media y la desviación
estándar. Si conocemos estos dos valores es posible construir la curva
aplicando una fórmula un tanto compleja y con poca importancia fuera del
ámbito plenamente teórico.
• De más importancia son algunas propiedades que tiene la curva. Si
graficamos la curva normal y expresamos los valores en el eje horizontal
en desviaciones estándares (también se dice «sigmas» por su letra
griega σσ), el área que está de cada lado de la linea es constante y
conocido. Si trazamos una linea justo en el medio (σ=0σ=0), sabemos que
un 50% de las observaciones están a la derecha y la izquierda de esa linea.
Lo mismo aplica a una distribución expresado en un histograma. En la
figura vemos cuales son los cortes para desviaciones estándares de menos
3 a 3.
Prueba de Kolmogórov-Smirnov
Criterio de Cramér-von Mises
Prueba de Anderson-Darling
Test de Shapiro–Wilk
Prueba de ji cuadrada
Criterio de Información de Akaike

También podría gustarte