Está en la página 1de 2

Capítulo 15 Y 16 Malhotra

Andersson Ricardo Rodríguez Vargas

El capítulo 15 comienza desarrollando el concepto de distribución de frecuencias


que es el conteo del número de respuestas asociadas a una categoría expresada en
porcentaje, y nombrando el histograma, una forma gráfica útil de presentar dicha
información para el análisis de los resultados que consiste en ordenar las
frecuencias en barras por categoría, a menudo con un trazo que une los puntos
medios superiores de cada una de ellas. Luego presenta los estadísticos
asociados, comenzando con las medidas de tendencia central que sirven para
resumir la información describiendo el centro de la distribución muestral, estos son:
La media, que es el valor promedio de todos los datos, por lo tanto es sensible a
valores extremos, es decir muy grandes o muy pequeños respecto a los demás, La
mediana, que es el dato central organizados ascendentemente, y la moda, que es el
dato que ocurre con más frecuencia. Si se mide en escala ordinal la mediana resulta
ser apropiada para describir representativamente los datos, en el caso de las
escalas de intervalo o razón la mediana también resulta apropiada, al contrario de la
moda.
Las siguientes medidas son las de variación que se utilizan para medir la dispersión
de los datos, en los cuales se encuentran: El rango que consiste en calcular cual es
el valor mínimo de todos los datos y el máximo para y mostrar así la amplitud de los
datos; el rango intercuartílico, que muestra cómo está distribuido el 50 % de datos,
calculando la diferencia entre el cuartil 25 y 75; la varianza que muestra la
desviación promedia al cuadrado de todos los valores respecto a la media y la raíz
cuadrada de esta representa la desviación estándar, y por último, el coeficiente de
variación se calcula dividiendo la desviación estándar con la media.
En el caso de las medidas de forma se utilizan para analizar la distribución de los
datos y para esto se calcula la asimetría y la curtosis; Se dice que la distribución de
los datos de una muestra es simétrica si las medidas de tendencia central son igual
y si la distribución es igual a ambos lados con respecto a dichas medidas centrales,
y la curtosis mide el grado de pico o aplanamiento presente en la curva.

El procedimiento general para la prueba de hipótesis comienza formulando una


hipótesis nula y una hipótesis alternativa, para al final del proceso poder llegar a una
conclusión que niega la hipótesis nula y confirme la alternativa, en el caso contrario,
no se puede aceptar la hipótesis nula pues solo una investigación para esto no
basta, el cálculo de nivel de significancia sirve para medir si los resultados
estudiados efectivamente sirven para llegar a la conclusión esperada o no es
suficientemente evidente para eso. También se puede realizar este trabajo con más
de una variable, en caso de tener más de una pregunta de investigación, para esto
es útil la tabulaciones cruzadas, por supuesto entre más variables contengan más
complejo se vuelve el analizar y responder estas preguntas de investigación, en este
caso se utilizan otros estadísticos como el chi cuadrado, que se utiliza para probar
significancia en tabulaciones cruzadas; el coeficiente fi, utilizado en casos de 2x2; el
coeficiente de contingencia, utilizada en tablas de cualquier tamaño; V de cramer
para tablas mayores a 2x2 y el coeficiente lambda, que mide el porcentaje de
mejoría para pronosticar el valor de la variable dependiente frente a una
independiente de escala nominal.

El capítulo 16 presenta el análisis de varianza ANOVA, que es utilizado como


técnica para hallar las diferencias entre las medias de dos o más poblaciones, en la
cual se toman variables independientes categóricas para ambas poblaciones, estas
variables independientes son llamadas factores, por otro lado, si estos factores
constan de variables categóricas y métricas, se le denomina ANCOVA o análisis de
covarianza, el proceso para el análisis de varianza de un factor consta de identificar
estas variables independientes de las dependientes, calcular la variación entre las
medias poblacionales, medir y probar los efectos de dichas variaciones para
interpretar los resultados siempre con el supuesto de que las variables
independientes son fijas.

El análisis de varianza también puede darse sobre varios factores al mismo tiempo o
N factores, en el cual una ventaja importante radica en la posibilidad de examinar
interacciones entre los diferentes factores, presentados por dependencias entre
factores y sobre las correspondientes variables dependientes, el procesos es similar
al del caso de un factor, y lo más diferencial de este, aparte de la determinación de
interacciones, son la determinación del efecto general, del efecto de interacción y
del efecto principal. El análisis de covarianza es utilizado cuando la influencia de un
efecto de alguna variable independiente no controlada es relevante y mediante este
proceso se eliminan los efectos extraños que la covariable pueda tener sobre la
variable dependiente, ajustando los resultados. En cuanto a la interpretación de los
resultados respecto a las interacciones, se clasifican dos tipos, la interacción ordinal
sucede cuando la jerarquía de rangos de los efectos del factor independiente no
cambia con la variación de los niveles del factor dependiente, y la interacción
disordinal es cuando esta jerarquía de los efectos si cambia, según los niveles del
dependiente. El análisis de varianza no métrico, trabaja con las medidas de
tendencia central, especialmente con la mediana, esto cuando son datos de escala
ordinal, luego se organizan en una tabla y se calcula el chi cuadrado, por último el
análisis de varianza multivariado, es similar al ANOVA excepto que en este existe
maneja más de una variable métrica dependiente por factor independiente lo que
conlleva a muchos más datos analizado simultáneamente.

También podría gustarte