Documentos de Académico
Documentos de Profesional
Documentos de Cultura
“Al analizar los datos cuantitativos debemos recordar dos cuestiones: primero, que los modelos
estadísticos son representaciones de la realidad, no la realidad misma; y segundo, los resultados
numéricos siempre se interpretan en contexto, por ejemplo, un mismo valor de presión arterial no es igual
en un bebé que en una persona de la tercera edad”. – Roberto Hernández – Sampieri
Overview:
Una vez que los datos se han codificado, transferido a una matriz, guardado en un archivo y
“limpiado” los errores, el investigador procede a analizarlos.
Ejemplo:
Una vez que estamos seguros de que no hay errores en la matriz, procedemos a realizar
el análisis de esta, el análisis estadístico. En cada programa tales opciones varían, pero
en cuestiones mínimas. Ahora, mencionaré brevemente dos de los softwares más
importantes:
Las distribuciones de frecuencias son tablas en que se dispone las modalidades de la variable por
filas. En las columnas se dispone el número de ocurrencias por cada valor, porcentajes, etc. La
finalidad de las agrupaciones en frecuencias es facilitar la obtención de la información que
contienen los datos.
Ejemplo:
Quieren conocer si un grupo de individuos está a favor o en contra de la exhibición de imágenes
violentas por televisión, para lo cual han recogido los siguientes datos:
La inspección de los datos originales no permite responder fácilmente a cuestiones como cuál es
la actitud mayoritaria del grupo, y resulta bastante más difícil determinar la magnitud de
la diferencia de actitud entre hombres y mujeres.
Podemos hacernos mejor idea si disponemos en una tabla los valores de la variable acompañados
del número de veces (la frecuencia) que aparece cada valor:
SPSS, Minitab y SAS producen tales gráficas, o bien, los datos pueden exportarse a otros programas
o paquetes que las generan (de cualquier tipo, a colores, utilizando efectos de movimiento y en
tercera dimensión, como, por ejemplo: Power Point).
POLÍGONOS DE FRECUENCIA
Las distribuciones de frecuencias también pueden representarse en polígonos de frecuencia.
Los polígonos de frecuencias relacionan las puntuaciones con sus respectivas frecuencias. Es más
bien propio de un nivel de medición por intervalos o razón.
Los polígonos se construyen sobre los puntos medios de los intervalos. Por ejemplo, si los
intervalos fueran 20-24, 25-29, 30-34, 35-39, y siguientes; los puntos medios serían 22, 27, 32, 37,
etc. SPSS o Minitab realizan esta labor en forma automática.
Medidas de variabilidad:
Las medidas de variabilidad nos informan sobre el grado de concentración o dispersión que
presentan los datos respecto a su promedio.
Los estadísticos de tendencia central o posición nos indican donde se sitúa un grupo de
puntuaciones. Los de variabilidad o dispersión nos indican si esas puntuaciones o valores están
próximas entre sí o si por el contrario están o muy dispersas.
Las medidas de la variabilidad más utilizadas son rango, desviación estándar y varianza.
Rango: El rango, también llamado recorrido, es la diferencia entre la puntuación mayor y
la puntuación menor, e indica el número de unidades en la escala de medición que se
necesitan para incluir los valores máximo y mínimo. Es el resultado de la resta entre el
dato más alto y el más bajo. Cuanto más grande sea el rango, mayor será la dispersión
de los datos de una distribución.
Desviación estándar: Es una medida del grado de dispersión de los datos con respecto al
valor promedio.
Prueba de hipótesis:
Hay dos tipos de análisis estadísticos que pueden realizarse para probar hipótesis: los análisis
paramétricos y los no paramétricos. Cada tipo posee sus características y presuposiciones que lo
sustentan; la elección de qué clase de análisis efectuar depende de los supuestos.
Análisis paramétrico:
Para realizar análisis paramétricos debe partirse de los siguientes supuestos:
1. La distribución poblacional de la variable dependiente es normal: el universo
tiene una distribución normal.
2. El nivel de medición de las variables es por intervalos o razón.
3. Cuando dos o más poblaciones son estudiadas, tienen una varianza homogénea:
las poblaciones en cuestión poseen una dispersión similar en sus distribuciones.
2.
2. Los coeficientes de correlación e independencia para tabulaciones cruzadas.
3. Los coeficientes de correlación por rangos ordenados de Spearman y Kendall.
VI. Realizar análisis adicionales:
Este paso implica simplemente que, una vez realizados nuestros análisis, es posible que decidamos
ejecutar otros análisis o pruebas extras para confirmar tendencias y evaluar los datos desde
diferentes ángulos.
Se recomienda, una vez que se obtengan los resultados de los análisis estadísticos (tablas, gráficas,
cuadros, etc.), las siguientes actividades, sobre todo para quienes se inician en la investigación:
Por tanto, es necesario que antes de comenzar a preparar el reporte, el investigador reflexione
respecto de las siguientes preguntas: ¿cuál fue el motivo o los motivos que originaron el estudio?
¿Cuál es el contexto en que habrán de presentarse los resultados? ¿Quiénes son los usuarios de
los resultados? ¿Cuáles son las características de tales usuarios? La manera en que se presenten
los resultados dependerá de las respuestas a dichas preguntas.
Un buen reporte debe demostrar que la investigación respondió con claridad al planteamiento
del problema, ese es el mejor parámetro. Hay reportes que han sido tan trascendentes que sus
hallazgos y recomendaciones han revolucionado un campo y permanecido en el tiempo. Por
ejemplo, Hernández Galicia (1970) realizó un estudio respecto a los efectos de los gases emitidos
por los motores de combustión interna sobre la contaminación de la atmósfera de la Ciudad de
México. Sus conclusiones y pronósticos llegan hasta nuestros días.