Guia Analisis Estadistico
Guia Analisis Estadistico
1 © RED SUMMA
Índice
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
5 Bibliografía.......................................................................................................................... 43
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Objetivos
1 El Proceso de Investigación
El análisis cuantitativo de datos se ha convertido en un elemento central para la
validación de hipótesis de investigación y generación de teorías en el campo de
las ciencias sociales y administrativas. De forma tradicional, aunque no exclusiva,
el análisis cuantitativo se base en una aproximación deductiva a la
generación de conocimiento; esto implica que la revisión de literatura, el marco
teórico y la hipótesis de investigación son el corazón de este tipo de análisis.
Así pues, antes de empezar, es importante recordar que el punto de partida de
cualquier análisis es la teoría, si no se cuenta con una base confiable para
interpretar los resultados obtenidos, incluso la técnica de análisis más sofisticada
puede ser inútil y conducir a resultados espúreos.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Dicho lo anterior, y armados de un buen arsenal teórico, empecemos a organizar
los elementos básicos requeridos para el análisis estadístico de nuestra
información.
Tendemos a pensar
en la investigación
como un proceso
sofisticado y lejano
cuyos resultados se
comparten en papers
y conferencias a las
que no tiene acceso
la mayor parte de la
población; sin
embargo, la
investigación nos es
natural y estamos en
contacto con ella
desde nuestros
primeros años de
vida. Como seres
sociales y racionales,
desde niños estamos
interesados en conocer el mundo que nos rodea; pero, conocerlo no nos es
suficiente, explicarlo también nos es necesario ¿Qué? ¿Cuándo? ¿Cómo? ¿Por
qué?; y, aun cuando hallar la respuesta a esas preguntas a veces nos ponga en
caminos peligrosos (¿Cómo aprendimos que el agua conduce la electricidad?),
también abre otros rumbos más satisfactorios.
Así pues, a medida que nuestro mundo se complejiza, también lo hacen las
preguntas que nos hacemos y los fenómenos que capturan nuestro interés; este
es el caso de las ciencias sociales y administrativas. Las preguntas sobre el
funcionamiento del mundo social tienden a llegar con la adultez y las del mundo
administrativo con la experiencia laboral. A diferencia del mundo natural, en el
que la experimentación es intuitiva, los mundos sociales y administrativos nos
exigen observaciones más sistemáticas y que combinen la experiencia con la
lógica; así, llegamos al mundo de la investigación científica.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
A diferencia de nuestra primera aproximación con la investigación, la
investigación científica nos exige seguir un proceso sistemático, lógico y
replicable que permita ampliar nuestro conocimiento del mundo. El proceso de
investigación científica parte de una observación inicial del mundo, una pregunta
de investigación. Para responder esta pregunta recurrimos a literatura científica
que proponga respuestas y a marcos teóricos que nos ayuden a analizar la
pertinencia de estas respuestas.
Cuando las respuestas no son satisfactorias o son inexistentes, la teoría nos guía
para proponer nuevas respuestas tentativas a la pregunta de investigación. Estas
respuestas o hipótesis son el corazón del análisis estadístico de datos. Es aquí
donde los datos entran a jugar un rol importante, para validar si nuestra hipótesis
es mejor o peor que las otras respuestas existentes en la literatura recolectamos
información para medir los fenómenos que queremos estudiar. Así, debemos
operacionalizar los fenómenos (identificar variables), recoger información (medir
las variables) y encontrar patrones, identificar tendencias o proponer modelos
(analizar las variables) que nos permitan responder a la pregunta planteada.
2 Prueba de Hipótesis
La prueba de hipótesis o prueba de contraste está en el centro del análisis
estadístico de datos. Es a través de este tipo de pruebas que podemos saber si el
modelo que hemos propuesto para explicar el comportamiento de una muestra
puede generalizarse a la población y qué tan eficiente es el modelo para realizar
predicciones. El enfoque más común para validar hipótesis a partir de modelos
estadísticos es conocido como el enfoque de significancia de la hipótesis nula,
que se describe a continuación.
Field (2013) señalan que Fisher planteó un experimento para validar la afirmación
de una mujer que afirmaba poder identificar, al probar su té, si primero se había
adicionado la leche o el té. La mujer sabría que a la mitad de las tasas se
adicionó primero la leche y a la otra mitad primero el té, pero no sabría en qué
orden le serían presentadas las tasas.
Si solo se tuvieran dos tasas, la probabilidad de que la mujer acertara sería del
0.5, lo que igual dejaría dudas sobre si la mujer es capaz de identificar la
preparación del té o si solo tuvo suerte. Por esta razón, valdría la pena complicar
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
el experimento un poco más adicionando una mayor cantidad de tasas de té, por
ejemplo, contando con 6 tasas. En este caso, habría 20 posibilidades de ordenar
las tasas de té, con lo que, si la mujer acertara de nuevo solo una vez, habría
acertado el 5% de las veces.
El ejemplo anterior es útil para ilustrar que solo cuando hay una muy pequeña
probabilidad de que la mujer complete la tarea por suerte, podemos asegurar que
tiene una habilidad especial para identificar la técnica de preparación del té. Este
valor del 5% es comumente usado por los científicos como umbral para evaluar
una hipótesis. Solo cuando la posibilidad máxima de que los datos se comporten
como si no existiera ningún modelo es del 5%, podemos afirmar que el modelo
basado en que el efecto no existe no es útil para explicar nuestros datos y por
tanto es mejor un modelo alternativo.
Ahora bien, la aplicación de la lógica anterior se evidencia en la formulación de
La hipótesis alternativa es la respuesta las hipótesis de investigación. El enfoque de la Prueba de Significancia de la
tentativa a la pregunta de investigación.
Hipótesis Nula -NHST- se basa en la idea de plantear una hipótesis alternativa
(H1)1, que proviene de la teoría y, normalmente, supone la existencia de un
Se construye a partir de lo sugerido por
efecto. El otro tipo de hipótesis es la hipótesis nula (H0), que es la opuesta a la
la literatura y es, usualmente, la
alternativa y usualmente afirma que no hay efecto.
hipótesis que no queremos rechazar, la
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
nula. Al pensar en el NHST como un sistema, lo que hacemos tradicionalmente
para validar cualquier H1 se resume en cuatro pasos.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
suerte. Cuando esto sucede, una prueba estadística grande y un valor de
probabilidad pequeña, hablamos de una prueba estadística significativa2.
En otras palabras, una prueba estadística significativa implica que sería muy poco
probable que un modelo estadístico basado en la hipótesis alternativa se ajustara
tan bien si la hipótesis nula fuera verdadera. Por tanto, rechazamos la Ho y
aumentamos nuestra confianza en que la H1 es verdadera.
2
La significancia de una prueba estadística está directamente ligada al tamaño de muestra: el
mismo tamaño de efecto tendrá diferentes valores de significancia en tamaños de muestra
diferentes: diferencias pequeñas pueden ser consideradas significativas en tamaños de muestra
grandes, y efectos grandes pueden ser considerados no significativos en muestras pequeñas.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
3 El opuesto al error tipo I es el error tipo II, representado por la letra beta
β este tipo de error sucede cuando creemos que no hay efecto en la
población y en realidad si lo hay. Cohen (1992, citado por Field, 2013, p. 68)
sugiere que la probabilidad máxima aceptable de este tipo de error es del
20%. Este valor significaría que si tomamos 100 muestras de una población
en la que el efecto existe, fallaríamos en detectar ese efecto en 20 de esas
muestras.
4 El último recuadro muestra la habilidad de una prueba para encontrar un
efecto cuando este existe se conoce como su poder estadístico. Este
poder es el opuesto a la probabilidad de que la prueba no encuentre el
efecto que existe en la población, razón por la que se representa como (1-
β). El poder o potencia estadística dependerá de que tan grande es el
tamaño del efecto, el nivel de error tipo I que fijemos y el tamaño de la
muestra.
Es importante señalar que, de forma usual existe un trade off entre la probabilidad
de error tipo I y tipo II. Si se reduce la probabilidad de aceptar que un efecto es
real (se reduce el umbral de error tipo I), es más probable que perdamos de vista
un efecto que en realidad existe en la población (el error tipo II); por tanto,
reducir la probabilidad de cometer error tipo I, implica generalmente aumentar la
probabilidad de cometer error tipo II. La probabilidad de cometer estos dos
errores se basa en supuestos distintos por lo que es difícil saber la naturaleza
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
exacta de la relación o la proporción entre uno y otro, esto implica que debe ser el
investigador quien con base en la potencia estadística y la literatura decida los
umbrales que utilizará.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
3 Recolección de Información
Considerando la información previa, ahora es el momento de centrarnos en la
captura de información. Existen diferentes instrumentos para recolectar
información cuantitativa, entre ellos cuestionarios, experimentos, uso de
instrumentos mecánicos, etc. Esta información puede provenir de fuentes
primarias, como cuando somos nosotros quienes “producimos” la información al
realizar la medición; la información también puede provenir de fuentes
secundarias, este es el caso en que trabajamos con información producida por
otras instituciones, investigadores, entre otros.
El diseño de instrumentos en si mismo constituye un campo de la investigación
cuantitativa, a continuación, nos centraremos más en las preguntas relacionadas
con el ¿Qué medir? Y ¿Cuántos individuos deberían hacer parte de nuestra
muestra?
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
una o varias variables independientes; es la variable dependiente la que
buscamos predecir o explicar3.
El otro elemento importante sobre las variables es su nivel de medición. De forma
amplia, las variables pueden clasificarse en cuantitativas y cualitativas. Las
variables cualitativas son aquellas que denotan pertenencia a determinado
grupo; esto es, son variables hechas de categorías. El “número” asignado a estas
variables no es una medida de la magnitud que se tiene de un atributo, en su
lugar es una etqiueta que se utiliza para denominar una categoría. Por ejemplo, si
suponemos la variable “pertenencia a una religión”, las categorías pueden
medirse como: 1) catolicismo, 2) cristianismo, 3) islamismo, 4) hinduismo, 5)
ateísmo, 6) ninguna y 7) otra. En este caso, que una persona tenga el valor 2 en
esta variable no indica que su pertenencia religiosa sea de 2 unidades, significa
que pertenece al grupo 2; es decir, practica el cristianismo.
Las variables cualitativas que solo cuentan con dos opciones de respuesta, por
ejemplo, sexo si es medido como hombre y mujer, se denominan variables
binarias, dicotómicas o dummy. Por otra parte, las variables cualitativas que
tienen diferentes opciones de respuesta, como el caso de la religión, son
conocidas como variables nominales o categóricas. Dado que, para este caso, la
variable está compuesta por categorías, no tiene sentido usar aritmética con ellas;
estas variables solo son suscpetibles de ser analizadas a través del uso de
frecuencias.
Para los ejemplos anteriores, las etiquetas de las variables no siguen ningún
orden en su asignación; sin embargos, en algunos casos las etiquetas asignadas a
las categorías pueden organizarse de alguna manera. Por ejemplo, en las escalas
tipo Likert, muy comunes en estudios de percepción, las opciones se construyen
siguiendo la estructura: 1) En total desacuerdo, 2) En desacuerdo, 3) Ni de
acuerdo, ni en desacuerdo, 4) De acuerdo, 5) Totalmente de acuerdo; en este
caso, si bien la etiqueta no indica “cuántas unidades se tiene sobre el acuerdo
con algo”, si indica que individuo está más de acuerdo o más en desacuerdo. Así
pues, las variables cualitativas ordinales no solo nos indican a qué categoría
pertenece un individuo, sino también si esa categoría implica tener más o menos
del atributo así no se sepa con precisión cuánto.
3
Algunos estadísticos sugieren usar las denominaciones dependiente e independiente solo para el
caso de estudios experimentales; para otro tipo de estudios sugieren el uso de variable predictora
(independiente) y resultado (variable dependiente).
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
En contraste con las variables cualitativas, las variables cuantitativas expresan
la magnitud que se posee de un atributo; por ejemplo, la edad, el ingreso, el
puntaje en una prueba, etc. Un primer tipo de variable cuantitativa se denomina
de intervalo, “en términos de propiedad de la medida implica aquellas
características que son medidas numéricamente, pero cuyo cero no implica
ausencia de la variable, sino que funciona como un punto de referencia.” (Medina
y Avendaño, 2017, p. 42). Ejemplos clásicos de este tipo de variables son la
temperatura (cero grados no significa ausencia de temperatura, sino que funciona
como punto de referencia) o la medición del desempeño en una prueba como el
puntaje respecto al promedio del grupo total (el estudiante que obtiene el mismo
valor que el promedio se registra como cero y los puntajes de los demás
estudiantes se registran considerando no el puntaje absoluto, sino qué tan lejos,
por encima o por debajo, están del promedio).
El segundo tipo de variables cuantitativas, las variables de razón, también se
miden de manera numérica, pero a diferencia de la variable de intervalo, en este
caso el cero se considera como un valor absoluto. Por ejemplo, los costos de
funcionamiento de una empresa, el Producto Interno Bruto de un país, el puntaje
obtenido en una prueba.
Por último, es importante señalar que las variables cuantitativas pueden ser
medidas de forma discreta o continua. Las variables discretas varían en unidades
completas como el caso de la cantidad de hijos; esta variable no puede contarse
en fracciones, una persona no podría tener 2,3 hijos, pese a que la variable es
cuantitativa. Por otra parte, las variables cuantitativas discretas pueden asumir
diferentes valores en una escala; por ejemplo, los centímetros que mide una
persona o los kilogramos que pesa un bebé al nacer. Sin embargo, la diferencia
entre estos dos tipos de medición puede ser difusa; por ejemplo, los ingresos de
un individuo medidos en pesos varían en unidades completas, pero de forma
usual es considerada como una variable discreta.
Considerar el nivel de medición de las variables es fundamental para identificar
qué tipo de análisis estadístico se puede desarrollar. La Tabla 1 presenta una
descripción general, no exhaustiva, del tipo de análisis que se pueden realizar
según el tipo de variables que tengamos.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Tabla 1.
Pruebas de análisis de datos según nivel de medición de variables.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
lugares, documentos, discursos, etc., personas, o empresas (Rincón y Barreto,
2013).
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
muestra, sino por otras razones. Tres tipos de muestreos no probabilísticos son
considerados como los más comunes:
• Muestreo por conveniencia (fortuito): El investigador selecciona a los
sujetos que más le conviene que hagan parte de la muestra. Dada esta
forma de selección, los resultados obtenidos de la prueba de contraste de
la hipótesis solo son válidos para los sujetos seleccionados y no podrán
ser generalizables a la población.
• Muestreo por cuotas: Presupone un conocimiento previo de cómo los
individuos de la población se agrupan naturalmente. Así, el investigador
conoce perfectamente los estratos y toma individuos de cada estrato por
conveniencia. A diferencia del muestreo por estratos, no se puede asegurar
que se cuente con una representación total de la población y la
identificación de los grupos corre el riesgo de no ser muy precisa. Un
ejemplo de este tipo de muestreo puede ser encuestar a “mujeres jóvenes
universitarias”; así, se seleccionan las primeras, por señalar una cuota,
cinco mujeres que cumplan con esta condición y son ellas quienes se
incluyen en la muestra.
• Muestreo intencional: Como su nombre lo indica es un tipo de muestreo
que se basa en el conocimiento previo del problema y de la necesidad que
ciertos sujetos hagan parte de la muestra. Existen 10 tipos de este
muestreo (Rincón y Barreto, 2013) y es mucho más característico de la
investigación con técnicas cualitativas que cuantitativas.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
• Riesgos: Ya de forma previa hablamos de la probabilidad de cometer error
tipo I y error tipo II. Entre mayor sea el tamaño de riesgo que estemos
dispuestos a tolerar, menor el tamaño de muestra necesario.
• Cantidad de variables predictoras y análisis a realizar. Entre mayor cantidad
de variables se tenga y mayor complejidad de los análisis, mayor el tamaño
de muestra requerido.
• Tamaño de la población. Entre mayor cantidad de población, mayor tamaño
de muestra.
Estimar el tamaño de muestra ideal considerando todos estos factores puede
llegar a ser muy complejo. Por fortuna, la herramienta G*Power (Faul et al., 2007)
nos facilita esta operación si contamos con la información necesaria. El software,
y su manual de uso, pueden descargarse en:
https://www.psychologie.hhu.de/arbeitsgruppen/allgemeine-psychologie-und-
arbeitspsychologie/gpower
De manera general, el software nos permite calcular el tamaño de muestra
requerido si contamos con información del tamaño del efecto, la potencia
estadística y el tamaño del error tipo I que estemos dispuestos a tolerar. De
forma adicional, el software nos pedirá que identifiquemos qué tipo de prueba de
hipótesis utilizaremos.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
El primer submenú (Statistical Test) nos pedirá identificar qué tipo de prueba
estadística utilizaremos. Para este ejemplo, supondremos que será una prueba de
diferencia de medias para dos muestras independientes, prueba que
estudiaremos más adelante. A continuación, el software nos pregunta qué tipo de
análisis requerimos; si bien hay cinco opciones de análisis, para nuestro caso, el
adecuado es “A priori” dado que es este tipo de análisis el que permite estimar el
tamaño de muestra necesario.
Las selecciones previas habilitarán los “input parameters”, allí incluiremos los
criterios que consideraremos para la selección de la muestra. Primero, está la
pregunta por si se trabajará a una o dos colas, como hemos señalado con
anterioridad, se recomienda siempre trabajar a dos colas. Segundo, se requiere
incluir el tamaño del efecto que se espera encontrar. Tercero y cuarto, se nos pide
mencionar el tamaño de error tipo I que estamos dispuestos a tolerar y la
potencia estadística de nuestra prueba (recordemos que la potencia es la
contraparte de la probabilidad de cometer error tipo II). Finalmente, en este caso,
se nos pide el ratio, esto es, si los dos grupos que se analizarán tendrán la misma
cantidad de individuos o si uno de los grupos es más grande que otro. Según el
tipo de análisis que se seleccione, esta sección cambiará y pedirá información
diferente.
El botón “calculate” nos mostará el tamaño de muestra total requerido y la
potencia estadística de la prueba.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Ahora bien, volviendo a la noción de modelo, es importante señalar que los datos
que observamos pueden ser predichos por el modelo al que elegimos ajustar los
datos más una cantidad de error. Es por esto por lo que, básicamente todos los
modelos lineales parten de la ecuación básica
𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑖 = 𝑚𝑜𝑑𝑒𝑙𝑜 + 𝑒𝑟𝑟𝑜𝑟𝑖
3.3.1 Sesgos
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
distribuidos.
Sobre este punto, es importante mencionar que, al hablar de distribución
normal, nos referimos a que la frecuencia con que cada valor de una
variable se presenta en un conjunto de datos. Cuando estas frecuencias se
distribuyen de forma simétrica alrededor del centro de todos los valores de
la variable, se habla de una distribución normal, con su característica forma
de campana.
• Homocedasticidad: Este supuesto significa que a medida que se avanza en
los diferentes niveles de la variable predictora, la varianza de la variable
resultado debe permanecer igual. En otras palabras, se espera que la
dispersión de la variable analizada se mantenga constante a través de los
diferentes valores o niveles que asuma la otra variable con la que se
contraste. La figura indica que, para el caso de dos variables cuantitativas,
en la parte más baja de la distribución, los errores son relativamente
pequeños (los puntos se distancian poco de la línea propuesta), pero a
medida que se avanza en la distribución, los errores aumentan; este cambio
en el comportamiento de los errores indica que los errores o varianzas no
son constantes, es decir no hay homocedasticidad en la distribución.
• Independencia: Este supuesto supone que los errores o desviaciones no se
relacionan entre ellos.
Adicional a considerar el cumplimiento de los supuestos anteriores de forma tal
que se reduzca la probabilidad de estimar parámetros sesgados, también es
importante considerar la presencia de datos atípicos o outliers. Como su
nombre lo indica, estos datos se caracterizan por tener una bajísima frecuencia,
pero ser lo suficientemente influyentes como para alterar la distribución de una
variable. Su identificación se realiza, tradicionalmente, utilizando diagramas de
cajas o histogramas y debemos prestar atención especial a su tratamiento. Es
importante identificar si estos datos corresponden a errores de tipeo, el tipo de
muestreo utilizado o si en efecto corresponde a una observación muy diferente a
todas las demás que debe hacer parte de la muestra por algún criterio teórico de
importancia.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
22
4 Análisis Descriptivo
Ahora ha llegado el momento de empezar el análisis de nuestra información. El
análisis descriptivo, como lo indica su nombre, se concentra en describir nuestra
información de forma tal que, sepamos cómo se comporta, qué características
tiene y qué tipo de análisis posteriores podemos realizar. El análisis descriptivo
se debe realizar siempre, al margen del alcance de nuestra investigación y del
tipo de análisis ulteriores que se realicen. De hecho, un buen análisis descriptivo
puede dar lugar a artículos de investigación de alto interés para la comunidad
científica.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
4.2 Análisis de variables cuantitativas
Acabamos justo de mencionar que, una de las formas de saber si una distribución
es normal es dibujar una línea en su centro para dividirla en dos partes iguales.
Así, identificar el centro de la distribución es altamente relevante; tres medidas
nos permiten identificar este centro: la moda, la media y la mediana.
• Moda: La moda es el valor que se presenta con mayor frecuencia en el
conjunto de datos. Gráficamente, corresponde a la barra más alta del
histograma. Sin embargo, un problema de esta medida es que, con
frecuencia, no es un valor único; en estos casos, tenemos distribuciones
bimodales o multimodales.
• Mediana: La mediana es conocida como el punto medio de la distribución.
Si se organizan los datos de la variable de menor a mayor, la mediana será
el valor de la mitad o el segundo cuartil de la distribución. Es una de las
medidas de tendencia central más estables debido a que no es tan
susceptible a valores extremos como la moda y puede ser utilizada con
variables cualitativas ordinales.
4
De forma habitual, hay dos maneras en que la distribución se puede desviar de la forma esperada
de campana: 1) falta de simetría, esto es que los datos estén agrupados hacia un lado u otro o que un
lado de la campana sea más marcado que el otro; y 2) la curtosis, que, se puede entender como el
grado de elevación de la distribución (si es muy alta y con una punta muy marcada o si es plana y su
punto más alto no es tan fácilmente identificable).
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
• Media: La media es la medida de tendencia central más popular y utilizada
en la descripción de variables. En términos sencillos, puede describirse
como el valor promedio que asume una variable y se obtiene de sumar
todos los valores que asume la variable para cada sujeto y dividirla en el
total de sujetos. Pese a que la media se ve altamente afectada por datos
extremos y atípicos, es muy estable en diferentes conjuntos de muestras
por lo que es la medida de tendencia central, y medida para estimar el
centro de una distribución, más comumente utilizada.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
En el listado de datos anteriores, previamente organizados, se excluye el valor de
la mediana con lo que contamos con 10 observaciones. Al eliminar el 25% de
datos superiores y el 25% de datos inferiores, el rango intercuartílico sería de
116-53=635.
Sin embargo, eliminar el 50% de nuestra información puede ser una medida un
tanto fuerte. Si queremos trabajar con la totalidad de nuestra muestra, podemos
calcular la desviación o error, entendida como la sumatoria de la diferencia del
valor de la variable para cada individuo menos el promedio de la variable. Dado
que esta sumatoria será igual a cero, debemos recurrir a elevar cada una de estas
dimensiones al cuadrado; la sumatoria de estas desviaciones al cuadrado se
denomina suma de errores al cuadrado el promedio de estas desviaciones al
cuadrado se denomina la varianza6. Finalmente, para tener una idea de la
“desviación promedio” de nuestros datos con respecto a la media, obtenemos la
raíz cuadrada de la varianza, para hacer lineal la medida, y así obtenemos la
desviación estándar.
Valores pequeños de la desviación estándar, en relación con la media, indican que
los datos están muy cercanos a la media y hay poca dispersión. En otras palabras,
los individuos se parecen mucho entre ellos. Una desviación estándar de 0
significaría que todas las observaciones para la variable son iguales.
La desviación estándar, como se ha señalado, nos permite saber qué tan bien la
media representa a la muestra. Sin embargo, si nuestro interés es utilizar la
media de la muestra como representación de la población, debemos saber qué
tan bien estos parámetros la representan.
En la vida real, no tenemos acceso a la población total por lo que utilizamos
muestras. Sin embargo, si tomamos diferentes muestras, algunas de ellas tendrán
la misma media de la población y otras no; a este fenómeno se le denomina
variación de la muestra. Si graficáramos los promedios de diferentes muestras
como si fueran una distribución -en un histograma- obtendríamos la distribución
5
Los cuartiles son un caso especial de los quintiles. Los quint iles son valores que dividen una
distribución en cinco partes iguales; en el caso de los cuartiles, se divide en cuatro partes iguales, en
el caso de los déciles se divide en 10 casos iguales y en el caso de los percentiles en 100 partes
iguales.
6
En sentido estricto no es un promedio dado que el denominador es el tamaño de la muestra menos
1 (N - 1).
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
de la muestra. Acercarnos a esta distribución de la muestra es más hipotético
que factible; en realidad, difícilmente capturamos cientos de muestras que nos
permitan obtener esta distribución, es por esto por lo que, solo podemos
aproximarnos a esta distribución y su comportamiento (media y desviación
estándar).
El error estándar de la media o error estándar es una medida de la desviación
estándar de las medias de diferentes muestras. Es como si tomáramos la media
de cada muestra y luego estimáramos qué tan “similares” son las medias de estas
muestras diferentes. Errores estándar muy altos, implicarían que el
comportamiento de nuestra muestra no es muy buen descriptor del
comportamiento de la población; por el contrario, errores estándar bajos serían
evidencia de que nuestra muestra es una buena representación de la población.
Dada la dificultad en su estimación, usualmente recurrimos al Teorema del Límite
Central para sustentar que muestras grandes garantizan una distribución de la
muestra normal con una media igual a la media de la población y una desviación
estándar definida por:
𝑠
𝜎𝑋̅ =
√𝑁
4.2.4 Intervalos de confianza
El error estándar nos permite hacernos una idea del umbral en el que se ubicarán
diferentes parámetros de la población. Esto es, podemos saber el valor exacto de
la media de la muestra, pero no el valor exacto de la media de la población; sin
embargo, con el error estándar, podríamos saber entre qué valores se ubicará la
media en la población. A estos umbrales los llamamos intervalos de confianza.
Con frecuencia estos intervalos se construyen al 95%; esto quiere decir que, 95
de cada 100 veces, el valor promedio de una variable determinada en la población
se ubicará entre el rango estimado.
Las pruebas de comparación de medias nos son útiles para saber si existen
diferencias entre grupos de sujetos. Por ejemplo ¿Generan más ganancias las
empresas dirigidas por hombres o por mujeres? ¿Hay diferencias en los costos de
funcionamiento de las empresas según el motivo de sus propietarios para
emprender? En estos casos, buscamos, de forma muy simplificada, comparar el
comportamiento de una variable cuantitativa a través de las diferentes categorías
de una variable cualitativa. Cuando la variable cualitativa (factor) que usamos para
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
la comparación es de carácter binario, podemos recurrir a la prueba t para
establecer las diferencias de medias; si la variable cualitativa tiene más de dos
opciones, debemos recurrir a la prueba o modelo ANOVA para diferencia de
medias.
Ahora bien, conocer el valor de la media para cada uno de los grupos que
estamos analizando nos permite intuir si existen o no diferencias entre los
grupos; sin embargo, lo clave es identificar si esas diferencias son
estadísticamente significativas y cuál es la magnitud de la diferencia. Con este
fin, y si solo contamos con dos grupos, podemos recurrir a la prueba t.
Lo primero que debemos señalar sobre esta prueba es el funcionamiento de sus
hipótesis.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
• H o: NO hay diferencias estadísticamente significativas en el
comportamiento de la variable cuantitativa en los diferentes niveles o
categorías de la variable cualitativa.
• H 1: SÍ hay diferencias estadísticamente significativas en el comportamiento
de la variable cuantitativa en los diferentes niveles o categorías de la
variable cualitativa.
Dicho esto, la lógica detrás de la prueba es comparar el valor promedio de la
variable cuantitativa para los dos grupos de la variable cualitativa (ganancias de
las empresas dirigidas por hombres menos ganancias de las empresas dirigidas
por mujeres), esta diferencia observada se contrasta con la diferencia esperada
si la hipótesis nula fuera verdadera. Entre mayor sea la diferencia entre la
diferencia observada y esperada entre medias, mayor confianza tendremos en que
son dos “poblaciones” diferentes y la diferencia entre ellas es genuina; en otras
palabras, ganaremos evidencia a favor de rechazar la hipótesis nula.
Por último, es importante recordar que, al igual que la mayoría de pru ebas
estadísticas, la prueba t es una prueba paramétrica; esto significa que para
garantizar una estimación insesgada y robusta de la prueba requiere que la
variable cuantitativa se distribuya de forma normal en los dos grupos que se
comparan. De forma adicional, se requiere garantizar el cumplimiento de la
homocedasticidad y la independencia de las observaciones.
Ya hemos visto como identificar
datos atípicos e influyentes. Para
validar el cumplimiento del
supuesto de normalidad podemos
recurrir al uso del análisis gráfico
(histogramas o diagramas de cajas)
y al uso de pruebas estadísticas. Las
gráficas son muy útiles para
muestras grandes; pero, para
muestras pequeñas pueden no ser
tan útiles. En estos casos se recomienda recurrir a la opción de las pruebas. Las
pruebas más comunes son la prueba Kolmogorov - Smirnov y la prueba Shapiro -
Wilk. Si las pruebas, o una de ellas, son no significativas (el p value es mayor a
.05) significa que la distribución de la variable no es distinta de la distribución
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
normal7. Para identificar el cumplimiento del supuesto de homocedasticidad, se
puede recurrir al uso del test de Levene o prueba de Welch, al igual que en las
pruebas de normalidad, si las pruebas son no significativas, se asume el
cumplimiento del supuesto.
7
Notemos que para el caso de las pruebas de normalidad descritas la lógica es un poco distinta a la
que hemos visto. En estos casos, la hipótesis nula es que la variable de interés se distribuye de
manera normal, razón por la cual no queremos rechazarla. En otras palabras, queremos que la
probabilidad de que los datos se comporten como lo sugiere la hipótesis nula sea muy alta, por esto
queremos p values superiores a .05.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Para obtener estas pruebas, en el menú descrito previamente (Analizar -
estadísticos descriptivos - explorar) señalamos las siguientes opciones:
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
SPSS no nos permite estimar la
prueba de Levene de forma
independiente a la prueba t, así
que para saber si se cumple el
supuesto de homocedasticidad
debemos correr la prueba. La
siguiente figura muestra el
procedimiento para hacerlo
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
La selección de estas opciones arrojará una salida como esta:
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
diferencias estadísticamente significativas en las ganancias de los
negocios propiedad de hombres y de mujeres.
Los resultados anteriores también
mostrarán una salida adicional que
nos indicará el tamaño del efecto o la
magnitud de las diferencias. Allí se
presentarán la d de Cohen (columna
estimación de puntos), para identificar
qué tan grande (o pequeño) es el
efecto, podemos recurrir a la tabla de
equivalencias que encontramos en la
página de psychometrica.
Es común que no podamos cumplir el
supuesto de normalidad. En esos casos,
tres opciones están disponibles: 1)
recurrir a métodos robustos, 2) utilizar
alternativas no paramétricas y 3)
transformar la variable cuantitativa de
interés.
Para el primer caso, recurrir a métodos robustos, SPSS nos ofrece la opción de
trabajar con una técnica conocida como Bootstrap, esta técnica creará diferentes
submuestras y cuando encuentre una que sea representativa de la muestra
general y la población y tenga distribución normal, realizará la prueba estadística.
Para obtener el bootstrap, solo basta hacer click en la opción “Simular muestreo”
y activar las opciones “Realizar simulación de muestreo” e “Intervalos de
confianza - sesgo corregido y acelerado BCa). Esto arrojará una salida similar a la
siguiente:
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Al igual que con los resultados de la prueba t, se debe interpretar el valor de la
significancia. Valores mayores a .05 nos llevan a concluir que no hay evidencia
suficiente para rechazar la hipótesis nula por lo que no podemos afirmar que sea
falsa o en otras palabras, debemos señalar que no hay efecto, en este caso
diferencia entre los dos grupos analizados.
La segunda opción a la que podemos recurrir es usar pruebas no paramétricas.
Esta familia de pruebas no requiere del supuesto de normalidad y
homocedasticidad; sin embargo, pueden no ser tan robustas como las pruebas
paramétricas. La alternativa no paramétrica a la prueba t se demonima prueba de
Mann - Whitney y tiene la misma hipótesis nula y alternativa que la prueba t
original.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
La tercera opción, es la transformación de variables. Según establece Field (2013),
cuando la distribución presenta asimetría positiva, curtosis positiva, varianzas
heterogéneas o falta de linealidad la transformación logarítmica (𝑙𝑜𝑔(𝑋)) o la
transformación de raíz cuadrada (√𝑋) puede funcionar para corregir estos
problemas. Pese a ser una técnica muy popular, se debe ser muy cuidadoso con el
tipo de transformaciones que se utilizan dado que puede afectar de manera
importante la interpretación de los resultados.
Para finalizar, el reporte de estos resultados se puede hacer de dos maneras: en
caso tal que se comparen varias variables cuantitativas para los dos grupos de
una misma variable cualitativa (Por ejemplo, si se comparan las ganancias, los
costos, los ingresos y cantidad de trabajadores en los negocios de hombres y
mujeres) se puede hacer uso de tablas que incluyan el valor de la prueba t
original, el error estándar, el valor de significancia y el intervalo de confianza. En
caso de recurrir a algún método robusto o técnica paramétrica, se debe presentar
el valor de la nueva prueba, error estándar, valor de significancia e intervalo de
confianza.
Prueba t Prueba t (Bootstrap)
Ganancias según sexo .633 [-17666.546, 8419.761 [-19329.59,
propietario 34526.067] 32491.59]
(13314.48) (13010.708)
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
significativa t(77213) = .633, p = .527. El tamaño del efecto encontrado fue de
.005, un tamaño del efecto nulo, de acuerdo con Cohen (1988).
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Modelo) y la varianza intragrupos (Suma de Cuadrados de los Errores). Si el
numerador, lo que puedo explicar, es superior al denominador, lo que no puedo
explicar, tengo un modelo robusto; si además la prueba de significancia da un
valor menor a .05, puedo rechazar la hipótesis nula y ganar más evidencia a favor
de la hipótesis alternativa.
Los pasos de estimación y supuestos del modelo ANOVA son los mismos que para
la prueba t. Primero debemos explorar el comportamiento de nuestros datos,
validar el cumplimiento de los supuestos y después proceder a realizar el test y
corregir, si aplica. Para estimar el modelo ANOVA debemos:
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Los resultados nos muestran las estadísticas descriptivas de la variable
cuantitativa (ganancias) para los niveles de la variable cualitativa (ubicación del
negocio). En la parte inferior, se presenta el resultado del modelo ANOVA. La
suma de cuadrados “entre grupos” nos muestra la varianza explicada por nuestro
modelo, la suma de cuadrados “dentro de grupos” nos indica la varianza que
nuestro modelo no puede explicar. En la siguiente columna, se presentan los
grados de libertad de la prueba y en la columna posterior, se estima un valor
promedio de la varianza explicada y la no explicada. Finalmente, la ratio F se
calcula al dividir estos dos “promedios”; dado que el numerador es mayor al
denominador (6.235), se puede afirmar que el modelo es robusto y el valor de
significancia, menor a .001 indica que debemos rechazar la hipótesis nula.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Adicional a los resultados de la prueba, también pedimos al software presentarnos
los resultados de la prueba Welch para homogeneidad de varianzas. El resultado
muestra un valor del estadístico de 7.777 y un p value menor a .001. Esto indica
que, debemos rechazar la hipótesis nula, es decir hay una violación al supuesto de
homocedasticidad.
Al igual que en el caso de la prueba t, podemos corregir el problema de
normalidad y homocedasticidad recurriendo a las tres alternativas estudiadas.
Para el caso del modelo ANOVA, la alternativa no paramétrica es la prueba
Kruskall - Wallis, para obtenerla debemos ir al mismo menú que en el caso de la
alternativa no paramétrica a la prueba t y seleccionar la opción “K muestras
independientes” y allí elegir la prueba Kruskall.
Finalmente, es importante señalar que, a diferencia de la prueba t donde es claro
que si hay diferencias estas se presentan en los dos grupos de comparación, en la
prueba ANOVA las diferencias se pueden presentar entre todos los grupos o solo
entre algunos de ellos. Para identificar exactamente donde están las diferencias,
podemos recurrir al uso de contrastes post hoc.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Estos contrastes post hoc nos permiten identificar qué grupos son iguales y
cuáles son diferentes entre sí. Cuando los tamaños de los grupos que se están
comparando son diferentes, se recomienda el uso de los contrastes de Hochberg
y Gabriel.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Así, como se aprecia en la figura, existen dos grupos de ganancias según dónde
están ubicados. En otras palabras, los negocios ubicados en los lugares
codificados como 8. 7, 1 y 3 son similares entre sí, pero diferentes de los negocios
ubicados en los lugares codificados con las etiquetas 5, 2, 4 y 6.
Finalmente, el reporte de resultados del modelo ANOVA sigue la misma estructura
que el reporte de resultados de la prueba t. La única diferencia es que, en caso tal
que las diferencias sean estadísticamente significativas, se deben reportar los
resultados de los contrastes indicando que grupos son similares y qué grupos
difieren entre ellos.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
5 Bibliografía
• Faul, F., Erdelfer, E., Lang, A & Buchner, A (2007) G*Power 3: a flexible
statistical power analysis program for the social, behavioral, and biomedical
sciences. Behavior ans research methods, 39(2), pp 175 – 192.
• Field, A (2013) Discovering statistics using IBM SPSS Statistics. Sage.
• Medina, I & Avendaño, B (2017) Medición de variables y estrategias
ulteriores de análisis. En: P. Páramo (Comp.) La recolección de información
en las ciencias sociales. Una aproximación integradora, pp. 39-56. Lemoine
Editores.
• Rincón, JC & Barreto, I (2013) Técnicas de muestreo para investigaciones
sociales. En: P. Páramo (Comp) La investigación en ciencias sociales:
estrategias de investigación, pp. 33-44. Universidad Piloto de Colombia.
RED SUMMA®
Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados