0% encontró este documento útil (0 votos)
87 vistas43 páginas

Guia Analisis Estadistico

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
87 vistas43 páginas

Guia Analisis Estadistico

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

1 © RED SUMMA
Índice

1 El Proceso de Investigación .............................................................................................4


1.1 Una pregunta ¿Una respuesta? ............................................................................. 5
2 Prueba de Hipótesis ............................................................................................................6
2.1 El enfoque Null Hypothesis Significance Test -NHST- ...................................6
2.1.1 Tipos de errores..............................................................................................9
2.2 Enfoques modernos para la evaluación de hipótesis .................................... 11

2.2.1 Tamaños del efecto ...................................................................................... 11


3 Recolección de Información ........................................................................................... 12
3.1 Rol de las variales y nivel de medición ............................................................. 12
3.2 Elementos básicos del muestreo ........................................................................ 15

3.2.1 Tipos de muestreo ....................................................................................... 16

3.2.2 Estimación tamaños de muestra ............................................................. 17


3.3 Modelos estadísticos .......................................................................................... 19

3.3.1 Sesgos ............................................................................................................ 20


4 Análisis Descriptivo .......................................................................................................... 23
4.1 Análisis de variables cualitativas: frecuencias absolutas y relativas....... 23
4.2 Análisis de variables cuantitativas ................................................................ 24

4.2.1 Centro de una distribución ....................................................................... 24

4.2.2 Dispersión de una distribución ............................................................... 25


4.2.3 Errores estándar .......................................................................................... 26
4.2.4 Intervalos de confianza ..............................................................................27
4.3 Pruebas de comparación de medias ..............................................................27

4.3.1 Prueba t de diferencia de medias .......................................................... 28


4.3.2 Prueba Anova de diferencia de medias ................................................ 37

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
5 Bibliografía.......................................................................................................................... 43

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Objetivos

1 El Proceso de Investigación
El análisis cuantitativo de datos se ha convertido en un elemento central para la
validación de hipótesis de investigación y generación de teorías en el campo de
las ciencias sociales y administrativas. De forma tradicional, aunque no exclusiva,
el análisis cuantitativo se base en una aproximación deductiva a la
generación de conocimiento; esto implica que la revisión de literatura, el marco
teórico y la hipótesis de investigación son el corazón de este tipo de análisis.
Así pues, antes de empezar, es importante recordar que el punto de partida de
cualquier análisis es la teoría, si no se cuenta con una base confiable para
interpretar los resultados obtenidos, incluso la técnica de análisis más sofisticada
puede ser inútil y conducir a resultados espúreos.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Dicho lo anterior, y armados de un buen arsenal teórico, empecemos a organizar
los elementos básicos requeridos para el análisis estadístico de nuestra
información.

1.1 Una pregunta ¿Una respuesta?

Tendemos a pensar
en la investigación
como un proceso
sofisticado y lejano
cuyos resultados se
comparten en papers
y conferencias a las
que no tiene acceso
la mayor parte de la
población; sin
embargo, la
investigación nos es
natural y estamos en
contacto con ella
desde nuestros
primeros años de
vida. Como seres
sociales y racionales,
desde niños estamos
interesados en conocer el mundo que nos rodea; pero, conocerlo no nos es
suficiente, explicarlo también nos es necesario ¿Qué? ¿Cuándo? ¿Cómo? ¿Por
qué?; y, aun cuando hallar la respuesta a esas preguntas a veces nos ponga en
caminos peligrosos (¿Cómo aprendimos que el agua conduce la electricidad?),
también abre otros rumbos más satisfactorios.
Así pues, a medida que nuestro mundo se complejiza, también lo hacen las
preguntas que nos hacemos y los fenómenos que capturan nuestro interés; este
es el caso de las ciencias sociales y administrativas. Las preguntas sobre el
funcionamiento del mundo social tienden a llegar con la adultez y las del mundo
administrativo con la experiencia laboral. A diferencia del mundo natural, en el
que la experimentación es intuitiva, los mundos sociales y administrativos nos
exigen observaciones más sistemáticas y que combinen la experiencia con la
lógica; así, llegamos al mundo de la investigación científica.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
A diferencia de nuestra primera aproximación con la investigación, la
investigación científica nos exige seguir un proceso sistemático, lógico y
replicable que permita ampliar nuestro conocimiento del mundo. El proceso de
investigación científica parte de una observación inicial del mundo, una pregunta
de investigación. Para responder esta pregunta recurrimos a literatura científica
que proponga respuestas y a marcos teóricos que nos ayuden a analizar la
pertinencia de estas respuestas.
Cuando las respuestas no son satisfactorias o son inexistentes, la teoría nos guía
para proponer nuevas respuestas tentativas a la pregunta de investigación. Estas
respuestas o hipótesis son el corazón del análisis estadístico de datos. Es aquí
donde los datos entran a jugar un rol importante, para validar si nuestra hipótesis
es mejor o peor que las otras respuestas existentes en la literatura recolectamos
información para medir los fenómenos que queremos estudiar. Así, debemos
operacionalizar los fenómenos (identificar variables), recoger información (medir
las variables) y encontrar patrones, identificar tendencias o proponer modelos
(analizar las variables) que nos permitan responder a la pregunta planteada.

2 Prueba de Hipótesis
La prueba de hipótesis o prueba de contraste está en el centro del análisis
estadístico de datos. Es a través de este tipo de pruebas que podemos saber si el
modelo que hemos propuesto para explicar el comportamiento de una muestra
puede generalizarse a la población y qué tan eficiente es el modelo para realizar
predicciones. El enfoque más común para validar hipótesis a partir de modelos
estadísticos es conocido como el enfoque de significancia de la hipótesis nula,
que se describe a continuación.

2.1 El enfoque Null Hypothesis Significance Test -NHST-

Field (2013) señalan que Fisher planteó un experimento para validar la afirmación
de una mujer que afirmaba poder identificar, al probar su té, si primero se había
adicionado la leche o el té. La mujer sabría que a la mitad de las tasas se
adicionó primero la leche y a la otra mitad primero el té, pero no sabría en qué
orden le serían presentadas las tasas.
Si solo se tuvieran dos tasas, la probabilidad de que la mujer acertara sería del
0.5, lo que igual dejaría dudas sobre si la mujer es capaz de identificar la
preparación del té o si solo tuvo suerte. Por esta razón, valdría la pena complicar

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
el experimento un poco más adicionando una mayor cantidad de tasas de té, por
ejemplo, contando con 6 tasas. En este caso, habría 20 posibilidades de ordenar
las tasas de té, con lo que, si la mujer acertara de nuevo solo una vez, habría
acertado el 5% de las veces.
El ejemplo anterior es útil para ilustrar que solo cuando hay una muy pequeña
probabilidad de que la mujer complete la tarea por suerte, podemos asegurar que
tiene una habilidad especial para identificar la técnica de preparación del té. Este
valor del 5% es comumente usado por los científicos como umbral para evaluar
una hipótesis. Solo cuando la posibilidad máxima de que los datos se comporten
como si no existiera ningún modelo es del 5%, podemos afirmar que el modelo
basado en que el efecto no existe no es útil para explicar nuestros datos y por
tanto es mejor un modelo alternativo.
Ahora bien, la aplicación de la lógica anterior se evidencia en la formulación de
La hipótesis alternativa es la respuesta las hipótesis de investigación. El enfoque de la Prueba de Significancia de la
tentativa a la pregunta de investigación.
Hipótesis Nula -NHST- se basa en la idea de plantear una hipótesis alternativa
(H1)1, que proviene de la teoría y, normalmente, supone la existencia de un
Se construye a partir de lo sugerido por
efecto. El otro tipo de hipótesis es la hipótesis nula (H0), que es la opuesta a la
la literatura y es, usualmente, la
alternativa y usualmente afirma que no hay efecto.
hipótesis que no queremos rechazar, la

hipótesis que sugiere la existencia de


El supuesto básico del enfoque NHST es que no podemos probar si la H1 es
cierta usando métodos estadísticos, pero si podemos recoger la suficiente
un efecto.
cantidad de información para probar que la Ho es falsa. Si logramos probar que
la Ho es falsa, esto apoyaría nuestra H1; sin embargo, rechazar la Ho no confirma
automáticamente la veracidad de la H1. Por esto, más que aceptar o rechazar una
hipótesis, se debería hablar de la probabilidad de obtener la información con la
que se cuenta asumiendo que la Ho sea verdadera.
Con el propósito de tener una “medida” que permita estimar esta probabilidad de
El valor de probabilidad p value nos que los datos con los que contamos se comporten según la Ho, se utiliza el valor
permite identificar si una prueba es de probabilidad ρ como un índice del peso de la evidencia contra la hipótesis
estadísticamente significativa. Su valor

muestra la probabilidad de que un 1


Con frecuencia se habla de las hipótesis a una cola o dos colas. Nos referimos a hipótesis de una
modelo basado en la hipótesis nula se
cola cuando sabemos exactamente en qué dirección esperamos que se comporten nuestros datos
ajuste a los datos obtenidos de la
(Un aumento de la inversión en publicidad, aumenta las ganancias de una empresa); en contraste,
muestra. usamos la hipótesis a dos colas cuando esperamos un resultado en cualquiera de las dos direcciones.
Si bien se encuentra el uso de hipótesis de una cola, un amplio conjunto de estadísticos coincide en
que siempre se debería trabajar con hipótesis de dos colas para evitar ignorar resultados de interés
que pueden darse en la dirección contraria a la planteada.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
nula. Al pensar en el NHST como un sistema, lo que hacemos tradicionalmente
para validar cualquier H1 se resume en cuatro pasos.

Finalmente, es importante señalar que la base de este p - value o valor de


probabilidad ρ subyace en la idea de que los modelos que creamos solo explican
una parte del comportamiento de los datos, pero no el total. A la variación que
puede explicar nuestro modelo, la llamamos variación sistemática (aquella que
podemos predecir y explicar; por ejemplo; el 20% de las ganancias de una
empresa se explican por la inversión en publicidad). La variación no sistemática
es la variación que no podemos explicar con nuestro modelo; en otras palabras, es
un error o una variación no atribuible al efecto que estamos investigando.
Así, la mejor forma de saber qué tan bien se comporta nuestro modelo es
comparar la variación sistemática contra la no sistemática. En términos sencillos:

𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑑𝑎 𝑝𝑜𝑟 𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 𝐸𝑓𝑒𝑐𝑡𝑜


𝑃𝑟𝑢𝑒𝑏𝑎 𝑒𝑠𝑡𝑎𝑑í𝑠𝑡𝑖𝑐𝑎 = =
𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑛𝑜 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑑𝑎 𝑝𝑜𝑟 𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 𝐸𝑟𝑟𝑜𝑟

La ratio entre la varianza sistemática y la no sistemática es la base de gran parte


de las pruebas que utilizamos en el análisis estadístico de datos. Dado que
nuestro modelo estadístico refleja la hipótesis que proviene de la teoría (hipótesis
alternativa), entonces entre mayor sea el efecto (numerador), mayor será el valor
de la prueba estadística y menor la probabilidad de que el resultado ocurra por

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
suerte. Cuando esto sucede, una prueba estadística grande y un valor de
probabilidad pequeña, hablamos de una prueba estadística significativa2.
En otras palabras, una prueba estadística significativa implica que sería muy poco
probable que un modelo estadístico basado en la hipótesis alternativa se ajustara
tan bien si la hipótesis nula fuera verdadera. Por tanto, rechazamos la Ho y
aumentamos nuestra confianza en que la H1 es verdadera.

2.1.1 Tipos de errores

Cuando adelantamos pruebas de validación de hipótesis tenemos dos


alternativas: si el modelo propuesto (basado en la hipótesis alternativa) se ajusta
bien, podemos confiar en que la hipótesis nula es falsa; si, por el contrari o, el
modelo no presenta buen ajuste, no tenemos información suficiente para rechazar
la hipótesis nula y ganar confianza en nuestra hipótesis alternativa. En otras
palabras, son dos posibilidades: rechazamos la hipótesis nula o no la rechazamos.
Este resultado obtenido se basa en el análisis de un conjunto de datos que
recolectamos (muestra), pero nuestro interés es obtener información del
funcionamiento de la población; es decir, generalizar nuestros resultados a la
población general. Al hacer esto, nos enfrentamos a cuatro situaciones:
1 Los resultados obtenidos de la prueba de hipótesis sugieren rechazar la
hipótesis nula (el p value indica que la probabilidad de que el modelo
basado en la hipótesis nula se ajuste tan bien a los datos es mínima -
menor al 0.05) y en la realidad la hipótesis nula es falsa. A esta confianza al
rechazar la hipótesis nula cuando es falsa, la llamamos el nivel de
confianza.
2 Los resultados obtenidos sugieren rechazar la hipótesis nula; pero, en la
El error tipo I (𝛼) representa la realidad la evidencia no era suficiente para afirmar que la hipótesis nula es
probabilidad de rechazar la Ho cuando falsa. En otras palabras, creemos que hay un efecto en la población, pero no
esta no es falsa. El error tipo II (𝛽)
es cierto. A esto lo llamamos error tipo I o “falso positivo” y es
representado con la letra griega alfa α. El criterio convencional indica que
representa la probabilidad de no
el nivel máximo tolerable de este error es del 5%; sin embargo, es común
rechazar la Ho cuando esta es falsa,
en ciencias económicas, administrativas y sociales encontrar valores de
hasta el 10%.

2
La significancia de una prueba estadística está directamente ligada al tamaño de muestra: el
mismo tamaño de efecto tendrá diferentes valores de significancia en tamaños de muestra
diferentes: diferencias pequeñas pueden ser consideradas significativas en tamaños de muestra
grandes, y efectos grandes pueden ser considerados no significativos en muestras pequeñas.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
3 El opuesto al error tipo I es el error tipo II, representado por la letra beta
β este tipo de error sucede cuando creemos que no hay efecto en la
población y en realidad si lo hay. Cohen (1992, citado por Field, 2013, p. 68)
sugiere que la probabilidad máxima aceptable de este tipo de error es del
20%. Este valor significaría que si tomamos 100 muestras de una población
en la que el efecto existe, fallaríamos en detectar ese efecto en 20 de esas
muestras.
4 El último recuadro muestra la habilidad de una prueba para encontrar un
efecto cuando este existe se conoce como su poder estadístico. Este
poder es el opuesto a la probabilidad de que la prueba no encuentre el
efecto que existe en la población, razón por la que se representa como (1-
β). El poder o potencia estadística dependerá de que tan grande es el
tamaño del efecto, el nivel de error tipo I que fijemos y el tamaño de la
muestra.

Es importante señalar que, de forma usual existe un trade off entre la probabilidad
de error tipo I y tipo II. Si se reduce la probabilidad de aceptar que un efecto es
real (se reduce el umbral de error tipo I), es más probable que perdamos de vista
un efecto que en realidad existe en la población (el error tipo II); por tanto,
reducir la probabilidad de cometer error tipo I, implica generalmente aumentar la
probabilidad de cometer error tipo II. La probabilidad de cometer estos dos
errores se basa en supuestos distintos por lo que es difícil saber la naturaleza

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
exacta de la relación o la proporción entre uno y otro, esto implica que debe ser el
investigador quien con base en la potencia estadística y la literatura decida los
umbrales que utilizará.

2.2 Enfoques modernos para la evaluación de hipótesis

El enfoque NHST es el método dominante para evaluar teorías a través del


análisis estadístico de datos. Sin embargo, varios estadísticos cuestionan la
confianza excesiva en este enfoque.
En primer lugar, como se ha señalado, no se debería confiar tanto en la
significancia estadística y el p value como su medida debido a que esta se ve muy
afectada por el tamaño de la muestra; efectos grandes e importantes pueden ser
identificados como no significativos porque se cuenta con un tamaño de muestra
muy pequeño.
En segundo lugar, ¿una prueba no significativa resulta en que la hipótesis nula es
verdadera?, la respuesta es no. Una prueba no significativa implica que el tamaño
del efecto no es lo suficientemente grande para ser encontrado, pero eso no
significa que el efecto sea 0.
En tercer lugar, otro problema importante del enfoque NHST es que alienta la idea
de un todo o nada. Si el p value es menor a .05, un efecto es significativo, pero si
es mayor .05 un efecto no es significativo.

2.2.1 Tamaños del efecto

Uno de los problemas que se mencionó es que el nivel de significancia no brinda


suficiente información sobre la importancia de un efecto. La solución a este
problema es medir el tamaño del efecto que estamos validando de forma
estandarizada, esta medición se conoce como tamaño del efecto. Esta medida es
una medida estandarizada de la magnitud del efecto observado.
Las medidas más comunes del tamaño del efecto son la δ de Cohen, el
coeficiente de correlación de Pearson y el odds ratio (razón de nomios, en
español). La δ de Cohen estandariza la diferencia de medias entre dos grupos al
dividirla sobre la desviación estándar; de esta manera, se obtiene una medida de
la relación efecto - error expresada en desviaciones estándar.
La herramienta psychometrica, disponible en el enlace
https://www.psychometrica.de/effect_size.html, permite estimar los tamaños del
efecto de diferentes tipos de pruebas estadísticas según el resultado obtenido de
la prueba estadística.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
3 Recolección de Información
Considerando la información previa, ahora es el momento de centrarnos en la
captura de información. Existen diferentes instrumentos para recolectar
información cuantitativa, entre ellos cuestionarios, experimentos, uso de
instrumentos mecánicos, etc. Esta información puede provenir de fuentes
primarias, como cuando somos nosotros quienes “producimos” la información al
realizar la medición; la información también puede provenir de fuentes
secundarias, este es el caso en que trabajamos con información producida por
otras instituciones, investigadores, entre otros.
El diseño de instrumentos en si mismo constituye un campo de la investigación
cuantitativa, a continuación, nos centraremos más en las preguntas relacionadas
con el ¿Qué medir? Y ¿Cuántos individuos deberían hacer parte de nuestra
muestra?

3.1 Rol de las variales y nivel de medición

Para evaluar hipótesis,


La variable independiente o necesitamos información. Al
predictora es aquella que no depende referirnos a información,
de otras variables incluidas en el
hablamos de variables o
atributos que varían entre
modelo y cuyo propósito es explicar
individuos y que son relevantes
el comportamiento de la variable
para nuestra investigación. Las
dependiente o resultado. variables pueden cambiar entre
individuos, ubicaciones o el
tiempo y es clave identificar
con claridad el rol que cumplen
y su nivel de medición.
La mayoría de pruebas estadísticas requieren que identifiquemos dos tipos de
variables. La variable independiente se denomina de esa manera porque su
valor “no depende” de ninguna de las otras variables incluidas en el modelo; en
ese sentido, la o las variables independientes son variables explicativas. En
contraste, la variable dependiente es aquella considerada efecto o resultado de

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
una o varias variables independientes; es la variable dependiente la que
buscamos predecir o explicar3.
El otro elemento importante sobre las variables es su nivel de medición. De forma
amplia, las variables pueden clasificarse en cuantitativas y cualitativas. Las
variables cualitativas son aquellas que denotan pertenencia a determinado
grupo; esto es, son variables hechas de categorías. El “número” asignado a estas
variables no es una medida de la magnitud que se tiene de un atributo, en su
lugar es una etqiueta que se utiliza para denominar una categoría. Por ejemplo, si
suponemos la variable “pertenencia a una religión”, las categorías pueden
medirse como: 1) catolicismo, 2) cristianismo, 3) islamismo, 4) hinduismo, 5)
ateísmo, 6) ninguna y 7) otra. En este caso, que una persona tenga el valor 2 en
esta variable no indica que su pertenencia religiosa sea de 2 unidades, significa
que pertenece al grupo 2; es decir, practica el cristianismo.
Las variables cualitativas que solo cuentan con dos opciones de respuesta, por
ejemplo, sexo si es medido como hombre y mujer, se denominan variables
binarias, dicotómicas o dummy. Por otra parte, las variables cualitativas que
tienen diferentes opciones de respuesta, como el caso de la religión, son
conocidas como variables nominales o categóricas. Dado que, para este caso, la
variable está compuesta por categorías, no tiene sentido usar aritmética con ellas;
estas variables solo son suscpetibles de ser analizadas a través del uso de
frecuencias.
Para los ejemplos anteriores, las etiquetas de las variables no siguen ningún
orden en su asignación; sin embargos, en algunos casos las etiquetas asignadas a
las categorías pueden organizarse de alguna manera. Por ejemplo, en las escalas
tipo Likert, muy comunes en estudios de percepción, las opciones se construyen
siguiendo la estructura: 1) En total desacuerdo, 2) En desacuerdo, 3) Ni de
acuerdo, ni en desacuerdo, 4) De acuerdo, 5) Totalmente de acuerdo; en este
caso, si bien la etiqueta no indica “cuántas unidades se tiene sobre el acuerdo
con algo”, si indica que individuo está más de acuerdo o más en desacuerdo. Así
pues, las variables cualitativas ordinales no solo nos indican a qué categoría
pertenece un individuo, sino también si esa categoría implica tener más o menos
del atributo así no se sepa con precisión cuánto.

3
Algunos estadísticos sugieren usar las denominaciones dependiente e independiente solo para el
caso de estudios experimentales; para otro tipo de estudios sugieren el uso de variable predictora
(independiente) y resultado (variable dependiente).

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
En contraste con las variables cualitativas, las variables cuantitativas expresan
la magnitud que se posee de un atributo; por ejemplo, la edad, el ingreso, el
puntaje en una prueba, etc. Un primer tipo de variable cuantitativa se denomina
de intervalo, “en términos de propiedad de la medida implica aquellas
características que son medidas numéricamente, pero cuyo cero no implica
ausencia de la variable, sino que funciona como un punto de referencia.” (Medina
y Avendaño, 2017, p. 42). Ejemplos clásicos de este tipo de variables son la
temperatura (cero grados no significa ausencia de temperatura, sino que funciona
como punto de referencia) o la medición del desempeño en una prueba como el
puntaje respecto al promedio del grupo total (el estudiante que obtiene el mismo
valor que el promedio se registra como cero y los puntajes de los demás
estudiantes se registran considerando no el puntaje absoluto, sino qué tan lejos,
por encima o por debajo, están del promedio).
El segundo tipo de variables cuantitativas, las variables de razón, también se
miden de manera numérica, pero a diferencia de la variable de intervalo, en este
caso el cero se considera como un valor absoluto. Por ejemplo, los costos de
funcionamiento de una empresa, el Producto Interno Bruto de un país, el puntaje
obtenido en una prueba.
Por último, es importante señalar que las variables cuantitativas pueden ser
medidas de forma discreta o continua. Las variables discretas varían en unidades
completas como el caso de la cantidad de hijos; esta variable no puede contarse
en fracciones, una persona no podría tener 2,3 hijos, pese a que la variable es
cuantitativa. Por otra parte, las variables cuantitativas discretas pueden asumir
diferentes valores en una escala; por ejemplo, los centímetros que mide una
persona o los kilogramos que pesa un bebé al nacer. Sin embargo, la diferencia
entre estos dos tipos de medición puede ser difusa; por ejemplo, los ingresos de
un individuo medidos en pesos varían en unidades completas, pero de forma
usual es considerada como una variable discreta.
Considerar el nivel de medición de las variables es fundamental para identificar
qué tipo de análisis estadístico se puede desarrollar. La Tabla 1 presenta una
descripción general, no exhaustiva, del tipo de análisis que se pueden realizar
según el tipo de variables que tengamos.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Tabla 1.
Pruebas de análisis de datos según nivel de medición de variables.

Escala Ejemplos de Gráficas Pruebas estadísticas


estadísticas apropiadas
apropiadas

Nominal Frecuencia (absoluta Gráficos


y relativa) circulares y de
barras.
Coef. De
contingencia (X2 )

Ordinal Mediana Gráficos de


barras apiladas.
Percentiles
Asociaciones
Correlaciones

Intervalar Media y mediana Box plot e Pruebas estadísticas no


histogramas. paramétricas
Desviación estándar
y varianza
Correlaciones

Razón Media y mediana Box plot e Pruebas estadísticas


histogramas. paramétricas y no
Desviación estándar
paramétricas.
y varianza
Correlaciones

3.2 Elementos básicos del muestreo

El muestreo puede entenderse como el proceso de extraer una muestra de la


población considerando unos criterios determinados que permitan contar con
sujetos (unidades de estudio) que abarquen todos los atributos de interés de
nuestra investigación. Estos sujetos pueden ser objetos como marcas, productos,

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
lugares, documentos, discursos, etc., personas, o empresas (Rincón y Barreto,
2013).

3.2.1 Tipos de muestreo

Existen diferentes técnicas para seleccionar la muestra de la población con la que


trabajaremos. De forma general, existen dos grandes tipos de muestreo: el
probabilístico y el no probabilístico.
El muestreo probabilístico se conoce la probabilidad de que cada sujeto de la
población haga parte de la muestra. En otras palabras, es un muestreo en el que
el investigador puede controlar la probabilidad de que determinado sujeto haga o
no parte de la muestra. Este tipo de muestreo, a su vez, se subdivide en dif erentes
tipos:
• Muestreo Aleatorio Simple -MAS-: Es considerado como el tipo de muestreo
más robusto cuando se hace referencia a la investigación con técnicas
cuantitativas. En este tipo de muestreo, todos los sujetos tienen la misma
probabilidad de ser seleccionados dentro de la muestra. Usualmente,
adelantar este tipo de muestreo requiere contar con un registro detallado
de toda la población y a través de un sorteo o método totalmente aleatorio
decidir quién hará parte de la muestra y quién no. Aún cuando es altamente
valorado, sus elevados costos lo hacen poco factible.
• Muestreo estratificado: En este tipo de muestreo, se organiza a los
individuos en estratos o grupos con individuos muy similares entre sí, pero
diferentes a los otros grupos. Estos estratos son aleatorizados para decidir
cuáles harán parte de la muestra y cuáles no. En otras palabras, es un MAS
no de individuos, sino de grupos.
• Muestreo por conglomerados. Un conglomerado es un grupo de sujetos que
prácticamente contiene representación de toda la población. A diferencia
de los estratos, dentro de los conglomerados, los individuos pueden ser muy
dispares, pero, los conglomerados son similares entre sí.
• Muestreo sistemático: A diferencia de los tres tipos anteriores de muestreo,
no todos los sujetos tienen la misma probabilidad de ser elegidos. En su
lugar, “se toma al primer individuo de forma aleatoria, y de allí en adelante y
hasta el final se toma uno cada tantos. Definir el cada tantos, permite saber
cuántos individuos van a obtenerse.” (Rincón y Barreto, 2013, p. 40)
En contraste a los muestreos probabilísticos, los no probabilísticos se
caracterizan por no estar guiados por la probabilidad de hacer parte o no de la

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
muestra, sino por otras razones. Tres tipos de muestreos no probabilísticos son
considerados como los más comunes:
• Muestreo por conveniencia (fortuito): El investigador selecciona a los
sujetos que más le conviene que hagan parte de la muestra. Dada esta
forma de selección, los resultados obtenidos de la prueba de contraste de
la hipótesis solo son válidos para los sujetos seleccionados y no podrán
ser generalizables a la población.
• Muestreo por cuotas: Presupone un conocimiento previo de cómo los
individuos de la población se agrupan naturalmente. Así, el investigador
conoce perfectamente los estratos y toma individuos de cada estrato por
conveniencia. A diferencia del muestreo por estratos, no se puede asegurar
que se cuente con una representación total de la población y la
identificación de los grupos corre el riesgo de no ser muy precisa. Un
ejemplo de este tipo de muestreo puede ser encuestar a “mujeres jóvenes
universitarias”; así, se seleccionan las primeras, por señalar una cuota,
cinco mujeres que cumplan con esta condición y son ellas quienes se
incluyen en la muestra.
• Muestreo intencional: Como su nombre lo indica es un tipo de muestreo
que se basa en el conocimiento previo del problema y de la necesidad que
ciertos sujetos hagan parte de la muestra. Existen 10 tipos de este
muestreo (Rincón y Barreto, 2013) y es mucho más característico de la
investigación con técnicas cualitativas que cuantitativas.

3.2.2 Estimación tamaños de muestra


Adicional a establecer claramente el tipo de muestreo que se elegirá y sus
“costos” en téminos financieros y para nuestra investigación, es el momento de
definir el tamaño de la muestra. Con frecuencia, estamos muy preocupados por
obtener un número mágico que nos permita sortear todas las dificultades del
análisis de datos y olvidamos que igual de importante que la cantidad es el tipo
de muestreo y los criterios utilizados para su selección. Es importante recordar
que, si el muestreo no es probabilístico, los resultados no podrán ser
generalizables a la población.
Ahora bien, el tamaño de la muestra ideal depende de varios factores
relacionados con nuestro análisis de datos:
• Tamaño del efecto que se quiere detectar. Entre mayor sea el efecto que se
quiere detectar, menor tamaño de muestra requerido.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
• Riesgos: Ya de forma previa hablamos de la probabilidad de cometer error
tipo I y error tipo II. Entre mayor sea el tamaño de riesgo que estemos
dispuestos a tolerar, menor el tamaño de muestra necesario.
• Cantidad de variables predictoras y análisis a realizar. Entre mayor cantidad
de variables se tenga y mayor complejidad de los análisis, mayor el tamaño
de muestra requerido.
• Tamaño de la población. Entre mayor cantidad de población, mayor tamaño
de muestra.
Estimar el tamaño de muestra ideal considerando todos estos factores puede
llegar a ser muy complejo. Por fortuna, la herramienta G*Power (Faul et al., 2007)
nos facilita esta operación si contamos con la información necesaria. El software,
y su manual de uso, pueden descargarse en:
https://www.psychologie.hhu.de/arbeitsgruppen/allgemeine-psychologie-und-
arbeitspsychologie/gpower
De manera general, el software nos permite calcular el tamaño de muestra
requerido si contamos con información del tamaño del efecto, la potencia
estadística y el tamaño del error tipo I que estemos dispuestos a tolerar. De
forma adicional, el software nos pedirá que identifiquemos qué tipo de prueba de
hipótesis utilizaremos.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
El primer submenú (Statistical Test) nos pedirá identificar qué tipo de prueba
estadística utilizaremos. Para este ejemplo, supondremos que será una prueba de
diferencia de medias para dos muestras independientes, prueba que
estudiaremos más adelante. A continuación, el software nos pregunta qué tipo de
análisis requerimos; si bien hay cinco opciones de análisis, para nuestro caso, el
adecuado es “A priori” dado que es este tipo de análisis el que permite estimar el
tamaño de muestra necesario.
Las selecciones previas habilitarán los “input parameters”, allí incluiremos los
criterios que consideraremos para la selección de la muestra. Primero, está la
pregunta por si se trabajará a una o dos colas, como hemos señalado con
anterioridad, se recomienda siempre trabajar a dos colas. Segundo, se requiere
incluir el tamaño del efecto que se espera encontrar. Tercero y cuarto, se nos pide
mencionar el tamaño de error tipo I que estamos dispuestos a tolerar y la
potencia estadística de nuestra prueba (recordemos que la potencia es la
contraparte de la probabilidad de cometer error tipo II). Finalmente, en este caso,
se nos pide el ratio, esto es, si los dos grupos que se analizarán tendrán la misma
cantidad de individuos o si uno de los grupos es más grande que otro. Según el
tipo de análisis que se seleccione, esta sección cambiará y pedirá información
diferente.
El botón “calculate” nos mostará el tamaño de muestra total requerido y la
potencia estadística de la prueba.

3.3 Modelos estadísticos

En este punto ya estamos familiarizados con los fundamentos del análisis


estadístico y su relación con la recolección de información. Sabiendo esto, ha
llegado el momento de hablar sobre lo que significa “construir modelos”.
Debemos recordar que, siempre estamos trabajando con una muestra de la
población que nos permita inferir cómo funciona el total de la población. En ese
sentido, los modelos estadísticos generalmente buscan encontrar una función
matemática que permita describir un conjunto de datos obtenidos de la mejor
manera posible. Una forma sencilla de clasificar los modelos es dividirlos en
lineales y no lineales. Como su nombre lo indica, los modelos lineales se
caracterizan porque la mejor forma de describir el conjunto de datos es a través
de una línea recta cuya función general es 𝑌 = 𝑚𝑥 + 𝑏; es sobre este tipo de
modelos que se ha construido la mayor parte de las pruebas estadísticas que
conocemos.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Ahora bien, volviendo a la noción de modelo, es importante señalar que los datos
que observamos pueden ser predichos por el modelo al que elegimos ajustar los
datos más una cantidad de error. Es por esto por lo que, básicamente todos los
modelos lineales parten de la ecuación básica
𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑖 = 𝑚𝑜𝑑𝑒𝑙𝑜 + 𝑒𝑟𝑟𝑜𝑟𝑖

Los modelos estadísticos están hechos de variables y parámetros. Los parámetros


se estiman de la información y son constantes que representan algo que
“siempre” sucede en la relación entre las variables independientes y la variable
dependiente del modelo.; ejemplos de parámetros pueden ser la media y la
mediana. De esta manera, es más sencillo pensar que las pruebas estadísticas
buscan validar un modelo que sigue la misma estructura funcional compuesta por
una variable que se quiere predecir, variables independientes, parámetros de esas
variables y un término de error.
𝑅𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑖 = 𝑏1 𝑋1𝑖 + 𝑏2 𝑋2𝑖 + 𝑒𝑟𝑟𝑜𝑟𝑖

3.3.1 Sesgos

Cuando estimamos parámetros, también estamos interesados en saber qué tan


bien esos resultados representan a la población. Al ser estimaciones, podemos
cometer diferentes errores, usualmente explicados por violaciones a los
“supuestos” básicos de las pruebas estadísticas que utilizamos para validar
hipótesis. Para el caso de los modelos lineales, en general tenemos los mismos
supuestos, estos son: aditividad y linealidad, normalidad, homogeneidad de
varianzas (homocedasticidad) e independencia.
• Aditividad y linealidad: Este supuesto supone que la variable resultado
tiene una relación lineal (que se puede describir con una línea recta) con
sus variables predictoras y que el efecto combinado de las variables
predictoras es mayor que el efecto de analizarlas una por una.
• Normalidad: Este supuesto significa
diferentes cosas según el contexto. La
estimación de los parámetros debe
provenir de una distribución normal.
Para las pruebas de significancia de los
modelos, la distribución de la muestra
debe ser normal. Para la estimación de
parámetros que definen un modelo, los
errores deben estar normalmente

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
distribuidos.
Sobre este punto, es importante mencionar que, al hablar de distribución
normal, nos referimos a que la frecuencia con que cada valor de una
variable se presenta en un conjunto de datos. Cuando estas frecuencias se
distribuyen de forma simétrica alrededor del centro de todos los valores de
la variable, se habla de una distribución normal, con su característica forma
de campana.
• Homocedasticidad: Este supuesto significa que a medida que se avanza en
los diferentes niveles de la variable predictora, la varianza de la variable
resultado debe permanecer igual. En otras palabras, se espera que la
dispersión de la variable analizada se mantenga constante a través de los
diferentes valores o niveles que asuma la otra variable con la que se
contraste. La figura indica que, para el caso de dos variables cuantitativas,
en la parte más baja de la distribución, los errores son relativamente
pequeños (los puntos se distancian poco de la línea propuesta), pero a
medida que se avanza en la distribución, los errores aumentan; este cambio
en el comportamiento de los errores indica que los errores o varianzas no
son constantes, es decir no hay homocedasticidad en la distribución.
• Independencia: Este supuesto supone que los errores o desviaciones no se
relacionan entre ellos.
Adicional a considerar el cumplimiento de los supuestos anteriores de forma tal
que se reduzca la probabilidad de estimar parámetros sesgados, también es
importante considerar la presencia de datos atípicos o outliers. Como su
nombre lo indica, estos datos se caracterizan por tener una bajísima frecuencia,
pero ser lo suficientemente influyentes como para alterar la distribución de una
variable. Su identificación se realiza, tradicionalmente, utilizando diagramas de
cajas o histogramas y debemos prestar atención especial a su tratamiento. Es
importante identificar si estos datos corresponden a errores de tipeo, el tipo de
muestreo utilizado o si en efecto corresponde a una observación muy diferente a
todas las demás que debe hacer parte de la muestra por algún criterio teórico de
importancia.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
22
4 Análisis Descriptivo
Ahora ha llegado el momento de empezar el análisis de nuestra información. El
análisis descriptivo, como lo indica su nombre, se concentra en describir nuestra
información de forma tal que, sepamos cómo se comporta, qué características
tiene y qué tipo de análisis posteriores podemos realizar. El análisis descriptivo
se debe realizar siempre, al margen del alcance de nuestra investigación y del
tipo de análisis ulteriores que se realicen. De hecho, un buen análisis descriptivo
puede dar lugar a artículos de investigación de alto interés para la comunidad
científica.

4.1 Análisis de variables cualitativas: frecuencias absolutas y relativas

Las variables cualitativas nominales y ordinales solo nos permiten identificar la


frecuencia con la que determinada categoría se presenta en los sujetos de una
población. Por ejemplo, cuántos hombres y cuántas mujeres hay en una muestra o
cuántas empresas del sector manufacturero y cuántas empresas del sector
servicios hacen parte de nuestra base de datos.
Estas frecuencias se presentan de dos maneras. La frecuencia absoluta hace
referencia al valor absoluto de sujetos que pertenecen a determinada categoría,
sin ningún valor de referencia que nos permita saber si está cantidad es alta o
baja. Así, por ejemplo, cuando indicamos que en una base de datos tenemos 198
hombres y 354 mujeres, estamos hablando de frecuencias absolutas. En
contraste, las frecuencias relativas nos permiten saber a qué proporción de la
muestra equivalen la cantidad de sujetos que pertenecen a cada categoría. Así, si
consideramos una muestra total de 552 sujetos, los 198 hombres equival en al
35.87% de la muestra y las 354 mujeres al 64.13%.
En términos gráficos, estas variables se representan haciendo uso de diagramas
circulares o de torta y de diagramas de barras. De forma adicional, cuando se
desea cruzar dos variables cualitativas, es altamente recomendado el uso de
diagramas de barras apiladas. Para estudiar cómo realizar este tipo de figuras en
el software SPSS sugerimos revisar el video disponible sobre análisis descriptivo
de variables cualitativas.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
4.2 Análisis de variables cuantitativas

Debido a la limitación en el análisis que presentan las variables cualitativas, la


mayor parte del análisis descriptivo se concentra en lo que podemos hacer con
las variables cuantitativas. El primer tipo de análisis muy útil que podemos hacer
con nuestras variables cuantitativas es de carácter gráfico y corresponde a
representar visualmente a través de un histograma, un tipo de gráfico que nos
permite saber la cantidad de veces que se presenta un valor determinado de una
variable. En esencia, el histograma es un diagrama de frecuencia que nos
permitirá identificar la manera en que se distribuye una variable. Aquí, es
importante recordar que se asumirá que una variable sigue una distribución
normal si los datos se organizan siguiendo una forma de campana y al dibujar una
línea recta en el centro de la distribución, se crean dos partes exactamente
iguales4.

4.2.1 Centro de una distribución

Acabamos justo de mencionar que, una de las formas de saber si una distribución
es normal es dibujar una línea en su centro para dividirla en dos partes iguales.
Así, identificar el centro de la distribución es altamente relevante; tres medidas
nos permiten identificar este centro: la moda, la media y la mediana.
• Moda: La moda es el valor que se presenta con mayor frecuencia en el
conjunto de datos. Gráficamente, corresponde a la barra más alta del
histograma. Sin embargo, un problema de esta medida es que, con
frecuencia, no es un valor único; en estos casos, tenemos distribuciones
bimodales o multimodales.
• Mediana: La mediana es conocida como el punto medio de la distribución.
Si se organizan los datos de la variable de menor a mayor, la mediana será
el valor de la mitad o el segundo cuartil de la distribución. Es una de las
medidas de tendencia central más estables debido a que no es tan
susceptible a valores extremos como la moda y puede ser utilizada con
variables cualitativas ordinales.

4
De forma habitual, hay dos maneras en que la distribución se puede desviar de la forma esperada
de campana: 1) falta de simetría, esto es que los datos estén agrupados hacia un lado u otro o que un
lado de la campana sea más marcado que el otro; y 2) la curtosis, que, se puede entender como el
grado de elevación de la distribución (si es muy alta y con una punta muy marcada o si es plana y su
punto más alto no es tan fácilmente identificable).

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
• Media: La media es la medida de tendencia central más popular y utilizada
en la descripción de variables. En términos sencillos, puede describirse
como el valor promedio que asume una variable y se obtiene de sumar
todos los valores que asume la variable para cada sujeto y dividirla en el
total de sujetos. Pese a que la media se ve altamente afectada por datos
extremos y atípicos, es muy estable en diferentes conjuntos de muestras
por lo que es la medida de tendencia central, y medida para estimar el
centro de una distribución, más comumente utilizada.

4.2.2 Dispersión de una distribución

Las medidas anteriores nos permiten aproximarnos al centro de una distribución;


sin embargo, los individuos pueden ubicarse muy lejos o muy cerca de este
centro. Para ejemplificar esto pensemos en una medida promedio muy popular, el
Producto Interno Bruto per cápita. De acuerdo con el Departamento
Administrativo Nacional de Estadísticas -DANE- (2022), el PIB per cápita mensual
en 2021 fue de $1.920.389; sin embargo, en el país hay una amplia proporción de
individuos con ingresos de $0 y otra proporción con ingresos mensuales
superiores a los $20.000.000. En otras palabras, existe una gran diferencia entre
los ingresos de cada individuo con respecto al ingreso promedio, lo que
implicaría que la media tal vez no es tan buen descriptor de la variable ingresos
como esperaríamos.
La manera más sencilla de identificar la dispersión es considerar el rango, esto
es tomar el puntaje más alto que asume la variable menos el puntaje más bajo.
Sin embargo, dado que el rango toma la medida más alta y la más baja se ve muy
afectado por datos extremos. Una forma de evitar esta situación es excluir los
valores extremos de la distribución; el rango intercuartílico calcula el rango
eliminando el 25% de datos más altos y el 25% de datos más bajos. Por ejemplo:

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
En el listado de datos anteriores, previamente organizados, se excluye el valor de
la mediana con lo que contamos con 10 observaciones. Al eliminar el 25% de
datos superiores y el 25% de datos inferiores, el rango intercuartílico sería de
116-53=635.
Sin embargo, eliminar el 50% de nuestra información puede ser una medida un
tanto fuerte. Si queremos trabajar con la totalidad de nuestra muestra, podemos
calcular la desviación o error, entendida como la sumatoria de la diferencia del
valor de la variable para cada individuo menos el promedio de la variable. Dado
que esta sumatoria será igual a cero, debemos recurrir a elevar cada una de estas
dimensiones al cuadrado; la sumatoria de estas desviaciones al cuadrado se
denomina suma de errores al cuadrado el promedio de estas desviaciones al
cuadrado se denomina la varianza6. Finalmente, para tener una idea de la
“desviación promedio” de nuestros datos con respecto a la media, obtenemos la
raíz cuadrada de la varianza, para hacer lineal la medida, y así obtenemos la
desviación estándar.
Valores pequeños de la desviación estándar, en relación con la media, indican que
los datos están muy cercanos a la media y hay poca dispersión. En otras palabras,
los individuos se parecen mucho entre ellos. Una desviación estándar de 0
significaría que todas las observaciones para la variable son iguales.

4.2.3 Errores estándar

La desviación estándar, como se ha señalado, nos permite saber qué tan bien la
media representa a la muestra. Sin embargo, si nuestro interés es utilizar la
media de la muestra como representación de la población, debemos saber qué
tan bien estos parámetros la representan.
En la vida real, no tenemos acceso a la población total por lo que utilizamos
muestras. Sin embargo, si tomamos diferentes muestras, algunas de ellas tendrán
la misma media de la población y otras no; a este fenómeno se le denomina
variación de la muestra. Si graficáramos los promedios de diferentes muestras
como si fueran una distribución -en un histograma- obtendríamos la distribución

5
Los cuartiles son un caso especial de los quintiles. Los quint iles son valores que dividen una
distribución en cinco partes iguales; en el caso de los cuartiles, se divide en cuatro partes iguales, en
el caso de los déciles se divide en 10 casos iguales y en el caso de los percentiles en 100 partes
iguales.
6
En sentido estricto no es un promedio dado que el denominador es el tamaño de la muestra menos
1 (N - 1).

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
de la muestra. Acercarnos a esta distribución de la muestra es más hipotético
que factible; en realidad, difícilmente capturamos cientos de muestras que nos
permitan obtener esta distribución, es por esto por lo que, solo podemos
aproximarnos a esta distribución y su comportamiento (media y desviación
estándar).
El error estándar de la media o error estándar es una medida de la desviación
estándar de las medias de diferentes muestras. Es como si tomáramos la media
de cada muestra y luego estimáramos qué tan “similares” son las medias de estas
muestras diferentes. Errores estándar muy altos, implicarían que el
comportamiento de nuestra muestra no es muy buen descriptor del
comportamiento de la población; por el contrario, errores estándar bajos serían
evidencia de que nuestra muestra es una buena representación de la población.
Dada la dificultad en su estimación, usualmente recurrimos al Teorema del Límite
Central para sustentar que muestras grandes garantizan una distribución de la
muestra normal con una media igual a la media de la población y una desviación
estándar definida por:
𝑠
𝜎𝑋̅ =
√𝑁
4.2.4 Intervalos de confianza

El error estándar nos permite hacernos una idea del umbral en el que se ubicarán
diferentes parámetros de la población. Esto es, podemos saber el valor exacto de
la media de la muestra, pero no el valor exacto de la media de la población; sin
embargo, con el error estándar, podríamos saber entre qué valores se ubicará la
media en la población. A estos umbrales los llamamos intervalos de confianza.
Con frecuencia estos intervalos se construyen al 95%; esto quiere decir que, 95
de cada 100 veces, el valor promedio de una variable determinada en la población
se ubicará entre el rango estimado.

4.3 Pruebas de comparación de medias

Las pruebas de comparación de medias nos son útiles para saber si existen
diferencias entre grupos de sujetos. Por ejemplo ¿Generan más ganancias las
empresas dirigidas por hombres o por mujeres? ¿Hay diferencias en los costos de
funcionamiento de las empresas según el motivo de sus propietarios para
emprender? En estos casos, buscamos, de forma muy simplificada, comparar el
comportamiento de una variable cuantitativa a través de las diferentes categorías
de una variable cualitativa. Cuando la variable cualitativa (factor) que usamos para

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
la comparación es de carácter binario, podemos recurrir a la prueba t para
establecer las diferencias de medias; si la variable cualitativa tiene más de dos
opciones, debemos recurrir a la prueba o modelo ANOVA para diferencia de
medias.

4.3.1 Prueba t de diferencia de medias

Una primera aproximación al comportamiento de nuestra variable de interés en


los diferentes niveles de una variable cualitativa se obtiene al analizar sus
estadísticas descriptivas para cada nivel de la variable. En SPSS, esto podemos
hacerlo a través del menú que se indica en la figura.

Ahora bien, conocer el valor de la media para cada uno de los grupos que
estamos analizando nos permite intuir si existen o no diferencias entre los
grupos; sin embargo, lo clave es identificar si esas diferencias son
estadísticamente significativas y cuál es la magnitud de la diferencia. Con este
fin, y si solo contamos con dos grupos, podemos recurrir a la prueba t.
Lo primero que debemos señalar sobre esta prueba es el funcionamiento de sus
hipótesis.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
• H o: NO hay diferencias estadísticamente significativas en el
comportamiento de la variable cuantitativa en los diferentes niveles o
categorías de la variable cualitativa.
• H 1: SÍ hay diferencias estadísticamente significativas en el comportamiento
de la variable cuantitativa en los diferentes niveles o categorías de la
variable cualitativa.
Dicho esto, la lógica detrás de la prueba es comparar el valor promedio de la
variable cuantitativa para los dos grupos de la variable cualitativa (ganancias de
las empresas dirigidas por hombres menos ganancias de las empresas dirigidas
por mujeres), esta diferencia observada se contrasta con la diferencia esperada
si la hipótesis nula fuera verdadera. Entre mayor sea la diferencia entre la
diferencia observada y esperada entre medias, mayor confianza tendremos en que
son dos “poblaciones” diferentes y la diferencia entre ellas es genuina; en otras
palabras, ganaremos evidencia a favor de rechazar la hipótesis nula.
Por último, es importante recordar que, al igual que la mayoría de pru ebas
estadísticas, la prueba t es una prueba paramétrica; esto significa que para
garantizar una estimación insesgada y robusta de la prueba requiere que la
variable cuantitativa se distribuya de forma normal en los dos grupos que se
comparan. De forma adicional, se requiere garantizar el cumplimiento de la
homocedasticidad y la independencia de las observaciones.
Ya hemos visto como identificar
datos atípicos e influyentes. Para
validar el cumplimiento del
supuesto de normalidad podemos
recurrir al uso del análisis gráfico
(histogramas o diagramas de cajas)
y al uso de pruebas estadísticas. Las
gráficas son muy útiles para
muestras grandes; pero, para
muestras pequeñas pueden no ser
tan útiles. En estos casos se recomienda recurrir a la opción de las pruebas. Las
pruebas más comunes son la prueba Kolmogorov - Smirnov y la prueba Shapiro -
Wilk. Si las pruebas, o una de ellas, son no significativas (el p value es mayor a
.05) significa que la distribución de la variable no es distinta de la distribución

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
normal7. Para identificar el cumplimiento del supuesto de homocedasticidad, se
puede recurrir al uso del test de Levene o prueba de Welch, al igual que en las
pruebas de normalidad, si las pruebas son no significativas, se asume el
cumplimiento del supuesto.

7
Notemos que para el caso de las pruebas de normalidad descritas la lógica es un poco distinta a la
que hemos visto. En estos casos, la hipótesis nula es que la variable de interés se distribuye de
manera normal, razón por la cual no queremos rechazarla. En otras palabras, queremos que la
probabilidad de que los datos se comporten como lo sugiere la hipótesis nula sea muy alta, por esto
queremos p values superiores a .05.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Para obtener estas pruebas, en el menú descrito previamente (Analizar -
estadísticos descriptivos - explorar) señalamos las siguientes opciones:

Los resultados obtenidos mostrarán un histograma con la distribución de la


variable para los dos grupos, un gráfico Q-Q y un diagrama de cajas. Asimismo, se
presentará el resultado de la prueba Kolomogorov - Smirnov, donde se debe
recordar interpretar el valor de significancia o p value (valores mayores a .05
indican normalidad, valores menores señalan que la muestra no se distribuye
normalmente).

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
SPSS no nos permite estimar la
prueba de Levene de forma
independiente a la prueba t, así
que para saber si se cumple el
supuesto de homocedasticidad
debemos correr la prueba. La
siguiente figura muestra el
procedimiento para hacerlo

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
La selección de estas opciones arrojará una salida como esta:

Para interpretar los resultados de la prueba, primero es necesario identificar el


resultado del test de Levene. Como se observa en la primera fila, el valor de la
prueba arroja un resultado de 2.962 con un valor de significancia (p value) de
.085. Este valor de significancia es mayor a .05 por lo que podemos señalar que
los datos cumplen el supuesto de homocedasticidad, así que debemos interpretar
los resultados que se presentan en la primera línea.
El segundo bloque de información muestra que la prueba t arroja un resultado de
.633 con un nivel de significancia de .527 (de dos colas). Esto significa que: la
probabilidad de que el modelo basado en la hipótesis nula se ajuste de
manera correcta a los datos es de 52.7%, al ser tan alta esta probabilidad
no tenemos evidencia para afirmar que la hipótesis nula es falsa. Así que,
no rechazamos la hipótesis nula; en otras palabras, no es falso que no hay

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
diferencias estadísticamente significativas en las ganancias de los
negocios propiedad de hombres y de mujeres.
Los resultados anteriores también
mostrarán una salida adicional que
nos indicará el tamaño del efecto o la
magnitud de las diferencias. Allí se
presentarán la d de Cohen (columna
estimación de puntos), para identificar
qué tan grande (o pequeño) es el
efecto, podemos recurrir a la tabla de
equivalencias que encontramos en la
página de psychometrica.
Es común que no podamos cumplir el
supuesto de normalidad. En esos casos,
tres opciones están disponibles: 1)
recurrir a métodos robustos, 2) utilizar
alternativas no paramétricas y 3)
transformar la variable cuantitativa de
interés.
Para el primer caso, recurrir a métodos robustos, SPSS nos ofrece la opción de
trabajar con una técnica conocida como Bootstrap, esta técnica creará diferentes
submuestras y cuando encuentre una que sea representativa de la muestra
general y la población y tenga distribución normal, realizará la prueba estadística.
Para obtener el bootstrap, solo basta hacer click en la opción “Simular muestreo”
y activar las opciones “Realizar simulación de muestreo” e “Intervalos de
confianza - sesgo corregido y acelerado BCa). Esto arrojará una salida similar a la
siguiente:

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Al igual que con los resultados de la prueba t, se debe interpretar el valor de la
significancia. Valores mayores a .05 nos llevan a concluir que no hay evidencia
suficiente para rechazar la hipótesis nula por lo que no podemos afirmar que sea
falsa o en otras palabras, debemos señalar que no hay efecto, en este caso
diferencia entre los dos grupos analizados.
La segunda opción a la que podemos recurrir es usar pruebas no paramétricas.
Esta familia de pruebas no requiere del supuesto de normalidad y
homocedasticidad; sin embargo, pueden no ser tan robustas como las pruebas
paramétricas. La alternativa no paramétrica a la prueba t se demonima prueba de
Mann - Whitney y tiene la misma hipótesis nula y alternativa que la prueba t
original.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
La tercera opción, es la transformación de variables. Según establece Field (2013),
cuando la distribución presenta asimetría positiva, curtosis positiva, varianzas
heterogéneas o falta de linealidad la transformación logarítmica (𝑙𝑜𝑔(𝑋)) o la
transformación de raíz cuadrada (√𝑋) puede funcionar para corregir estos
problemas. Pese a ser una técnica muy popular, se debe ser muy cuidadoso con el
tipo de transformaciones que se utilizan dado que puede afectar de manera
importante la interpretación de los resultados.
Para finalizar, el reporte de estos resultados se puede hacer de dos maneras: en
caso tal que se comparen varias variables cuantitativas para los dos grupos de
una misma variable cualitativa (Por ejemplo, si se comparan las ganancias, los
costos, los ingresos y cantidad de trabajadores en los negocios de hombres y
mujeres) se puede hacer uso de tablas que incluyan el valor de la prueba t
original, el error estándar, el valor de significancia y el intervalo de confianza. En
caso de recurrir a algún método robusto o técnica paramétrica, se debe presentar
el valor de la nueva prueba, error estándar, valor de significancia e intervalo de
confianza.
Prueba t Prueba t (Bootstrap)
Ganancias según sexo .633 [-17666.546, 8419.761 [-19329.59,
propietario 34526.067] 32491.59]
(13314.48) (13010.708)

Nota: Intervalos de confianza del 95% presentados en corchetes, en paréntesis


diferencia de los errores estándar.
* p < .10, ** p < .05, *** p < .01
La segunda opción para reportar los resultados consiste en describir en texto los
datos obtenidos. Field (2013) sugiere reportar los resultados de la siguiente
manera:
̅ =
En promedio, los negocios dirigidos por hombres tienen mayores ganancias (𝑋
̅
751817, 𝑆𝐸 = 1895652.89) que los de mujeres (𝑋 = 743387, 𝑆𝐸 = 1658462.61).
Esta diferencia, 8429.761. BCa 95% CI [-17666.546, 34526.067] no es

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
significativa t(77213) = .633, p = .527. El tamaño del efecto encontrado fue de
.005, un tamaño del efecto nulo, de acuerdo con Cohen (1988).

4.3.2 Prueba Anova de diferencia de medias

La prueba t es perfecta para comparar el comportamiento de una variable


cuantitativa en las categorías de una variable cualitativa si esta última es binaria.
Sin embargo, en muchas ocasiones, queremos comparar más de dos grupos, en
estos casos, el modelo de Análisis de varianzas o modelo ANOVA es la solución.
Los modelos ANOVA son un caso especial de modelos lineales y se suelen
comportar de manera muy similar a una regresión lineal. En ese sentido, la lógica
que subyace a estos modelos es la siguiente: supongamos que queremos predecir
la ganancia que obtendrá determinado negocio, la forma más sencilla de hacerlo
sería calcular la ganancia promedio de todos los negocios que tenemos en
nuestra muestra y predecir que este nuevo negocio se comportará igual. Sin
embargo, podríamos sospechar que no todos los negocios son iguales y que hay
alguna variable particular que haría que la ganancia de este nuevo negocio fuera
diferente; por ejemplo, la razón por la cual se creó. Si este fuera el caso, tal vez la
mejor manera de predecir la ganancia de este nuevo negocio no sería el
promedio de todos los negocios, sino el promedio de ganancias de los negocios
que comparten la misma razón de creación.
Así pues, se podría decir que la variable ganancias (dependiente o resultado)
depende de a qué grupo de la variable cualitativa se pertenece. En consecuencia:
• H o: El mejor predictor de la variable cuantitativa es el promedio de todos los
grupos de la variable cualitativa dado que no hay diferencias
estadísticamente significativas entre grupos.
• H 1: El mejor predictor de la variable cuantitativa es el promedio de cada
grupo de la variable cualitativa dado que sí hay diferencias
estadísticamente significativas entre grupos.
Considerando esto, el modelo ANOVA estimará un parámetro conocido como la
ratio F. Esta ratio calculará la varianza total; esto es, cuánto difiere la ganancia de
cada empresa de la ganancia promedio de las empresas. Para calcular esta ratio
dividirá esta varianza en aquella que puede explicar mi modelo (construido sobre
la base de que cada grupo tiene una ganancia promedio diferente) y lo que no
puede explicar mi modelo (las diferencias entre ganancias de las empresas que
no se explican por el grupo al que pertenece la empresa. En otras palabras, la
varianza total se divide en la varianza entre grupos (Suma de Cuadrados del

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Modelo) y la varianza intragrupos (Suma de Cuadrados de los Errores). Si el
numerador, lo que puedo explicar, es superior al denominador, lo que no puedo
explicar, tengo un modelo robusto; si además la prueba de significancia da un
valor menor a .05, puedo rechazar la hipótesis nula y ganar más evidencia a favor
de la hipótesis alternativa.
Los pasos de estimación y supuestos del modelo ANOVA son los mismos que para
la prueba t. Primero debemos explorar el comportamiento de nuestros datos,
validar el cumplimiento de los supuestos y después proceder a realizar el test y
corregir, si aplica. Para estimar el modelo ANOVA debemos:

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Los resultados nos muestran las estadísticas descriptivas de la variable
cuantitativa (ganancias) para los niveles de la variable cualitativa (ubicación del
negocio). En la parte inferior, se presenta el resultado del modelo ANOVA. La
suma de cuadrados “entre grupos” nos muestra la varianza explicada por nuestro
modelo, la suma de cuadrados “dentro de grupos” nos indica la varianza que
nuestro modelo no puede explicar. En la siguiente columna, se presentan los
grados de libertad de la prueba y en la columna posterior, se estima un valor
promedio de la varianza explicada y la no explicada. Finalmente, la ratio F se
calcula al dividir estos dos “promedios”; dado que el numerador es mayor al
denominador (6.235), se puede afirmar que el modelo es robusto y el valor de
significancia, menor a .001 indica que debemos rechazar la hipótesis nula.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Adicional a los resultados de la prueba, también pedimos al software presentarnos
los resultados de la prueba Welch para homogeneidad de varianzas. El resultado
muestra un valor del estadístico de 7.777 y un p value menor a .001. Esto indica
que, debemos rechazar la hipótesis nula, es decir hay una violación al supuesto de
homocedasticidad.
Al igual que en el caso de la prueba t, podemos corregir el problema de
normalidad y homocedasticidad recurriendo a las tres alternativas estudiadas.
Para el caso del modelo ANOVA, la alternativa no paramétrica es la prueba
Kruskall - Wallis, para obtenerla debemos ir al mismo menú que en el caso de la
alternativa no paramétrica a la prueba t y seleccionar la opción “K muestras
independientes” y allí elegir la prueba Kruskall.
Finalmente, es importante señalar que, a diferencia de la prueba t donde es claro
que si hay diferencias estas se presentan en los dos grupos de comparación, en la
prueba ANOVA las diferencias se pueden presentar entre todos los grupos o solo
entre algunos de ellos. Para identificar exactamente donde están las diferencias,
podemos recurrir al uso de contrastes post hoc.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Estos contrastes post hoc nos permiten identificar qué grupos son iguales y
cuáles son diferentes entre sí. Cuando los tamaños de los grupos que se están
comparando son diferentes, se recomienda el uso de los contrastes de Hochberg
y Gabriel.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
Así, como se aprecia en la figura, existen dos grupos de ganancias según dónde
están ubicados. En otras palabras, los negocios ubicados en los lugares
codificados como 8. 7, 1 y 3 son similares entre sí, pero diferentes de los negocios
ubicados en los lugares codificados con las etiquetas 5, 2, 4 y 6.
Finalmente, el reporte de resultados del modelo ANOVA sigue la misma estructura
que el reporte de resultados de la prueba t. La única diferencia es que, en caso tal
que las diferencias sean estadísticamente significativas, se deben reportar los
resultados de los contrastes indicando que grupos son similares y qué grupos
difieren entre ellos.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados
5 Bibliografía
• Faul, F., Erdelfer, E., Lang, A & Buchner, A (2007) G*Power 3: a flexible
statistical power analysis program for the social, behavioral, and biomedical
sciences. Behavior ans research methods, 39(2), pp 175 – 192.
• Field, A (2013) Discovering statistics using IBM SPSS Statistics. Sage.
• Medina, I & Avendaño, B (2017) Medición de variables y estrategias
ulteriores de análisis. En: P. Páramo (Comp.) La recolección de información
en las ciencias sociales. Una aproximación integradora, pp. 39-56. Lemoine
Editores.
• Rincón, JC & Barreto, I (2013) Técnicas de muestreo para investigaciones
sociales. En: P. Páramo (Comp) La investigación en ciencias sociales:
estrategias de investigación, pp. 33-44. Universidad Piloto de Colombia.

RED SUMMA®

Nota Técnica preparada por la Red Summa. Su difusión, reproducción o uso total
o parcial para cualquier otro propósito queda prohibida. Todos los derechos
reservados

También podría gustarte