0% encontró este documento útil (0 votos)
37 vistas19 páginas

Guía de Estadística Básica para Maestrías

El documento presenta los diferentes tipos de escalas de medición utilizadas en estadística, incluyendo nominal, ordinal, de intervalos y razón. Explica cada escala a través de ejemplos y los análisis estadísticos que se pueden realizar con cada una.

Cargado por

sol cando
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
37 vistas19 páginas

Guía de Estadística Básica para Maestrías

El documento presenta los diferentes tipos de escalas de medición utilizadas en estadística, incluyendo nominal, ordinal, de intervalos y razón. Explica cada escala a través de ejemplos y los análisis estadísticos que se pueden realizar con cada una.

Cargado por

sol cando
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

2020

Documento apoyo
jornadas de nivelación
maestrías
ESTADÍSTICA BÁSICA
AITOR LARZABAL FERNANDEZ
Contenido
1. Algunos conceptos introductorios: método científico y variables.........................................2

2. Escalas de medición .............................................................................................................3

Escala de medición nominal .....................................................................................................3

Escala de medición ordinal .......................................................................................................6

Escala de medición de intervalos..............................................................................................8

Escala de medición de razón o cocientes ..................................................................................9

Consideraciones .......................................................................................................................9

3. Población, muestra y muestreo ...........................................................................................11

Población: ..............................................................................................................................11

Muestra: .................................................................................................................................11

Muestreo: ...............................................................................................................................11

Tamaño de la muestra: ...........................................................................................................11

Tipos de muestreo: .................................................................................................................11

4. Análisis descriptivo de datos ..............................................................................................12

Tabla de frecuencias o distribución de frecuencias ................................................................12

Estadísticos de tendencia central: ...........................................................................................13

Estadísticos de dispersión:......................................................................................................13

5. Estadística inferencial.........................................................................................................14

Hipótesis ................................................................................................................................14

Pruebas de hipótesis ...............................................................................................................14


1. Algunos conceptos introductorios: método científico y
variables
Método científico

Caso o unidad de análisis. Es cada uno de los elementos sobre los que queremos obtener
información. Cada participante es un caso o unidad de análisis.

Variable. El término variable es «algo que varía o puede variar», como una «magnitud que puede
tener un valor cualquiera de los comprendidos en un conjunto». Es decir, una variable es un
atributo que tiene más de una modalidad o más de un valor. En oposición a una variable se
encuentra una constate, que solo tiene un valor.

Por ejemplo: la característica «estado civil» es una variable, puesto que tiene más de una
modalidad: soltero, casado, viudo...

Lo que la estadística hace es analizar esa variabilidad, esas diferencias en los valores de una
variable. Si no hay variación, entonces no hay nada que analizar estadísticamente.
2. Escalas de medición

Razón
Intervalos
Ordinal
Nominal

Escala de medición nominal


Ejemplos: género, país de procedencia, fumador/no fumador, Carrera que se estudia, estado civil,
ciudad de nacimiento, número de matrícula, pertenencia a un partido político…

La escala nominal se usa para agrupar a sujetos u objetos que tienen por lo menos una
característica en común. Por ejemplo, al agrupar los sujetos según el género, se considera que, si
bien cada hombre o mujer son diferentes entre sí, cada grupo creado tiene una característica
común, como lo es el género, por lo tanto, el objetivo de este nivel de medición es únicamente la
separación o distinción de personas u objetos.

Los requisitos son los siguientes:

1. Clasificación mutuamente excluyente: Es decir, un sujeto u objeto no puede estar en dos


grupos a la vez, por lo tanto, cada uno de ellos debe únicamente estar en uno de los grupos.
Por ejemplo, si la variable es la ciudad de nacimiento, y las opciones son Ambato,
Riobamba y Latacunga, nadie puede ubicarse en dos de los grupos (es decir, indicar que
su ciudad de nacimiento es Riobamba y Latacunga a la vez).
2. Equivalencia intergrupo: Es decir, una vez que a alguien o algo se le ha asignado en un
grupo, se considera que todos los integrantes del grupo son iguales (aunque en realidad
no lo sean). Como ejemplo, podemos imaginar la situación en la que separamos los
estudiantes entre aprobados y no aprobados, creando dos grupos, todos sabemos que no
es lo mismo aprobar con 32 que aprobar con 48, pero los dos sujetos constarían en el
mismo grupo de aprobados.
Las operaciones matemáticas posibles con la escala de medición nominal son más bien pocas.
Entre las posibilidades se encuentran la frecuencia, mediana, porcentajes y la moda, como
estadísticos descriptivos y la prueba del chi cuadrado si se quieren realizar análisis de dependencia
entre dos variables nominales.

Como ejemplo tenemos la ficha sociodemográfica que suele constar en cualquier test, en la que
se pregunta por el género, ciudad de procedencia, área de trabajo, medio de transporte que se usa
y similares:

Escala de medición nominal en el ejemplo: Nombre del liceo, tipo de transporte usado, género,
grupo, turno, localidad, departamento….
A la hora de analizar los datos con el SPSS se indicaría que se tratan de variables nominales y se
les asignaría números a cada categoría, teniendo en cuenta que en este nivel de medición el
número sólo es un símbolo (como el número de la matricula) que no indica nada más que la
pertenencia a un grupo:

Entre los análisis estadísticos y reportes de resultados posibles se tienen los siguientes ejemplos:
Tabla 5
Análisis de frecuencias y porcentajes con relación al estado civil
Variables Estadísticos
Frecuencia Porcentaje
(f) (%)
Estado civil
Soltero 18 14,9
Casado 90 74,4
Divorciado 3 2,5
Viudo 1 0,8
En Pareja 9 7,4
Total
121 100,0
Nota: 121Observaciones

Escala de medición ordinal


La escala de medición ordinal contempla todos los aspectos de la nominal, pero se le incluye una
jerarquización de mayor a menor de la propiedad medida en las unidades de análisis. Es decir, en
esta escala de medición se crean grupos y se pueden ordenar esos mismos grupos. Ejemplos de
este tipo de escala de medición son: quintil económico, nivel de estudios (sin estudios, básico,
secundario, superior) grado de satisfacción con algún aspecto (muy insatisfecho, insatisfecho,
satisfecho y muy satisfecho) las notas en una asignatura (siempre que sean en escalas similares a:
reprobado, aprobado, notable sobresaliente).

Con este tipo de variables se pueden realizar más tipos de análisis estadísticos, ya que a parte de
las frecuencias, porcentajes, modas, medianas y pruebas de chi cuadrado, se pueden calcular las
medias y correlaciones de Rho de Spearman entre otras.

A la hora de incluir este tipo de variables en el SPSS se lo realizaría de la siguiente manera:


Los resultados obtenidos a la hora de realizar correlaciones a través de la Rho de
Spearman se generan de esta manera:
Correlaciones

Victima Ordinal Agresor Ordinal


Rho de Spearman Victima Ordinal Coeficiente de correlación 1,000 ,554**
Sig. (bilateral) . ,000
N 1002 1002
Agresor Ordinal Coeficiente de correlación ,554** 1,000
Sig. (bilateral) ,000 .
N 1002 1002
**. La correlación es significativa en el nivel 0,01 (bilateral).

En el ejemplo propuesto, cuando se ha realizado la relación se encuentra una relación positiva


moderada es decir que a mayor nivel de victimización mayor nivel de perpetración, en este caso
de cyberbullying. También se podría revisare esa información a través de una tabla:

Tabla cruzada Agresor Ordinal*Victima Ordinal


Recuento
Victima Ordinal
No Victima Victima Leve Victima Media Victima Grave Total
Agresor Ordinal No agresor 278 33 0 0 311
Agresor Leve 251 259 7 0 517
Agresor Medio 20 98 17 4 139
Agresor Grave 2 20 5 8 35
Total 551 410 29 12 1002
Escala de medición de intervalos
En esta escala de medición se puede aparte de crear grupos (nominal) jerarquizarlos (ordinal) se
puede comparar a los sujetos en base a sus puntuaciones, es decir no sólo saber si tienen más o
menos si no que cuanto más y cuanto menos. A este nivel de medición se le incluye un cero
relativo. Para entender mejor este punto del 0 relativo un buen ejemplo es la medición de la
temperatura, donde el 0 no quiere decir que es ausencia de calor, sino que es un punto elegido por
consenso. Otro ejemplo serían las notas de un examen de cualquier asignatura, en la que sacar 0
no quiere decir no saber nada. Regresando a ejemplos más concretos de la psicología, el 0 en
cualquier escala usada para medir un factor de personalidad (por ejemplo) no quiere decir la
ausencia del mismo.

El aspecto importante de este tipo de escala de medición es que se basa en el supuesto de que hay
espacios aparentemente iguales o distancias equivalentes entre las diferentes posiciones
secuenciales de la escala. Es decir, en este tipo de escalas de medición se presupone que hay la
misma distancia entre dos personas que han puntuado 10 y 15 y otras dos que han puntuado 25 y
30, es decir 5 puntos (cosa que no es aplicable a las escalas nominales y ordinales).

La mayoría de las veces en psicología se usan datos relacionados con este tipo de escala de
medición, lo que hace posible el uso de muchísimas herramientas matemáticas. Entre las pruebas
que se pueden hacer con este tipo de datos en esta escala de medición de intervalos están las
correlaciones de Pearson, la regresión múltiple, análisis de varianzas… entre otros, además de
todas las pruebas que se podían realizar con las escalas nominales y ordinales. A demás con este
tipo de datos podríamos sacar percentiles, puntuaciones Z, T y similares (ver normalización de
puntuaciones).

Ejemplos de variables medidas en este tipo de escala de medición tendríamos (en general) los
puntajes de la mayoría de test.

Correlaciones
CB V CB A ESTRÉS
**
CB V Correlación de Pearson 1 ,705 ,154**
Sig. (bilateral) ,000 ,000

N 1002 1002 1002


CB A Correlación de Pearson ,705** 1 ,173**
Sig. (bilateral) ,000 ,000

N 1002 1002 1002


ESTRÉS Correlación de Pearson ,154** ,173** 1
Sig. (bilateral) ,000 ,000

N 1002 1002 1002


**. La correlación es significativa en el nivel 0,01 (bilateral).

Escala de medición de razón o cocientes


Esta escala de medición se diferencia con la de medición de intervalos ya que el 0 no es relativo
si no absoluto. Es decir, el 0 de verdad significa ausencia de atributo. Ejemplos de este tipo de
escala son la edad, el peso, la altura, tiempos de reacción y similares, donde 0 quiere decir
ausencia de lo que es está midiendo. En este caso si se podrían realizar afirmaciones como la de
que 2 es la mitad de 4 (en el resto de escalas de medición no se podrían realizar esas afirmaciones).
De todas maneras, existen pocos casos en psicología donde se pueda trabajar con este tipo de
datos, ya que, en los fenómenos psicológicos es complicado encontrar la ausencia absoluta.

Consideraciones
Finalmente, cabe recordar la “escalera” indicada en la figura del inicio, ya que, a la hora de
trabajar con los datos siempre será mejor recabar información en las escalas de razón o intervalos
(según el caso) que en escalas nominales y ordinales. Para ejemplificar esa afirmación se incluyen
dos ejemplos:

1. Si queremos trabajar con datos de la edad de los participantes en cualquier situación,


podríamos preguntarles de diferentes maneras, se les podría preguntar si son mayores de
edad o no (nominal), podríamos pedirles que nos digan en que rango de edad están 10-
20, 21-30, 31-40… (ordinal) o podríamos preguntar directamente la edad (razón).
Personalmente siempre aconsejaría preguntar directamente la edad ya que, sabiendo la
edad, podríamos ubicarlo en un rango o incluso saber si es mayor o menor de edad, es
decir, podríamos transformar ese dato a escalas de medición que se ubican más abajo en
la “escalera”. En cambio, si la pregunta se realiza en función de ser mayor de edad o
menor, nunca podríamos saber en qué rango de edad o qué edad tiene un sujeto, es decir
no se podría ir “arriba en la escalera”
2. De la misma manera si yo sé que alguien tiene un 8,23 (sobre 10) en una asignatura podría
convertirlo en ordinal (notable) o nominal (aprobado). En cambio, sabiendo únicamente
que alguien ha aprobado, no puedo saber si es un notable o sobresaliente y menos que
nota ha obtenido exactamente.
3. Población, muestra y muestreo
Población: Es el conjunto de personas u objetos de los que se desea conocer algo en una
investigación. En general en psicología la población estará conformada por sujetos, no obstante,
en otras ciencias como el periodismo la población podrían ser noticias, videos etc…

Muestra: Es un subconjunto o parte del universo o población en que se llevará a cabo la


investigación.

Muestreo: Es el método utilizado para seleccionar a los componentes de la muestra del total
de la población.

Pero, ¿Qué aportan la muestra y muestreo? Trabajar con toda una población puede ser costoso,
laborioso o incluso imposible (depende del caso). La muestra y el muestreo permiten estudiar
solo una parte de la población, para poder generalizar los resultados de la muestra a toda una
población.

Para poder generalizar los resultados, la muestra debe tener un tamaño suficiente y ser los
suficientemente representativa.

Tamaño de la muestra: El tamaño de la muestra suficiente se puede calcular con calculadoras


de muestras (como por ejemplo: https://es.surveymonkey.com/mp/sample-size-calculator/ o
http://www.adimen.es/calculadora-muestras.aspx ) no obstante, una muestra grande no tiene
que necesariamente ser representativa de la población. La representatividad de la muestra
depende de más factores, como es el muestreo.

Tipos de muestreo: Los tipos de muestreo se dividen en dos, el muestreo probabilístico y el


no probabilístico.
4. Análisis descriptivo de datos
El primer paso de cualquier análisis cuantitativo es un análisis descriptivo. Este análisis implica
la agrupación de los datos en tablas (frecuencias y porcentajes), la elaboración de gráficos y la
obtención de distintos indicadores estadísticos (tendencia central, variabilidad, posición…).

Tabla de frecuencias o distribución de frecuencias


Frecuencia absoluta: es la cantidad de veces que aparece un valor de la variable, se suele
representar por fi.

Frecuencia relativa: es la cantidad de veces que aparece un valor de las variables en relación con
el total de valores de la variable (suma de las frecuencias absolutas). Se suele representar como
(fr). La frecuencia relativa es una probabilidad, por ello, la suma total de todas las frecuencias
relativas es 1,00.

Porcentaje: es la frecuencia relativa multiplicada por 100.

Frecuencia Frecuencia
Frecuencia Frecuencia
Xi absoluta relativa %
absoluta relativa
acumulada acumulada

1 7 7 0,056 0,056 5,6


2 19 26 0,152 0,208 15,2
3 25 51 0,2 0,408 20
4 12 63 0,096 0,504 9,6
5 23 86 0,184 0,688 18,4
6 15 101 0,12 0,808 12
7 8 109 0,064 0,872 6,4
8 16 125 0,128 1 12,8
Total 125 125 1 1 100
Estadísticos de tendencia central:
Media: es el promedio aritmético de todos los valores de la variable (suma de todos los
valores/cantidad de valores). Es la puntuación que representa mejor los valores de la variable.

Mediana: indica la puntuación que está en el centro de la distribución, la que deja por encima y
por debajo de ella el 50 % de los valores de la variable. Ordenados los valores de la variable de
menor a mayor, la mediana es la puntuación que está en el centro de todos ellos.

Moda: informa del valor de la variable que más veces se da, el que tiene mayor frecuencia.

Cuando una distribución es simétrica, los tres valores, media, mediana y moda, coinciden. En ese
caso, el mejor representante de la tendencia central de los datos es la media aritmética. Cuándo la
distribución de datos no es simétrica (hay algún valor extremo o algún intervalo sin límite), la
media aritmética no es una representación «real» de la tendencia central de la variable y se debe
utilizar la mediana. El siguiente ejemplo intenta explicar la diferencia entre los indicadores de
tendencia central y la influencia de valores extremos sobre ellos.

Estadísticos de dispersión:
Desviación típica. La varianza informa de la diferencia que hay entre cada uno de los valores de
la variable y el centro (media aritmética). Es el promedio de la distancia de cada dato respecto a
la media al cuadrado.

Rango o amplitud. Diferencia entre el valor mayor y el valor menor de los valores de la variable.

Máximo y mínimo. Valor mayor y menor de la variable.

Asimetría: Miden la mayor o menor simetría de la distribución.

Curtosis: Miden la mayor o menor concentración de datos alrededor de la media.


5. Estadística inferencial.
Consiste en la generalización de los resultados obtenidos en una muestra a la población de la que
se extrajo en términos de probabilidad. Para generalizar los resultados la muestra debe ser
representativa de la población.

Para realizar de modo correcto este proceso de inferencia, además de que la muestra se haya
obtenido mediante una técnica de muestreo que garantice su representatividad, se debe de realizar,
en primer lugar, un análisis descriptivo de las variables medidas para conocer el comportamiento
de las mismas, su distribución…y determinar cuál es el tipo de técnica de análisis de datos
inferencial que se debe aplicar, de ahí la importancia del análisis descriptivo de los datos.

Hipótesis
Una hipótesis se puede usar como una propuesta provisional que se debe verificar por el método
científico. En el primer caso, el nivel de veracidad que se otorga a una hipótesis dependerá de la
medida en que los datos empíricos apoyan lo afirmado en la hipótesis. Esto es lo que se conoce
como contrastación empírica de la hipótesis o bien proceso de validación de la hipótesis.

Pruebas de hipótesis
Una prueba de hipótesis es una regla que especifica cuando se puede aceptar o rechazar una
afirmación sobre una población dependiendo de la evidencia proporcionada por una muestra de
datos.
Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: la hipótesis nula y
la hipótesis alternativa. La hipótesis nula es la afirmación que se está comprobando. Normalmente
la hipótesis nula es una afirmación de "sin efecto" o "sin diferencia". La hipótesis alternativa es
la afirmación que se desea ser capaz de concluir que es verdadera basándose en la evidencia
proporcionada por los datos de la muestra.

H0: Hipótesis Nula → No hay (relación, diferencias…)

H1: Hipótesis Alternativa → Hay (relación, diferencias…)

Basándose en los datos de la muestra, la prueba determina cuando rechazar la hipótesis nula. Se
utiliza un p-valor, para realizar esa determinación. Si el p-valor es menos que el nivel de
significación (conocido como α o alfa), entonces se puede rechazar la hipótesis nula.

El nivel de significación o alfa, en ciencias sociales se suele establecer en 0,05 por lo tanto, un
nivel de significancia menor a 0,05 nos permite rechazar la hipótesis nula y tomar la hipótesis
alternativa.

Pruebas paramétricas y no paramétricas.


Pruebas paramétricas: para realizar análisis paramétricos debemos asegurarnos de que los datos
cumplen una serie de requisitos (también llamados supuestos):

✓ Que se ajusten a la distribución normal (DN) (curva normal o campana de Gauss).


✓ Que las varianzas de los grupos sean similares (homocedasticidad).
✓ Que la variable sea de intervalo (un tipo de variable cuantitativa).

Para probar que una variable se ajusta a la distribución normal, una de las pruebas es la de Si no
podemos garantizar que nuestra variable se ajuste a una distribución normal, bien porque la
muestra no alcanza el tamaño mínimo recomendado por grupo (30 sujetos), bien porque alguna
de las variables que utilizamos para el análisis es de naturaleza ordinal o nominal, realizamos
análisis no paramétricos.

Estadísticos de correlación
El objetivo de un análisis de correlación entre variables es analizar si existe relación y, en caso
afirmativo, cuantificar qué tipo de relación existe entre ellas. Al no haber una relación de
dependencia previamente establecida, en este tipo de análisis no se diferencia entre variable
explicativa o dependiente y variable respuesta o independiente, ya que ambas desempeñan el
mismo papel.

El tipo de estadístico de correlación adecuado dependerá de las características de las variables


analizadas: si las dos variables analizadas son de naturaleza cuantitativa y contamos con una
muestra igual o mayor a 30 sujetos, podremos realizar un análisis paramétrico. Si la muestra es
inferior a 30 individuos o alguna de las variables es de carácter ordinal o nominal, contamos
también con pruebas de correlación no paramétricas.

Estadísticos de correlación paramétricos: Coeficiente de correlación de Pearson


Si las dos variables que queremos analizar en nuestro estudio están medidas a nivel de intervalo
y siguen una distribución normal, se cumplen los criterios para realizar una prueba paramétrica.
El estadístico del que disponemos para ello es el coeficiente de correlación de Pearson.

Interpretación: este estadístico puede tomar valores entre -1 y +1. El valor cero quiere decir
ausencia de correlación lineal entre las variables. Por tanto, a medida que el valor se aproxima a
uno de los extremos (-1 o +1) la correlación es más fuerte. El signo nos indica la direccionalidad
de la correlación, un valor positivo muestra cómo a medida que aumentan los valores de una
variable, también aumentan los de la otra (correlación directa), mientras que un valor negativo
significa que a medida que aumentan los valores de una variable, disminuyen los de la otra
(correlación inversa).

Correlación baja: cuando el coeficiente de correlación se encuentra entre 0,20 y 0,399.

Correlación moderada: cuando el coeficiente de correlación se encuentra entre 0,400 y 0,699.

Correlación alta: cuando el coeficiente de correlación supera el 0,700.

Para saber si hay relación estadísticamente significativa, debemos observar el valor de la


probabilidad asociada. Si el valor de p (o Sig.) es igual o menor que 0,05, podemos afirmar que
hay relación estadísticamente significativa entre las variables estudiadas.

Estadísticos de correlación no paramétricos


Coeficiente de correlación Rho de Spearman.

La correlación Rho de Spearman se utiliza cuando las variables que analizamos tienen naturaleza
ordinal. También cuando las variables son cuantitativas, pero se cuenta con una muestra pequeña
(inferior a 30 sujetos).

El ejemplo clásico de variables ordinales son los ítems de un cuestionario de opinión: valora de 1
a 5 tu grado de acuerdo con las siguientes afirmaciones (variables tipo Likert).

Interpretación: se interpreta igual que en el caso del coeficiente de correlación de Pearson.

Coeficientes de asociación: Chi-Cuadrado


El coeficiente de correlación Chi-Cuadrado se utiliza cuando las variables analizadas tienen
naturaleza cualitativa: lateralidad (izquierda-derecha) o sexo (mujer-varón), etc.
Interpretación: se interpreta de forma distinta al resto de coeficientes de correlación porque no
hay valores negativos. En Pearson y Rho de Spearman los valores oscilan entre -1 y +1. En el
caso de Chi-Cuadrado, los valores oscilan entre cero e infinito positivo, por ello, la prueba de Chi-
Cuadrado únicamente informa si la correlación es significativa o no, en función de la probabilidad
asociada.

Estadísticos de comparación de grupos


El objetivo de un análisis de comparación de grupos es determinar si existen diferencias
estadísticamente significativas entre los resultados de diferentes grupos (muestras), ya sean
independientes o relacionadas.

Las pruebas estadísticas para la comparación de grupos también se pueden agrupar en función de
su naturaleza (paramétricas y no paramétricas).

Comparación de grupos independientes


En los grupos independientes, las puntuaciones que hay en cada uno de los grupos que se
comparan son de sujetos distintos, es decir, los sujetos del grupo 1 son distintos a los del grupo 2.
Es, por tanto, un diseño de dos grupos independientes, entre sujetos o inter grupos.

Prueba paramétrica: T de Student.


Cuando queremos comparar la media de dos grupos compuestos por diferentes sujetos, es decir,
independientes entre sí, el análisis más apropiado es una prueba de diferencia de medias para
muestras independientes, a través del estadístico T de Student.

Para realizar esta prueba, es necesario que solo consideremos dos grupos o niveles diferentes o
bien, que la variable independiente que sirve como referencia para diferenciar los grupos tenga
solo dos categorías: participar en un programa de intervención o no hacerlo, género masculino o
femenino.

Prueba no paramétrica: U de Mann Whitney.


Cuando la variable dependiente no es cuantitativa y tiene un carácter ordinal o no se cumple
alguno de los supuestos indicados para las pruebas paramétricas, hay una prueba denominada U
de Mann Whitney. También se utiliza cuando el tamaño de los grupos es reducido (inferior a 30
casos), aunque se cuente con variables respuesta o dependientes cuantitativas.

Comparación de grupos relacionados


En los grupos relacionados se comparan las puntuaciones de un mismo sujeto en dos situaciones
distintas. Se trata, por tanto, de un diseño de medidas repetidas o intragrupos, dado que las
puntuaciones que hay en cada uno de los grupos que se comparan son del mismo sujeto.
Prueba paramétrica: T de Student para grupos relacionados.
Si queremos comparar los resultados de dos grupos compuestos por los mismos sujetos y
evaluados a través de una variable determinada en dos momentos diferentes (pretest y postest), el
procedimiento apropiado es realizar un análisis de diferencia de medias para muestras
relacionadas a través del estadístico T de Student de medidas repetidas.

Prueba no paramétrica: W de Wilcoxon


En el caso de contar con dos grupos relacionados, como las puntuaciones pretest y postest de un
mismo estudiante, pero sin los requisitos para aplicar pruebas paramétricas o con variables
analizadas ordinales, la prueba W de Wilcoxon es el equivalente no paramétrico, donde se utiliza
rangos en lugar de medias para la comparación.

También podría gustarte