Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Resumen ...................................................................................................................... 29
2
UD 3. Estudios observacionales e inferencia a partir de
muestras
Esta ausencia de intervención podría ser considerada, a la vez, su mayor virtud y su defecto. Por
una parte, permite observar la ocurrencia de los fenómenos que pretendamos estudiar de la
manera más natural y menos artificiosa posible, pero, a su vez, no nos permite controlar
lo que está ocurriendo, por lo que podríamos encontrarnos con que no sucede lo que esperábamos
o que ocurren fenómenos que no nos interesan.
A pesar de la escasa intervención del investigador en este tipo de estudios, en esta unidad
estudiaremos una serie de medidas que será necesario tomar para garantizar la
representatividad, el control y la fiabilidad a fin de realizar un estudio observacional fiable y con
validez.
3
3.1. Taxonomía de la metodología de investigación según el núcleo y el
contexto
A, B, C…
Núcleo: concepto concreto que pretendemos estudiar. Puede ser una variable o una relación.
Contexto: todo concepto debe tener un contexto para que tenga sentido. Este contexto no
es más que otros conceptos. Es todo lo que rodea al núcleo.
Observación natural
No No Observacional
Observación externa
Observación interna
Observaciones de laboratorio
No Sí Estudios de encuestas Selectiva
Estudios correlacionales
Estudios ex post facto
Experimento de campo
Sí No Manipulativa
Cuasiexperimento
(experimental)
Sí Sí Experimento
4
Viaja
Figura 1. Diferentes diseños para investigar las conductas de una muestra de población infantil.
5
3.2. Metodología observacional
Recuerda
Los estudios observacionales se definen por la manera de recoger las evidencias. Consisten
en apreciarlas mediante inspección sensorial sin intervenir en el núcleo ni en el contexto.
Los estudios observacionales pueden abordar variables o relaciones, pero los primeros son
mucho más comunes, ya que la ausencia de intervención dificulta el estudio controlado de
relaciones.
Ejemplo:
6
Ejemplo:
Figura 3. La potencial reactividad de los sujetos al investigador se tiene que tener en cuenta.
Sabías que:
Un caso especial de observaciones indirectas son los análisis de contenido, que suponen el
estudio de diarios, cartas o cualquier otro documento de una persona, normalmente ya
fallecida y con cierta relevancia o interés social (poetas, políticos, artistas, etcétera).
Figura 5. No todas las evidencias se pueden registrar en el momento en que están ocurriendo.
Según cómo se registren las evidencias, los estudios observacionales pueden clasificarse así:
7
Ejemplo:
Ejemplo:
Si, como psicólogos deportivos, solo estamos interesados en estudiar la toma de decisiones
de los deportistas de nuestro equipo, no necesitaremos llevar a cabo un muestreo para hacer
un estudio observacional, ya que estamos observando a toda la población de nuestro interés
(nuestros atletas), aunque esta circunstancia raramente es lo habitual en la investigación
psicológica.
8
Factores de sujeto en la representatividad
Los aspectos de los participantes estudiados que suelen tomarse en consideración son sus
características y actividades, que, a su vez, forman parte del núcleo o del contexto.
Siguiendo el ejemplo anterior sobre las conductas agresivas de los preescolares en el tiempo
de recreo, podría haberse elegido una muestra de:
En ocasiones, una vez delimitado qué observar, hay que decidir qué participantes de la
muestra elegida serán observados, de tal manera que podemos hablar de:
Nota
Aunque es posible, el muestreo de los espacios no suele ser usual; no obstante, el muestreo
del periodo de tiempo es mucho más frecuente (sesiones).
Los principales aspectos del medio que se deben considerar son los espaciales y temporales
respecto a los que el participante actúa. Como en el caso anterior, habrá situaciones en las que
no sea necesario el muestreo de estas condiciones.
Ejemplo:
9
ni del espacio ni del tiempo, ya que es posible realizar la observación en su totalidad.
Aunque esto no suele ser lo habitual en investigación psicológica general, donde lo
que se pretende es extrapolar lo observado en la muestra a una población mayor.
Se denominan sesiones los periodos de tiempo en los que se van a observar y registrar los
datos cuando no es posible (o simplemente no nos interesa) recoger evidencias durante todo el
tiempo.
Ejemplo:
En un estudio sobre el hábito de fumar, nos podría interesar la conducta del participante
durante una semana. Es evidente que la persona no podrá ser observada continuamente,
por lo que, una vez descartados los periodos en los que no podrá fumar (horas de sueño o
momentos en lugares donde esté prohibido), habría que muestrear las sesiones de
observación que considerásemos pertinentes. También podría tener sentido muestrear los
lugares (por ejemplo, lugares de la casa o lugares de ocio).
Ejemplo:
10
• Muestreo intrasesional RAUT: cada sesión de 10 minutos se divide en 2 sesiones
de 5 minutos y, al final de cada periodo de 5 minutos, se anota lo observado.
• Muestreo intrasesional RAT: se anota en la hoja de registro cada vez que la
persona fuma, dentro de las 20 sesiones de 10 minutos que se han establecido.
Los factores de estudio de las observaciones no suelen ser muestreados, ya que no forman parte
del concepto planteado, por lo que, más que muestrearlos, lo que se intenta es reducir su
presencia lo máximo posible.
Las medidas más comunes tomadas al respecto están relacionadas con la recogida de datos por
varios observadores. A fin de neutralizar posibles sesgos, se podría decidir asignar al azar
qué observador y qué sesión se registrará.
11
Ejemplo:
Supongamos que estamos estudiando la influencia del estilo educativo de los padres en el
consumo de sustancias en adolescentes. Al usar al participante como propio control,
garantizamos examinar durante toda la investigación al mismo participante con los
mismos padres.
Sabías que:
12
Ejemplo:
Si tuviésemos interés en estudiar la posible influencia del nivel de estudios de los padres en
el desarrollo infantil, podríamos hacer tres grupos con los valores de la variable
predictora (por ejemplo, niveles alto, medio y bajo de estudios de los padres), pero tratando
de que fuesen equivalentes las demás variables que pudiesen estar confundidas con
dicha variable (por ejemplo, situación laboral: activo, desempleado…). Como es evidente, en
esta situación no tendría sentido la adjudicación al azar de las distintas condiciones.
Sabías que:
La presencia del observador puede hacer que los participantes modifiquen su conducta,
motivo por el cual la ocultación es una de las técnicas más importantes en las observaciones
naturales. Esta consiste en la eliminación del investigador u observador y de sus instrumentos de
recogida de evidencias.
13
Ejemplo:
Ejemplo:
Una de las medidas más utilizadas para controlar los posibles efectos de las características
de los observadores consiste en que, al menos, dos de ellos observen a la vez la
situación de estudio, lo que se conoce como fiabilidad interjueces. El porcentaje de
acuerdo entre ambos será una buena medida de la fiabilidad de la observación.
Además, podría ocurrir que cada observador utilizase de manera diferente los instrumentos de
recogida de evidencias, por lo que, en caso de ser complejos o configurables, es recomendable
instruirlos en su correcto uso.
14
Factores de estudio en el control: problemas con el observador
Hay una serie de circunstancias o problemas relacionados con el observador que conviene
siempre tener en cuenta:
• Efecto deriva: a veces, el observador, tras un largo tiempo observando las mismas
variables, comienza a introducir pequeños errores en la observación, de tal manera
que va haciendo progresivamente pequeñas adaptaciones, según su criterio.
• Expectativas: a veces, el observador introduce errores basándose en lo que espera
que ocurra en el estudio que está realizando. Una manera de controlar las expectativas es
el procedimiento del ciego simple, el cual consiste en utilizar un investigador que sepa
observar, pero que no sea consciente de lo que se está estudiando y/o de qué objetivos
e hipótesis tiene la investigación.
Ejemplo:
15
Ejemplo:
Ejemplo:
16
Nota
Se presentan los efectos reactividad y de demanda como elementos para tener en cuenta
especialmente en observaciones no naturales (situaciones artificiales) porque es donde
normalmente el observador tiene más difícil ocultarse y/o no afectar a lo observado, pero, en
realidad, la presencia del observador o del elemento registrador es un factor clave a
la hora de planificar observaciones, ya sea en entorno natural o en entorno artificial.
Otra circunstancia que conviene controlar en las observaciones no naturales son las
características del observador, ya sea su comportamiento o su aspecto físico. La constancia,
es decir, mantener siempre el mismo comportamiento o aspecto, es la mejor medida en
estas situaciones.
Ejemplo:
17
3.2.3. Fiabilidad en los estudios observacionales
Nota
Nota
Cada estudio observacional puede implicar unas determinadas técnicas de control, pero,
dada su escasa presencia en estos estudios, no reciben nombres especiales como sí ocurrirá
en las metodologías que abordaremos en las próximas unidades.
18
Respecto al núcleo del concepto estudiado, los diseños observacionales pueden ocuparse tanto
de variables como de relaciones.
Ejemplo:
• Diseño observacional con una variable como núcleo: estudio de los hábitos de
lectura en un aula de Educación Primaria.
• Diseño observacional con una relación como núcleo: estudio de los hábitos de
lectura en un aula de Educación Primaria en función de las instrucciones de la
profesora.
Respecto al contexto del concepto estudiado, los diseños se diferencian de acuerdo con el aspecto
temporal en el que se obtienen los datos:
Ejemplo:
Figura 19. Diferentes entrevistas de una misma persona o varias entrevistas de diferentes personas.
19
También son posibles los diseños observacionales mixtos, en los que una variable es
transversal y otra, longitudinal.
Ejemplo:
Basándose en los datos de un estudio, el experimentador debe establecer, por ejemplo, en qué
medida existe una relación entre los diferentes valores de la variable independiente o de
exposición y los valores de las variables dependientes o resultado. Como ya se presentó
anteriormente, en el contexto empírico, esta relación puede verse enmascarada o
distorsionada por dos tipos de fuentes de error: los errores sistemáticos o sesgos y los errores
variables o aleatorios.
Los primeros son variables de influencia constante (sesgos) que deben tenerse en cuenta y
controlarse al diseñar y ejecutar la investigación, e implican cuestiones ya mencionadas
acerca del control y la representatividad.
Sin embargo, los segundos son los generados por variables ajenas a la investigación y cuya
influencia es aleatoria y difícil de prever. Esta última fuente de error se encuentra relacionada
con la propia variabilidad del proceso de muestreo, así como con la natural de las variables
y su medición. En este sentido, los errores aleatorios dificultan la generalización de los
resultados de los estudios.
20
Figura 21. Estadística inferencial.
Aunque de forma mucho más específica y detallada, esta cuestión se va a tratar en asignaturas
futuras centradas en el uso de técnicas matemáticas para el análisis de datos y creación de
instrumentos de medida, en el presente apartado se presentará un primer acercamiento a su
planteamiento teórico y conceptual. Sus fundamentos son relevantes de forma transversal para
cualquier diseño de investigación donde se utilicen muestras, aunque de especial
relevancia cuando el foco de estudio sea estudiar relaciones entre variables (Álvarez, 2007;
Argimon y Jiménez, 2013).
Figura 22. Análisis de datos para inferencias sobre relaciones entre variables.
Con respecto a este uso de la estadística, las propuestas que mayor impacto han tenido en la
comunidad científica han sido el proceso de inferencia inductiva a través de pruebas de
significación de Fisher (1925) y el razonamiento hipotético-deductivo mediante pruebas de
hipótesis de Neyman y Pearson (1928). Con frecuencia, ambas posiciones, teóricamente
enfrentadas, se han presentado combinadas en los manuales de estadística bajo el epígrafe
del paradigma del contraste de hipótesis nula en una metodología híbrida (a menudo
denominada por su acrónimo en inglés NHST (null hypothesis significance testing), siendo
este formato el utilizado de forma rutinaria en la investigación y en las publicaciones
científicas (Rodríguez, 2005).
21
Sabías que:
Fisher (1925 y 1991) propone la prueba de significación como una herramienta para aportar
argumentos en un proceso de inferencia inductiva (de lo particular a lo general). Se utiliza
para valorar la credibilidad de una hipótesis concreta a partir de unos datos empíricos. La prueba
en sí implica evaluar la verosimilitud de observar en una población de referencia teórica los
datos descubiertos en la muestra, donde la hipótesis del experimentador no se cumple. Es
decir, la contrastación de la probabilidad de que la diferencia o relación observada en realidad no
exista en la población y lo observado se deba al azar del muestreo.
Ejemplo:
Figura 23. Estudiar la significación estadística de las diferencias entre dos grupos de tratamiento.
En este contexto, la prueba de significación nos serviría para constatar en qué grado la
diferencia de las medias en la puntuación BDI entre los dos grupos es probable que exista
en una distribución de referencia teórica, donde la media de diferencias es 0 (es decir,
que no exista diferencia real en la población) y, por tanto, la diferencia observada en el
estudio se pueda deber a la variabilidad del muestreo y no al tipo de tratamiento
aplicado.
22
Significación o valor p
Sabías que:
Fisher sugirió usar el umbral de significación p < 0,05 basándose en sus estudios en
producción agrícola, pero este valor se ha generalizado como el criterio de significación
para rechazar la hipótesis nula en la mayoría de los usos de la estadística en estudios
científicos en la actualidad (desde la sociología a la biomedicina).
Nota
Fisher designa esta probabilidad como grado de significación o valor p, y establece que el
criterio a partir del cual se puede considerar ese valor p bajo se debe haber establecido antes
del estudio. Aunque el autor considera este criterio flexible y no necesariamente fijo a todas las
situaciones experimentales, realizó la mención al valor de p > 0,05 como sugerencia. Si p es
menor que el criterio establecido, el experimentador podrá descartar que los resultados
observados se deban al azar; si no, no podrá hacerlo y será necesario seguir investigando.
Fisher advierte de que el valor de significación no puede ser utilizado como una inferencia de la
probabilidad de error en caso de repetir el estudio.
1. Formular una hipótesis nula. Se plantea una hipótesis donde no existe relación entre
las variables del estudio. Es decir, normalmente una hipótesis contraria a la del
experimentador, donde las diferencias observadas se deban al azar y no a la relación entre
variables. Esta es la hipótesis que se operativizará y pondrá a prueba con los datos
recogidos.
23
2. Fijar el nivel de significancia. Es necesario fijar un umbral a partir del cual el valor p,
resultante de poner a prueba la hipótesis nula, permita decidir si esta hipótesis de azar es
creíble o no (es lo suficientemente pequeño). Los valores por debajo del umbral se
tienen que tomar como evidencias en contra de la hipótesis nula, pero no es un
criterio absoluto. Este umbral es la magnitud del riesgo que está dispuesto a asumir el
experimentador de cometer el error de rechazar la hipótesis nula si es verdadera.
3. Elegir una prueba estadística apropiada a la naturaleza de las variables
contrastadas, tales como Chi cuadrado, t de Student, ANOVA, r de Pearson, etc.
(contenidos que se estudiarán en futuras asignaturas).
4. Comparar el valor p resultante de la prueba con el nivel de significancia
preestablecido y tomar una decisión de poder rechazar o no la hipótesis nula (pero no para
aceptarla). Bajo la lógica de Fisher no se consideran más opciones, ya que el proceso solo
sirve para obtener argumentos contra la hipótesis nula.
A partir de la propuesta inicial de Fisher, pero bajo otra perspectiva, Neyman y Pearson (1928)
desarrollaron su propio procedimiento de contrastación de hipótesis estadísticas. Estos
autores parten de la teoría de la probabilidad para establecer la prueba como una regla de decisión
entre dos hipótesis complementarias (rechazar una implica aceptar la otra), siendo esta
consideración del contraste en lo que difieren fundamentalmente con Fisher.
Para ello es necesario plantear las dos hipótesis. Por un lado, la hipótesis nula (H0), que en el
caso de Fisher establece la no relación real entre las variables estudiadas, y, por otro, su suceso
complementario a nivel de probabilidad, la hipótesis alternativa (H1), que se expresa como la
contraria a la H0. En esta situación, todos los valores muestrales posibles pertenecen a uno de
los dos subconjuntos que forman las hipótesis que contrastar. Se debe determinar a cuál de los
dos subconjuntos pertenece la muestra del estudio, por lo que se generan dos regiones de
aceptación de cada una de las hipótesis. La región de aceptación de H1 se denomina región
crítica.
Nota
24
La hipótesis alternativa no se contrasta directamente con la prueba de significación, sino
que se realiza con la H0, ya que es la que se puede operativizar y establecer
matemáticamente, pero, dada su complementariedad, los resultados obtenidos permiten tomar
la decisión de aceptar una y rechazar la otra. Si el valor del estadístico de contraste se sitúa
dentro de la región crítica, se acepta H1 y se rechaza H0, y, si se sitúa fuera, se realiza la
decisión inversa. Sin embargo, esto puede implicar asumir dos errores diferentes según la
decisión que se tome; el de rechazar la hipótesis nula cuando esta es verdadera,
denominado error tipo I con la probabilidad de cometerlo (riesgo α), o el de aceptar la
hipótesis nula cuando la hipótesis alternativa es verdadera, error tipo II con la probabilidad
de cometerlo (riesgo β). En la siguiente tabla se ilustra lo que suponen estos elementos en la
decisión de la prueba. Los riesgos α y β deben haberse establecido a priori según la naturaleza
del estudio y las consecuencias prácticas de cometer cada error.
H0 H1
25
Prueba de significación (Fisher) Prueba de hipótesis (Neyman y
Pearson)
En relación con esto es necesario señalar cuatro precauciones que se deben tener en cuenta a la
hora de interpretar el resultado de una prueba de significación:
26
2. Un resultado no significativo no demuestra por sí solo que la hipótesis nula sea cierta.
Poner a prueba la hipótesis nula posibilita al investigador valorar si los datos permiten
dudar de la credibilidad de esta hipótesis o si no son suficientes para descartarla.
3. El valor p no es una medida de magnitud del efecto. Un resultado muy significativo
hace referencia a la poca credibilidad de la hipótesis nula y, por tanto, a que el efecto
encontrado no se puede achacar al azar, pero no es una medida de la cuantía de ese
efecto, ya que depende de otros factores como el tamaño muestral.
4. El resultado estadísticamente significativo no implica relevancia práctica. La
significación estadística tampoco informa de la importancia que puede tener ese
resultado encontrado para la toma de decisiones reales. Dependerá de su contexto y
naturaleza, además de otros factores no metodológicos o matemáticos.
Nota
El error estándar se entiende como la desviación estándar de un estadístico en todas las posibles
muestras de un tamaño determinado escogidas de una población (Everitt y Skrondal, 2010).
Como este dato suele ser desconocido, se estima a partir de la muestra de datos que se está
estudiando.
27
Figura 26. Enfoque frecuentista vs. enfoque bayesiano de la estadística inferencial.
Las dos estrategias presentadas acerca del contraste de hipótesis estadísticas (Fisher y Neyman
y Pearson) se engloban en el denominado enfoque clásico o frecuentista de la probabilidad,
donde se utiliza únicamente la información proveniente del estudio y donde se fijan criterios
de decisión a priori que permanecen inmutables en el proceso. Esta es la perspectiva más común
a la hora de realizar inferencias estadísticas. Sin embargo, existe una alternativa a este enfoque
que, pese a no tener demasiada aceptación e impacto en el ámbito científico general, está
cobrando fuerza en los últimos años. Se trata del enfoque bayesiano, denominado así por
basarse en los planteamientos matemáticos de cálculo de probabilidades condicionadas del
teorema de Bayes, pero su abordaje detallado excede los objetivos didácticos de la presente
materia.
28
Resumen
Las evidencias pueden recogerse de manera directa (se registran mientras ocurren) o de
manera indirecta (se registran los resultados que hayan producido las evidencias). La
representatividad es imprescindible para hacer un estudio con validez.
Los factores de sujeto que se suelen muestrear tienen que ver con sus actividades (algo que
hace que queramos estudiar) o sus características (nivel de estudios, etc.), y pueden ser
observados de manera focal (solo un participante) o multifocal (varios participantes).
Los factores del medio muestreados serán con frecuencia las sesiones en las que dividiremos
temporalmente lo que está ocurriendo. Habrá que muestrear, por tanto, intersesionalmente
(decidir cuándo comienza la sesión) e intrasesionalmente (decidir cuándo se registra dentro de
la sesión). Las posibilidades de control en un estudio observacional son limitadas al no
intervenir ni el núcleo ni el contexto, pero habrá que tomar las medidas oportunas, así como,
si fuese necesario, el participante como propio control o la ocultación.
Hay una serie de problemas relacionados con el observador que deben tomarse en cuenta,
como el efecto deriva (errores en la recogida de evidencias), las expectativas (errores en lo
que se espera recoger) o, en el caso de observaciones no naturales, la reactividad (cambios por
sentirse observado) o el efecto demanda (comportamiento artificial). La validez se estima
mediante la fiabilidad de las evidencias registradas, pudiendo ser esta interjueces (entre dos
observadores) o intraobservador (consigo mismo).
29
Mapa de contenidos
30
Recursos bibliográficos
Bibliografía básica
Macía, A., Moreno, E., Reales, J. M., Rodríguez-Miñón, P. y Villarino A. (2014). Diseños de
investigación y análisis de datos. Sanz y Torres.
Bibliografía complementaria
Fisher, R. A. (1925). Statistical methods for research workers. Oliver and Boyd.
Fisher, R. A. (1991). Statistical methods experimental design and scientific inference. Oxford
University Press.
Neyman, J. y Pearson, E. S. (1928). On the use and interpretation of certain test criteria for
purposes of statistical inference. (Part I). Biometrika, 20(1-2), 175-240.
https://doi.org/10.1093/biomet/20A.1-2.175
31
Rodríguez, E. (2005). Estadística y psicología: análisis histórico de la inferencia estadística.
Revista PsicologiaCientifica.com, 7(4). https://www.psicologiacientifica.com/estadistica-y-
psicologia/
Otros recursos
ACME 2.0. (s. f.). Anumerismo, ciencia, método y escepticismo. [Vídeo]. YouTube.
https://www.youtube.com/channel/UCvN6oek2pgb32uyCi_2L4YA
32