Está en la página 1de 57

El método científico plantea un método para la obtención del

conocimiento que abarca todas las fases de la investigación, dada su


generalidad, cada disciplina requiere métodos particulares para su
aplicación. La psicología, como ciencia, también se vale del método
científico, sin embargo, dada la complejidad de su objeto de estudio y la
gran variedad de áreas donde se puede aplicar, debe adaptar sus
estrategias a la particularidad de sus problemas.

La diferenciación de las distintas estrategias metodológicas se pueden


realizar desde diferentes criterios, un primer criterio puede ser si se
realiza desde un enfoque cuantitativo o cualitativo.
La diferencia entre métodos en el estudio cuantitativo reside en el grado
de manipulación del investigador, en el estudio cualitativo de la
naturaleza de los datos que se estudian.

¿Qué caracteriza al método científico?

Podemos destacar tres claves en la nueva forma de hacer ciencia:

1. La observación como forma de entender la naturaleza pero


también para corregirse a sí misma, este matiz es lo que la
diferencia de la observación realizada con anterioridad, el afán de
descubrir errores, aunque sean en las teorías filosóficas y
religiosas que establecen la disciplina.
2. Controlar los elementos extremos que pueden interferir en la
investigación
3. Se pasa de una observación pasiva a una activa
(experimentación)

Por lo tanto podemos definir el método científico como un procedimiento


general, empírico, sistemático, controlado y crítico. General porque
proporciona unas claves básicas que son adaptables a las necesidades
específicas de las diferentes disciplinas, empírico porque nace de la
observación de los hechos, sistemático y controlado porque existe una
planificación y aplicación rigurosa y crítico porque debe ser revisable y
someterse al juicio externo.
Respecto al aspecto crítico de la ciencia se destaca que el conocimiento
sea público, detallando el proceso y todas las variables involucradas, de
forma que pueda ser comprobado por otros investigadores.

La investigación científica es un proceso sistemático y dinámico en el


que se pueden identificar diferentes fases organizadas de forma
secuencial, la interdependencia de estas fases es tal que los primeros
pasos de una investigación pueden determinar la forma de todos los
siguientes.

Según las estrategias de razonamiento podemos diferenciar entre


método inductivo e hipotético - deductivo.
En el método inductivo se extraen las conclusiones por inducción, es
decir, la observación repetida de los hechos y la extracción de normas
generales de los mismos

El método hipotético - deductivo se basa en la combinación de ambos


elementos, juega un papel importante la hipótesis. A partir de la teoría
deducimos una hipótesis razonable y coherente y, mediante la
experimentación (inducción) comprobamos su fiabilidad. Una vez
obtenidos los datos deducimos las implicaciones y consecuencias que
tiene el hecho de que la hipótesis haya sido o no respaldada.

Si los datos apoyan la hipótesis la teoría se ve fortalecida, y si no se ve


debilitada. Evitamos decir que demuestre o no la teoría como cierta ya
que cambios circunstanciales podrían haber dado resultados diferentes
y hay que abrir la puerta a errores de metodología, es la acumulación de
varias hipótesis incorrectas lo que descarta una teoría o la modifica.

¿Que es una teoría?

En ciencia una teoría es una elaboración conceptual y lógica que


pretende explicar cómo y por qué ocurre un fenómeno. Puede tener un
gran respaldo empírico que la apoye pero también puede tener otros
pendientes de poner a prueba.

Funciones y cualidades de las teorías científicas


La teoría está al servicio del objetivo de la ciencia, que es comprender la
naturaleza, y en el caso de la psicología, el comportamiento humano
como parte de ella. Una teoría es útil en la medida en que describe,
explica y predice el fenómeno de estudio
Las funciones básicas son las siguientes:
1. La teoría aglutina el conocimiento acumulado sobre un fenómeno.
2. Explica cómo y por qué ocurre dicho fenómeno.
3. Preside dicho fenómeno
4. Orienta la investigación, puesto que es clave para la deducción de
hipótesis en el método hipotético-deductivo.

A menudo surgen dos teorías diferentes para un mismo fenómeno, en


estos casos se consideran teorías complementarias que intentan
explicar la realidad, demasiado compleja para ser explicada con una
sola teoría. Sin embargo en ocasiones resultan contradictorias, por lo
que se intenta determinar su valor con las cualidades fundamentales de
una teoría:

1. Ser susceptible de prueba y modificación


2. Coherente y lógica, sus partes deben estar formuladas de forma
clara y precisa, sin contradicciones
3. Debe describir, explicar y predecir el fenómeno.
4. Alcance, una teoría tiene mayor amplitud cuanto mayor sea el
número y la diversidad de fenómenos que pueda explicar
5. Simplicidad (principio de parsimonia), cuanto menor sea el número
de proposiciones y componentes necesarios para la explicación
de un fenómeno
6. Fertilidad, debe tener la capacidad de generar nuevas preguntas y
nuevas observaciones.

Otros términos relacionados con las teorías: modelos, perspectivas,


constructos y variables:

Los modelos tienen un alcance explicativo menor que el de las teorías y


tienen un rango mucho más acotado, a menudo se expresan en
ecuaciones o estructuras funcionales concretas y a veces usan
analogías para expresar sus claves. Debido a la complejidad de la
psicología y a lo joven que es como disciplina, tenemos más modelos
que teorías.

La perspectiva ofrece una visión mucho más general de un fenómeno,


un punto de vista, un ejemplo es la perspectiva innatista contra la
perspectiva bio-psico-social en psicología.

Un constructo es un concepto abstracto, que no es directamente


observable pero podemos inferir a través del método empírico, un
ejemplo es la inteligencia o la creatividad.

Métodos, diseños y técnicas: Clarificación de conceptos:

Un método es lo que define el enfoque y la forma de la investigación a


través de todas sus partes con el fin de conservar una coherencia
interna. En cambio las técnicas hacen referencia a la forma de realizar
diferentes etapas particulares. Entre estos dos conceptos se encuentra
el de diseño, hace referencia a la elección y la especificación del
procedimiento para la obtención de datos que permite afrontar un objeto
de estudio.

Aunque tendamos a usarlos como sinónimos, metodología y método no


son lo mismo. Metodología hace referencia al estudio del método.

La aproximación cuantitativa y la investigación cualitativa.

La aproximación psicológica se ha desarrollado, mayormente, bajo el


predominio de la aproximación cuantitativa, cuyo cometido principal es
contrastar hipótesis a través de estudios empíricos. Parte de la filosofía
positivista, que considera que lo único digno de estudio es lo observable
y medible.

La aproximación cualitativa tiene sus bases en la filosofía constructivista


y fenomenológica, los constructivistas defendían que la realidad emerge
de la relación entre el sujeto que conoce y el objeto del conocimiento, y
desde una perspectiva fenomenológica se considera que la existencia
de una persona no se puede ver alejada del mundo, ni el mundo a parte
de la persona. La investigación cualitativa supone que la realidad es
múltiple y que no existe una única realidad, sino que está determinada
histórica y socialmente.

Fases de la investigación en psicología

Las investigaciones llevadas a cabo según el método hipotético -


deductivo siguen una serie de pasos predefinidos

- Constatación del problema


- Planteamiento de la hipótesis
- Definición operativa de los conceptos
- Elección de la mejor estrategia metodológica
- Análisis de los datos obtenidos
- Interpretación y extracción de conclusiones
- Publicación

Aunque pueda dar la impresión de ser un proceso rígido, dicha rigidez


es parcial, puesto que la interrelación entre las fases hace que el
desarrollo de unas afecte a las otras. Pone de manifiesto el carácter
refutable del conocimiento científico. Después de haber recogido los
datos es imprescindible compararlos o contrastarlos.

Identificación del problema

El problema de investigación, entendido como cualquier pregunta que


pueda surgir en torno a un tema, es un componente fundamental,
puesto que es el punto de partida del que nace la investigación.
Normalmente no surge de la nada, sino que nace de la experiencia de
los investigadores o de otras investigaciones previas, lo que recalca el
carácter circular de la investigación científica.
Los problemas pueden ser:

- De existencia
- De descripción y calificación (Como es X? Hay diferencia entre X
e Y)
- De composición (¿Cuáles son los componentes de X?)
- De relación
- Descriptivo-comparativas
- De causalidad

Una relación de covariación o asociación entre variables significa que


ninguna de ellas puede ser claramente identificada como la causa de la
otra, a diferencia de las relaciones causales

Debemos investigar los problemas que sean relevantes para dicha


disciplina, cuya solución sirva para aumentar los conocimientos en dicha
área, que sean viables de estudiar y que sean prolíficos, es decir, que
den pie a nuevas preguntas.

Planteamiento del objetivo e hipótesis

Una vez seleccionada la pregunta debemos elegir un objetivo, del cual


también dependerá la estrategia metodológica que empleemos, el
objetivo final de toda investigación es el conocimiento del objeto de
estudio. Los objetivos pueden ser descriptivos o explicativos, con líneas
muy finas entre ambos.

Descriptivo:
Emplea fundamentalmente la estadística descriptiva, pretende conocer
el fenómeno de estudio, como es y cómo se manifiesta.

Explicativo:
Trata de establecer qué variables contribuyen a la aparición del
fenómeno objeto de estudio, emplea la estadística inferencial.

Una vez hecho esto, debemos seleccionar la hipótesis, una hipótesis es


una predicción sobre los resultados concretos que esperamos
encontrar, se fundamenta también en las evidencias previas obtenidas y
de un conocimiento del área de estudio, por lo que no parten de la nada.
No todas las investigaciones tienen hipótesis, los objetivos descriptivos
no suelen plantear hipótesis, a diferencia de los exploratorios donde
pretendemos encontrar relaciones causales o de covariación.
Para el contraste de hipótesis usamos la hipótesis estadística, que
consiste en la constatación de dos hipótesis mutuamente excluyentes.
La hipótesis nula (Ho) hace referencia a la no existencia de relación
entre las variables o que esta se deba solo al azar, siempre se empieza
asumiendo que esta es la correcta. La hipótesis alternativa (H1) hace
referencia a la existencia de dicha relación, generalmente es esta
hipótesis la hipótesis de investigación, puesto que solemos partir desde
la presunción de relación entre variables.

Las variables

Las variables, a diferencia de las constantes, son aquella característica


susceptible de cambiar. Algunas presentan problemas en su medición,
especialmente en el caso de los constructos (variables no observables),
por lo que es fundamental escoger una forma adecuada de estudiarlas.
Según su naturaleza pueden ser de diferentes tipos, nominales,
ordinales, de razón o intervalo.
Además de estas diferencias, en lo que a la investigación respecta
podemos separar las variables en tres tipos, dependientes,
independientes y extrañas.

La variable dependiente es aquella que estudiamos directamente para


comprobar si se da un cambio en ella o no, mientras que la variable
independiente es la que manipulamos (de ser posible) para producir
cambios en la variable dependiente.

Las variables extrañas son aquellas que no son un objeto directo de


estudio pero pueden tener un efecto pernicioso sobre el mismo, dichas
variables deben ser controladas.

Puesto que la realidad es compleja, no siempre podemos resumir en el


efecto de la variable independiente sobre la variable dependiente, sino
que en ocasiones aparece una tercera variable.

El efecto espurio o de confusión se produce por una tercera variable


que se relaciona tanto con la VI como con la VD. Cuando el control de
esta tercera variable hace que desaparezca la relación hablamos de un
efecto de espurio total, cuando debilita la relación hablamos de un
efecto espurio parcial.

Las variables moderadoras son aquellas que en función del valor que
tomen alteran la magnitud y/o el signo (positivo o negativo) de la
relación.

Método: procedimiento para la recogida de datos:

Diseño de la investigación:
Debemos elegir qué estrategia tomaremos para alcanzar nuestros
objetivos, los cuales dependerán de cuántas variables independientes
tengamos, las condiciones de cada una de ellas, como vamos a recoger
los datos, etc.

Selección de los participantes:

Antes debemos diferenciar entre muestra y población. Población es el


conjunto de todos los elementos que comparten una característica,
condición o propiedad (o varias) bien determinadas. Una muestra es
una selección de individuos que representen dicha población, y cada
unidad se denomina unidad muestral.

Muestreo probabilístico:

En dicho tipo de muestreo todos los elementos de la población tienen


una probabilidad conocida de ser seleccionados para formar parte de la
muestra. Dentro de ellos los más destacados son

- Muestreo aleatorio simple, consiste en seleccionar al azar un


número n de elementos de una población. Para ello todos los
elementos de una población deben tener la misma probabilidad de
ser escogidos
- Muestreo aleatorio estratificado, empleamos este tipo de muestreo
cuando la característica de estudio no se distribuye de forma
homogénea en la población, pero podemos identificar subgrupos
en los que sí. Por lo que obtenemos una muestra total obtenida
por submuestras, es decir, de cada estrato se obtiene una m.a.s.
Pueden ser según su afijación:
- Simple: se selecciona la misma cantidad de participantes de
cada estrato
- Proporcional: Se selecciona en función del peso que cada
estrato tenga en la población
- Óptima: Se tiene en cuenta no solo su peso sino también su
homogeneidad en caso de conocerse.
- Muestreo aleatorio por conglomerados: Consiste en escoger la
muestra partiendo de conglomerados o grupos ya formados, como
las clases de un colegio.

También existe la selección polietápica, que se emplea de forma


conjunta y sucesiva, por ejemplo seleccionamos de forma aleatoria
algunos clubs de fútbol (conglomerados), después, de cada club
elegimos aleatoriamente dos equipos de entre cada una de las
categorías existentes (muestreo estratificado con criterio de afijación
simple) y elegimos de cada grupo 10 niños al azar (m.a.s)

Muestreo no probabilístico

En el muestreo no probabilístico desconocemos la probabilidad de


seleccionar cada uno de los elementos que forman la población, se da
cuando no es posible escoger una muestra aleatoria porque
desconocemos las unidades que componen la población, cuando
tenemos limitación de recursos, las muestras son de difícil acceso o
queremos simplemente hacer un primer acercamiento. Este estudio
puede explicar una situación determinada, pero no son extrapolables.

- Muestreo por cuotas, se asienta generalmente sobre un buen


conocimiento de los estratos de la población y/o de los individuos
más representativos o adecuados para los fines de la
investigación.
- Muestreo intencional óptimo, se selecciona la muestra con un
propósito en mente, por ejemplo sobre casos atípicos
- Muestreo incidental o causal, consiste en seleccionar la muestra
que es más accesible para el investigador.
- Muestreo de bola de nieve

El registro de variables, instrumentos y procedimiento:

Debemos elegir los instrumentos que utilizaremos para medir las


variables dependientes, deben ser metodologías fiables y válidas, y
pueden ser ya establecidas o publicadas o elaboradas por el propio
investigador, sea el caso que sea, se deben detallar y explicar.
Además debemos tener en cuenta el procedimiento de investigación,
como el momento, si se hará una única recogida de datos o varias,
quién la hará, las instrucciones que se les dará a los participantes, etc.

Análisis de datos:

Es una fase fundamental, ya que una vez recogidos los datos debemos
analizarlos para obtener los resultados de nuestro estudio. La forma de
hacerlo va a depender principalmente del propósito o finalidad y del
planteamiento del problema.

El análisis de datos tiene principalmente dos propósitos, el de buscar


regularidades en los datos obtenidos y el de predecir y generalizar.

Respecto al planteamiento del problema, vamos a poner a prueba si


nuestros datos apoyan o refutan la hipótesis en el contraste de
hipótesis, los análisis específicos van a depender de:

- El nivel de medida de las variables registradas: no podemos


realizar el mismo tipo de análisis a una variable nominal o a una
de intervalo
- Diseño de investigación utilizado: La estrategia que vayamos a
seguir sobre el número de VI, si tomamos una o varias muestras y
demás aspectos de la investigación van a influir también en qué
clase de recolección llevemos a cabo.
- Las características de los datos recogidos: Dependiendo de varios
requisitos como su distribución, dispersión, etc.
El contraste de hipótesis es un proceso mediante el cual podemos
determinar si las predicciones que hacíamos al principio son
congruentes con los datos obtenidos, a través del análisis obtenemos el
valor estadístico y el valor de probabilidad (p) asociado con el valor de
dicho estadístico.

Así mismo, en toda investigación se asume un margen de error,


solemos determinar que existe cierto margen de error debido a posibles
fallos en el proceso, por lo que se estima un nivel de confianza en torno
al 95-99%. Al margen de error se le denomina con la letra griega para a.

A través de los análisis estadísticos obtenemos el nivel de probabilidad


(p-valor o p). Para llevar a cabo el contraste de hipótesis propiamente
dicho recurrimos al criterio de significación estadística de los resultados.
Si p>a mantenemos H0 y rechazamos H1, si p<=a rechazamos H0 y
aceptamos H1.

Hay investigadores que plantean como alternativa el tamaño del efecto.


Que refleja cómo de estrecha es la relación entre dos variables. Nos
informa de la relevancia de las diferencias estadísticamente
significativas encontradas y de la magnitud del efecto encontrado.

Interpretación de los resultados:

Tras el análisis de los datos es importante llevar a cabo un proceso de


interpretación, usando como base el conocimiento ya existente y la
hipótesis de partida, de tal modo que se de una discusión donde
pondremos en relación los hallazgos obtenidos con dichas hipótesis.
Es importante que pensemos tanto en las implicaciones y utilidad
obtenidos a partir del estudio realizado como las limitaciones.

Por último se presentan unas conclusiones claras respecto al trabajo


realizado, hay que recordar que el proceso investigador no es definitivo
puesto que el conocimiento científico es modificable y será válido
únicamente hasta que aparezcan datos opuestos.

Comunicación de los resultados de la investigación


El último paso es la comunicación de los datos obtenidos con la
comunidad científica, tiene un papel muy importante puesto que es lo
que permite que el conocimiento sea compartido y crezca
constantemente.

Ética en el proceso de investigación

Cualquier investigación debe considerar la relación entre el riesgo al que


se somete el individuo y el beneficio que podemos obtener de este, los
códigos éticos son elementos de referencia, ya que sus limitaciones no
nos van a permitir adoptarlos al pie de la letra para solucionar todos los
problemas que se nos planteen.

La historia de la protección de los derechos en los participantes de una


investigación inicia en Nüremberg, en 1947, y si nos centramos en la
Psicología, sociedades como la BPS o la APA han acordado directrices
sobre los aspectos éticos relacionados con la investigación en esta
área.

Los principios generales del código ético de la APA son

- Beneficencia y no maleficencia, el psicólogo priorizará no


ocasionar daños en su actividad profesional y, en caso de
conflicto, de reducirlos al máximo, tanto para los participantes
humanos como para los animales
- Fidelidad y responsabilidad, el psicólogo tratará de establecer
relaciones de confianza con quienes trabaja, será consciente de
su papel y lo comunicará a aquellos con los que trabaje
- Integridad, buscará promover la precisión, la honestidad y la
veracidad en la ciencia, la enseñanza y la práctica de la
psicología.
- Justicia, el psicólogo reconocerá que todas las personas tienen
derecho a beneficiarse y a acceder a las contribuciones de la
psicología
- Respecto por los derechos de las personas y su dignidad

El código ético APA tiene como objetivo brindar estándares éticos o


normas de conducta profesional que sirven de orientación a los
psicólogos. Los estándares éticos de la APA, a diferencia de los
principios generales de este mismo código, constituyen una base para
imponer sanciones en caso de incumplimiento.

Un requisito importante es la aprobación institucional, donde la


investigación debe ser aprobada por un organismo competente que
asegure que cumple todos los estándares.

Investigación con personas

Debido a la naturaleza de la psicología la mayoría de sus


investigaciones se dan sobre seres humanos, ya sea en el ámbito
cognitivo, emocional o conductual

Consentimiento informado para la investigación.

Se debe obtener el consentimiento de forma individualizada de cada


uno de los participantes, en función del tipo de investigación la
información que se debe incluir es diferente, en una investigación con
carácter personal esta es:

- El propósito de la investigación
- Su derecho a negarse
- Las consecuencias previsibles de rechazar participar o retirarse
- Los factores que pueden influir en su disposición a participar
- Cualquier beneficio futuro que tenga la investigación
- Los límites de la confidencialidad
- Los incentivos de la participación si los hubiera
- Con quién contactar en caso de duda

En caso de probar un tratamiento experimental la información que se


debe aportar es:

- La naturaleza experimental del tratamiento


- Los servicios que estarán, o no estarán, disponibles para los
grupos de tratamiento y control
- Las alternativas de tratamiento disponibles si la persona no desea
participar
- La compensación o costes económicos de la investigación.

Cuando los participantes sean menores de edad el consentimiento tiene


que recibirse tanto de los padres como el propio menor de edad.

Normalmente confundimos las palabras anonimato, privacidad y


confidencialidad, lo que puede llevar a problemas de entendimiento.
Privacidad hace referencia a todos aquellos aspectos que forman parte
de la vida privada de la persona y, por tanto, tiene el derecho a
protegerlos, tales como nombre, dirección o teléfono, pero también
ideología, creencias, etc. Cuando, por ejemplo, se pregunten sobre
comportamientos sexuales u opiniones, se debe tener en cuenta que
son datos privados que tiene derecho de no darnos
El anonimato hace referencia a no revelar los datos personales de los
participantes al publicarse los resultados, esto es sencillo cuando no es
necesario recoger estos datos, por ejemplo, podemos realizar encuestas
en la calle sin preguntar por datos identificativos. Sin embargo en otras
ocasiones es imposible, como cuando es necesario realizar un
seguimiento sobre los participantes, en dicho caso se debe garantizar la
confidencialidad
La confidencialidad consiste en asegurar al participante la preservación
de la información privada que nos ha facilitado en la investigación y su
no publicación.

Por último debemos tener en cuenta que no siempre es posible obtener


el consentimiento de los participantes al inicio del experimento, por lo
que debemos asegurarnos de hacerlo tan pronto como sea posible y, en
caso de no estar de acuerdo, se le debe dar al participante la posibilidad
de retirar sus datos.

Tema 3: Validez de las conclusiones de la investigación

El análisis de la validez es un juicio sobre el grado de seguridad con el


que una inferencia se puede considerar cierta por estar basada en
evidencias relevantes. No son absolutos, sino que son cuestión de
grados. Han dado lugar a identificar posibles errores de procedimiento
inherentes a la propia estrategia de investigación, que se consideran
amenazas. Tienen doble función, por un lado ayuda al investigador a
conocer los riesgos y posibles errores en su investigación y a
anticiparlos, por otro lado nos ayuda a desarrollar nuestra capacidad
crítica, para ser capaces de detectar estos errores y juzgar la veracidad
de una investigación.

En la planificación de un estudio se deben tomar muchas decisiones, de


que dichas decisiones sean correctas o no dependerá la validez del
estudio y su posible extrapolación. Aunque las tratemos de forma
individual es importante tener en cuenta que están interrelacionadas
entre sí, y que el resultado global es una combinación de ellas.

Validez de constructo

Para ser sometidas a comprobación empírica las hipótesis deben ser


traducidas a indicadores que puedan ser observables o medibles, pero
los constructos son conceptos abstractos y los investigadores se apoyan
en aspectos concretos, es aquí donde entra en juego la validez del
constructo.

Una correcta definición del mismo exige una adecuada comprensión y


explicación del constructo en su complejidad, que permita desarrollar
indicadores del constructo e incluso elaborar instrumentos de medida.
También es importante el grado de avance de la propia teoría y de la
acumulación de evidencias científicas sobre el concepto que se esté
estudiando.

La validez de constructo de un estudio valora la posibilidad de extraer


de los resultados obtenidos conclusiones aplicables a los constructos
generales que hemos tratado de estudiar a través de las situaciones
concretas elegidas.

Amenazas a la validez de constructo

La inadecuada comprensión y definición del constructo nos pueden


llevar a no contemplar aspectos relevantes, a considerar aspectos
relevantes o a obtener una visión parcial o incompleta, y fallos en la
elección de los indicadores puede llevar a elaborar instrumentos de
medida erróneos.

En psicología hay que añadir que en investigaciones con humanos


estos pueden cambiar su comportamiento al ser conscientes de estar
participando en un estudio. El simple hecho de estar siendo estudiados
puede provocar reactividad y llevar a los participantes a comportarse de
forma diferente a como lo harían en la realidad natural. Su
comportamiento puede verse influido por la adivinación de la hipótesis o
las características de la demanda que infieren en la condición
experimental que les ha correspondido. También puede darse la
deseabilidad social, donde los participantes ocultan sus verdaderas
ideas o inhiben su comportamiento espontáneo. Además, las
expectativas del investigador juegan un papel importante.

Para reducir estos efectos al máximo destacan las siguientes


recomendaciones:

- Planificar al máximo todos los aspectos de información y contacto


con los participantes
- Reducir al mínimo las interacciones del investigador
- Evitar las evaluaciones pretratamiento innecesarias que puedan
dar pistas a los participantes de los objetivos e hipótesis del
estudio
- Utilizar un grupo de control cuando sea posible
- Usar procedimientos de ciego y doble ciego

Validez interna

Está estrechamente ligado con la causalidad, bajo el supuesto de que la


validez explicativa de una ciencia será mayor en la medida en que
pueda llegar a identificar relaciones causales en el análisis de los
fenómenos. La validez interna se basa en el grado de seguridad que
proporciona el estudio para poder concluir que la relación detectada
entre las variantes refleja una condición de causalidad.
El método experimental constituye la estrategia de investigación que
más garantías ofrece para poner a prueba hipótesis causales. Sin
embargo, en la medida en que en una investigación disminuyan las
posibilidades de manipular las variables y garantizar estas condiciones
de control también disminuirá la posibilidad de extraer conclusiones
seguras de relaciones de causalidad.

Amenazas a la validez interna

Se identifican ciertos riesgos como amenazas a la validez interna.


1. Si no hay seguridad sobre qué variable ocurre primero y cual
después, aunque detectemos que esas variables están
relacionadas no podemos identificar cuál de ellas es la causa y
cuál es el efecto en las investigaciones donde no podamos
manipular las variables se produce una amenaza a la validez
interna por ambigüedad de la contingencia antecedente-
precedente.
2. Si existen diferencias sistemáticas entre las características de los
participantes previas a la aplicación del tratamiento (VI), estas
podrían explicar las diferencias posteriores encontradas y
confundirse con el efecto del tratamiento. Debemos asegurarnos
de que el cambio en la VD se debe a la influencia de la VI y no a
influencias externas.
3. Si en el transcurso de la investigación se da una pérdida de
participantes, el riesgo no reside en el hecho de que se reduzca la
muestra sino en que lo haga de manera no aleatoria y cambien la
naturaleza de los grupos estudiados, por lo que volveríamos al
error anterior.
4. Regresión a la media
5. Si se producen cambios en la forma de medir la VD o en la
precisión de las medidas, que afecten de manera diferente a las
condiciones del tratamiento, estos cambios pueden confundirse
con el efecto del tratamiento.
6. Acontecimientos externos que ocurran de forma simultánea a la
aplicación del tratamiento podrían tener efectos que se
confundieran con los efectos del tratamiento. Esta amenaza es
conocida como historia.
7. Los cambios psicobiológicos que se producen de forma natural
también puede confundirse con el efecto del tratamiento, esta
amenaza es conocida como maduración, es más posible en
estudios de larga duración y especialmente en etapas evolutivas
de cambios notables.
8. Cuando hacemos una prueba antes y después del experimento
para observar la diferencia de resultados pueden darse dos
posibles errores, uno es que la repetición de la prueba genere una
sensibilización por adivinación del hipótesis, el otro es el
aprendizaje y la familiarización con las pruebas, que puede
provocar que la mejora de resultados se confunda como resultado
del tratamiento.
9. Por último conviene tener en cuenta que las amenazas pueden
suponer un impacto aditivo o de interacción.

Validez de la conclusión estadística


Amenazas

- Errores de medida debilitan la capacidad de los análisis para


detectar correctamente las covariaciones de las variables. Los
fallos de precisión en las medidas, sea por mala calidad métrica
de los instrumentos o por fallos en su aplicación son una fuente de
error que dificultará la posibilidad de obtener resultados seguros
sobre la existencia o no de covariación entre las variables
- Restricción del rango de variabilidad, si los valores que presentan
las variables están restringidos a un rango de variabilidad muy
pequeño se puede ver afectada negativamente la potencia
estadística de las pruebas, dificultando que se detecten las
covariaciones entre las variables. Claros ejemplos son el efecto
techo y el efecto suelo
- Inadecuación de las pruebas estadísticas, las pruebas deben ser
adecuadas a la naturaleza de los datos obtenidos. Debemos tener
en cuenta para su elección los objetivos y características del
estudio, pero también aspectos como el nivel de medida de las
variables, que los datos cumplan con determinados supuestos que
exigen algunas pruebas y la independencia o dependencia de los
datos.
- Baja potencia estadística, se refiere a la capacidad de una prueba
estadística para detectar en los datos de un estudio la covariación
entre las variables.

Validez externa
Pretende explicar en qué medida se pueden generalizar los resultados
del estudio a otras personas, situaciones o medidas distintas. Un
estudio tendrá mayor validez externa en la medida en que la muestra de
participantes represente adecuadamente a la población básica a la que
queremos generalizar los resultados y que la situación planteada para
evaluar los efectos de la intervención sea una buena representación de
las situaciones reales en las que se produce el fenómeno estudiado.

Formalmente, la estrategia más adecuada es un muestreo


probabilístico, pero también existen otros métodos, como el muestreo de
juicio experto, con esta forma de muestreo se pretende que la muestra
de participantes esté compuesta por casos seleccionados en función de
que posean determinadas características relevantes para el estudio.

Sin embargo, en el muestreo incidental, por conveniencia o


accesibilidad de los participantes la escasa representatividad de la
muestra respecto a la población afecta negativamente a la validez
externa del estudio.

Otro posible riesgo es que en el afán por crear un ambiente controlado


donde solo la VI tenga influencia sobre la VD creemos situaciones
artificiales que tengan poca relación con la realidad fuera del estudio.

Tema 4:

El método experimental es el método científico, se define como un


modelo de una situación real que el investigador recrea artificialmente a
fin de estudiar el comportamiento de las variables y su
interfuncionalidad. Para que se puedan inferir relaciones de causalidad
es necesario que se den contingencia temporal entre las variables,
correlación o covariación entre ellas y no espuriedad.
Antes del experimento es recomendable realizar un ensayo, llamado
experimento piloto, para estudiar algunos aspectos del mismo como
pueden ser la influencia de alguna variable extraña, el número y valor de
los estímulos, el tiempo empleado…

La experimentación requiere de dos condiciones,


Control experimental, hace referencia a la capacidad del
experimentados para determinar la conducta que se va a estudiar,
conocer las variables relevantes, elegir una o varias, seleccionando
intencionalmente sus niveles y crear las condiciones necesarias para la
presentación artificial de estos valores, tratando al resto como variables
extrañas. El control engloba un conjunto de técnicas utilizadas para
poder concluir que los cambios observados se deben únicamente a los
cambios en la VI

Utilización como mínimo de dos condiciones experimentales, el estudio


del efecto de la variable requiere de una comparación o contraste, la VI
debe tener como mínimo de valores. Además, pueden darse dos casos,
diseño intergrupo o de comparación, donde tenemos como mínimo dos
grupos que se comparan entre sí o diseños intragrupo, donde solo
disponemos de un grupo que recibe todas las condiciones
experimentales.

Variabilidad de los datos y técnicas de control:

Variabilidad de los datos:


El concepto de variabilidad de los datos se apoya en la evidencia que se
constata en una investigación, pese a que el objetivo principal sea
observar las diferencias entre los valores de la VD respecto al grupo de
control, dentro de un mismo grupo se puede dar variabilidad en los
datos, a esto se le llama varianza total. Puede tener dos partes, una
relacionada de forma sistemática con las variables de la investigación,
llamada varianza sistemática, y otra relacionada con factores aleatorios,
llamada varianza error.
La varianza sistemática es la parte de la variabilidad total de la conducta
de los participantes medida en la variable dependiente que se relaciona
de forma predecible a las variables que estudia el investigador.

La varianza sistemática primaria es la variabilidad de la medida de la


respuesta del participante debida a la manipulación de la variable
independiente, es la que busca el investigador y cuanto mayor sea esta
más efectividad ha tenido la investigación.
La varianza sistemática secundaria es la producida por la influencia de
variables extrañas conocidas y predecibles, puede ser de tres tipos:

- Las variables de sujeto, son las diferencias individuales entre los


participantes, su control se hace más importante en las
investigaciones intergrupo, ya que debemos discernir si las
diferencias se han dado por el efecto de la VI o por las diferencias
entre grupos.
- Los aspectos ambientales son las condiciones del laboratorio,
como pueden ser iluminación, ruido, temperatura, etc
- Los debidos al procedimiento experimental, se encuentran
aspectos relacionados con los instrumentos de medida, las
instrucciones, los estímulos, el investigador, etc.
Suelen ser predecibles y, por tanto, pueden ser controlados

La varianza error es la parte de la variabilidad de la variable


dependiente que no es sistemática y en muchas ocasiones es
inevitable, se produce por los posibles efectos de variables extrañas,
normalmente aleatorias o desconocidas.

Técnicas de control:

El experimentador tiene que poder producir fenómenos bajo condiciones


reguladas para maximizar la varianza sistemática primaria, minimizar la
varianza error y controlar la varianza sistemática secundaria.

Para lograr la maximización de la varianza sistemática primaria se debe


elegir los valores de la variable independiente más adecuados, los
cuales dependen tanto de los objetivos de la investigación como de si la
relación es lineal o curvilínea.

Para minimizar la varianza error hay que ser muy rigurosos a la hora de
planificar y llevar a cabo la investigación, puesto que suelen estar
relacionados con:

- Los factores asociados a los errores de medida procedentes de


los métodos utilizados
- Las diferencias individuales de los participantes
- El procedimiento experimental.
Por lo tanto es necesario que:

- Los instrumentos utilizados deben medir aquello que pretenden


medir, ser sensibles a las diferentes ejecuciones de los sujetos y
producir mediciones precisas con poca variabilidad del mismo
participante en distintas situaciones.
- Aumentar el número de participantes para que el azar compense
las diferencias individuales
- Evitar riesgos de variaciones aleatorias, por ejemplo transmitir las
instrucciones por escrito para que sean iguales para todos los
participantes.

Para controlar la varianza sistemática secundaria se utilizan las


denominadas técnicas de control, la elección de una técnica u otra
depende de la naturaleza de la variable extraña y a veces del tipo de
diseño. Las técnicas de balanceo o equilibrio son propias de los diseños
intergrupo, las de sujeto como control de sí mismo y contrabalanceo se
utilizan en los diseños intragrupo y las de eliminación, constancia, ciego
y doble ciego con apropiadas para ambos grupos.
Técnicas apropiadas para ambos grupos:

- La técnica de eliminación consiste en eliminar las variables


extrañas, por ejemplo insonorizando el laboratorio.
- La técnica de constancia se suele utilizar cuando no es posible
eliminar una variable extraña, se elige un valor distinto de cero y
se mantiene para todos los participantes, por ejemplo usar un
termostato para mantener la temperatura constante.
- La técnica de sistematización de las variables extrañas consiste
en que el experimentador convierte una variable potencialmente
extraña en variable independiente y se procede a estudiar dos
variables en lugar de una.
- Las técnicas estadísticas, en este caso el control del investigador
no se hace directamente durante la planificación del estudio sino
durante el tratamiento posterior de los datos obtenidos.

Técnicas propias en diseños intergrupos o de comparación:

- Las técnicas de equilibrado o balanceo consisten en repartir de


forma equivalente las variables extrañas entre los distintos grupos,
pueden ser todas las variables extrañas que sean necesarias,
siempre que su reparto sea igual en todos los grupos, dentro de
esta técnica encontramos:
- La técnica de aleatorización, consiste en repartir de forma
aleatoria los participantes de cada grupo, no confundir con
obtener una muestra aleatoria. Si la muestra es
suficientemente grande, de esta forma podemos garantizar
la homogeneidad de grupos cuando desconocemos todas
las variables extrañas. Se puede realizar tanto en el reparto
de grupos como en la asignación de un tratamiento a cada
grupo.
- Técnica de bloques, mediante esta técnica se forman
subgrupos de participantes, llamados bloques, con
puntuaciones similares en una variable extraña muy
relacionada con la variable dependiente (a esta variable se
le denomina variable de bloqueo) y después se asignan
aleatoriamente a cada condición.
- Técnica de equiparación o emparejamiento, similar a la
técnica de bloques, se asignan participantes que tengan
valores similares o idénticas en la variable extraña o variable
independiente a los distintos grupos. La efectividad de esta
técnica, al igual que la de bloques, depende de la relación
que exista entre estas.
Finalmente tenemos las técnicas de control de situaciones intragrupo:

- La técnica de sujeto como control de sí mismo se halla


inevitablemente asociada al diseño intragrupo y sirve para
controlar las variables extrañas procedentes de los participantes,
consiste en aplicar a los mismos participantes todos los
tratamientos por lo que las variables extrañas de sujeto se
mantienen constantes en todas las condiciones.
- La técnica de contrabalanceo, equiponderación o reequilibrado,
controla el efecto del orden de aplicación de las diferentes
condiciones experimentales o error progresivo.

Clasificación de los diseños experimentales:


La estructura interna de los diseños experimentales surge por las
decisiones tomadas en torno a tres dimensiones básicas:

- El criterio de dicotomía univariado-multivariado está vinculado a la


variable dependiente, debido a la complejidad del estudio de la
psicología, en muchos casos es más efectivo utilizar estudios
multivariados.
- El diseño unifactorial-factorial hace referencia al número de
variables manipuladas (VI).
- El tercer criterio tiene en cuenta la estrategia llevada a cabo para
aplicar los tratamientos, pueden ser intergrupos e intragrupos.

Diseños factoriales intergrupos:

Se caracterizan porque los grupos están formados por diferentes


participantes y estudian la magnitud de la influencia de un factor o
variable independiente sobre una, o más de una variable dependiente,
la única diferencia que debe haber entre los grupos es el tratamiento o
condición experimental.
En función de la técnica de control que se utilice estos diseños se
clasifican en diseños de grupos aleatorios y diseños de bloques al azar.

Diseños de grupos aleatorios:


Se comprueba el influjo de la VI con dos o más niveles sobre una o más
de una Vd, la VD se puede medir solo una vez tras realizar el
tratamiento o una vez antes y otra después.

Una sola medida post tratamiento:

Es el más básico, puede constar de un grupo experimental y uno de


control, el procedimiento debe ser el siguiente: Selección de la
población de interés al azar, asignar aleatoriamente los participantes de
la muestra a los grupos, comparar los grupos y extraer las conclusiones.

Diseño con medidas pre y postratamiento:

Cuando queremos comprobar la homogeneidad de un grupo podemos


tomar una medida postratamiento a la VD o a otra variable muy
relacionada, sin embargo, habrá que tener en cuenta la amenaza a la
validez de repetición de pruebas y sopesar los beneficios de la medida
pre, con los riesgos de esta posible contaminación de los resultados.

Diseño multigrupo:

A diferencia del anterior se utilizan tres o más grupos, los cuales pueden
ser todos experimentales o designar uno como grupo de control, el
objetivo es comprobar no solo la relación entre las variables, sino
también la naturaleza de esta (lineal, curvilínea, etc).

Diseños de bloques aleatorios

En algunas situaciones la asignación aleatoria puede ser insuficiente, ya


sea por tener una muestra muy heterogénea, por sospechar de la
existencia de variables extrañas o por tener muy pocos participantes. La
técnica de bloques consiste en agrupar a los participantes en bloques o
subgrupos en función de una variable de bloqueo, que está muy
relacionada con la VD. Hecho esto, se asignan los mismos participantes
de cada bloque o un múltiplo del número de condiciones experimentales
a cada grupo.
Un caso especial del diseño de bloques aleatorios es el diseño de
grupos equiparados o emparejados, este diseño se caracteriza porque
los bloques tienen que ser idénticos entre sí, en este caso la variable de
bloqueo se denomina variable de equiparación o variable de
emparejamiento.

Las ventajas de este método es que podemos formar grupos más


homogéneos, las desventajas son la posible pérdida de participantes y
la posible sensibilización de los participantes a la medida previa.

Diseños unifactoriales intragrupo

Cuando al mismo grupo de participantes se les aplican todos los


tratamientos de forma secuencial, el orden o lugar que ocupa cada
tratamiento dentro de una secuencia experimental puede alterar los
resultados

El efecto de orden o efecto progresivo puede provocar aprendizaje


(efecto de práctica) o falta de motivación y fatida (efecto de fatiga). Por
otro lado, los efectos residuales o de persistencia o de arrastre se
producen cuando un tratamiento tiene efectos duraderos que se solapan
con el siguiente.

Técnica de contrabalanceo

La técnica de contrabalanceo, equiponderación o reequilibrado aglutina


un conjunto de estrategias que tienen como objetivo mantener
constante el grado de error progresivo en todas las condiciones
experimentales.

La lógica detrás de este método es que existe una relación lineal entre
el grado de error progresivo y la posición que ocupa cada tratamiento
dentro de la secuencia total. Existen tantos grados o niveles de error
progresivo como tratamientos, y cada tratamiento tendrá tantas
unidades de error como la suma de sus respectivos niveles. De esta
forma se ordenan los tratamientos de tal manera que se reparta
equitativamente el error. Es decir, se aplican todos los tratamientos en
orden normal y luego inverso.
Contrabalanceo intrasujeto o de simetría

Controla el efecto del error progresivo en cada sujeto, haciendo que


cada participante reciba en primer lugar las condiciones o tratamiento en
un determinado orden, y a continuación en orden inverso. Es útil cuando
tenemos pocas condiciones, pero no cuando el número de condiciones
aumenta.

Contrabalanceo intragrupo

Consiste en dividir el grupo en subgrupos y aplicar en cada uno de ellos


un orden diferente, en función de si aplicamos todas las secuencias o
no estaremos hablando de contrabalanceo intragrupo completo o
contrabalanceo intragrupo incompleto

Contrabalanceo intragrupo completo

Se aplican todas las secuencias posibles de tratamientos, que se


calcula utilizando el factorial del número total de tratamientos o
condiciones existentes. Cuando disponemos de muchos tratamientos
resulta poco práctico, debido al número de grupos que sería necesario
formar.

Contrabalanceo intragrupo incompleto

Se da cuando no se aplican todas las secuencias posibles, en función


del método para seleccionar la secuencia podemos estar hablando de
contrabalanceo con estructura de cuadrado latino y contrabalanceo
aleatorio.

En el cuadrado latino se utilizan solo tantas secuencias como


tratamientos haya en el experimento, procurando que cada tratamiento
ocupe cada posición solo una vez

ABC
BCA
CBA

En el contrabalanceo aleatorio podemos aplicar dos técnicas, si


tenemos 30 participantes podemos establecer al azar 30 secuencias y
aplicar cada una a un participante diferente o podemos aplicar a cada
participante el tratamiento en orden aleatorio.

Diseños factoriales

Con frecuencia resulta poco plausible realizar un experimento sobre una


única VI o factor, puesto que pueden coexistir diversos factores en su
explicación, puesto que la hipótesis sería sobre la influencia de varios
factores sobre una o varias VD, para someterla a estudio empírico
necesitaríamos realizar un estudio factorial.
Cada factor puede tener dos o más valores, y cada tratamiento consiste
en la combinación de los respectivos niveles de un factor con los niveles
del otro factor.

Los diseños factoriales se codifican en torno al número de factores, así,


si un diseño factorial cuenta con dos Vi se denomina diseño factorial
AxB, donde cada letra representa los niveles posibles de cada factor.
Para conocer los niveles posibles hay que multiplicar los niveles de las
VI.

Estos diseños son más eficientes puesto que con un mismo grupo
podemos estudiar el efecto de dos variables, a su vez, sus efectos se
acercan más al medio natural, por lo que la validez externa aumenta.

El efecto principal es el efecto que nos revelaría un diseño unifactorial,


el cual compara entre sí los diferentes niveles de la VI. Cuando la VI
tiene varios niveles y descubrimos un efecto significativo, sería
conveniente realizar medidas entre diferentes niveles para ver entre qué
niveles concretos se dan las diferencias.
El efecto de interacción se da cuando el efecto de una VI se da en
función de otra VI. Se representa mediante la expresión efecto de
interacción AxB, en el caso de tener dos variables en la investigación.

Diseño factorial intergrupo

Se caracterizan porque todos los factores o VI son intergrupos. La


formación de los grupos se hace por asignación aleatoria o utilizando la
técnica de bloqueo. Se denomina equilibrado si todas las condiciones
tienen el mismo número de participantes, y se denomina no equilibrado
cuando el número de participantes es diferente en cada condición.

Diseño factorial intragrupo

Todas las condiciones de aplican sucesivamente al mismo grupo ya que


todos los factores son intragrupo, al igual que en la estrategia
unifactorial, hay que controlar los errores residuales, espaciando la
aplicación de las condiciones, y los efectos de error progresivo,
utilizando la técnica de balanceo.

Diseño factorial mixto

Combina en un mismo experimento el procedimiento intergrupo con el


intragrupo, a algunos participantes se les aplican todos los tratamientos
y a otros solo algunos, al ser una combinación se deben utilizar las
técnicas de control propias de los diseños inter e intragrupo

Se da, por ejemplo, cuando una de las VI son una condición del sujeto
(enfermo/sano, por ejemplo), en ese caso, aunque cada sujeto sea
sometido a todas las variables independientes B, cada uno solo puede
ser sometido a una VI.

Tema 5:

Introducción:
Los diseños de caso único se caracterizan por recoger la información
relativa a cierto individuo sucesivamente a lo largo del tiempo. No se
utiliza el promedio con el grupo al haber solo un participante, mas
comparten la manipulación de la VI y el control de las VE.

Se fundamenta en la lógica de que si un fenómeno es lo


suficientemente básico, se repetirá en todos los individuos.

Procedimiento básico y requisitos para comprobar la efectividad del


tratamiento:

1. Se toman varias medidas previas a la aplicación del tratamiento


para establecer una línea base estable
2. Se aplica el tratamiento
3. Se recogen de forma sistemática y repetida medidas durante la
introducción del tratamiento.

Algunos aspectos a tener en cuenta son los siguientes:

- Evaluación continuada
- Establecimiento de la línea base, de forma:
- descriptiva, sobre el nivel existente de la conducta objeto de
estudio.
- Predictiva, cuando refleja una tendencia que podría seguir
en caso de aplicarse o no el tratamiento.
- Estabilidad de la conducta, el número de tomas de muestras
recogidas durante la fase A debe ser lo suficientemente grande
como para asegurar una estabilidad en la línea base
- Estudio de los cambios de tendencia o nivel de los datos, La VD
puede variar a lo largo del tiempo de forma sistemática
(mostrando una tendencia) o hacerlo de forma brusca (cambiando
de nivel)
- Estudio de la variación de los datos, pueden existir variaciones de
la conducta del sujeto a lo largo del tiempo, cuanto más pequeñas
sean, más fácil será detectar el efecto del tratamiento.
- Estudio de validez interna y externa
Estudio de los patrones de cambio para evaluar el efecto del
tratamiento:

Al obtenerse todos los datos del mismo individuo estos no son


independientes entre sí, sino que están relacionados, por esta razón se
aconseja tener en cuenta dicha dependencia seria y aplicar los modelos
ARIMA. Pueden aplicarse incluso cuando la línea base no es estable y
permite comprobar las diferencias en el nivel y tendencia de los datos.
Por otra parte, en psicología clínica y modificación de la conducta es
muy utilizado el análisis visual de los datos.

El gráfico más utilizado es el de líneas, mediante este análisis podemos


observar los cambios producidos por el efecto del tratamiento, esto
puede afectar en la serie de observaciones tomadas de dos formas
fundamentalmente:

- Cambiando de nivel
- Cambiando de tendencia

No sólo es importante el criterio experimental, sino también el criterio


terapéutico, es decir, si la modificación de determinada conducta es
importante para que el problema tratado deje de afectar negativamente
a la vida de la persona.

Análisis de la validez interna y externa en los diseños de caso único:

Control de las amenazas a la validez interna:

Las dos amenazas que más hay que tener en cuenta son la maduración
y la historia, para solucionar esto, se aplica un protocolo de regresión,
donde se vuelve a la línea base. Otra forma de control es mediante la
replicación del tratamiento.

Otras amenazas pueden ser de regresión a la media y de repetición de


pruebas, para ello es importante una buena recogida de datos y
estabilidad en la línea base.
Clasificación de los diseños de caso único:

Dependiendo de la combinación de fases se pueden establecer


diferentes diseños, introduciendo fases con tratamiento, sin tratamiento
o introduciendo tratamientos diferentes. Otro de los criterios es el que se
para entre diseños de reversión y diseños de no reversión.

Modelo básico AB:

Está compuesto por dos fases, recogida de datos de línea base y fase
de tratamiento, si se produce un cambio se asocia al efecto del
tratamiento.

Para controlar las amenazas a la validez interna se introduce reversión,


sin embargo es importante recalcar que no siempre es posible, puesto
que a veces factores prácticos o la propia ética no nos lo permiten.

Diseños de reversión con el tratamiento:

Diseño ABA y ABAB:

Son los más básicos, consisten en establecer la línea base, tomar los
datos del tratamiento, reversión y, en el caso del diseño ABAB, vuelta al
tratamiento para tomar nuevos datos y, además, volver a tratar al
paciente, arreglando así un problema ético del diseño ABA.

Diseño BAB:

Se utiliza cuando se empiezan a tomar los datos una vez comenzado el


tratamiento, ya sea por cuestiones prácticas o por cuestiones éticas.
Tiene la ventaja respecto al diseño ABA de terminar en una fase de
tratamiento, pero la validez interna es menor por lo que de ser necesario
hay que aplicar otro protocolo.

Diseño de intervenciones múltiples o componentes múltiples:


Tiene como objetivo evaluar el efecto de varios tratamientos o
componentes, puede tener la siguiente estructura ABACA.

Además de evaluar en diferentes individuos con diferente orden, se


recomienda prestar especial atención a la línea base en cada fase para
evitar que el tratamiento B enmascare al C.

Diseños de no reversión:

Plantean diferentes inconvenientes, como pueden ser la imposibilidad


de utilizarlos cuando el tratamiento es irreversible, la ética y que se
deban utilizar demasiadas sesiones, lo que alargaría demasiado el
tiempo.

DIseño de cambio de criterio

Es muy útil en programas que pretenden aumentar o disminuir


conductas mediante la aplicación de un refuerzo negativo o positivo, la
forma de hacerlo consiste en establecer una línea base, aplicar el
tratamiento y lograr una estabilidad en B, la cual pasará a convertirse en
la nueva A, de forma que el tratamiento es escalado.

A1 B1
A2 B2
A3 B3

Podemos considerar tres ventajas, no requiere la retirada del


tratamiento, se recibe el tratamiento sólo a partir de una línea base
breve y permite inferir, sin ambigüedad, la eficacia del tratamiento

Diseños de línea base múltiple de no reversión:

Se aplica en casos donde queremos modificar varias conductas


relacionadas entre sí, se separan y delimitan claramente y se aplica un
diseño AB a cada una de ellas de forma progresiva, quedando así

Conducta 1: AB
Conducta 2: AAB
Conducta 3: AAAB

Se requiere cierta independencia de las conductas, de forma que si se


aplica el tratamiento a la conducta A la conducta C no sea modificada
durante la fase a, además las conductas relacionadas deben ser
sensibles a las mismas variables, de tal forma que si la conducta varía
por factores externos y no internos todas las conductas deberían verse
afectadas.

Existen tres variables de este tratamiento:

- Entre conductas
- Entre situaciones
- Entre sujetos que comparten situaciones ambientales

Tema 6:

Características de los diseños cuasiexperimentales:

El investigador no siempre puede utilizar un diseño experimental, ya que


existen situaciones donde no se pueden asignar aleatoriamente los
participantes a distintas condiciones, en estas situaciones se utiliza el
método cuasiexperimental. El grado de control sobre las variables
extrañas es menor. Siguiendo el principio MAX-MIN-CON (Maximizar el
efecto de la VD, minimizar la varianza error y controlar la varianza
sistemática secundaria) en el diseño cuasiexperimental no podemos
controlar la varianza secundaria por sus propias limitaciones,
deteriorando la validez del estudio.

Debido a esta incapacidad para explicar si los cambios producidos son


debido a la VI o a la diferencias de grupos, el experimentador debe
intentar controlar todas las variables extrañas, con el fin de intentar
neutralizarlas. También se suelen usar estadísticos para esta función.

Comparte el objetivo de los experimentos de intentar explicar los


cambios de la VD con la VI, y los dos primeros puntos para poder
establecer relaciones causales, que la VI preceda a la VD y que exista
correlación, son compartidos, sin embargo no puede cumplir el tercero,
descartar influencias externas en la VD.

La investigación aplicada se suele emplear en grupos ya formados,


estudiándose las diferencias existentes entre estos después de la
introducción del tratamiento, tiene mayor validez externa, pero menor
validez interna.

Notación en los diseños cuasiexperimentales:

X tratamiento
O observación y registro de un fenómeno (generalmente la VD)
O x O Las X y O en una fila indican que se aplican al mismo grupo de
personas. La O anterior a una X indica una medida pre-tratamiento y la
O posterior una medida post-tratamiento
O1 X O2
—---------
O1 O2 Los subíndices indican el momento temporal en el que se ha
realizado la observación de la VD, la línea de puntos indica que hay dos
grupos y no se han formado por aleatorización.

Clasificación de los diseños preexperimentales y cuasiexperimentales

Los preexperimentos carecen de una medida pretest y/o grupo de


control. Son diseños que por carecer de las medidas de control
necesarias no permiten establecer una relación causal. Sin embargo,
son la base de los diseños cuasiexperimentales.
Existen tres grandes grupos: Con grupo de control, sin grupo de control,
diseños de series temporales interrumpidas.

Diseños preexperimentales:

Se distinguen tres tipos de diseños preexperimentales:

a) Diseños de un solo grupo con media solamente postest (X O),


existe un solo grupo que se somete a un tratamiento y
posteriormente se realiza la observación de la VD, carece de
grupo de control y por tanto, no se pueden extraer inferencias
causales.
b) Diseños sólo postest con grupo de control, es un diseño similar al
anterior, pero añadiendo un grupo de control

X O
—------
O
La deficiencia más importante de este diseño es la ausencia de
pretest, ya que no podemos afirmar que las diferencias no se
deban a los grupos per se.
c) Diseños de un solo grupo con pretest y postest, es muy utilizado
en CCSS, se forma una observación pretest (O1) en un único
grupo, después este grupo recibe un tratamiento X y
posteriormente se realiza una observación postest

Sigue presentando problemas a la validez interna, puesto que estos


cambios pueden darse a maduración, historia, etc.
Tienen una utilidad relativa como aproximación al fenómeno que se
investiga y para generar hipótesis, pero siempre teniendo muy presente
en la interpretación de los datos que pueden existir numerosas variables
extrañas.

Diseños cuasiexperimentales con grupo de control:

Existen dos tipos, diseños de grupo de control no equivalente, donde los


grupos estaban formados de antemano, y diseños de discontinuidad en
la regresión, donde la regla de asignación para la formación de los
grupos es conocida.

Diseños con grupo de control no equivalente:

Aunque ya estén formados, el investigador tratará de seleccionar los


grupos lo más equivalentes posible, la lógica es que si el tratamiento es
efectivo, la diferencia en el postest será mayor que la que pudiese haber
en las medidas pretest.
Diseño pretest - postest con grupo de control no equivalente:

Es el más utilizado en CCSS, este diseño consta de dos grupos, el


experimental y el de control, sin embargo, no podemos asegurar que los
grupos sean equivalentes. Para ello la medida pretratamiento será
fundamental.
Las amenazas que presentan son:

- Selección x maduración, los grupos son de distinta procedencia,


por tanto, el período de maduración puede ser distinto, por
ejemplo, el grupo más preparado puede madurar más rápido que
el otro
- Selección x historia: Al proceder de contextos diferentes, la
amenaza por historia afecta de forma desigual a ambos grupos.

Las formas de solucionar esto pueden ser o bien seleccionar grupos lo


más similares posibles o bien el emparejamiento sobre las variables
extrañas.

Diseño de cohortes:

Se refiere a un grupo de personas que pertenecen a algún tipo de


institución formal o informal que se encuentran sometidos durante un
período de tiempo a las mismas circunstancias y van cambiando de
nivel en dichas instituciones.
Tiene la ventaja de poder observar como un cierto acontecimiento
afecta a un grupo (por ejemplo, una reforma educativa) y compararlo
con otro. Otra ventaja es que se supone que las diferencias son más
pequeñas. La tercera ventaja es que usualmente se dispone de más
información sobre los sujetos, dado que pertenecen a instituciones con
archivos propios.

Diseño de discontinuidad en la regresión:


Es el que cuenta con más prestigio debido a su validez interna, los
participantes se asignan a un grupo u a otro en función de su
puntuación en la medida pretratamiento.

Se representa de la siguiente forma, donde la C indica la puntuación de


corte en el pretest

C O1 X O2
--------------------
C O1 X O2

Diseños cuasiexperimentales sin grupo de control:

En algunas ocasiones, por razones de tipo práctico o ético, no es


posible disponer de un grupo de comparación que actúe como grupo de
control. Se asemejan a los diseños experimentales intragrupo, en los
que solo hay un grupo al que se aplican todas las condiciones. Sin
embargo, no se utilizan las técnicas de control empleadas en los
diseños experimentales intragrupo, como la técnica de contrabalanceo.
Por otra parte, tienen un mayor número de amenazas externas.

Diseño de retirada del tratamiento con pretest y postest:

Una de las situaciones más utilizadas para suplir la ausencia de grupo


de control es la retirada del tratamiento.

Diseño de tratamiento repetido:

También se dispone de un único grupo, pero en el que ahora el


investigador introduce, retira y vuelve a introducir el tratamiento, al igual
que el anterior, solo puede realizarse cuando el tratamiento es
reversible (O1XO1 R O3XO4).

Diseños de series temporales interrumpidas:

Una serie temporal implica que se tomen varias observaciones de una


variable a lo largo del tiempo. Podemos evaluar, por ejemplo, el
rendimiento a lo largo del curso académico mensualmente. Es necesario
indicar en qué momento se introduce el tratamiento dentro de la serie.

Diseño simple de series temporales interrumpidas:

Se representa (O1O2O3O4O5 X O6O7O8O9O10)

Al tomar varias medidas antes de la aplicación del tratamiento podemos


detectar patrones como cambios en función de la estación o tendencias,
por ejemplo, si antes del tratamiento ya existía una tendencia alcista
podemos sospechar que el cambio no se ha debido a la VI. La mayor
amenaza es la historia.

Diseños de series temporales interrumpidas con grupo de control no


equivalente:

Usando un grupo de control, pese a no ser equivalente, puede sumarse


a la toma de datos antes descrita para aumentar la fiabilidad del estudio,
sin embargo, sigue sin ser posible descartar la historia local.

Tema 7, diseños ex post facto:

Existen casos donde no podemos depender de manipular la Vi, ya sea


por razones éticas o por razones prácticas, en cuyo caso recurrimos a
experimentos no manipulativos. Pueden ser analíticos, intentando
estudiar relación entre variables, o descriptivos, intentando explicar una
población, sus creencias, etc.

Si bien el investigador no puede manipular la VI, puede escoger a las


personas que más se adecuen a su criterio, es ahí donde entra el
control que puede llegar a ejercer, por la dificultad para aislar las VE no
se puede establecer relaciones de causalidad.

Diseños ex post facto:


Los estudios ex post facto son aquellos donde el estudio comienza una
vez que ya ha actuado la VI, son apropiados en estudios analíticos. Se
pueden dividir en dos grupos:

- Si los grupos se forman en torno a los valores de la VD, son


estudios retrospectivos
- Si los estudios se forman en torno a los valores de la VI, son
estudios prospectivos.

Características de los diseños ex post facto:

Aunque se hable de VI y de VD, la diferencia entre ambas es


meramente teórica, al no existir una relación clara entre ellas. En estos
diseños, se establece una relación entre las características de los
grupos y otras variables de interés, es decir, se formulan relaciones de
relación, no hipótesis de causalidad. Al no poder manipular la VI y no
poder controlar las VE, no podemos hablar de validez interna.

Técnicas de control utilizadas en la investigación ex post facto:

Aún con las dificultades para controlar las variables extrañas, existen
tres formas de paliar los efectos negativos de este tipo de investigación:

- Emparejamiento: Consiste en emparejar a los participantes


mediante las variables que se creen que pueden estar
relacionadas a la dependiente.
- Análisis de covarianza (ANCOVA): Se realiza después de la
recogida de datos para separar el influjo de variables extrañas con
la VD
- Introducción de variables relacionadas con la VD: Escoger esas
variables relacionadas que podían actuar como VE y convertirlas
en VD, teniendo varios objetos de estudio.

Clasificación de los diseños ex post facto:

Los diseños de grupo único son aquellos que intentan establecer


relaciones entre las variables medidas de un grupo, mientras que los
diseños de comparación de grupos intentan analizar la relación entre las
variables examinando las diferencias que existen entre dos o más
grupos.

Diseños de grupo único:

Su objetivo es el de establecer relaciones entre variables, se evalúa el


grado en que las variables se relacionan mediante el cálculo de
correlación.

El interés no está en conseguir un grupo para cada valor, sino un grupo


único donde todos los valores estén bien representados.
Entre las características de este diseño están:

- Muestra única de participantes.


- A cada participante se le recogen dos o más variables.

Pueden ser relacionales o predictivos, en los diseños relacionales se


trata de establecer correlaciones entre dos o más variables, sin
embargo, no podemos establecer causalidad. Son útiles cuando el
problema es complejo y aún no se sabe mucho de él. Puede darse,
entre otros casos, la correlación espuria, cuando la correlación se debe
a una tercera variable.

Cuando se conoce más el problema de estudio podemos hacer estudios


predictivos, donde se trata de establecer relaciones entre la variable
predictora (VI) y la variable criterio (VD). Para ello, se trata de
seleccionar a personas en todo el rango de puntuaciones.

Diseños retrospectivos:

En este tipo de diseños se escoge un grupo de participantes en torno a


un valor de la VD y, tirando de historial hacia atrás, se intentan
encontrar las causas, si encontramos relación entre los antecedentes y
la VD podemos considerar que existe relación entre ambas variables.

Diseño retrospectivo simple:


Supone el diseño más elemental, se selecciona un único grupo con el
mismo valor de la VD y se intentan estudiar las causas. A diferencia del
diseño de grupo único, solo se selecciona un valor de la VD.
Un aspecto a tener en cuenta es que las VI antecedan a la VD.

Al seleccionar sujetos únicamente atendiendo a si comparten o no un


valor de la VD es posible que compartan otros muchos más aspectos,
algunos relevantes y otros que no. Asimismo, suele darse el caso de
que la VD sólo tiene dos valores, ocurrencia y no ocurrencia.

Diseño retrospectivo de casos y controles:

En este caso se seleccionan dos grupos, uno con la característica


estudiada (casos) y otro sin ella (control) para estudiar su relación con
una serie de VI que se consideran importantes.

La única diferencia debe ser la existencia o no de una característica en


un grupo respecto a otro, por lo que se debe procurar que sean lo más
equivalentes posibles en otros factores relevantes. Dada la gran
cantidad de características, es complicado de lograr, una técnica
utilizada suele ser el emparejamiento.
Es más confiable, pero tampoco se puede descartar la posibilidad de
que existan numerosas variables extrañas que pudieran llevar a una
interpretación errónea de los resultados.

Diseños prospectivos:

En este caso, se selecciona un grupo con una VI común y se estudia su


influencia, es más fiable que los diseños retrospectivos, pero sigue
siendo insuficiente para establecer una relación causal.

Diseño prospectivo simple:

Tenemos una sola VI y seleccionamos a los participantes por sus


valores en ella, posteriormente se mide la VD. La principal diferencia
con otros diseños experimentales no radica en la forma de estudio, sino
en que, dado que la VI se dió antes de que el examinador tenga
contacto alguno con el grupo, no puede conocer las condiciones previas
y, por lo tanto, descartar VE.
Además del emparejamiento, en análisis estadístico y la incorporación
de las VE como VD, podemos seleccionar VE e incorporarlas como VI.

Diseño prospectivo complejo o factorial:

Cuando una VE puede influir en los resultados podemos incorporarla


como Vi, este diseño se caracteriza por el estudio de más de una VI.

Sigue dando problemas, dado que a más Vi incorporamos, a más VE


nos exponemos. Además, a más Vi incorporemos más aumenta la
dificultad del estudio, pero mayor la información que podamos extraer.

Diseños evolutivos:

Es un tipo de diseño muy utilizado en psicología del desarrollo, consiste


en seleccionar a las personas en función de su edad o tiempo
transcurrido para ver su evolución a lo largo del tiempo. Sin embargo,
presenta otras amenazas como la historia de forma muy marcada,
existen tres tipos:

Diseño evolutivo longitudinal:

Consiste en seguir al mismo grupo de participantes de forma prolongada


en el tiempo, por ejemplo, recogiendo muestras cada 5 años. Tienen la
ventaja de permitir estudiar el desarrollo de un fenómeno, además de
que los propios participantes hacen de grupo de control de ellos
mismos, al contar con la misma historia y antecedentes. Sin embargo,
es sensible a la historia, y al necesitarse tanto tiempo puede darse una
pérdida de participantes.

Diseño evolutivo transversal:

Se recogen datos en un único momento a grupos formados por


diferentes edades, pretende estudiar los cambios atribuibles a la edad,
en lugar de al desarrollo. en psicología evolutiva se utiliza para estudiar
cambios atribuibles a la edad, considerando que los cambios entre
generaciones se deben únicamente a eso.

Cuentan con la ventaja de que son menos costosos, al realizarse el


estudio en un mismo momento, y por lo tanto, además, existen menos
pérdidas. Cuenta con la desventaja de que los cambios no son sólo
atribuibles a la edad.

Diseño evolutivo secuencial:

Cuando se quiere estudiar el efecto de cohorte, se estudian varios


grupos en diferentes momentos, de forma que tenemos información de
varios cohortes a edades diferentes.

Sin embargo, es más caro, ya que hacen falta más participantes, lo que
suele relacionarse con una mayor pérdida de sujetos.

Estudios epidemiológicos:

La epidemiología se interesa por cómo se distribuyen las enfermedades


en una población y los factores que la determinan. Puede ser de
carácter descriptivo o analítico. En el primer caso se examina la
distribución de una enfermedad en una comunidad, determinando su
frecuencia en diversos grupos o categorías y permite detectar posibles
factores de interés. Además de ofrecer información sobre su magnitud,
frecuencia y características.

La epidemiología también tiene en cuenta factores determinantes o de


riesgo, para lo que recurre a la experimentación, cuasiexperimentación y
diseños ex post facto.

Diseño transversal o de prevalencia:

Al comenzar una nueva investigación suele ser útil empezar por un


estudio descriptivo, ya que nos aporta información acerca de cómo
debemos enfocar la investigación y desvelar asociaciones significativas.
El diseño transversal o de prevalencia estudia una serie de variables en
una población determinada y en un momento determinado. Requiere
definir una población de referencia, criterios de exclusión e inclusión,
variables y definición de caso.

Se evalúan la prevalencia (número de casos existentes) e incidencia


(número de casos en un período corto de tiempo)

Prevalencia (o tasa de prevalencia):

Se define como el producto de casos de x enfermedad o evento de


salud dividido entre la población, tomándose únicamente una muestra
por individuo, por lo que tiene un carácter temporal.

Incidencia (o tasa de incidencia):

Es la proporción de casos nuevos de x enfermedad en población


expuesta a la misma en un plazo de tiempo específico.

Tema 8: Encuestas

Definición de la metodología de encuestas:

Las definiciones son diversas, por un lado tenemos el de recogida de


datos, que hace referencia a la parte de cuestionario, esto es, a las
preguntas realizadas para obtener información del entorno.

Por la parte de la metodología de investigación hace referencia al


diseño de la encuesta, y como el investigador la utiliza para investigar
un tema específico. Para ello es necesario definir el objetivo, la
información que esperamos obtener, planificar la encuesta y atender a
aspectos como la redacción o en análisis de datos. Requiere de una
reflexión teórica previa.

Por la parte de su uso, la encuesta nos permite extraer datos de una


población a través de técnicas de muestreo. Por lo tanto, su uso es útil
para conocer aspectos subjetivos, aquellos cuyo costo es demasiado
elevado para extraerlos de otros lados o cuando por razones éticas no
se pueden hacer estudios correlacionales.

Una encuesta, pese a ser no manipulativa, puede modificar la respuesta


del participante, haciéndole prestar atención a algo que quizá no se la
había prestado antes, y con ello modificando su respuesta en el acto. Es
importante tener en cuenta estos factores al diseñar la encuesta.
Además, es importante recordar que la encuesta también se rige por la
ética de la investigación.

Tipos de encuestas:

Se pueden clasificar en cobertura de la población, objetivo, dimensión


temporal, unidad de análisis, tipo de contenido y técnica de muestreo.

Respecto a la cobertura de la población, estas pueden ser censales (la


totalidad de la población) o muestrales (una muestra de la población).

Referente al objetivo, estas pueden ser descriptivas, buscando conocer


las características de la población o analíticas, buscando conocer la
relación entre variables.

Atendiendo a la estructura temporal, pueden ser longitudinales, si se


hace una misma encuesta varias veces a lo largo de un período de
tiempo X, o transversales, si el estudio se hace en un único momento.
Estos últimos se utilizan para medir factores temporalmente inestables o
que se piensa que han podido cambiar debido a un suceso extraño, por
lo que sus resultados son extrapolables a un momento y población
determinados, se utilizan mucho en estudios epidemiológicos.

Las encuestas longitudinales, por su parte, estudian un proceso de


cambio en una población, pueden ser de dos tipos, de cambio individual
o bruto, haciéndole el seguimiento a las mismas personas, en cuyo caso
usamos un diseño de panel, o a nivel poblacional o neto, haciendo uso
del diseño de series temporales o tendencias.
Las encuestas de panel se realizan haciendo el seguimiento al mismo
grupo de participantes, consta de la selección de la muestra, la medición
inicial y sus posteriores mediciones. Es muy útil para estudiar la
evolución de una persona de forma analítica, puesto que es sensible a
los cambios de maduración y casos entre las muestras, sin embargo, no
está exenta de errores. Por una parte tenemos el sesgo de
participantes, puesto que es difícil obtener personas voluntarias durante
tanto tiempo, se suelen utilizar participantes voluntarios. Además de
esto, se puede dar una pérdida de participantes.
Por la repetición de las pruebas también pueden modificar sus
respuestas.

Las encuestas temporales o tendencias miden una población a lo largo


del tiempo, podemos considerarlas encuestas transversales repetidas
varias veces. En esta, se cambia cada vez que se va a realizar de
muestra, por lo que hay que realizar el muestreo cada vez, pero no
existe pérdida de participantes. Permite medir características generales
de la población, los cambios a través de una serie de eventos o el
efecto de un tratamiento. Como punto negativo, es sensible a los
cohortes y efectos generacionales.

Fases de la encuesta:

La encuesta conlleva todas las partes del diseño de una investigación,


se puede dividir en cuatro etapas. Objetivo de la encuesta, diseño,
realización y explotación, se puede pensar en un proceso secuencial,
pero algunas fases posteriores pueden influir a otras, por lo que es un
movimiento de ida y vuelta.

Objetivo de la encuesta:

Determina qué objetivos perseguimos con su realización, por lo tanto,


qué información queremos obtener. Esto determina el tipo de encuesta
que vamos a hacer (analítica, descriptiva, longitudinal, transversal). Para
obtener datos de la encuesta las preguntas deben ser cuidadosamente
seleccionadas y susceptibles de realizar mediante una encuesta.
Determinan el tipo de información que vamos a obtener, el
alcance del estudio, el tipo de población y la técnica de muestreo,
además, el tipo de población determina el medio utilizado.

Diseño:

El diseño de la encuesta hace referencia a dos procesos estrechamente


relacionados, por un lado, una vez obtenidos los objetivos, tipo de
población, de estudio etc hay que diseñar que encuesta será la más
apropiada, por otro lado, hace referencia al diseño propiamente dicho,
es decir, traducir las variables a preguntas.

Construcción del cuestionario:

Un cuestionario mide de forma indirecta lo que la gente piensa u opina,


lo que no es tarea sencilla. El uso deberá coincidir con la finalidad del
estudio, y debemos asegurarnos de que es adecuado para la población
en cuestión

Para la elaboración de preguntas es importante considerar cómo se va a


suministrar el estudio, si las preguntas son complejas, debe darse una
pequeña introducción o aclarar conceptos, lo ideal es que la suministre
un investigador.

Tipos de preguntas:

Se pueden clasificar en función del tipo de pregunta, del contenido y de


su función en la encuesta.

El tipo de pregunta:

Puede ser abierta o cerrada, las abiertas pueden permitir un


acercamiento al investigador al proceso de pensamiento del
encuestado, pero se relacionan con una mayor motivación, las cerradas
necesitan menos motivación, y son ideales cuando son temas delicados,
sin embargo pueden provocar que el encuestado se sienta obligado a
elegir.
También conviene distinguir entre binarias y múltiples o escalas de
valoración.

Las escalas de valoración recogen datos acerca de las opiniones y


juicios del encuestado, el entrevistador debe categorizar las posibles
respuestas antes de la encuesta, además de ofrecer alternativas en
caso de NS/NC.
Se dividen entre escalas de categorías y listados.

En las escalas de categorías se presentan objetos, hechos etc y el


participante debe señalar que opción es la más adecuada para él, ya
sea por sus sentimientos, frecuencia, cantidad etc. Cuando está
ordenada en términos de satisfacción se suele llamar escala Likert.

Por otra parte, los listados ofrecen afirmaciones y el encuestado debe


señalar la más apropiada para él.

Según el contenido:

Podemos encontrar tres grandes categorías, demográficas, que


pretenden ofrecer información sobre las características personales de la
muestra, de actitudes u opiniones y sobre comportamientos
relacionados con las actividades que realiza el encuestado.

Según la función:

Pueden ser de tres tipos, de introducción, que sirven para familiarizar al


encuestado con el tema, de filtro, que sirven para seleccionar y filtrar
participantes y de control, que sirven para comprobar la congruencia de
las respuestas, generalmente con una misma pregunta pero redactada
de una forma distinta.

Prueba piloto:

Una vez diseñada la encuesta, es conveniente probarla con una


pequeña muestra no probabilística (ej. de conveniencia) para comprobar
su funcionamiento, también puede ayudar a detectar sesgos como el de
deseabilidad social.

Recogida de datos:

Es un proceso delicado que requiere de un cierto conocimiento previo


de los participantes. Requiere, además, de que todas las condiciones
sean las mismas, registrar cualquier incidencia, etc.

Existen varias formas, y cada una tiene sus ventajas e inconvenientes:

- La entrevista cara a cara permite asegurarse de que el


encuestado entiende las preguntas y vigilar una cierta rigurosidad,
sin embargo, conlleva un alto coste económico.
- En la entrevista por teléfono por una parte los costes son
menores, además es más impersonal, con lo que se pueden tratar
temas más delicados, pero su tasa de participación es menor
- En la entrevista por correo se tiene mucha mayor privacidad, sin
embargo, las preguntas deben ser extremadamente claras,
además, el encuestado puede prever el objetivo de la
investigación y caer en sesgos como la deseabilidad social.
- Las encuestas por internet presentan las mismas ventajas que la
entrevista por correo postal, además de las propias por la
inmediatez del medio, como contra tenemos que no toda la
población usa internet.

La observación:

En función del objetivo y del cómo se realice podemos distinguir entre


observación cotidiana, que nos permite predecir nuestro entorno,
entender y actuar en consecuencia y la observación científica, capaz de
producir conocimiento científico.

Puede ser útil tanto cuando no interesa la interferencia del


experimentador, por ejemplo para estudiar interacciones sociales, como
cuando por el sujeto no se puede hacer de otra forma, como los
estudios con bebés. Las reglas son intuitivas, pero deben ser
explícitamente detalladas para permitir su replicabilidad.

Características:

La observación, como forma de recoger información, está


estrechamente ligada con el método científico, el propio método
empírico se basa, en muchas ocasiones, en la observación científica.
La OC se puede aplicar a multitud de ámbitos, siendo parte de una
metodología experimental o ex post facto, entre otras.

La OC tiene un contexto idóneo y unas características propias, y deberá


adaptarse a la investigación.

A diferencia del método experimental, donde el investigador crea una


situación cerrada, restringiendo las posibilidades de respuesta del
sujeto, en la OC el objetivo es observar la conducta espontánea, por lo
que es mucho más laxo en ese sentido.

Grados de estructuración de la situación:

Si la observación es en un entorno natural sin restricciones del


observador se considera observación natural, sin embargo, si el
experimentador introduce cierto grado de control se llama observación
estructurada, y puede ser más sutil o generar una situación más
pautada.

Grados de participación:

- Externa: con muy baja o nula interacción del observador con los
sujetos, así se evitan interferencias y se mantiene la objetividad,
muy utilizado en estudios cualitativos
- La observación participante: El experimentador se involucra
directamente con la situación de estudio, participando en las
dinámicas y estableciendo contacto directo con el sujeto, se utiliza
en investigación cualitativa.
- Auto-observación: se utiliza cuando se involucran procesos
encubiertos o con una gran carga emocional.
Fases de un estudio observacional:

La oc tiene las mismas fases que el resto de estudios, en tanto que


sigue siendo una metodología experimental. Sin embargo, tiene algunas
peculiaridades:

- Qué observar
- Donde, cuanto tiempo, dónde y a quién
- Forma de observación
- Diseño
- Parámetros de medida
- Evaluación de calidad de los datos
- Elaboración del informe

Instrumentos de observación:

Una de las tareas más importantes es decidir qué observar. El poder dar
una explicación clara y bien definida de las conductas y elementos a
observar es una parte clave del proceso.

Los instrumentos utilizados pueden ser construidos ad hoc o ser


adaptados de otras metodologías, y existen tres instrumentos básicos,
formato de campo, especialmente útil cuando no tenemos un marco
teórico, siendo este abierto y flexible, sistema de categorías, cuando
disponemos de marco teórico y queremos una relación explícita y
completa de las conductas y por último tenemos instrumentos que
combinan ambos.

El sistema de categorías es una forma organizada de descripción de las


conductas y/o sucesos a observar y registrar. Plantea un sistema de
identificación y clasificación de esos comportamientos o eventos a
través de la definición de categorías.

Debe ser puesto a prueba en una situación piloto, adaptado y


modificado, además de implicar numerosas horas de lectura y discusión
en su elaboración, es uno de los pasos más críticos del proceso.
El proceso de creación del sistema, aun siendo en gran parte práctico,
tiene una gran carga teórica, puesto que el investigador tiene que
identificar qué variables son importantes y de ahí hacer el estudio. Se
puede reducir a la bibliografía sobre el tema en cuestión, ya sea a
estudios anteriores o sobre el marco teórico utilizado. Además, se
pueden realizar observaciones preliminares para este fin.

En la categorización se seleccionan los elementos pertinentes, se


delimitan entre sí y se escribe qué elementos los diferencian con el resto
y qué elementos los hace únicos. El investigador deberá, además, tomar
dos decisiones básicas e interrelacionadas:

- Determinar las dimensiones o niveles de conducta, es decir, si va


a ser observado desde una o varias perspectivas
- Establecer la unidad de conducta, siendo el comportamiento un
flujo, es importante delimitar las mismas.

Para que un sistema de categorías nos proporcione datos útiles debe


reunir las características de exhaustividad y exclusividad. El sistema
debe de ser exhaustivo, en tanto que debe ser completo y abarcar un
gran abanico de conductas para no dejar nada fuera. Debe ser exclusivo
en tanto que las categorías tienen que estar bien delimitadas y
excluyentes entre ellas.

Muestreo y registro:

Por extensa que sea la investigación, la conducta observada es limitada,


por lo que debe de ser representativa de la conducta real. Se trabaja
con una muestra de la misma, y de su diseño depende la validez del
estudio. La representatividad depende de varios factores, pero
fundamentalmente del muestreo y del registro.

El muestreo es el que determina el inicio y el fin de la sesión de


observación, mientras que el registro determina a qué individuo seguir y
durante cuánto tiempo.
Procedimientos de muestreo:

En la OC se suele usar el muestreo de juicio experto, sin embargo, hay


que considerar cuándo hacer la observación (muestreo intersesional) y
a quién observar, si hacerlo de forma multifocal o focal (muestreo
intrasesional).

Muestreo intersesional: criterios de principio y final:

Nos permite determinar cuándo empezar y terminar la sesión de


observación, y el sistema de selección fija suele ser el más indicado
para ello, estableciendo una hora de principio y de fin. Esto plantea el
problema de la falta de representatividad de la actividad en otros
contextos, pero generalmente el marco teórico suele determinar este
tiempo, unido a las restricciones materiales. Cuando no existe dicho
marco teórico se utiliza el muestreo aleatorio simple, donde se inicia en
un momento al azar.

Muestreo intrasesional de participantes:

Cuando se plantea la observación de un grupo, se debe establecer una


serie de criterios, los más importantes son:

- Focal, se focaliza la atención en un sólo individuo durante un gran


período de tiempo o toda la sesión, el resto pueden ser
observados posteriormente.
- Multifocal: Se focaliza la atención en un sujeto cada vez,
alternando entre ellos de forma secuencial y en un tiempo definido
previamente
- ad libitum, no se considera una forma de muestreo sistemático,
aunque puede ser útil como aproximación al problema, consiste
en la observación libre de los acontecimientos.

Procedimiento de registro:

El proceso observacional consiste en observar los hechos y tomar


constancia de los mismos, tradicionalmente se ha hecho a tiempo real,
sin embargo, actualmente es común apoyarse en dispositivos de
grabación para su posterior observación y análisis. Los sistemas
informáticos de registro presentan una ventaja muy importante, al
permitir una precisión mayor y una mayor comodidad.

Registro activado por unidades de tiempo (RAUT):

Ofrece un registro incompleto y discontinuo, consiste en la observación


de los hechos ocurridos en un período de tiempo delimitado, donde sólo
se registra si la conducta ha ocurrido o no.

Entre los formatos más utilizados se encuentra el registro instantáneo o


puntual, en el que se comprueba si la conducta está ocurriendo en
momentos concretos de la sesión, o el registro de intervalos de tiempo,
en el que se registra si la conducta ha ocurrido alguna vez en cada
intervalo.

Registro activado por transiciones de conductas (RAT):

Registra cada vez que ocurre una conducta y su orden, lo que aporta un
registro continuo y completo.

Medidas de la observación

Parámetros de medida:

- Ocurrencia: si ha ocurrido o no
- Frecuencia: Cuántas veces ha ocurrido
- Tasa de conducta: frecuencia/tiempo de observación
- Frecuencia relativa: frecuencia/conductas observadas.
- Duración: duración de la conducta
- Duración relativa: duración/tiempo de observación
- Frecuencia de transición: el número de veces que tras la primera
conducta aparece la segunda
- Frecuencia de transición relativa: calculando la frecuencia de
transición por el número de veces que se da la primera conducta.

Control de calidad de los datos:


La fiabilidad y la validez de los datos obtenidos son un requisito
fundamental en cualquier estudio científico, que garantizan la seguridad
de los datos obtenidos y su replicabilidad. La fiabilidad tiene que ver con
la precisión, mientras que la validez tiene que ver con lo recogido.

Estimación de la fiabilidad:

La forma más usual es mediante el cálculo de índices de acuerdo o


concordancia, cotejando los datos obtenidos o bien por varios
investigadores observando un mismo fenómeno o bien por un mismo
observador en períodos diferentes de tiempo.

Es recomendable no hacer esto al final de la observación, puesto que


puede dar información útil y ayudar a corregir el rumbo de la
investigación.

Fuentes de error: el observador:

El observador juega un papel fundamental, dado que de él depende


tanto la recogida de los datos como su aplicación del sistema de
observación. Para ello es importante un correcto entrenamiento, una
correcta comprensión de las categorías de medida y su puesta en
práctica con grabaciones o situaciones piloto.

Efecto deriva del espectador: consiste en ir modificando las categorías


por la experiencia acumulada durante la observación

Las expectativas del observador: Consiste en registrar conductas


cuando no se adecúan a las categorías o ignorar otras, una forma de
evitar esto es el procedimiento ciego.

El participante: reactividad:

Si el sujeto es consciente de que está siendo observado puede darse


reactividad por su parte, cambiando de forma voluntaria o involuntaria
su conducta. Una forma de evitar esto es mediante la habituación,
acostumbrando antes del estudio al sujeto a pasar tiempo con el
investigador, otro método es la forma de comunicar la finalidad de la
investigación.

El instrumento de observación:

A veces el propio instrumento de medida es lo que ocasiona los errores


en los observadores, desde fallos en la definición de las categorías
hasta una excesiva complejidad del sistema.

Diseños: Tipología de los estudios observacionales:

El diseño del estudio es de suma importancia para la validez del mismo,


supone la planificación de las condiciones del estudio y orientará la
forma de recogida, organización y análisis de los datos. Pueden ser:

- Según las unidades de estudio, ya sean ideográficos (una única


medida, como un individuo o una familia) o nomotéticos (uno o
varios grupos)
- Según la temporalidad: En un momento puntual o siguiendo la
evolución con el tiempo
- Según el número de niveles o dimensiones de la conducta
analizada.
- Según los indicadores conductuales a analizar: estudios intensivos
si son estáticos (frecuencia y/o duración y derivadas) o intensivos
(frecuencias de transición, etc).

También podría gustarte