Está en la página 1de 172

11/12/21 14:12 Campus Virtual

Fundamentos de la investigación en
ciencias de la salud

https://campusformacion.net/nuevocampus/impresioncurso.php 1/172
11/12/21 14:12 Campus Virtual

Índice

ÍNDICE

UNIDAD FORMATIVA 1. La investigación científica


1.1. El concepto de Ciencias

1.2. El Método Científico

1.3. División del Método Científico

UNIDAD FORMATIVA 2. El Método Experimental


2.1. El experimento

Definición
Características y fases del experimento
El problema y las variables
Definición de la hipótesis
Selección del diseño experimental
El control experimental
Selección de los sujetos
Definición de las intervenciones y de la medición
Recolección, análisis e interpretación de los datos

2.2. Diseños experimentales Intergrupos

Diseños Experimentales Intergrupos Unifactoriales


Diseños experimentales Intergrupos Factoriales

2.3. Diseños experimentales Intragrupo

Diseños Experimentales Intragrupo Unifactoriales


Diseños Experimentales Intrasujeto Factoriales

 
https://campusformacion.net/nuevocampus/impresioncurso.php 2/172
11/12/21 14:12 Campus Virtual

4.4. Técnicas de análisis de datos

Introducción
Tipos de técnicas de análisis de los datos
Elaboración del informe de investigación

UNIDAD FORMATIVA 3. El Método Cuasi-experimental


3.1. Diseños cuasi-experimentales

Definición
Características
Tipos y clasificaciones

3.2. "Diseños selectivos"

Definición
Características
Tipos y clasificaciones
Técnicas de muestreo

UNIDAD FORMATIVA 4. El Método Observacional


4.1. Diseños observacionales

Definición y Características
Codificación y registro
Diseños observacionales

Bibliografía
 

Casos prácticos
 

https://campusformacion.net/nuevocampus/impresioncurso.php 3/172
11/12/21 14:12 Campus Virtual

Objetivos

OBJETIVO GENERAL

Proporcionar al estudiante las herramientas y conocimientos para la


realización de investigación documentada y experimental, así como las
bases para la interpretación, discusión y presentación de resultados.
Conocer los métodos y los diseños de investigación así como las técnicas
de análisis de datos propios de las Ciencias de la Salud.
Identificar las características de la salud-enfermedad de los individuos,
colectividad y contextos mediante métodos, técnicas e instrumentos
propios de las Ciencias de la Salud4.Definir los objetivos, elaborar el plan
y las técnicas de intervención en función de las necesidades y demandas
de los destinatarios, así como evaluar los resultados.
Elaborar informes en distintos ámbitos de actuación dirigidos a los
destinatarios y a otros profesionales.

OBJETIVOS ESPECÍFICOS
Proporcionar al estudiante las herramientas y conocimientos para la
realización de investigación documentada y experimental, así como las
bases para la interpretación, discusión y presentación de resultados.
Conocer los métodos y los diseños de investigación así como las técnicas
de análisis de datos propios de las Ciencias de la Salud.
Identificar las características de la salud-enfermedad de los individuos,
colectividad y contextos mediante métodos, técnicas e instrumentos
propios de las Ciencias de la Salud4.Definir los objetivos, elaborar el plan
y las técnicas de intervención en función de las necesidades y demandas
de los destinatarios, así como evaluar los resultados.
Elaborar informes en distintos ámbitos de actuación dirigidos a los
destinatarios y a otros profesionales.

https://campusformacion.net/nuevocampus/impresioncurso.php 4/172
11/12/21 14:12 Campus Virtual

Unidad formativa 1. La investigación científica

  Apartados

1.1. El concepto de Ciencias

UNIDAD FORMATIVA  1. La investigación científica 1.2. El Método Científico

1.3. División del Método Científico

1.1. El concepto de Ciencias


 
Sobre la definición de ciencia no existe una uniformidad de criterios, de hecho existen
una infinidad de definiciones de ciencia. Detrás de esta enorme diversidad está el enorme
arraigo social que la ciencia tiene en la sociedad contemporánea, que conduce a su uso
cotidiano en la educación, los medios de comunicación, los discursos políticos y otros
canales de divulgación. De igual modo esa diversidad se explica por las muy diferentes
corrientes filosóficas, sociológicas e históricas que a lo largo de este siglo han estudiado
sistemáticamente la ciencia.
 
Aún así veamos algunas definiciones de ciencia:
 
• Real Academia de la Lengua Española: 
(Del lat. scientĭa).
Conjunto de conocimientos obtenidos mediante la observación y el razonamiento,
sistemáticamente estructurados y de los que se deducen principios y leyes
generales.
 
• Albert Einstein. 
La ciencia no es solo una colección de leyes, un catalogo de hechos sin mutua
relación. Es una creación del espíritu humano con sus ideas y conceptos libremente
inventados.
Las teorías físicas tratan de ser una imagen de la realidad y de establecer su
relación con el amplio mundo de las impresiones sensoriales. Luego, la única

https://campusformacion.net/nuevocampus/impresioncurso.php 5/172
11/12/21 14:12 Campus Virtual

justificación de nuestras estructuras mentales esta en el grado y en la norma en que


las teorías logren dicha relación. 
 
• Mario Bunge 
La ciencia es un conjunto de conocimientos obtenidos mediante la observación y el
razonamiento, y de los que se deducen principios y leyes generales. En su sentido
más amplio se emplea para referirse al conocimiento en cualquier campo, pero que
suele aplicarse sobre todo a la organización del proceso experimental verificable. 
Este creciente cuerpo de ideas llamada ciencia puede caracterizarse como
conocimiento racional, sistemático, exacto, verificable y por consiguiente falible. 
 
• Carl Sagan
Es sólo una herramienta… Pero con mucho la mejor herramienta de que
disponemos, que sigue funcionando, que se autocorrige, que se aplica a todo, tiene
dos reglas:
1) No hay verdades sagradas, todas las suposiciones se han de examinar
críticamente; los argumentos de autoridad carecen de valor.
2) Hay que descartar o revisar todo lo que no cuadre con los hechos. Tenemos que
comprender el cosmos tal como es y no confundir lo que es con lo que sea… lo obvio
es a veces falso, lo inesperado es a veces cierto. 
 
Si bien no existe una única definición de ciencia si existen una serie de rasgos que definen
la ciencia. En primer lugar, podemos afirmar que, la ciencia es la forma de saber más
eficiente descubierta por el ser humano y, en segundo lugar, que es una forma de
conocimiento que abarca todas las realidades que conocemos a través de los sentidos.
 
El prestigioso filósofo de la ciencia, Mario Bunge, caracteriza la ciencia como:
 

1. Fáctica. La ciencia siempre parte de los hechos y siempre vuelve a ellos. La


ciencia intenta describir los hechos tal y como son a través de datos empíricos que
se obtienen mediante teorías; estos datos son a la vez materia prima de la
elaboración teórica.

2. Transcendente: no se limita a los hechos observados, los científicos seleccionan


aquellos hechos que consideran relevantes, intentan controlarlos, reproducirlos e
incluso producen hechos nuevos.

3. Analítica: aborda problemas determinados uno por uno e intenta


descomponerlos en elementos, descompone los objetos para descubrir el
mecanismo interno que es responsable de los fenómenos observados, después se
examina la interdependencia de las partes y finalmente se intenta reconstruir el
todo en términos de sus partes interconectadas. 

4. Especializada: empieza delimitando un objeto, en el cual se especializa, lo que ha


dado lugar a numerosas especialidades científicas. La especialización, sin embargo,
no ha impedido la formación de campos interdisciplinarios.
https://campusformacion.net/nuevocampus/impresioncurso.php 6/172
11/12/21 14:12 Campus Virtual

5. Clara y precisa: constituye una rebelión contra la superficialidad y vaguedad del


sentido común. Para Bunge, la claridad y precisión se obtienen a) distinguiendo
cuáles son los problemas b) incluyendo las nociones iniciales en esquemas teóricos
c) definiendo sus conceptos y las funciones que desempeñan en un sistema teórico
d) procurando el uso y la combinación compleja de símbolos básicos y simples e)
midiendo y registrando fenómenos con exactitud. 

6. Comunicable: comunica información a quienes estén capacitados para


entenderlo. Su comunicabilidad se posibilita mediante la precisión, que es una
condición necesaria para la verificación de datos empíricos e hipótesis científicas.

7. Verificable: es verificable mediante la experiencia, las hipótesis se comprueban


mediante experimentación. No obstante, es preciso tener en cuenta que los
resultados generalmente se pueden interpretar de diversas maneras y que, si bien
todas las ciencias son empíricas, no todas son necesariamente experimentales.

8. Metódica: no procede por azar, ni de forma caprichosa, sino siguiendo un método


rigurosamente planificado (el método científico). Aunque, no debemos olvidarnos
que, el método científico no excluye el azar, sino que en ocasiones le da un lugar,
para aprovecharlo, incluso el investigador lo produce intencionalmente, y lo
controla mediante el control de variables o factores relevantes.

9. Sistemática: es un sistema de ideas conectadas lógicamente entre sí. La conexión


entre estas ideas puede considerarse orgánica en tanto la sustitución de cualquiera
de sus hipótesis básicas puede producir un cambio importante en la teoría o grupos
de teorías que conforman.

10. General: ubica los hechos y enunciados particulares en esquemas generales. La


generalización es el único medio conocido para adentrarse en lo concreto y obtener
las cualidades y leyes esenciales de las cosas.

11. Legal: busca leyes y las aplica, insertando en ellas hechos singulares. Intenta
llegar a la raíz de las cosas. 

12. Explicativa: intenta explicar los hechos mediante leyes y las leyes en términos
de principios. 

13. Predictiva: pone a prueba las hipótesis. Las leyes deben ser predictivas del
estado presente o pasado de las cosas, si fallan, obliga al científico a corregir sus
suposiciones, lo cual puede contribuir al perfeccionamiento del conocimiento.

14. Abierta: ya que es falible y por tanto, capaz de progreso. 

15. Útil: busca la verdad y proporciona herramientas que pueden usarse para bien o
para mal. 
 
La ciencia no es un concepto unitario, es una forma de saber especializado, por lo que,
cada ciencia se especializa en un objeto o conjunto de objetos, y se constituye como una

https://campusformacion.net/nuevocampus/impresioncurso.php 7/172
11/12/21 14:12 Campus Virtual

ciencia separada que, a su vez, puede contener múltiples especialidades subordinadas.


De este modo, podemos clasificar las ciencias según el tipo de objeto que estudian: 

Ciencias Naturales: Ciencias que, como la Física, Química, Biología,


Geología, Zoología, se ocupan del estudio de la naturaleza; de los
fenómenos, seres y sucesos que no son producto del hombre.

Ciencias Sociales: Ciencias que, como la Sociología, la Economía, la


Antropología, la Psicología, se ocupan de la actividad humana en la
sociedad.

Ciencias Humanas: Ciencias que, como la Historia, la Filosofía y la


Filología, se ocupan de aspectos diversos de la actividad y del
pensamiento humanos.

Ciencias Puras: Ciencias que no tienen aplicación práctica.

Ciencias Formales: Ciencias como la Lógica y las Matemáticas que


estudian de manera deductiva las propiedades de los entes abstractos,
como números, figuras geométricas o símbolos, y sus relaciones.

1.2. El Método Científico

Definición

Para hacer ciencia, conocer cómo funciona la naturaleza, buscar respuestas a los hechos
desconocidos u oscuros de la realidad que inquietan al ser humano, aplicamos métodos,
realizamos actividades intelectuales y físicas, ordenadas y bien determinadas, hasta
alcanzar un conocimiento objetivo. La búsqueda de un proceso que nos permitiera
alcanzar el verdadero conocimiento nos ha llevado a desarrollar lo que conocemos como
Método Científico: un conjunto de principios racionales convenidos por la comunidad de la
ciencia en un determinado momento histórico, que se dispone con el fin de regular el ejercicio de
la investigación y que vela por la calidad de los mecanismos utilizados para la obtención de sus
resultados. 

Antecedentes

La adopción de un método en la ciencia encontró su período seminal durante la


revolución científica acaecida en la Europa del siglo XVIII. 
Consolidado el siglo XVII, se comienza a reconocer como imperativa la exigencia de
ordenar las ciencias por medio de un método. Desde el siglo XVII hasta finales del siglo
XIX el estudio del “conocimiento”, sus principios, sus fundamentos y el proceso para

https://campusformacion.net/nuevocampus/impresioncurso.php 8/172
11/12/21 14:12 Campus Virtual

alcanzarlo, contrastó la razón contra el sentido de percepción como medio para


adquirirlo.
Para los racionalistas, entre los más destacados el francés René Descartes (1596-1650)
con su obra, el Discurso del método, el filosofo naturalista Baruch Spinoza (1632-1677),  el
matemático y físico Isaac Newton (1643-1727), y el alemán Gottfried Leibniz (1646-
1716), la principal fuente y prueba final del conocimiento era el razonamiento deductivo
basado en principios evidentes o axiomas. Para los empiristas, empezando por los
filósofos ingleses Francis Bacon (1561-1626) y John Locke (1632-1704), la fuente
principal y prueba última del conocimiento era la percepción. 
Pese a la continua lucha entre empiristas y racionalistas por demostrar el verdadero
método científico, el inicio de la verdadera ciencia moderna se atribuye a Galileo Galilei
(1564-1642), astrónomo, filósofo, ingeniero, matemático y físico italiano. Considerado un
racionalista dogmático   porque usaba matemáticas y deducción, tanto por sus escritos
como, principalmente, por sus trabajos, dirigió un ataque intelectual en contra del
racionalismo dogmático y del empirismo dogmático, ofreciendo un prototipo del
equilibrio pragmático moderno entre la razón y los sentidos en la ciencia. Su método se
basaba fundamentalmente en la observación y en la experimentación. Método
Hipotético-Deductivo.
Si bien, sería Francis Bacon el primero en publicar un esbozo sistematizado del método
científico, lo definió a partir de los siguientes pasos generales:

1. Aplicar los sentidos a un objeto o a un fenómeno, para observarlos y estudiarlos


tal como se presentan en la realidad.

2. Inducir, a partir de determinadas observaciones o experiencias, el principio


particular de cada una de ellas.

3. Plantear hipótesis estables acerca del objeto observado.

4. Probar las hipótesis por experimentación.

5. Demostrar o refutar las hipótesis.

6. Desarrollar una teoría científica a partir de las conclusiones del estudio.


 
Por su parte, en su Discurso del método, René Descartes propone cuatro reglas para
alcanzar la verdad en las ciencias:

1. No aceptar ninguna cosa como verdadera que no se pueda conocer


evidentemente, es decir, que no se presente como clara y distinta al espíritu.

2. Dividir cada una de las dificultades examinadas en tantas partes como fuera
posible para su mejor resolución.

3. Conducir de forma ordenada los pensamientos, comenzando por los objetos más
simples y fáciles de conocer, para ascender por grados al conocimiento de los más
complejos.

https://campusformacion.net/nuevocampus/impresioncurso.php 9/172
11/12/21 14:12 Campus Virtual

4. Hacer en todas partes enumeraciones tan copletas y generales de modo de estar


seguro de no omitir nada.

Características

El Método Científico comparte las características de las Ciencia, anteriormente


comentadas: 
Fáctico, Transcendente, Analítico, Especializado, Claro y preciso, Comunicable,
Verificable, Metódico,  Sistemático, General, Explicativo, Legal, Predictivo, Abierto y Útil

Objetivos

1. Describir. Identificar, denominar, definir y clasificar el fenómeno de estudio.


2. Explicar. Determinar cuales son las causas que provocan un fenómeno.
3. Predecir. Anticipar la aparición de un fenómeno. Para poder predecir un
fenómeno es necesario saber describirlo y explicarlo previamente.

Supuestos 

1. Orden. Todos los hechos ocurren según un orden predefinido, de no ser así no se
podría estudiar científicamente. 

2. Determinismo. Todos los fenómenos tienen unas causas antecedentes y estas


determinan con un alto grado de probabilidad la ocurrencia de un fenómeno
concreto.

3. Comprobabiblidad. Todos los fenómenos tienen que tener una posibilidad de ser
comprobado en un futuro muy próximo.

Requisitos

1. Empirista. El conocimiento científico sólo se puede alcanzar mediante la


observación objetiva y controlada. La observación es controlada, provocada por el
investigador.

2. Replicable. En el método científico se siguen una serie de pasos para alcanzar el


conocimiento, estos pasos deben ser reflejados por el investigador en un informe,
de manera que pueda repetirse el proceso por otro investigador.

3. Aceptable. Todo investigador tienen la responsabilidad de publicar sus


resultados. 
https://campusformacion.net/nuevocampus/impresioncurso.php 10/172
11/12/21 14:12 Campus Virtual

Fases del Método Científico


1. La idea. La idea que inspira la investigación debe ser:
Clara Original Atractiva Novedosa Inspiradora Motivadora De interés social Con
congruencia interna
 
Y debe de:
Ayudar a resolver problemas 
Aportar conocimientos  
Generar nuevos interrogantes 
 
Las ideas pueden generarse a partir de experiencias, observaciones de hechos,
creencias e incluso intuiciones y presentimientos   conversaciones personales,
materiales escritos (libros, artículos de revistas o periódicos, notas y tesis),
materiales audiovisuales y programas de radio o televisión, teorías existentes o
descubrimientos producto de investigaciones
La mayoría de las ideas iniciales son vagas y requieren analizarse con cuidado para
que se transformen en planteamientos más precisos y estructurados, cuando una
persona desarrolla una idea de investigación debe familiarizarse con el campo de
conocimiento donde se ubica la idea. Es necesario conocer estudios,
investigaciones y trabajos anteriores, especialmente si uno no es experto en el
tema. Conocer lo que se ha hecho con respecto a un tema ayuda a no investigar
sobre algún tema que ya se haya estudiado a fondo. Una buena investigación debe
ser novedosa.
Una vez recogidos los antecedentes de la idea que nos interesa debemos
estructurarla más formalmente. El planteamiento del problema de investigación es
la etapa donde se estructura formalmente la idea de investigación. 
 
2. Planteamiento del problema de investigación. 
El investigador se formula una pregunta no resuelta sobre un tema de interés. 
Una buena formulación del problema implica necesariamente la delimitación del
campo de investigación, establecer claramente los límites dentro de los cuales se
desarrollará el proyecto. 
Según Kerlinger y Lee (2002), los criterios para plantear adecuadamente un
problema de investigación son: 
El problema debe expresar una relación entre dos o más conceptos o
variables. 
El problema debe estar formulado como pregunta, claramente y sin
ambigüedad; por ejemplo, ¿Qué relación existe entre dos o más
variables?, ¿qué efecto?, ¿en qué condiciones...?, ¿cuál es la probabilidad
de...?, ¿cómo se relaciona con...? 

https://campusformacion.net/nuevocampus/impresioncurso.php 11/172
11/12/21 14:12 Campus Virtual

El planteamiento debe implicar la posibilidad de realizar una prueba


empírica, es decir, la factibilidad de observarse en la “realidad única y
objetiva”. 
 
3. Formulación de la hipótesis.
La hipótesis es un intento de solución al problema que planteamos. Es un intento de
solución, una posible explicación, (porque no estamos seguros que sea cierta) y está
formulada como “proposición” (propone algo). 
Las hipótesis son proposiciones tentativas acerca de las relaciones entre dos o más
variables y se apoyan en conocimientos organizados y sistematizados. 
Es un juicio, una afirmación o una negación de algo. Sin embargo, es un juicio de
carácter especial, son proposiciones provisionales y exploratorias y, por tanto, su
valor de veracidad o falsedad depende críticamente de las pruebas empíricas. 
Las hipótesis son numerosas y el investigador debe descubrir cuál es la más
adecuada. 
 
¿SIEMPRE DEBE FORMULARSE UNA HIPÓTESIS EN UNA INVESTIGACIÓN?
La respuesta es no. La presencia de hipótesis en un estudio está directamente
relacionada con su enunciado. Con el planteamiento del problema que realicemos.
Si el enunciado es una proposición entonces el estudio lleva hipótesis; si el
enunciado no es una proposición entonces el estudio no lleva hipótesis.
Existen estudios en los que no se parte de una hipótesis inicial sino que estas van
surgiendo de la observación y recogida de información. 
Ejemplos:
Primero. ¿Cuál es la prevalencia de diabetes en la ciudad de Madrid?
Este enunciado NO es una proposición y por lo tanto no tiene hipótesis.
Segundo. ¿Existe asociación entre la obesidad y la diabetes?
Este enunciado SI es una proposición por lo tanto SI lleva hipótesis.
Tercero. ¿La prevalencia de diabetes en la ciudad de Madrid es mayor al 20%?
Este enunciado SI es una proposición por lo tanto SI lleva hipótesis.
Cuarto. ¿Cuál es el grado de riesgo que tienen las personas con sobrepeso
para hacer diabetes?
Este enunciado NO es una proposición y por lo tanto no tiene hipótesis.
 
4. Recogida de datos.
Proceso por el que se recogen los datos que nos van a permitir comprobar si la
hipótesis es verdadera o no. Consiste en recoger los datos referentes a las hipótesis
involucradas en la investigación. Puede tratarse de una experimentación o no.
Recoger los datos implica tres actividades estrechamente vinculadas entre sí:
(1) Seleccionar un instrumento de medición, el instrumento de recolección de
los datos. Este instrumento debe ser válido y confiable, de lo contrario no
podemos basarnos en sus resultados.
(2) Aplicar ese instrumento de medición. Es decir, obtener las observaciones y
 mediciones de las variables que son de interés para nuestro estudio (medir
las variables).
https://campusformacion.net/nuevocampus/impresioncurso.php 12/172
11/12/21 14:12 Campus Virtual

(3) Preparar las mediciones obtenidas para que puedan analizarse


correctamente (a esta actividad se le denomina codificación de los datos)
 
5. Análisis de los datos.
Aplicación de la técnica estadística más adecuada. 
 
6. Comprobación de los resultados de la hipótesis.
Una vez recogidos, elaborados y analizados los datos se procederá a comprobar si
los resultados obtenidos confirman o no la hipótesis propuesta. 
Si la hipótesis planteada se confirma sacaremos las conclusiones pertinentes y
generalizaremos los resultados en la medida en lo que permitan las muestras
utilizadas.
Si, por el contrario, los datos no confirman nuestra hipótesis, o bien se concluirá que
en las condiciones planteadas la hipótesis no se confirma, o bien se volverá a la
tercera fase del método científico, proponiendo una nueva solución al problema.
 
7. Planteamiento de nuevos problemas.
Nuevos problemas que surgirán de los resultados obtenidos.
“Los verdaderos problemas científicos  son aquellos que dan paso al planteamiento
de nuevos problemas” (Arnau, 1978).
 

1.3. División del Método Científico


 
¿Cuántos métodos científicos distintos existen?
No existe una única clasificación, a pesar de ello, la división del Método Científico que
cuenta con más consenso dentro de la comunidad científica es la que a continuación se
presenta:

a) En función del tipo de inferencia (tipo de razonamiento).

Según el tipo de inferencia, es decir, el tipo de conclusiones a las que podemos llevar, el
Método Científico se divide en:
 

Inductivo: 

Nace del Empirismo. Su precursor, Francis Bacon (1561-1626), lo propuso para


todas las ciencias.
Se basa en la observación de los hechos junto con la experiencia para llevar a
establecer una ley o conclusión universal. La ley universal alcanzada permite
realizar afirmaciones aún más generales que reciben el nombre de teorías. 
El método inductivo permite ordenar toda la información observada para extraer
conclusiones de carácter universal desde la acumulación de datos particulares.

https://campusformacion.net/nuevocampus/impresioncurso.php 13/172
11/12/21 14:12 Campus Virtual

Desde miles de casos individuales observados hasta el enunciado de una ley y


teoría de carácter general. 
El conocimiento tendría la forma de una pirámide, desde una base robusta base
representada por la observación pura, hasta una cúspide donde colocaríamos las
conclusiones de carácter general y teórico.
En el método inductivo los pasos que hay que dar son:

Observar y registrar los hechos

Analizar y clasificar los hechos

Desarrollar una ley universal, generalizar, los casos particulares.


 

Deductivo: 

Nace del Racionalismo. Su precursor fue el francés René Descartes (1596-1650)


con su  obra, el Discurso del método.
El método deductivo se contrapone al método inductivo, en el sentido de que se
sigue un procedimiento de razonamiento inverso. Se parte de las teorías formales
existentes, de unos enunciados de carácter universal, y utilizando instrumentos, se
deducen unos enunciados particulares, unas consecuencias o hechos aplicables a la
realidad.
Las leyes universales vendrán dadas por proposiciones del tipo “en todos los casos
en los que se da el fenómeno A, se da también el fenómeno B. Por ejemplo, 2 es un
número par y 4 es un número par, entonces 2x4 será un número par.
 
 
Figura 1. Tipo de Razonamiento.  Fuente: http://m4rt1.blogspot.com.es/
 
 

 
https://campusformacion.net/nuevocampus/impresioncurso.php 14/172
11/12/21 14:12 Campus Virtual

 
Figura 2. Tipo de Razonamiento. Fuente: propia
 
 

Hipotético-Deductivo:

Nace fruto de la necesidad de los científicos de utilizar ambos métodos.


Considerado hoy el verdadero Método Científico.
 

b) En función del grado de cuantificación de las variables.

En función del grado de cuantificación de las variables existen dos aproximaciones


principales para investigar: el método cuantitativo y el método cualitativo. 
Ambos enfoques emplean procesos cuidadosos, metódicos y empíricos en su esfuerzo
para generar conocimiento, siguiendo los pasos del método científico: 1. Llevan a cabo la
observación y evaluación de fenómenos para generar  la idea que inspira la investigación;
2. Plantean el problema de la investigación; 3. Formulan las hipótesis; 4. Recogen los
datos que nos van a permitir comprobar si las hipótesis son verdaderas o no; 5. Analizan
los datos; 6. Comprueban si los resultados obtenidos confirman o no las hipótesis
propuestas, sacando las conclusiones pertinentes y generalizando los resultados; 8.
Proponen nuevas observaciones y evaluaciones para esclarecer, modificar y fundamentar
las suposiciones e ideas; o incluso para generar otras. 
Sin embargo, aunque las aproximaciones cuantitativa y cualitativa comparten esas
estrategias generales, cada una tiene sus propias características, secuencia de las etapas

https://campusformacion.net/nuevocampus/impresioncurso.php 15/172
11/12/21 14:12 Campus Virtual

de la investigación y medida de las variables.


 

Tabla I.  Investigación cuantitativa vs. cualitativa

  Investigación Cuantitativa Investigación Cualitativa

Explicar y obtener conocimiento


Explicar, predecir y/o controlar
profundo de un fenómeno a través
Objetivo fenómenos a través de un enfoque de
de la obtención de datos extensos
obtención de datos numéricos
narrativos

Proceso deductivo (parte de una teoría Proceso inductivo (explorar y


concreta y comprueba empíricamente que describir, y luego generar
Tipo de
ésta se confirma apoyada por los hechos). perspectivas teóricas).
razonamiento

Van de lo general a lo particular Van de lo particular a lo general.

Planteamientos no específicos

 las preguntas de
Problema de estudio delimitado ,
Planteamiento concreto y específico, tras una revisión investigación no siempre son
del problema inicial de las fuentes de información que conceptualizadas ni definidas por
han generado la idea de estudio completo. La revisión de la
información se hace en cualquier
momento d ella investigación

 El investigador considera lo que se ha


Generalmente no se prueban
investigado anteriormente del cual
hipótesis, éstas se generan durante
Hipótesis deriva una o varias hipótesis (cuestiones
la investigación y van refinándose
que va a examinar si son ciertas o no) y
conforme se recaban más datos
las somete a prueba

Secuencial, estructurado, inflexible. Flexible, dinámico, más bien


Específico en detalles en el desarrollo “circular. Se especifica en el
Método del estudio.  desarrollo del estudio.

Intervención, manipulación y control Puede haber o no intervención

https://campusformacion.net/nuevocampus/impresioncurso.php 16/172
11/12/21 14:12 Campus Virtual

Usa la recolección de datos para


descubrir o afinar preguntas de
investigación en el proceso de

Usa la recolección de datos para probar interpretación.

hipótesis
sin medición numérica.

Estrategia de Métodos de recolección de datos


Métodos de recolección de datos
recolección de  estandarizados
no estandarizados ni
datos
Los datos se representan mediante completamente predeterminados.

números y se deben analizar a través de


No se efectúa una medición
métodos estadísticos
numérica, por lo cual el análisis no
es estadístico

Conclusiones tentativas y
revisiones se van dando sobre la
marcha del estudio,
generalizaciones especulativas o
simplemente no se dan
Interpretación Las conclusiones y generalizaciones se
de los datos formulan al concluir el estudio no pretenden generalizar de
manera probabilística los
resultados a poblaciones más
amplia

Figura 3. El enfoque cuantitativo en la investigación. 

Figura 4. El enfoque cuantitativo en la investigación.

https://campusformacion.net/nuevocampus/impresioncurso.php 17/172
11/12/21 14:12 Campus Virtual

Figura 3 y 4. Adaptadas de R. Hernández Sampieri, C. Fernández-Collado y P. Baptista


Lucio “Metodología de la investigación. McGraw-Hill. México. 2006. 4ª Edición)
 

c) En función del nivel de control

Método Natural u Observacional                 Método Mixto                               Método


Experimental

                        -                                                         -                                              -

                                                                                  -                                              -

                                                                                                                                 -
En el Método observacional el fenómeno se estudia en su ambiente natural. El papel del
observador es pasivo. Se limita a recoger datos y describir los hechos de la forma más
objetiva y precisa posible. Se basa en una observación en la que se emplea variables
clasificatorias, no manipulables, para llevar al conocimiento
Para que la observación pueda ser científica y no espontánea o casual, debe reunir los
siguientes requisitos:

Servir a un objetivo de investigación fijado

Ser relacionada con proposiciones más generales.

Estar sujeta a comprobaciones de validez y fiabilidad. 


 
A pesar del inconveniente del nulo control del método observacional, constituye una
herramienta fundamental en las primeras fases de la investigación. Los inconvenientes
son la limitación de la objetivación y cuantificación de los datos, y la falta de control sobre
https://campusformacion.net/nuevocampus/impresioncurso.php 18/172
11/12/21 14:12 Campus Virtual

la variable independiente. No permite establecer relaciones causales. Las ventajas es el


mayor realismo de los fenómenos a observar, obtención de la observación tal como
ocurre. 
Ej-.  Darwin y Piaget 
Los estudios más representativos que emplean el método observacional son los estudios
diferenciales. Aquellos que emplean una variable clasificatoria, por ejemplo el sexo, para
analizar diferencias entre sus niveles, efecto del Sexo en las bajas de una empresa. 
 
El Método Experimental goza de un control máximo desde el planteamiento del
problema hasta el análisis de los datos. Ello es posible gracias a que sigue rigurosamente
los pasos del Método Científico.

Es el método con mayor amplitud de control. Se lleva a cabo una


manipulación intencional de las variables de estudio (decisión propia del
experimentador de de las variables de estudio, de sus valores y de su
asignación aleatoria a los sujetos) y un control sobre todas aquellas
variables contaminantes o extrañas que pudieran interferir o actuar
conjuntamente con las variables independientes y afectar a la variable
dependiente (variable que queremos medir). Al controlar las variables
extrañas, cualquier cambio en la variable de estudio sería atribuible
exclusivamente a las variables independientes.

Permite establecer una relación de causalidad entre las variables


independientes y la variable de estudio. Las variables independientes son
la causa y el efecto se tiene que ver en la variable dependiente.

El experimentador provoca la respuesta de los sujetos, sometiéndoles a


una situación preconcebida, creada mediante un instrumento, el
experimento.
Ninguno de los métodos es superior depende del fenómeno a estudiar. La investigación
básica prefiere el método experimental, porque necesita un gran control de las variables
para la comprobación de las hipótesis. En los estudios sociales se prefiere la metodología
mixta o selectiva que permita establecer cuestionarios para obtener datos estadísticos. 
 

https://campusformacion.net/nuevocampus/impresioncurso.php 19/172
11/12/21 14:12 Campus Virtual

Unidad formativa 2. El método experimental

2.1. El experimento

Definición
Un experimento es un estudio en el que el experimentador provocada una situación para
producir un fenómeno que quiere estudiar. En este estudio el experimentador manipula
intencionalmente la/s posibles causas (variables independientes), para analizar las
consecuencias que la manipulación tiene sobre el fenómeno, los efectos (variables
dependientes), y al mismo tiempo controla la incidencia de otras posibles causas
(variables extrañas), dentro de una situación de control para el investigador. Si estas otras
causas (extrañas) no influyen o están controladas, entonces aumenta la presunción de
que lo que hizo variar el fenómeno fue la/s causas que se hicieron intervenir
deliberadamente.

Los experimentos manipulan tratamientos, estímulos, influencias o intervenciones


(denominadas variables independientes) para observar sus efectos sobre otras variables
(las dependientes) en una situación de control.

O´Neil (1968) da una excelente definición de experimento cuando dice que es un modelo
particular de variación y constancia, es decir, en todo experimento se hace variar X para
ver cómo varía Y, mientras se mantienen constantes todos los otros posibles factores
extraños.

Campbell y Stanley (1978) definen un experimento como aquella "parte de la


investigación en la cual se manipulan ciertas variables [llamadas variables
experimentales] y se observan sus efectos sobre otras [llamadas variables
dependientes]". En todo experimento se debe tomar la precaución de que sobre la
variable dependiente no influya ningún otro factor (que los autores llaman variable
externa), para poder estar razonablemente seguros que el efecto producido se debe a la
variable independiente. 

Comencemos con un ejemplo de un experimento.

Imaginemos un experimento en el que queremos comprobar la eficacia de un


fármaco para la remisión del cáncer de mama. Se asigna la sustancia cuyo efecto
queremos estudiar a cierto número de pacientes y a otro no, al final se analiza el
comportamiento de ambos grupos.

https://campusformacion.net/nuevocampus/impresioncurso.php 20/172
11/12/21 14:12 Campus Virtual

¿Por qué se trata de un experimento?

Es un experimento pues existe una variable que queremos medir, el grado de


remisión del cáncer de mama (variable dependiente), que tiene que ser registrada.
Una manipulación de la variable tratamiento (variable independiente) que posee
dos niveles (fármaco vs. placebo). Y dos grupos de sujetos, los cuales reciben cada
uno un nivel de la variable independiente.

Téngase presente entonces, que la variable independiente (VI) se manipula y la


variable dependiente (VD) se mide. Cuando se manipula la VI se la hace variar a
voluntad del investigador, y para ver si produce algún efecto sobre la VD, la VD
deberá ser medida.

Para llevar a cabo un experimento es necesario seguir un procedimiento científico,


el Método Científico, que consta de varios pasos que mencionamos en el tema
anterior.

Características y Fases del experimento


 

1. Características

1. Manipulación intencional de una o más variables independientes (VIs)

2. Un experimento se lleva a cabo para analizar si una o más variables independientes


afectan a una o más variables dependientes y por qué lo hacen

3. Establece control sobre las VIs y las variables extrañas (VEs)

4. Permite determinar la relación causal entre la VI y la VD

2. Fases del experimento

1. Formulación o planteamiento del problema de investigación

El investigador se formula una pregunta no resuelta sobre un tema


de interés.

El problema debe expresar una relación entre dos o más conceptos


o variables. 

https://campusformacion.net/nuevocampus/impresioncurso.php 21/172
11/12/21 14:12 Campus Virtual

El problema debe estar formulado como pregunta, claramente y sin


ambigüedad: ¿Qué efecto tiene el fármaco X sobre la remisión del
cáncer de mama? Debe operativizarse.

El planteamiento debe implicar la posibilidad de realizar una


prueba empírica, es decir, la factibilidad de observarse en la
“realidad única y objetiva”. 

Esta primera fase del experimento es la más complicada porque requiere que
el investigador tenga un amplio conocimiento de la materia a estudiar.

2. Hipótesis

La hipótesis es una posible respuesta al problema planteado. Es un juicio, una


afirmación o una negación de algo. Sin embargo, es un juicio de carácter
especial, son proposiciones provisionales y exploratorias y, por tanto, su valor
de veracidad o falsedad depende críticamente de las pruebas empíricas. 

Las hipótesis son numerosas y el investigador debe descubrir cuál es la más


adecuada.

3. Diseño

El diseño constituye el plan o la estrategia para confirmar nuestra hipótesis, si


es o no cierto. Un conjunto de procedimientos, métodos y técnicas  mediante
los cuales el investigador selecciona a los pacientes, recoge una información,
la analiza e interpreta los resultados para encontrar la respuesta a la
pregunta de investigación. Si el diseño esta concebido cuidadosamente, el
producto final de un estudio (sus resultados) tendrá mayores posibilidades de
éxito para generar conocimiento.

Los diseños se pueden clasificar según una serie de características básicas.


Así, podemos tener:

Según la manipulación de la variable que se quiere investigar:


Estudios de observación (descriptivos y analíticos) y estudios de
intervención
Según la existencia de seguimiento: Estudios transversales y
estudios con seguimiento.
Según el momento de ocurrencia de la información respecto al
inicio del estudio: Estudios prospectivos y estudios retrospectivos.
Según el sentido: Hacia delante (estudios de cohortes), hacia atrás
(estudios de casos y controles) y sin sentido (estudios
transversales)

https://campusformacion.net/nuevocampus/impresioncurso.php 22/172
11/12/21 14:12 Campus Virtual

Figura 1. Tipos de diseños de Investigación

Fuente: http://www.uv.es/invsalud/

El problema y las variables


 

El problema dirigirá la estrategia de estudio a seguir: experimental o no experimental.

El problema puede surgir por causas diferentes: a) un problema sin solución porque es
novedoso y no ha llamado la atención del investigador hasta el momento actual; b)
resultados contradictorios de una investigación que implica la necesidad de repetir la
investigación; c) parcela o aspecto de un fenómeno conocido no estudiado hasta la fecha.

Las principales fuentes de detección de un problema son: a) las publicaciones científicas;


b) la replica de un investigación inicial; c) el análisis de las conclusiones de una
investigación; d) el análisis de las hipótesis planteadas por otros investigadores; e) la
experiencia del investigador; f) la necesidad de mejorar la calidad de vida; g) la existencia
de grupos sólidos de investigación.

La elaboración del problema se lleva a cabo en tres apartados: a) se realiza teniendo en


cuenta el análisis de las fuentes bibliográficas (enciclopedias, manuales, actas de
congreso..); b) se lleva a cabo un resumen de la historia del problema. Una aproximación

https://campusformacion.net/nuevocampus/impresioncurso.php 23/172
11/12/21 14:12 Campus Virtual

teórica (quién estudio sobre el problema) y empírica (cómo se estudio el problema, qué
tipo de estrategia de investigación se empleó); c) comentario con expertos que permitan
aflorar errores metodológicos. 

Finalmente, el problema se formula entre interrogantes, mencionando las variables de


estudio, estableciendo una relación causal entre las variables.

Si la estrategia es “no experimental” no se parte de un problema sino de un supuesto, no serían


necesarios los interrogantes.

Las variables son características que pueden fluctuar y cuya variación es susceptible de
medirse u observarse.

Ejemplos de variables son la eficacia de un tratamiento, el género, la inteligencia, la


motivación hacia el trabajo.

Una variable puede ser una característica de una persona u otros seres vivos, objetos,
hechos y fenómenos, los cuales adquieren diversos valores respecto de la variable
referida.

Las variables deben ser deben ser definidas de dos formas: conceptual y operacional. 

Definición conceptual. Se tratan de definiciones de diccionarios o de


libros especializados, pero además, adaptado al contexto de nuestra
investigación. Por ejemplo, la variable actitud se define como ““una
tendencia o predisposición a evaluar de cierta manera un objeto o un
símbolo de este objeto”. Si nuestra investigación versa sobre la actitud de
los votantes ante las próximas elecciones, entonces la variable actitud
deberíamos definir a como “la predisposición a evaluar como positivo el
hecho de votar para una elección”, la estamos contextualizando en
nuestra investigación. Sin embargo definir nuestras variables
conceptualmente no es suficiente, además, deben ser definidas
operacionalmente.

Definición operacional. Conjunto de procedimientos y actividades que se


desarrollan para medir una variable. Como vamos a medir la variable.

Las variables deben ser definidas para que: a) los investigadores del estudio y,
en general, cualquier persona que lea la investigación le den el mismo
significado a los términos o variables; b) asegurarnos de que las variables
pueden ser medidas; c) comparar nuestra investigación con otras similares. Si
tenemos definidas nuestras variables, podemos comparar nuestras
definiciones con las de otros estudios que hablan d ellas mismas variables; d)
interpretar adecuadamente nuestros resultados. Estas variables definidas
van a tener un sentido específico en la realidad, en su contexto.

¿QUÉ TIPOS DE VARIABLES EXISTEN?

Las variables se pueden clasificar teniendo en cuenta dos criterios:

https://campusformacion.net/nuevocampus/impresioncurso.php 24/172
11/12/21 14:12 Campus Virtual

Nivel de medición

1. Variables cualitativas. Poseen un nivel de medición nominal. Los niveles que


tiene la variable, cada uno, son categorías. Ningún “valor” se puede decir que
sea mayor o menor que otro. Sexo; estado civil; raza; marca de coche.

2. Variables cuantitativas. Los valores de la variable son “números”, cada valor


posible es menor o mayor que otro valor. 

Las variables cuantitativas pueden estar medidas siguiendo un continuo.


Poseen valores intermedios. Edad, altura, peso. O pueden estar medidas en
cantidades sin valores intermedios. Clase social (baja, media, alta). Estas
variables poseen un nivel de medición de intervalo y ordinal respectivamente.

Criterio metodológico

1. Variable independiente (la que manipulamos para ver su efecto sobre la


 VD). La VI se espera que modifique a la VD. Debe tener al menos dos
niveles.  Tratamiento, con dos niveles (fármaco vs. placebo).

2. Variable dependiente (la que queremos medir, registrar). La VD debería


ser distinta bajo cada uno de los niveles de la VI. El grado de remisión del
cáncer de mama debería ser distinto si el paciente recibe placebo o el
fármaco.

           Manipulación de la                                                    Medición del efecto sobre la

         variable independiente                                                       variable dependiente

                        XA                                                                                   Y

                        XB

La letra “X” suele utilizarse para simbolizar una variable independiente o tratamiento
experimental, las letras o subÍndices “A , B…” indican distintos niveles de variación de la
independiente y la letra“Y” se utiliza para representar una variable dependiente.

La variación de la variable independiente puede realizarse en dos o más grados, es decir,


la variable independiente tiene dos o más niveles. El nivel mínimo de manipulación es de
presencia-ausencia de la variable independiente. Cada nivel o grado de manipulación
involucra un grupo en el experimento. Hay tanto grupos como niveles de la VI.

https://campusformacion.net/nuevocampus/impresioncurso.php 25/172
11/12/21 14:12 Campus Virtual

EJEMPLO 1. TRATAMIENTO   dos niveles (si o no, placebo o tratamiento, presencia-


ausencia)               

Un grupo se expone a la presencia de la variable independiente y el otro no, al primero se


le conoce como grupo experimental y al segundo como grupo control. Posteriormente,
los dos grupos se comparan para saber si el grupo expuesto a la variable independiente
difiere del grupo que no fue expuesto, se observa si hubo o no alguna diferencia entre los
grupos en lo que respecta a la cura de la enfermedad. Si en ambos grupos todo fue “igual”
menos la exposición a la variable independiente, es muy razonable pensar que las
diferencias entre los grupos se deban a la presencia-ausencia de tal variable.

EJEMPLO 2. TRATAMIENTO      + dos niveles (dosis 1, dosis 2 o no tratamiento)

            Manipulación de la                                                    Medición del efecto sobre la

         variable independiente                                                        variable dependiente

                        XA                                                                                 Y

                        XB

                        XC

Manipular la variable independiente en varios niveles tiene la ventaja de que no sólo se


puede determinar si la presencia de la variable independiente o tratamiento
experimental tiene un efecto, sino también si distintos niveles de la variable
independiente producen diferentes efectos.

¿CUÁNTAS VIs  y VDs DEBERÁN INCLUIRSE EN EL EXPERIMENTO?

No necesariamente el mejor experimento es el que incluye el mayor número de variables;


deben incluirse las variables que sean necesarias para probar las hipótesis, alcanzar los
objetivo y responder las preguntas de investigación.

¿CUÁNTOS NIVELES DEBE TENER UNA VARIABLE INDEPENDIENTE?

No existe un número establecido, deben ser al menos dos, porque tenemos que comparar
dos grupos como mínimo para poder ver las diferencias y establecer una relación causal.
Pero a partir de ahí, se establecen los niveles necesarios para comprobar en la mayor
medida posible el efecto de la VI sobre la VD, si consideramos que varios niveles de la VI
vana provocar efectos diferentes tenemos que meterlos todos.

¿CÓMO MEDIMOS LA VARIABLE DEPENDIENTE?

https://campusformacion.net/nuevocampus/impresioncurso.php 26/172
11/12/21 14:12 Campus Virtual

Como ya mencionamos anteriormente la variable dependiente se operativiza, indicando


como la vamos a medir. Tenemos que desarrollar el instrumento o instrumentos para
medir la. ej.- una escala 

Definición de la hipótesis
 

La hipótesis es una posible respuesta al problema planteado. Es un juicio, una afirmación


o una negación de algo. Sin embargo, es un juicio de carácter especial, son proposiciones
provisionales y exploratorias y, por tanto, su valor de veracidad o falsedad depende
críticamente de las pruebas empíricas. 

Las hipótesis son numerosas y el investigador debe descubrir cuál es la más adecuada. 

¿QUÉ UTILIDAD TIENEN LAS HIPÓTESIS?

Son las guías de la investigación. El formularlas nos ayuda a saber lo que


estamos tratando de buscar, de probar. Proporcionan orden y lógica al
estudio.

Tienen una función descriptiva y explicativa. Cada vez que una hipótesis
recibe evidencia empírica en su favor o en su contra, nos dice algo acerca
del fenómeno que estamos estudiando.

Permite probar teorías, si se aporta evidencia en favor de la hipótesis.

¿QUE CARACTERÍSTICAS DEBE TENER UNA HIPÓTESIS?

Deben referirse a una situación “real”.

Las variables de la hipótesis deben ser comprensibles, precisos y lo más


concretos posible

La relación entre variables propuesta por una hipótesis debe ser clara y
lógica (verosímil)

No pueden incluir juicios de valor. Esta condición es "mejor o peor" que


otra

Las variables de la hipótesis deben ser observables y medibles.


Contrastable empíricamente. Hipótesis como: “los hombres más felices
van al cielo·” NO

https://campusformacion.net/nuevocampus/impresioncurso.php 27/172
11/12/21 14:12 Campus Virtual

Las hipótesis deben estar relacionadas con técnicas disponibles para


probarlas.

¿QUÉ TIPO DE HIPÓTESIS SE PUEDEN ESTABLECER?

Hipótesis de investigación. Proposiciones tentativas sobre la posible


relación entre dos o más variables. También llamadas hipótesis de
trabajo. Se les suele simbolizar como Hi o H1, H2, H3. El PP va a ganar las
elecciones

Hipótesis nulas. Constituyen proposiciones acerca de la relación entre


variables, sólo que sirven para refutar o negar lo que afirma la hipótesis
de investigación. Debido a que este tipo de hipótesis resulta la
contrapartida de la hipótesis de investigación, hay prácticamente tantas
clases de hipótesis nulas como de investigación. Las hipótesis nulas se
simbolizan así: Ho. El PP no va a ganar las elecciones

Hipótesis alternativas. Son posibilidades alternas ante la hipótesis de


investigación y nula. Se simbolizan como Ha y sólo pueden formularse
cuando efectivamente hay otras posibilidades además de las hipótesis de
investigación nula. De no ser así, no pueden existir. El PSOE va a ganar las
elecciones

Hipótesis estadísticas. Las hipótesis estadísticas son la transformación


de las hipótesis de investigación, nulas y alternativas en símbolos
estadísticos. Se pueden formular sólo cuando los datos del estudio que se
van a recolectar y analizar para probar o rechazar las hipótesis son
cuantitativos (números, porcentajes, promedios). Hay tres tipos de
hipótesis estadística que corresponden a clasificaciones de las hipótesis
de investigación y nula:

Descriptivas.  Se utilizan a veces en estudios descriptivos, para intentar


predecir un dato o valor en una o más variables que se van a medir u
observar. (La incidencia del cáncer de mama en España el próximo año
aumentará en un 20%))

Correlacionales. Especifican las relaciones entre dos o más variables y


corresponden a los estudios correlacionales (El cáncer de mama está
relacionado con el uso de tratamientos hormonales que contengan
estrógeno). Indican una asociación, y que tipo de asociación existe entre
las variables, positiva o negativa. Alcanzan el nivel predictivo y
parcialmente explicativo.

Comparativas. Estas hipótesis se formulan en investigaciones cuya


finalidad es comparar grupos. (La incidencia de cáncer de mama es mayor
en las mujeres que no han amamantado a sus hijos que en las que si han
https://campusformacion.net/nuevocampus/impresioncurso.php 28/172
11/12/21 14:12 Campus Virtual

dado el pecho)

Causales. Este tipo de hipótesis no solamente afirma la relaciones entre


dos o más variables y como se asocian sino que además propone
relaciones de causa-efecto entre ellas.

Al hablar de hipótesis, a las supuestas causas se les conoce como variables


independientes y a los efectos como variables dependientes. Únicamente es posible
hablar de variables independientes y dependientes cuando se formulan hipótesis
causales o hipótesis de la diferencia de grupos, siempre y cuando en estas últimas se
explique cuál es la causa de la diferencia supuesta en la hipótesis. 

¿SIEMPRE SE FORMULAN LAS TRES HIPÓTESIS   Ho, Hi, Ha EN UNA


INVESTIGACIÓN? 

La opción más común es incluir la o las hipótesis de investigación únicamente. Algunos


investigadores sólo enuncian una hipótesis nula o de investigación presuponiendo que
quien lea su artículo deducirá la hipótesis contraria.

¿CUÁNTAS HIPÓTESIS SE DEBEN FORMULAR?

Cada investigación es diferente. Algunas contienen una gran variedad de hipótesis


porque su problema de investigación es complejo, pretenden relacionar muchas variables
(ej-. 15 o más variables), mientras que otras contienen una o dos hipótesis. La calidad de
una investigación no necesariamente está relacionada con el número de hipótesis que
contenga. Se debe tener el número de hipótesis necesarias para guiar el estudio, y no más
ni menos. Desde luego, la investigación del comportamiento humano es compleja y no
resulta extraño leer estudios con múltiples hipótesis, pero de ningún modo es un
requisito. 

¿Y SI NUESTRA HIPÓTESIS ES FALSA?

Si comprobamos nuestra hipótesis y resulta que es falsa, la rechazamos, no significa que


nuestra investigación carezca de utilidad. En la investigación el fin último es el
conocimiento, y en este sentido, también los datos en contra de una hipótesis
proporcionan conocimiento. Comprobar  que una hipótesis es falsa también resulta útil si
dirige la atención del investigador hacia factores o relaciones insospechadas que, de
alguna manera, podrían ayudar a resolver el problema. 

La hipótesis, al igual que el problema, debe operativizarse para que pueda ser estudiado
de manera experimental. La hipótesis se operativiza formulándola en términos
estadísticos, de este modo, traducimos la hipótesis para ayudar a la verificación de la
https://campusformacion.net/nuevocampus/impresioncurso.php 29/172
11/12/21 14:12 Campus Virtual

misma. 

EJEMPLO. Queremos comprobar la eficacia de un fármaco para la remisión del cáncer de


mama. Se asigna la sustancia cuyo efecto queremos estudiar a cierto número de
pacientes y a otro se le administra un placebo, al final se analiza el comportamiento de
ambos grupos.

    Hi: El tratamiento con el fármaco X remite el cáncer de mama en mayor medida que el
trata miento tradicional.

    Ho: El tratamiento con el fármaco X no remite el cáncer de mama en mayor medida que
el tratamiento tradicional.

    

    La forma de plantear el contraste del ejemplo es la siguiente: 

                  H0 : XA = XB

                  H1 : XA ≠ XB

Selección del diseño experimental


 

Figura 2. Selección del diseño

Fuente: http://www.aiu.edu/publications/

La calidad de una investigación se encuentra relacionada con el grado en que apliquemos


el diseño tal como fue preconcebido. En cualquier investigación el diseño se debe ajustar

https://campusformacion.net/nuevocampus/impresioncurso.php 30/172
11/12/21 14:12 Campus Virtual

ante posibles  contingencias o cambios en la situación.

¿Qué tipos de diseños disponemos para investigar?

Es posible encontrar diferentes clasificaciones de los diseños, en este apartado nos


centraremos en la siguiente clasificación: investigación experimental e investigación no
experimental.
Los diseños experimentales se dividen en tres clases siguiendo la tipologia de Campbell y
Stanley (1966): a) preexperimentos, b) experimentos “puros” y c) cuasiexperimentos.
Se utilizará la simbología que generalmente se emplea en los textos sobre experimentos.
G Grupo de sujetos (G1, grupo 1; G2, grupo 2; etcétera).
R Asignación al azar o aleatoria. Cuando aparece quiere decir que los sujetos han sido
asignados a un grupo de manera aleatoria (proviene del ingles randomization)
X Tratamiento, estimulo o condición experimental (presencia de algún nivel o modalidad
de la variable independiente).
0 Una medición de los sujetos de un grupo (prueba, cuestionario, observación, etc.). Si
aparece antes del estimulo o tratamiento, se trata de una preprueba (previa al
tratamiento). Si aparece después del estimulo se trata de una posprueba (posterior al
tratamiento).
 Ausencia de estimulo (nivel “cero” en la variable independiente). Indica
que se trata de un grupo de control o testigo.

1. Preexperimentos

- Grado de control es mínimo                        - Un sólo grupo (no se puede


comparar)

- No manipulación de la VI                            - Referencia previa  si/no

- No se puede establecer causalidad             - No control VEs


 
a) Diseño de un solo grupo con una sola medición postprueba
Diseño:         G                    X                                 0

                         1 grupo         un Es o Tto          medición de la VD

b) Diseño con grupo control con una sola medición postprueba

Diseño:           G1                  X                                 0

                      G2                 -                                  0

https://campusformacion.net/nuevocampus/impresioncurso.php 31/172
11/12/21 14:12 Campus Virtual

* Sin pretest, no podemos saber si las diferencias entre los grupos (postest) se
deben al tratamiento o a la selección diferencial (grupos no equivalentes)

* No se puede establecer relación causal porque los grupos no son


equivalentes

* Carece de control, por lo que no se pueden extraer inferencias causales.

c) Diseño preprueba/posprueba con un solo grupo

Diseño:         G                    01                               X                                 02

                                   1 grupo        medición VD               un Es o Tto           medición VD

 
* Carece de control, por lo que no se pueden extraer inferencias causales.
* Útil para sugerir hipótesis de cara a futuras investigaciones. (Más
“rigurosas”)

2. Cuasiexperimentos

Grado de control intermedio

Comparación de grupos (niveles VI)

No Aleatorización de los sujetos, los grupos ya están formados (intactos)

Manipulación de la/s VI (niveles)

Referencia previa o no 

Establece causalidad

Control VE
 
El investigador no puede cumplir los  requerimientos de un experimento verdadero,
 debido a que no puede asignar aleatoriamente los  participantes a las condiciones
experimentales.
 
Carecen de un control experimental absoluto de todas las variables relevantes
debido a la falta de aleatorización ya sea en la selección aleatoria de los sujetos o en
la asignación de los mismos a los grupos experimental y control. Las comparaciones
en la respuesta de los sujetos se realizan entre grupos ‘no equivalentes’, es decir,

https://campusformacion.net/nuevocampus/impresioncurso.php 32/172
11/12/21 14:12 Campus Virtual

grupos que se pueden diferenciar en muchos otros aspectos además de la VI


manipulada. Para buscar la mayor equivalencia se recomienda emplear en la
medida de lo posible la preprueba, es decir, una medición previa a la aplicación del
tratamiento, a fin de analizar la equivalencia entre los grupos. 
Los estudios cuasi-experimentales se llevan a cabo donde existen barreras éticas y
prácticas para realizar experimentos verdaderos o estudios experimentales.
Son de gran utilidad en la evaluación de programas de intervención psicológica o
social, para mejorar su planificación y control, y para evaluar la efectividad y
eficacia de los programas en  ámbitos de la salud, educación, bienestar y otros
servicios sociales.
 
Los diseños cuasiexperimentales se dividen en: 
 

Diseños Tranesvrsales

 
a) Diseño preprueba/postprueba con grupo control no equivalente 
Diseño:            G1       01        X         02

                                 G2       03        –          04


* Los grupos ya están formados (no poseen la equivalencia inicial que se
obtiene al asignar aleatoriamente los sujetos a los grupos).
* La medida preprueba nos indicará las diferencias existentes antes de
introducir el tratamiento.
* La asignación del tratamiento a uno u otro grupo es controlada por el
personal investigador. 
 
b) Diseño de cohortes
Se comparan dos grupos, uno afectado por una situación o circunstancia
(enfermedad, cambio de plan de estudios), cohorte experimental, y otro no
afectado por tal circunstancia, cohorte control.
Diseño:         G1       01        X         02        03        04        05        ….........  
Cohorte experimental

                              G2       05        -           06        07        08        09        ….........  


Cohorte control

* Grupos fácilmente comprables, aunque no se llegue a la equivalencia


conseguida con la aleatorización
* Permite establecer inferencias causales razonables
 
c) Diseño de discontinuidad en la regresión      
Diseño:      G1       C         01        X         02

                           G2       C         03        –          04        

https://campusformacion.net/nuevocampus/impresioncurso.php 33/172
11/12/21 14:12 Campus Virtual

* Permite estables hipótesis causales porque la regla de asignación a los


grupos es conocida La regla de asignación a los grupos se basa en la
preprueba, C = Puntuación de corte a partir de la que unas personas se
asignan al grupo de control y otras al grupo experimental

* Suele utilizarse en educación, para valorar sistemas educativos, y medicina,


para probar la efectividad de un medicamento.
 

Diseños longitudinales

 
El objetivo es analizar los procesos de cambio de la variable de respuesta en
función del tiempo y examinar qué covariables contribuyen al cambio. 
Se basa en el seguimiento de los mismos sujetos a lo largo de un cierto
periodo de tiempo, es decir, implica la observación repetida (al menos dos
veces, dos medidas) de una misma muestra de sujetos en distintos niveles de
edad (al menos dos niveles).   
 
a) Diseño de retirada del tratamiento con pretest y postest
Diseño:            G1       01        X         02        Secuencia experimental

                       G1       03        _          04        Secuencia de control 

* No posee grupo control, pero con la retirada del tratamiento, quien


investiga, trata de crear unas condiciones que ejerzan la función del
grupo de control. Diferencias entre 01 y 02 en dirección opuesta a las
diferencias entre 03 y 04

* A veces, la retirada del tratamiento puede plantear problemas éticos


y/o frustración.

* Puede producirse una alta mortalidad experimental. Las


observaciones deben hacerse a intervalos de tiempo iguales para
controlar posibles cambios lineales espontáneos que tengan lugar
dentro de un período de tiempo dado.

b) Diseño de tratamiento repetido

Diseño:            G1       01        X         02        X         03        X         04

Resultados más interpretables: 01 difiere de 02; 03 difiere de 04; 03 -


04 difieren en la misma dirección que 01 – 02

https://campusformacion.net/nuevocampus/impresioncurso.php 34/172
11/12/21 14:12 Campus Virtual

c) Diseño de serie temporales interrumpidas con grupo control no


equivalente

Diseño:          G1   01        02        03        04        05        X  06   07       


08        09        010

                               G2    011      012      013      014      015      –   016 017     


018      019      020
* Es similar al diseño preprueba/postprueba con grupo de control no
equivalente pero se toman varias medidas antes y después de
introducir el tratamiento.
* El efecto del tratamiento se aprecia por la variación de la tendencia de
la VD. Si el tratamiento es efectivo, dicha tendencia cambiará.

3. Experimentos “puros”

  - Grado de control máximo                    - Comparación de grupos (niveles VI)

            - Aleatorización de los sujetos

            - Manipulación de la/s VI (niveles)         - Referencia previa o no ( HAM-D antes).

            - Establece causalidad                         - Control VE                                                 

a) Diseño experimental intergrupo unifactorial aleatorio postratamiento y


grupo de control

Diseño

Grupos      Formación       Pretratamiento                 Tratamiento          


  Postratamiento

   G1               A                                                            X                              01

   G2               A                                                            –                              02

       RG1                X                    01

                 RG2                —                   02

b) Diseño Preprueba/posprueba y grupo de control

https://campusformacion.net/nuevocampus/impresioncurso.php 35/172
11/12/21 14:12 Campus Virtual

- Dos grupos (tratamiento y control)              - Dos niveles de la VI:


tratamiento si/no

- Asignación aleatoria                                  - Medición de la VD


pre/postprueba

- Establece causalidad                                 - Control VE  

- Diseño: el mismo que el anterior, pero se añade preprueba

RG1    01        X         02

RG2     03        —        04


 

El control experimental
 

El termino “control” se refiere al dominio de las condiciones del estudio para que estas se
mantengan siempre iguales, de modo que si se observa que la VD varía, la variación se
debe únicamente a la manipulación de las VIs y no a otros factores o causas.

Según Boring 1954, el término control tiene tres afecciones:

Constancia de las condiciones del estudio.

Control como exactitud de los instrumentos de medida utilizados en el


estudio.

Utilización de un grupo control

El control experimental también se denomina Validez Interna. 

Hace referencia a la calidad del experimento y se logra cuando hay control, cuando los
grupos difieren entre si solamente en la exposición a la variable independiente.

La validez interna se define como el grado de confianza que se tiene de que los resultados
del experimento se interpreten adecuadamente y sean validos.

La variación o variabilidad que se observa en las medidas tomadas de la variable


dependiente recibe el nombre de VARIANZA.

Existen tres grandes fuentes que hacen variar la VD:

la/s variables independientes

las variables extrañas, del ambiente

https://campusformacion.net/nuevocampus/impresioncurso.php 36/172
11/12/21 14:12 Campus Virtual

el azar y las variables individuales de cada sujeto

Cada una explicaría un porcentaje de la varianza total de la VD.

Las variables independientes son las que generan la varianza intergrupos.

Varianza primaria. Es la que busca el experimentador. La que se debe unicamente a la


manipulación que el ejerce sobre las Vis.

Las variables extrañas, ajenas al objetivo d ella investigación, son las que generan la
Varianza secundaria. 

El azar (no controlable) y las diferencias individuales dan lugar a la Varianza de error.

En un experimento debemos maximizar la varianza primaria, controlar la varianza


secundaria y minimizar la varianza de error.
 

¿Cómo maximizar la Varianza Primaria?

1. Eligiendo los valores óptimos de los niveles de la VI. Esto lo sabe el


experimentador por estudios previos. Sabe con que valores se observan diferencias
en la VD (dosis de un fármaco).

2. Manipulando adecuadamente la variable independiente. Empleando varios


valores para saber que efecto tiene cada uno sobre la VD.

3. Utilizando valores extremos d ella VI, así nos aseguramos que van a provocar
diferencias en la VD.

4. Seleccionando un VD adecuada. Que sea Fiable, Sensible y Valida. 

¿Cómo minimizar la Varianza de Error?

1. Comparando varios grupos

2. Empleando grupos homogéneos, eliminar las diferencias intergrupos.

3. Utilizando grupos iniciales equivalentes (ej-. Puntuaciones similares en HAM-D).


Grupos aleatorios. 

4. Aumentando el tamaño de la muestra

5. Empleando instrumentos de medida calibrados

6. Las condiciones esperimentales deben ser iguales. Misma duración del


experimento, clima, ventilacion, sonido ambiental.
https://campusformacion.net/nuevocampus/impresioncurso.php 37/172
11/12/21 14:12 Campus Virtual

7. Seleccionar el diseño experimental más adecuado. 


 

¿Cómo controlar la Varianza Secundaria?

Las principales variables extrañas son:

Sujetos. Sexo, raza, edad, c.i.

  Expectativas

  Voluntariedad 

  Práctica

  Fatiga

 Ambientales. Iluminación, ruido, temperatura

Procedimentales (experimento). Tiempo de exposición al estímulo o


tratamiento, Instrucciones verbales, aparatos no calibrados

Experimentador. Características del experimentador físicas (edad, sexo),


de personalidad, sociales. Expectativas del experimentador..
 

La validez interna es esencial para que nuestra investigación sea realmente experimental.
Sin embargo, es solo una parte de la validez de un experimento; en adición a ella, es muy
deseable que el experimento tenga Validez Externa.

La Validez Externa es la capacidad que tiene nuestro estudio para generalizar los
resultados del experimento a situaciones no experimentales, de la realidad, así como a
otras personas y poblaciones.

¿Cómo maximizar la Validez Externa?

1. Controlar que la preprueba no influya sobre la postprueba. Por ejemplo, que la


preprueba no genera una sensibilidad en los sujetos que modifique su ejecución en
la postprueba. 

2. Seleccionar una muestra representativa. Tener en cuenta que los sujetos


seleccionados no tengan características que hagan que el tratamiento experimental
produzca un efecto, que no se daría si las personas no tuvieran esas características.

3. Generar una situación experimental lo más real posible. Evitar que las
condiciones del contexto experimental resulten atípicas, respecto a la manera en
que se aplica regularmente el tratamiento

https://campusformacion.net/nuevocampus/impresioncurso.php 38/172
11/12/21 14:12 Campus Virtual

4.  Evitar la interferencia de tratamientos múltiples. Asegurarse que la hueya de un


tratamiento no sea imborrable afectando a las medidas posteriores. 

5. Replicabilidad de los tratamientos. Los tratamientos tienen que poder replicarse


en situaciones no experimentales.

6. Descripciones minuciosas del tratamiento experimental, para que puedan


replicarse por otro investigador

7. Que el contexto del experimento sea generalizable a otros contextos.

La selección de los sujetos


 

La población es el conjunto total de elementos que comparten una característica que


queremos estudiar.

Como estudiar la población total resulta muy complejo, se selecciona una muestra
representativa para economizar tiempo y recursos. 

Una muestra es un subgrupo representativo de la población de interés sobre el cual se


recolectarán datos.El paso inicial debe ser definir adecuadamente las características de la
población para extraer una muestra correcta y definir la unidad de análisis (individuos,
organizaciones, comunidades, situaciones, eventos, etc.). 

En ocasiones la muestra no estará formada por una única unidad de análisis o elemento.
(¿Hay problemas de comunicación entre padres e hijos?, la muestra deberá estar
conformada por un grupo de padres e hijos, dos unidades de análisis)

Solo cuando queremos realizar un censo debemos incluir en el estudio a todos los casos
(por ejemplo si queremos saber el grado de satisfacción de los empleados de una
empresa, debemos de incluir a todos para que nadie piense que su opinión no cuenta).

La muestra nos va a permitir estimar un parámetro de la población “µ”(el valor de la


característica que queremos estudiar en la población) a partir de un estadístico muestral
“x” (el valor de la característica en la muestra). 

Realizamos una inferencia estadística   x ⇒ µ

En el momento en que realizamos esa inferencia estamos generalizando el valor de la


característica de la muestra a la población, siempre cometemos un error muestral (error
estándar). El error estándar  “e” es la diferencia entre el valor estadístico x de la muestra y
su correspondiente valor parámetro µ de la población. Este error va a ser mayor o menor
dependiendo de la técnica de muestreo que empleemos para seleccionar la muestra. 

Básicamente existen dos tipos de muestreo: Probabilístico y  No Probabilístico


https://campusformacion.net/nuevocampus/impresioncurso.php 39/172
11/12/21 14:12 Campus Virtual

1. Muestreo Probabilistico

Basado en el azar

Asegura un menor error muestral.

Todos los elementos de la población tienen la misma probabilidad de ser


seleccionados.

Representatividad de la muestra extraída. Generalización a la población.

Pasos a seguir:

a) Determinar el tamaño “N” de la población.

El tamaño “N” puede ser finito (si podemos delimitar todos los elementos de la
población) o infinito (si es imposible hacer un censo de todos los elementos,
“N”≥100.000 elementos)

b) Calcular el tamaño “n” de la muestra. 

Para saber que valor de “n” necesitamos tenemos que conocer: 

El error máximo que aceptamos. Es decir, que error muestral estamos


dispuestos a soportar.  Normalmente se trabaja con un error    estándar ≤
0.05 ( 5 posibilidades de equivocarnos cada 100) o ≤ 0.01 (1 posibilidad
de equivocarnos cada 100)

La probabilidad de ocurrencia del fenómeno o característica que


estudiamos en la muestra.

  p: probabilidad de que ocurra

  q: probabilidad de que no ocurra

Puede ser que conozcamos la probabilidad con que aparece el fenómeno por
estudios previos existentes. Sino lo conocemos asumimos por defecto que “p”
y “q” serán del 50%. (p + q = 1)

el nivel de confianza. El nivel de confianza con el que trabajamos viene


dado por el error muestral que elegimos. Si “e” ≤ 0.05, el nivel deseado de
confianza sera de 0.95. Si “e” ≤ 0.01, el nivel deseado de confianza sera de
0.99.

https://campusformacion.net/nuevocampus/impresioncurso.php 40/172
11/12/21 14:12 Campus Virtual

EJEMPLO.- ¿Queremos saber la media de horas de estudio de los estudiantes


de la universidad ReyJuan Carlos I?

Error muestral= 0.05 Tamaño de la población: 38.000 estudiantes

Nivel de confianza: 0.95 Probabilida p de la muestra: 50%

calcular la probabilidad que tiene cada elemento de ser


seleccionado 1/N. Todos los elementos tiene la misma probabilidad
de ser seleccionados.

seleccionar mediante azar los elementos hasta alcanzar el tamaño


“n” de la muestra.

Existen diferentes tipos de Muestreo Probabilístico:

a) Muestreo aleatorio simple: 

1) se determina N cuando la población es finita

2) a cada elemento de la población se le asigna un número

3) se calcula el tamaño de n

4) a través de algún medio mecánico (números aleatorios generados con una


calculadora u ordenador, etc.) se eligen tantos elementos como sea necesario
para completar el tamaño de muestra n. Este procedimiento, atractivo por su
simpleza, tiene poca o nula utilidad práctica cuando la población que estamos
manejando es muy grande.  ej.- números de la lotería.

b) Muestreo aleatorio sistemático: 

1), 2) y 3) igual al anterior  

4) se seleccionan los elementos teniendo en cuenta un intervalo k, que viene


dado por el tamaño de la población y el tamaño de la muestra. De manera que
tenemos que K = N/n, en donde K = un intervalo de selección sistemática, N =
la población y n = la muestra

5) se extrae un número aleatorio i al azar y, a partir de ese número, se


obtienen los demás elementos tomándolos de k en k hasta completar n (i+k,
i+2k, i+3k,...). El número i que empleamos como punto de partida será un
número al azar entre 1 y k. 

https://campusformacion.net/nuevocampus/impresioncurso.php 41/172
11/12/21 14:12 Campus Virtual

No se puede usar si los elementos siguen alguna ordenación en la muestra.


Ejemplo.- si estamos estudiando familias y estas están ordenadas por nivel
económico. Grupo quedarían excluidos.

c) Muestreo aleatorio estratificado: 

1) se determina N cuando la población es finita

2) se divide la población en segmentos o categorías en función de la


característica a estudiar.  

3) se calcula el tamaño de n

4) se selecciona una muestra para cada segmento.

Lo que se pretende con este tipo de muestreo es asegurarse de que todos los
segmentos, grupos de la población estarán representados adecuadamente en la
muestra.

La estratificación aumenta la precisión de la muestra e implica el uso deliberado de


diferentes tamaños de muestra para cada estrato.

Ejemplo.- Imaginemos que nos interesan personas de todas las religiones para
contrastar ciertos datos, pero en la ciudad donde se efectuara el estudio la mayoría
es predominantemente católica. 

Cada extracto estará representado en la muestra, pero cuántos elementos de cada


estrato. La distribución de la muestra en función de los diferentes estratos se
denomina afijación, y puede ser de diferentes tipos: 

Afijación Simple: A cada estrato le corresponde igual número de


elementos muéstrales. 
Afijación Proporcional: La distribución se hace de acuerdo con el peso
(tamaño) de la población en cada estrato. 
Afijación Óptima: Se tiene en cuenta la previsible dispersión de los
resultados, de modo que se considera la proporción y la desviación típica.
Tiene poca aplicación ya que no se suele conocer la desviación.

d) Muestreo aleatorio por conglomerados: Se distingue de los métodos


presentados hasta ahora en que las unidades muéstrales no son directamente
elementos individuales de la población, sino grupos de elementos que de manera
natural aparecen en la población, por ejemplo, colegios, industrias.

1) se determinan los conglomerados, grupos de la población que nos


interesan estudiar

2) se calcula N en función de esos conglomerados

3) se calcula el tamaño de n

https://campusformacion.net/nuevocampus/impresioncurso.php 42/172
11/12/21 14:12 Campus Virtual

4) se selecciona aleatoriamente un cierto número de conglomerados (el


necesario para alcanzar el tamaño muestral establecido)

2. Muestreo  no Probabilístico

Elección de los elementos no basado en el azar, sino relacionado con las


características de la investigación.

Procedimiento no mecánico ni con base en fórmulas de probabilidad,


depende del proceso de toma de decisiones del  investigador.

Gran error muestral.

No todos los elementos de la población tienen la misma probabilidad de


ser seleccionados.

No Generalización.

Se seleccionan individuos o casos “típicos” sin intentar que sean representativos de


una población determinada. La selección es cuidadosa, de casos con ciertas
características especificadas previamente en el planteamiento del problema.

No son probabilísticas, no es posible calcular con precisión el error estándar, es


decir, no podemos calcular con que nivel de confianza hacemos una estimación.  Es
decir, 

Para el enfoque cualitativo, al no interesar tanto la posibilidad de generalizar los


resultados, las muestras no probabilisticas o dirigidas son de gran valor, pues logran
obtener los casos (personas, contextos, situaciones) que interesan al investigador y
que llegan a ofrecer una gran riqueza para la recolección y el análisis de los datos.

Tipos:

a) Muestreo accidental: Consiste en seleccionar casos hasta completar el


tamaño de la muestra.

b) Muestreo intencional o de conveniencia: El investigador selecciona directa


e intencionadamente los individuos de la población para formar su muestra,
selecciona la muestra con la que puede trabajar más fácilmente. El profesor
selecciona a sus alumnos, el médico a sus pacientes.

c) Muestreo por cuotas:  Es semejante al muestreo estratificado pero no tiene


el carácter de aleatoriedad. Se asienta generalmente sobre la base de un buen
conocimiento de los individuos o de los estratos de la población más
"representativos" o "adecuados" para los fines de la investigación.  En este

https://campusformacion.net/nuevocampus/impresioncurso.php 43/172
11/12/21 14:12 Campus Virtual

tipo de muestreo se fijan unas "cuotas" que consisten en un número de


individuos que reúnen unas determinadas condiciones, por ejemplo: 20
individuos de 25 a 40 años, de sexo femenino y residentes en Gijón. Una vez
determinada la cuota se eligen los primeros que se encuentren que cumplan
esas características. Este método se utiliza mucho en las encuestas de
opinión.

1) se determina N cuando la población es finita;  

2) se divide la población en segmentos o categorías en función de la


característica a estudiar.  

3) se calcula el tamaño de n; 4) calculamos el porcentaje de elementos


de cada categoría;

5) se selecciona una muestra mediante un proceso no probabilístico que


me mantenga esos porcentajes.

¿QUÉ TIPO DE MUESTRA ELEGIR, PROBABILISTICA O NO


PROBABILISTICA?

Realizar uno u otro tipo de muestreo para seleccionar la muestra va a depender de


de los objetivos del estudio, del diseño de la investigación y de la generalización que
queramos realizar de los resultados.

Si el  diseño de investigación es exploratorio y el objetivo es documentar ciertas


experiencias para generar datos e hipótesis para futuras investigaciones. NO
PROBABILISTICO. 

Si  se hace una asociación entre variables, los  resultados servirán de base para
tomar decisiones y se quieren generalizar datos a la población con una estimación
precisa del error. PROBABILISTICA. 

Definición de las intervenciones y de la medición.


 

El concepto de intervención es sinónimo de experimentación en investigación. 

Un estudio de intervención es realmente lo mismo que un estudio experimental, un


estudio epidemiológico, analítico, prospectivo, caracterizado por la manipulación
artificial del factor de estudio por el investigador y por la aleatorización de los casos o
sujetos en dos grupos llamados control y experimental.

https://campusformacion.net/nuevocampus/impresioncurso.php 44/172
11/12/21 14:12 Campus Virtual

Esa manipulación artificial del factor de estudio por el investigador es lo que realmente
entendemos como intervención.

Los tipos de estudios de intervención son: 

Experimento en laboratorio. Estudio epidemiológico, analítico,


caracterizado por una duración limitada de menos de un mes, en la que la
población estadística está restringida a voluntarios autoseleccionados.

Ensayo clínico.  Investigación sobre cualquier procedimiento médico ya


sea diagnóstico, terapéutico o preventivo, en la que se intenta explicar
científicamente la eficacia, efectividad o eficiencia de dichos
procedimientos. La Ley 25/1990 del Medicamento Española define el
ensayo clínico como toda investigación con fármacos que se realiza en
seres humanos. Según esta ley (artículo 59), “se entiende por ensayo
clínico toda evaluación experimental de una sustancia o medicamento, a
través de su administración o aplicación a seres humanos orientada hacia
alguno de los siguientes fines: a) poner de manifiesto sus efectos
farmacodinámicos o recoger datos referentes a su absorción,
distribución, metabolismo o excreción en el organismo humano; b)
establecer su eficacia para una indicación terapéutica, profiláctica o
diagnóstica determinada; y c) conocer el perfil de sus reacciones
adversas y establecer su seguridad”.

Intervención comunitaria. La intervención comunitaria es un tipo de


intervención social enfocada a la comunidad. Parte de la idea de que la
comunidad tiene su propia fuerza reguladora, que ayuda al individuo a
desarrollarse de forma integral en el contexto en el que está inmerso.

Por su parte, medir, significa asignar números, símbolos o valores a las propiedades de
objetos o eventos de acuerdo con reglas” (Stevens, 1951).

Sin embargo, esta definición resulta limitada, existen fenómenos que no pueden
caracterizarse como objetos (cosas que pueden verse o tocarse), ni como eventos
(resultados, consecuencias). Por ejemplo, una actitud, la pareja ideal. Es necesario una
definición que abarque todos los fenómenos

La medición es el “proceso de vincular conceptos abstractos con indicadores empíricos”


(Carmines y Zeller, 1991).

Un instrumento de medición es un recurso que utiliza el investigador para registrar


información o datos sobre las variables que quiere medir.

Requisitos del instrumento de medición:

https://campusformacion.net/nuevocampus/impresioncurso.php 45/172
11/12/21 14:12 Campus Virtual

Toda medición o instrumento de recolección de datos debe reunir tres requisitos


esenciales: 

Confiabilidad: Grado en que un instrumento produce resultados


consistentes y coherentes.

Un instrumento es confiable si su aplicación repetida al mismo individuo u objeto


produce resultados iguales. Ejemplo.-  un termómetro que indique que hay 22°C, un
minuto más tarde deberá indicar lo mismo. Una prueba de inteligencia que se aplica
hoy a un sujeto deberá proporcionar los mismos valores un mes más tarde.

La confiabilidad de un instrumento de medición se determina mediante diversas


técnicas procedimientos y fórmulas que producen coeficientes de fiabilidad. El
valor del coeficiente de fiabilidad puede oscilar entre cero y uno, donde un
coeficiente de cero significa nula confiabilidad y uno representa un máximo de
confiabilidad (fiabilidad total, perfecta). Cuanto más se acerque el coeficiente a
cero (0), mayor error habrá en la medición.

Validez.  Se refiere al grado en que un instrumento realmente mide la


variable que pretende medir. Por ejemplo, un instrumento válido para
medir la inteligencia debe medir la inteligencia y no la memoria. 

En apariencia es sencillo lograr la validez. Después de todo, como dijo un


estudiante: “Pensamos en la variable y vemos cómo hacer preguntas sobre esa
variable”. Sin embargo, la situación no es tan simple cuando se trata de variables
como la motivación, la actitud hacia un candidato político, y menos aún con
sentimientos y emociones. La validez es una cuestión más compleja que debe
alcanzarse en todo instrumento de medición que se aplica. 

La validez no es un concepto unitario, posee diferentes dimensiones: 

a) validez de contenido (grado en que un instrumento de medición refleja o


tiene representados prácticamente a todos o la mayoría de los componentes
de la variable que se desea medir. Ej.- una prueba de conocimientos sobre
enfermería en salud mental no deberá basarse solamente en el conocimiento
de los inyectables depot, sino que debe incluir definiciones de los síndromes
mentales

 b) validez de criterio. Establece la validez de un instrumento de medición al


comparar sus resultados con los de algún criterio externo que pretende medir
lo mismo. El criterio externo es una medida que existe con anterioridad al
instrumento, y que es aceptado por expertos como un índice adecuado de la
característica que el nuevo instrumento pretende medir. Ej.- Consideraremos
que un test para seleccionar buenos conductores tiene validez de criterio si
existe una fuerte correlación entre la puntuación obtenida en el test y la
pericia mostrada en la conducción (criterio).

https://campusformacion.net/nuevocampus/impresioncurso.php 46/172
11/12/21 14:12 Campus Virtual

c) Validez de constructo es probablemente la más importante, sobre todo


desde una perspectiva científica, y se refiere a la capacidad del instrumento
para explicar el modelo teórico empírico que subyace a la variable de interés.

La validez de constructo nos indica que el instrumento está midiendo una


variable que es aceptable, una variable que está definida operacionalmente y
situada dentro de un modelo teórico que le otorga ese significado. Para decir
que el test que mide la capacidad de conducción tiene validez de constructo,
primero tiene que existir ese contructo, qué es la capacidad de conducción,
como la definimos. Y este concepto teórico o constructo tiene que estar
reflejado en los ítems del test.

Factores que afectan a la confiabilidad y la validez de los instrumentos de


medicióne introducen errores en la medición:

Utilizar instrumentos desarrollados en el extranjero que no han


sido validados en nuestro contexto: cultura y tiempo. Traducir un
instrumento, aun cuando adaptemos los términos a nuestro
lenguaje y los contextualicemos, no es ni remotamente una
validación. Incluso un mismo test en Venezuela y España no será
válido porque culturalmente no somos iguales. Ni usar un test que
se aplicaba en los años 60.
Usar un instrumento inadecuado para las personas a quienes se les
aplica: no es empático. Utilizar un lenguaje muy elevado para el
sujeto participante, no tomar en cuenta diferencias en cuanto a
género, edad, conocimientos, memoria, nivel ocupacional y
educativo, capacidades de conceptualización y otras diferencias en
los participantes, son errores que llegan a afectar la validez y
confiabilidad del instrumento de medición.
Deseabilidad social de los participantes(tratar de dar una
impresión muy favorable a través de las respuestas), tendencia a
asentir con respecto a todo lo que se pregunta, dar respuestas
inusuales o contestar siempre negativamente
Condiciones en las que se aplica el instrumento de medición. El
ruido, la iluminación, el frío.

Por ejemplo, en una encuesta pública sería muy difícil aplicar una
prueba larga o compleja.

Falta de estandarización. Por ejemplo, que las instrucciones no


sean las mismas para todos los participantes, que el orden de las
preguntas sea distinto para algunos individuos, que los
instrumentos de observación no sean equivalentes, etc.

https://campusformacion.net/nuevocampus/impresioncurso.php 47/172
11/12/21 14:12 Campus Virtual

• Objetividad. Se refiere al grado en que el instrumento es permeable a


la influencia de los sesgos y tendencias de los investigadores que lo
administran, califican e interpretan. Investigadores racistas o
“machistas” quizás influyan negativamente por su sesgo contra un
grupo étnico o el género femenino. Lo mismo podría suceder con las
tendencias ideológicas, políticas, religiosas o la orientación sexual.

La objetividad se refuerza mediante la estandarización en la aplicación


del instrumento (mismas instrucciones y condiciones para todos los
participantes) y en la evaluación de los resultados; así como al emplear
personal capacitado y experimentado en el instrumento. Por ejemplo, si
se utilizan observadores, su proceder en todos los casos debe ser lo más
similar que sea posible y su entrenamiento tendrá que ser profundo y
adecuado.

La validez, la confiabilidad y la objetividad no deben tratarse de forma


separada. Sin alguna de las tres, el instrumento no es útil para llevar a
cabo un estudio.

¿CÓMO MEDIMOS UNA VARIABLE?

Existen cuatro niveles de medición

1. Nivel de medición nominal. En este nivel hay dos o más categorías de la variable. Las
categorías no tienen orden ni jerarquía. Lo que se mide (objeto, persona, etc.) se

coloca en una u otra categorías, lo cual indica tan sólo diferencias respecto de una
característica.

Por ejemplo, la variable “género” de la persona posee sólo dos categorías: masculino y
femenino. Ninguna de las categorías implica mayor jerarquía que la otra. Las categorías
únicamente reflejan diferencias en la variable. No hay orden de mayor a menor.

1 = Masculino 2 = Masculino

Los números utilizados en este nivel de medición tienen una función puramente de
clasificación

y no se pueden manipular de manera aritmética. 

Las variables nominales pueden tener dos niveles (dicotómicas) o más (categóricas)

2. Nivel de medición ordinal. En este nivel hay varias categorías, pero además mantienen
un orden de mayor a menor. Las etiquetas o los símbolos de las categorías sí indican
jerarquía. Por ejemplo, el nivel socioeconómico

1 = Bajo 2 = Medio 3= Alto

https://campusformacion.net/nuevocampus/impresioncurso.php 48/172
11/12/21 14:12 Campus Virtual

La variable ordinal nos indica que existen diferencias entre los niveles y que dirección
tienen esas diferencias, pero no nos dice de cuánto es la diferencia. Sabemos que 3 es
más que 2 y éste más que 1, pero no sabemos cuánto más.

3. Nivel de medición por intervalos. Además del orden o la jerarquía entre categorías, se
establecen intervalos iguales en la medición. Las distancias entre categorías son las
mismas a lo largo de toda la escala, por lo que hay un intervalo constante, una unidad de
medida.

Por ejemplo, en una prueba de resolución de problemas matemáticos (30 problemas de


igual dificultad). Si Ana resolvió 10, Laura resolvió 20 y María resolvió 30. La distancia
entre Ana y Laura es igual a la distancia entre Laura y María.

Es necesario apuntar que, sin embargo, el cero (0) en la medición es un cero arbitrario, no
es real, ya que se asigna arbitrariamente a una categoría el valor de cero y a partir de ésta
se construye la escala. María, que resolvió 10 problemas sería el cero, pero no es un cero,
no obtuvo esa nota en la prueba.

4. Nivel de medición de razón. En este nivel, además de tenerse periodos iguales entre las
categorías, y aplicación de operaciones aritméticas básicas y sus derivaciones, el cero es
real y es absoluto (no es arbitrario). Cero absoluto implica que hay un punto en la escala
donde está ausente o no existe la característica o variable medida.

Ejemplos: el número de hijos, las ventas de un producto, los metros cuadrados de


construcción, ingresos (en moneda), presión arterial,...

¿CÓMO SE CODIFICAN LOS DATOS?

Codificar los datos significa asignarles un valor numérico o símbolo que los represente. 

La codificación de las respuestas implica cuatro pasos:

1.  Asignar valores numéricos o signos que tienen un significado a las opciones de


respuesta o valores de cada ítem o variable

Por ejemplo, si tuviéramos la variable “género” con sus respectivas categorías, masculino
y femenino, a cada categoría le asignaríamos un valor. 

Esto podría ser:

VARIABLE (Género)                                                 CODIFICACIÓN

Masculino                                                                           1

Femenino                                                                           2

https://campusformacion.net/nuevocampus/impresioncurso.php 49/172
11/12/21 14:12 Campus Virtual

VARIABLE (Respuesta)                                             CODIFICACIÓN

Sin cambios                                                                        1

Respuesta parcial                                                                2

Respuesta                                                                           3

Remisión                                                                             4

 VARIABLE (Nivel Educativo)                                      CODIFICACIÓN

Sin estudios                                                                        1

Primarios                                                                            2                                            

Secundarios                                                                        3

Superiores                                                                          4

VARIABLE (Libertad para tomar decisiones)               CODIFICACIÓN

Totalmente de acuerdo                                                        5

De acuerdo                                                                        4

Ni de acuerdo ni en desacuerdo                                           3

En desacuerdo                                                                   2

Totalmente en desacuerdo.                                                 1

Cada ítem y variable deberán tener una codificación (códigos numéricos o simbólicos)
para sus categorías. Desde luego, hay veces que un ítem no puede ser codificado a priori
(precodificado), porque es muy difícil conocer cuáles serán sus categorías. Por ejemplo, si
en una investigación fuéramos a preguntar: ¿qué opina del programa económico que
recientemente aplicó el gobierno? Las categorías podrían ser muchas más de las que nos
imaginemos y resultaría difícil predecir con precisión cuántas y cuáles serían. En tales
situaciones, la codificación se lleva a cabo una vez que se aplica el ítem (a posteriori).

Los valores perdidos (cuando las personas no responden a un ítem o marcan dos
opciones) también deben codificarse, asignándoles un código a cada categoría.

Masculino= 1  Femenino= 2     No contestó = 3         Contestó incorrectamente = 4 No


aplica: 5

https://campusformacion.net/nuevocampus/impresioncurso.php 50/172
11/12/21 14:12 Campus Virtual

Si lo deseamos, se excluyen del análisis, salvo que queramos saber cuántos no


contestaron o lo hicieron incorrectamente (mediante análisis de frecuencias), pero por
default no cuentan, por ejemplo, para calcular promedios y análisis inferenciales.

Un alto número de valores perdidos (más de 10% indica que el instrumento tiene
problemas). Lo adecuado es que no supere 5% respecto del total de posibles datos o
valores.

2. Elaborar una base de datos o matriz la cual contiene la localización de las variables y los
códigos asignados a las categorías. EJEMPLO SPSS

Para crear nuestra propia base de datos damos un clic en la opción “introducir datos” y
luego clic en “aceptar”. Las filas representan sujetos o casos, mientras que las columnas
constituyen las características o atributos de cada sujeto en una determinada variable.
Esto se observa claramente en la Figura 3a) y 3b (Fuente: Google)

El siguiente paso es ir a vista de variables, en la parte inferior de la hoja SPSS, para


designar nuestra primera variable de investigación. Como ejemplo tomaremos dos
variables, la primera el “género” y la segunda la “edad”. La Figura 4a (Fuente: Google)
muestra dónde nos encontramos situados y en la Figura 4b como hemos escrito el
nombre de la primera variable “género”. Si en este momento pulsamos la tecla enter
aparecen de inmediato valores en las otras casillas, lo que se ve en la  Figura 4c.

https://campusformacion.net/nuevocampus/impresioncurso.php 51/172
11/12/21 14:12 Campus Virtual

Cada una de las casillas de la Figura 4c representan un característica distinta de la


variable “género”.

Una vez colocado el nombre de la variable, la siguiente columna muestra el Tipo de


variable, especifica los tipos de datos de cada variable. Por defecto se asume que todas
las variables nuevas son numéricas. En nuestro caso, dejaremos la variable género como
de tipo cadena (alfanumérica), con una anchura de 8 caracteres (Figura 5) (Fuente:
Google).

En la siguiente columna se define la Etiqueta de nuestra variable, como la denominamos.


Continuando con el ejemplo anterior, seguiremos trabajando con el nombre de “género” y
así etiquetaremos la variable. En algunos casos, cuando el nombre es muy extenso, es

https://campusformacion.net/nuevocampus/impresioncurso.php 52/172
11/12/21 14:12 Campus Virtual

recomendable utilizar abreviaturas que identifiquen cada una de las variables, como por
ejemplo:  “estud” o “nivelecon” y en la Etiqueta ponemos en nombre completo estudiante
y nivel socieconómico. La nos muestra como se va transformando hasta ahora nuestra
base de datos. A continuación aparece la opción Valores, que es donde combinamos
números con palabras, que nos servirá para identificar características o atributos con un
simple número y viceversa. Para comenzar, damos un clic en la casilla en donde aparece
hasta el momento “ninguno” en valores, como se observa en la Figura 6 (Fuente: Google), y
aparece el recuadro de “etiquetas de valor”.

Cuando tenemos el recuadro, lo que debemos hacer es codificar nombres con números,
asociando de esta forma un número para una característica o atributo del sujeto.
Entonces, para nuestro caso de la variable “género”, se designará de la siguiente forma:
Número 1 para “femenino”, y número 2 para “masculino”. Una vez hecho esto, se pulsa en
el botón “añadir” para que agregue las nuevas etiquetas de valor. La figura Figura 7a y 7b
(Fuente: Google) muestra este proceso.

https://campusformacion.net/nuevocampus/impresioncurso.php 53/172
11/12/21 14:12 Campus Virtual

En la opción de Perdidos se definen valores de los datos especificados como perdidos por
el usuario. A menudo es útil para saber por qué se pierde información. Por ejemplo, puede
desear distinguir los datos perdidos porque un entrevistado se niega a responder, o datos
perdidos porque la pregunta no afectaba a dicho entrevistado, etc. Los valores de datos
especificados como perdidos por el usuario aparecen marcados para un tratamiento
especial y se excluyen de la mayoría de los cálculos. Para nuestra base de datos ejemplo,
asumiremos que no se tienen valores perdidos.

Las últimas opciones Alineación y Medida tiene que ver con la forma en que se ordena el
concepto dentro de la casilla (izquierda, centro, derecha), y como catalogamos a la
variable (Nominal, Ordinal o Escala), respectivamente.Para nuestro ejemplo, la variable
“género” queda catalogada con medida nominal, ya que no tiene un ordenamiento
específico. 

https://campusformacion.net/nuevocampus/impresioncurso.php 54/172
11/12/21 14:12 Campus Virtual

Ahora ya hemos completado la codificación de nuestra variable género, hacemos lo


mismo para la variable edad. Con respecto a la variable edad , tendrá un tratamiento un
poco diferente, ya que podemos reclasificarla para un mejor análisis, de la siguiente
manera: joven, de 20 años o menos; adulto, mayor de veinte años y menor de 50 y
persona mayor, de 50 años o más. Comenzamos colocando el nombre a nuestra variable
(Figura 8; Fuente Google).

A continuación introducimos el tipo de la variable, que quedará como “numérica” para la


edad.

Las columnas de Anchura y Decimales no se cambiarán, dejaremos las casillas tal cual. En
Etiqueta introducimos la palabra “edad”, que así identificaremos nuestra variable.

Para la asignación de valores a la variable edad , lo realizaremos basándonos en la


clasificación anterior y con la siguiente codificación: 1, para los “jóvenes” (menores de 20
años); 2, para las personas “adultas” (de 20 años a 50 años); y 3, para las personas
“mayores” (mayores de 50 años (Figura 9A-D; Fuente Google)

https://campusformacion.net/nuevocampus/impresioncurso.php 55/172
11/12/21 14:12 Campus Virtual

Finalizada la operación de asignar valores a la variable edad , ahora establecemos la


“medida” que se le asignará. De partida la variable edad sería una variable cuantitativa
continua, su medida sería escala, sin embargo en el ejemplo nosotros hemos determinado
tres niveles de la variable edad ordenados (joven, adulto, persona mayor), la variable ya
no es de escala sino ordinal, así que seleccionamos esta medida.

Una vez ya tenemos codificadas las variables, ahora introducimos los valores de nuestra
nueva base de datos, y para ello simplemente hay que dar clic en la pestaña “vista de
datos” como se observa en la (Figura 10; Fuente Google), siendo ahí en donde
introducimos los datos recogidos.

https://campusformacion.net/nuevocampus/impresioncurso.php 56/172
11/12/21 14:12 Campus Virtual

Recolección, análisis e interpretación de los datos


 

1 Instrumentos de recolección de datos

1. Cuestionario

El cuestionario es un documento formado por un conjunto de preguntas


respecto de una o más variables que deben estar redactadas de forma
coherente, y organizadas, secuenciadas y estructuradas de acuerdo con una
determinada planificación, con el propósito de obtener información de los
consultados. 

https://campusformacion.net/nuevocampus/impresioncurso.php 57/172
11/12/21 14:12 Campus Virtual

Los cuestionarios se construyen de acuerdo con objetivos determinados para


captar información que dé respuesta a los planteamientos conceptuales
derivados de la problemática y las consideraciones hipotéticas de la realidad
que se quiere estudiar en las unidades de observación y la temática definida. 

2. Escalas de actitudes

Se trata de instrumentos utilizados en las Ciencias Sociales para medir la


respuesta favorable o desfavorable ante un objeto, ser vivo, actividad,
concepto, persona o sus símbolos.

Los métodos más conocidos para medir por escalas las variables que
constituyen actitudes son: 
 

El escalamiento Likert (autoaplicada o entrevista)

Conjunto de ítems que se presentan en forma de afirmaciones para medir la


reacción del sujeto en tres, cinco o siete categorías.

Es decir, se presenta cada afirmación y se solicita al sujeto que muestre su


reacción eligiendo uno de las categorías de la escala. A cada punto se le asigna
un valor numérico. Así, el participante obtiene una puntuación respecto de la
afirmación y al final su puntuación total, sumando las puntuaciones obtenidas
en relación con todas las afirmaciones.

Señala tu grado de acuerdo o desacuerdo con la siguiente afirmación: 

“El concierto fue un éxito”                            “Votar es una obligación de todo


ciudadano responsable”

1. Nada de acuerdo                                                   1. Nada de acuerdo

2. Algo en desacuerdo                                               2. Algo en desacuerdo

3. Ni acuerdo ni desacuerdo                                       3. Ni acuerdo ni


desacuerdo

4. Algo de acuerdo                                                    4. Algo de acuerdo

5. Completo desacuerdo                                            5. Completo desacuerdo 


 

Las afirmaciones pueden tener dirección: favorable o positiva y desfavorable o


negativa. Y esta dirección es muy importante para saber cómo se codifican las
alternativas de respuesta.

https://campusformacion.net/nuevocampus/impresioncurso.php 58/172
11/12/21 14:12 Campus Virtual

Si la afirmación es positiva, significa que califica favorablemente al objeto de


actitud; de este modo, cuanto más de acuerdo con la frase estén los
participantes, su actitud será igualmente más favorable.

Cuando las afirmaciones son positivas se califican comúnmente de la


siguiente manera:
(5) Muy de acuerdo
(4) De acuerdo
(3) Ni de acuerdo ni en desacuerdo
(2) En desacuerdo
(1) Muy en desacuerdo
 

Pero si la afirmación es negativa, significa que califica desfavorablemente al


objeto de actitud, y cuanto más de acuerdo estén los participantes con la
frase, implica que su actitud es menos favorable, esto es, más desfavorable.
(1) Totalmente de acuerdo
(2) De acuerdo
(3) Ni de acuerdo ni en desacuerdo
(4) En desacuerdo
(5) Totalmente en desacuerdo
 
En una misma escala pueden aparecer juntos afirmaciones positivas y
negativas, es decir no todas tienen que ser del mismo modo.
 
La Tesorería de la SS informa oportunamente sobre cómo, dónde y cuándo
pagar los impuestos.

5. Muy de acuerdo                             2. En desacuerdo

4. De acuerdo                                    1. Muy en desacuerdo

3. Ni de acuerdo ni en desacuerdo

 
La Dirección General de Impuestos Nacionales es muy lenta en la devolución
de impuestos pagados en exceso.

1. Muy de acuerdo                             4. En desacuerdo

2. De acuerdo                                    5. Muy en desacuerdo

3. Ni de acuerdo, ni en desacuerdo

Las puntuaciones de las escalas Likert se obtienen sumando los valores


alcanzados respecto de cada frase. Por ello se denomina escala aditiva.
https://campusformacion.net/nuevocampus/impresioncurso.php 59/172
11/12/21 14:12 Campus Virtual

Una puntuación se considera alta o baja según el número de ítems o


afirmaciones. Por ejemplo, en la escala para evaluar la actitud hacia el
organismo SS, la puntuación mínima posible es de ocho (1 + 1 + 1 + 1 + 1 + 1 +
1 + 1) y la máxima es de 40 (5 + 5 + 5 + 5 + 5 + 5 + 5 + 5), porque hay ocho
afirmaciones. La persona del ejemplo obtuvo 12. Su actitud hacia el
organismo tributario es bastante desfavorable.

En las escalas Likert a veces se obtiene el promedio resultante en la escala


mediante la sencilla fórmula PT/NT (donde PT es la puntuación total en la
escala y NT es el número de afi maciones), y entonces una puntuación se
analiza en el continuo 1-5 de la siguiente manera, con el ejemplo de quien
obtuvo 12 en la escala (12/8 = 1.5).

La escala Likert es una medición ordinal; sin embargo, es común que se le


trabaje como si fuera de intervalo

En la investigación disponemos de otros métodos para recolectar los datos,


tan útiles y fructíferos como los cuestionarios y las escalas de actitudes, los
cuales son:

1. Análisis de contenido

2. Observación

3. Pruebas estandarizadas, inventarios

4. Datos secundarios (recogidos por otros investigadores)

5. Instrumentos mecánicos o electrónicos ( polígrafo,  instrumentos que


captan la actividad cerebral, el escáner)

6. Instrumentos específicos propios de cada disciplina (sistemas


sociométricos y el análisis de redes)

2. Análisis e interpretación de los datos

Se realiza mediante programas informáticos como:

• SPSS

• Minitab

• SAS

• STATS

https://campusformacion.net/nuevocampus/impresioncurso.php 60/172
11/12/21 14:12 Campus Virtual

Fases

1. Seleccionar el programa estadístico para el análisis de datos

2. Ejecutar el programa

3. Explorar los datos: analizarlos y visualizarlos por variable del estudio

4. Se evalúa la confiabilidad y validez del o de los instrumentos escogidos

5. Se lleva a cabo análisis estadístico descriptivo de cada variable

del estudio

6. Se realizan análisis estadísticos inferenciales respecto a las

hipótesis planteadas

7. Se efectúan análisis adicionales

8. Se preparan los resultados para presentarlos

El análisis se realiza teniendo en cuenta los niveles de medición de las variables y mediante la estadística

https://campusformacion.net/nuevocampus/impresioncurso.php 61/172
11/12/21 14:12 Campus Virtual

El análisis estadístico puede ser

                       Descriptivo                           Inferencial          

          Distribución de frecuencias              Sirve para estimar

         Medida de tendencia central             parámetros y probar hipótesis

            Medidas de variabilidad

                        Gráficas                              Se basa en la

                  Puntuaciones Z                          distribución muestral

                                                                 

                                                                   Análisis Paramétrico

                                                                   Análisis no Paramétrico

                                                                   Análisis Multivariados

Estadística Descriptiva:  Permite agrupar y representar la información de


forma ordenada, de tal manera que nos permite identificar rápidamente
aspectos característicos del comportamiento de los datos.             

Estadística de Inferencia: Busca dar explicación al comportamiento o hallar


conclusiones de un amplio grupo de individuos, objetos o sucesos a través del
análisis de una pequeña fracción de sus componentes (Muestra).

 
 

2.2. Diseños Experimentales Intergrupos

2.2.1. Diseños Experimentales Intergrupos Unifactoriales


 
https://campusformacion.net/nuevocampus/impresioncurso.php 62/172
11/12/21 14:12 Campus Virtual

Los diseños intersujetos unifactoriales se caracterizan porque estudian el influjo de una


sola variable independiente sobre una variable dependiente en dos o más grupos
equivalentes. El investigador sólo manipula una variable independiente, que como
mínimo debe tener dos valores. 

1.1. Diseños de grupos aleatorios

Es el diseño experimental más simple y económico.

Se suele utilizar cuando la hipótesis tiene carácter exploratorio

Sólo se manipula una VI, con objeto de comprobar si afecta a una única
VD 

La VI puede tener 2 o más niveles, uno de los cuales suele ser la ausencia
de tratamiento

Cada nivel de la VI constituye una condición experimental a la que se


asigna un grupo de sujetos.

Los diseños de grupos aleatorios pueden ser:

a) Diseño de dos grupos con medida postratamiento

Objetivo: comprobar si dos valores distintos de la VI afectan diferencialmente


a la VD

Fundamento: si los grupos son iguales antes del tratamiento, las diferencias
encontradas tras el tratamiento se deberán al efecto de éste.

Procedimiento:

1) Definir la población de estudio

2) Seleccionar una muestra al azar. La muestra debe ser lo


suficientemente grande para que pueda actuar el azar.

3) Definir los 2 grupos de estudio: asignando aleatoriamente los sujetos


a cada uno de los niveles de la VI, garantizando la equivalencia de los
grupos.

Nivel 0: grupo control                                                nivel 1: grupo


experimental 1
https://campusformacion.net/nuevocampus/impresioncurso.php 63/172
11/12/21 14:12 Campus Virtual

VI                                                                            VI

Nivel 1: grupo experimental                                      nivel 2: grupo


experimental 2

4) Registrar la VD en ambos grupos después del tratamiento

5)   Análisis estadístico: Prueba t de student para grupos


independientes 

Prueba no paramétrica para 2 grupos independientesRepresentación


simbólica:

Representación simbólica:

Formación Grupos Pretratamiento Tratamiento Postratamiento

A G0   _ 01

A G1   X 02

           

Formación Grupos Pretratamiento Tratamiento Postratamiento

A G1   X1 01

A G2   X2 02

Ej-. ¿Influye el refuerzo audiovisual en el rendimiento académico?

                        Ho       X 01= X02      El refuerzo no influye en el rendimiento

                        Hi       X 01 ≠ X02      El refuerzo influye en el rendimiento

La comparación entre los postratamiento de ambos grupos (01 y 02) nos indica si
hubo o no efecto de la manipulación del tratamiento. Si ambas difieren

https://campusformacion.net/nuevocampus/impresioncurso.php 64/172
11/12/21 14:12 Campus Virtual

significativamente (01 ≠ 02), esto nos indica que el tratamiento tuvo un efecto. Se
acepta la hipótesis de investigación (Hi). Si no hay diferencias (01 = 02), ello indica
que no hubo un efecto significativo del tratamiento experimental (X). En este caso
se acepta la hipótesis nula (Ho).
En ocasiones se espera que 01 sea mayor que 02. Por ejemplo, el tratamiento
experimental (el refuerzo audiovisual) que es un método educativo, el que lo recibe
tendrá mayor rendimiento. 
Hi: 01 > 02.
 
Las ventajas son:

La aleatorización no supone pérdida de sujetos en su asignación a los


grupos

Se presupone la equivalencia de los grupos al inicio del estudio.

Se ejerce gran control sobre las amenazas a la validez interna de la


historia y la maduración, ya que transcurre muy poco tiempo entre la
aplicación del tratamiento y la medida de la conducta del sujeto. 

No existe la sensibilización a la medida pretratamiento (ya que no existe),


ya que los sujetos han sido asignados aleatoriamente a los grupos.

Las amenazas a la validez de este diseño son:

La instrumentación, si utilizamos distintos aparatos para medir la


conducta en los dos grupos (validez interna).

La selección diferencial, si la muestra de sujetos es pequeña o no se ha


realizado correctamente la asignación aleatoria de los sujetos a los
grupos (validez interna).

La interacción de los sesgos de selección y el tratamiento, si las muestras


no son aleatorias y por ello no representativas de la población,
impidiéndose la generalización de los resultados a ella.

Los efectos reactivos de los dispositivos experimentales, debidos a la


artificialidad de la situación experimental.
 

b) Diseño de dos grupos con medida pre y postratamiento

El objetivo,  fundamento y el procedimiento es igual al diseño anterior.

La diferencia con “con una medida postratamiento” es que una vez formados los
grupos al azar se toma una medida de la VD antes de aplicar el tratamiento
experimental

https://campusformacion.net/nuevocampus/impresioncurso.php 65/172
11/12/21 14:12 Campus Virtual

Representación simbólica:
 

Formación Grupos Pretratamiento Tratamiento Postratamiento

A G0 01 _ 02

A G1 03 X 04

Formación Grupos Pretratamiento Tratamiento Postratamiento

A G1 01 X1 02

A G2 03 X2 04

Continuando con el ejemplo del refuerzo audiovisual. El profesor puede realizar el


mismo estudio pero teniendo en cuenta el rendimiento académico de los alumnos
antes de recibir el refuerzo audiovisual. La hipótesis que se somete a comprobación
es:

Ho      X02=X04        El refuerzo no influye en el rendimiento

            Hi       X02≠X04         El refuerzo influye en el rendimiento

Pero para comprobarla podemos hacer dos tipos de análisis estadístico:

Para analizar la diferencia postratamiento de la VD: Prueba t de


student para grupos independientes o Prueba no paramétrica para
2 grupos independientes

Para comprobar en el grupo experimental el rendimiento antes y


después del refuerzo: Prueba t de student para muestras
relacionadas.

La ventaja es que la medida “pre” garantiza la equivalencia inicial de los grupos. Se


pueden controlar casi todas las amenazas a la validez interna

Las amenazas a la validez de este diseño son:

Si los instrumentos de medida y el experimentador son diferentes


en cada grupo, se pueden dar las amenazas a la validez de efecto de
experimentador y la instrumentación. (interna)

https://campusformacion.net/nuevocampus/impresioncurso.php 66/172
11/12/21 14:12 Campus Virtual

La sensibilización a la medida “pre”, que consiste en que los sujetos


pueden familiarizarse con el tipo de tareas, adivinar los objetivos
de la investigación, etc. influyendo en sus respuestas y, por tanto,
en los resultados del experimento (interna)

La interacción entre la medida pre y el tratamiento. Esta


interacción se da cuando el efecto que produce el tratamiento
depende de la sensibilización que produzca el pretest en los sujetos
(externa)

La interacción entre la selección y el tratamiento, puede darse en la


medida en que la muestra sea o no representativa de la población a
la que se pretende generalizar los resultados (externa)

La artificialidad de la situación experimental (externa)

c) Diseño de grupos aleatorios multigrupos (K grupos) con medida postest

Objetivo: comprobar si los k valores distintos de la VI afectan diferencialmente a la


VD

Fundamento: si los grupos son iguales antes del tratamiento, las diferencias
encontradas tras el tratamiento se deberán al efecto de éste.

Procedimiento:

1) Definir la población de estudio

2) Seleccionar una muestra al azar. La muestra debe ser lo suficientemente


grande para que pueda actuar el azar.

3) Definir los k grupos de estudio: asignando aleatoriamente los sujetos a


cada uno de los niveles de la VI, garantizando la equivalencia de los grupos.

nivel 0: grupo control                                                nivel 1: grupo


experimental

VI (A) nivel 1: grupo experimental                           VI (B) nivel 2: grupo


experimental

nivel 2: grupo experimental                                       nivel 3: grupo


experimental

nivel k: grupo experimental                                       nivel k: grupo


experimental

4) Registrar la VD en los k grupos después del tratamiento

5) Análisis estadístico: Prueba Anova de un factor


https://campusformacion.net/nuevocampus/impresioncurso.php 67/172
11/12/21 14:12 Campus Virtual

Prueba no paramétrica para k grupos independientes

Representación simbólica:

VI (A), varios niveles del tratamiento y un grupo control

Formación Grupos Pretratamiento Tratamiento Postratamiento

A G0   _ 01

A G1   X1 02

A G2   X2 03

. . . .

. .   . .

. . . .

A Gk   Xk 0(k+1)

VI (B), simplemente comparar distintos niveles de la VI sin tener un grupo control.

Formación Grupos Pretratamiento Tratamiento Postratamiento

A G1   X1 01

A G2   X2 02

A G3   X3 03

. . . .

. .   . .

. . . .

A Gk   Xk 0(k+1)

https://campusformacion.net/nuevocampus/impresioncurso.php 68/172
11/12/21 14:12 Campus Virtual

Ej-. ¿Influye la dieta en el rendimiento físico?

VI: dieta 1) dieta normal; 2) dieta+ supl. vitamínico; 3) dieta+supl.proteico)

VD: rendimiento físico (segundos en  100m)

Ho      X01=X02=X03=X0k+1        La dieta no influye en el rendimiento físico

            Hi       X01≠ X02≠ X03≠ X0k+1        La dieta influye en el rendimiento físico 

Las ventajas de los diseños multigrupos respecto a los de dos grupos son:

Proporcionan más información acerca de la influencia de la VI


sobre la VD, y además informan de la relación entre ellas.
La muestra, al contar con k grupos, es de gran tamaño, de modo que
los resultados serán más representativos de la población.
Tienen más validez interna y externa que los estudios de dos
grupos.

Las ventajas de los diseños multigrupos respecto a los de dos grupos son:

Proporcionan más información acerca de la influencia de la VI


sobre la VD, y además informan de la relación entre ellas.
La muestra, al contar con k grupos, es de gran tamaño, de modo que
los resultados serán más representativos de la población.
Tienen más validez interna y externa que los estudios de dos
grupos.

d) Diseño de grupos aleatorios multigrupos (K grupos) con media pre/post

El objetivo, fundamento y el procedimiento es igual al diseño anterior.

La diferencia con “con una medida postratamiento” es que una vez formados los
grupos al azar se toma una medida de la VD antes de aplicar el tratamiento
experimental

        

Representación simbólica:

VI (A), varios niveles del tratamiento y un grupo control

Formación Grupos Pretratamiento Tratamiento Postratamiento

A G0 01 _ 02

https://campusformacion.net/nuevocampus/impresioncurso.php 69/172
11/12/21 14:12 Campus Virtual

A G1 03 X1 04

A G2 05 X2 06

. . . . .

. . . . .

. . . . .

A Gk 0k Xk 0(k+1)

VI (B), simplemente comparar distintos niveles de la VI sin tener un grupo control.

Formación Grupos Pretratamiento Tratamiento Postratamiento

A G1 01 X1 02

A G3 03 X2 04

A G5 05 X3 06

. . . . .

. . . . .

. . . . .

A Gk 0k Xk 0(k+1)

    

Continuando con el ejemplo de la dieta en el rendimiento físico. Podemos hacer el


mismo

estudio pero teniendo en cuenta el rendimiento físico antes de recibir el


suplemento dietético.

Ej-. ¿Influye la dieta en el rendimiento físico?

VI: dieta 1) dieta normal; 2) dieta+ supl. vitamínico; 3) dieta+supl.proteico)

VD: rendimiento físico (segundos en 100m)

            Ho:     X02=X04=X06=X0k+1        La dieta no influye en el rendimiento físico

https://campusformacion.net/nuevocampus/impresioncurso.php 70/172
11/12/21 14:12 Campus Virtual

            Hi:      X02≠ X04≠ X06≠ X0k+1        La dieta influye en el rendimiento físico 

Análisis estadístico:

Para comprobar la equivalencia de los grupos (medidas


pretratamiento): Prueba Anova de un factor o Prueba no
paramétrica para k grupos independientes
Para ver la influencia de los tratamientos dentro de cada grupo:
Prueba  t de student para muestras relacionadas
Para contrastar la hipótesis (estadístico de contraste paramétrico).
Prueba Anova de un factor o Prueba no paramétrica para k grupos
independientes

Las ventajas de este diseño son:

Gracias a la medida pretratamiento podemos estudiar si los dos


grupos de sujetos son equivalentes.
Se pueden controlar casi todas las amenazas a la validez interna.

e) Diseño de cuatro grupos de Solomon

Este diseño surge de la mezcla de los dos anteriores: 

Diseño con postratamiento y grupo control + Diseño de pre/postratamiento y


grupo control 

La suma de estos dos diseños origina cuatro grupos: dos experimentales y dos
control. Los primeros reciben el mismo tratamiento experimental y los segundos no
reciben tratamiento. Solo a uno de los grupos experimentales y a uno de los grupos
de control se les realiza el pretratamiento; a los cuatro grupos se les aplica el
postratamiento.

AG1                X         01        experimental

          AG2                —        02        control

          AG3    03        X         04        experimental

          AG5    05        —        06        control

La ventaja de este diseño es que el experimentador tiene la posibilidad de verificar


los posibles efectos del pretratamiento sobre el postratamiento, puesto que a unos
grupos se les administra un test previo y a otros no. Es posible que el
pretratamiento afecte al postratamiento.

Teóricamente 01 y debería ser igual a 04, porque ambos grupos recibieron el mismo
tratamiento; asimismo, 02 y 06 deberían tener el mismo valor, porque ninguno

https://campusformacion.net/nuevocampus/impresioncurso.php 71/172
11/12/21 14:12 Campus Virtual

recibió estimulo experimental.

Entre los inconvenientes, el mayor de ellos es la dificultad para formar cuatro


grupos de sujetos.

Análisis de datos: ANOVA de 2 factores o ANCOVA, o su equivalente no


paramétrico.

f) Diseño experimental intergrupo unifactorial aleatorio de series cronológicas


múltiples

Los diseños experimentales comentados hasta el momento sirven para más bien
para analizar efectos inmediatos o a corto plazo. 

En ocasiones el experimentador esta interesado en analizar efectos en el mediano o


largo plazo, porque tiene bases para suponer que la influencia de la variable
independiente sobre la dependiente tarda en manifestarse. 

El término "serie cronológica" se aplica porque es un diseño que se efectúa a través


del tiempo o presenta varias observaciones o mediciones sobre una variable.

Este diseño puede realizarse para dos grupos o multigrupos y los sujetos son
asignados al azar a dichos grupos. Solamente que, debido a que transcurre mucho
más tiempo entre el inicio y la terminación del experimento, el investigador debe
tener el suficiente cuidado para que no ocurra algo que afecte de manera distinta a
los grupos (con excepción de la manipulación de la variable independiente). 

Lo mismo sucede cuando al aplicar el estimulo lleva mucho tiempo (por ejemplo,
programas motivacionales para trabajadores que pueden durar semanas). Con el
paso del tiempo es más difícil mantener equivalencia inicial de los grupos.  

Por ejemplo, las psicoterapias o un mtd. Educativo. O  se busca evaluar la evolución
del efecto en el corto, mediano y largo plazos (no solamente el resultado). En tales
casos es conveniente adoptar diseños con varios pre y postratamientos. 

Serie cronológica sin pre prueba, con varias pos pruebas y grupo de
control.

AG1  X         01        02        03                    dos grupos

AG2    —       04        05        06

AG1               X1        01                   02                    03                              

AG2               X2        04                   05                    06        + dos grupos  

AG3               X3        07                   08                    09                              

 •                     •           •                     •                      •                                

https://campusformacion.net/nuevocampus/impresioncurso.php 72/172
11/12/21 14:12 Campus Virtual

 •                     •           •                     •                      •                                

AGk                —        0k               0(k + 1)           0(k + 2)

Serie cronológica con pre prueba, con varias pos pruebas y grupo
de control

AG1    01        X         02        03        04        dos grupos

AG2    05        —        06        07        08

AG1    01        X1       02            03              04                                            

AG2    05        X2       06            07              08   + dos grupos                    

AG3    09        X3       010          011            012                              

•         •          •            •               •                •        

•         •         •             •               •               •         

AGk         0k       —         0k       0(k + 1)     0(k + 2)    

Serie cronológica con repetición del estimulo

En ocasiones, el investigador anticipa que el tratamiento o estimulo experimental


no tiene efecto o este es mínimo si se aplica una sola vez, tal como seria hacer
ejercicio físico un solo día, no se puede esperar un cambio en la musculatura; o
como seria consumir vitaminas una única vez . 

También a veces el investigador quiere conocer el efecto sobre las variables


dependientes, cada vez que se aplica el estimulo experimental. 

En estos casos se puede repetir el tratamiento experimental y administrar una pos


prueba después de cada aplicación de este, para evaluar el efecto de la aplicación.
El mismo tratamiento se aplica dos veces al grupo experimental.

Los sujetos son asignados al azar a los distintos grupos y a cada grupo se le
administra varias veces el tratamiento experimental que le corresponde. 

AG1    01        X         02        X         03        dos grupos

AG2    04        —        05        X         06

AG1    01        X1       02            X1             03                                            

AG2    04        X2       05            X2             06    + dos grupos                   

https://campusformacion.net/nuevocampus/impresioncurso.php 73/172
11/12/21 14:12 Campus Virtual

AG3    07        X3       08            X3             09                                

•         •         •           •             •                •          

•         •          •           •             •                •          

AGk         0k       —      0(k + 1)        —         0(k + 2)

Serie cronológica con repetición del estimulo

En ocasiones, el investigador anticipa que el tratamiento o estimulo experimental


no tiene efecto o este es mínimo si se aplica una sola vez, tal como seria hacer
ejercicio físico un solo día, no se puede esperar un cambio en la musculatura; o
como seria consumir vitaminas una única vez . 

También a veces el investigador quiere conocer el efecto sobre las variables


dependientes, cada vez que se aplica el estimulo experimental. 

En estos casos se puede repetir el tratamiento experimental y administrar una pos


prueba después de cada aplicación de este, para evaluar el efecto de la aplicación.
El mismo tratamiento se aplica dos veces al grupo experimental.

Los sujetos son asignados al azar a los distintos grupos y a cada grupo se le
administra varias veces el tratamiento experimental que le corresponde. 

AG1    01        X         02        X         03        dos grupos

          AG2    04        —        05        X         06

          AG1    01        X1       02            X1             03                                            

          AG2    04        X2       05            X2             06    + dos grupos                   

          AG3    07        X3       08            X3             09                                

            •         •         •           •             •                •          

            •         •         •           •             •                •          

          AGk         0k       —      0(k + 1)        —         0(k + 2)

1.2.    Diseños de bloques

La técnica de bloque consiste en agrupar a los sujetos en bloques en función de la


puntuación obtenida en una variable extraña muy relacionada con la variable
dependiente o en la misma variable dependiente. Es decir, los sujetos de un bloque
https://campusformacion.net/nuevocampus/impresioncurso.php 74/172
11/12/21 14:12 Campus Virtual

son todos similares entre sí y diferentes a los sujetos de otro bloque. Se trata de
Una forma de control consiste en utilizar grupos homogéneos para reducir la
variabilidad interindividual. Estos grupos homogéneos podemos conseguirlos
utilizando técnicas como el Bloqueo.

El bloqueo consiste en unir las unidades experimentales en grupos (bloques) que


son semejantes para una característica importante para la VD que queremos
estudiar.

Algunos ejemplos de bloques son: edad, C.I., nivel académico, instrucciones del
experimento, hora, día, etc…

Cada bloque debe tener una cantidad de sujetos igual o múltiplo del número de
condiciones experimentales con el fin de que su presencia sea la misma en cada
condición experimental. Es aconsejable, aunque no imprescindible, que todos los
bloques tengan el mismo número de sujetos.

Una vez formados los bloques, aleatoriamente se asigna el mismo número de


sujetos de cada bloque a los diferentes grupos o condiciones. El asignar de forma
aleatoria los sujetos de cada bloque a los grupos tiene como objetivo que el resto de
las variables extrañas del sujeto que no han sido bloqueadas se repartan por igual
en todos los grupos y de esta manera no contaminen los resultados del
experimento.

Con esta técnica se controla la varianza sistemática secundaria y se reduce la


varianza error. Es decir, se disminuye la varianza intergrupo antes de aplicar el
tratamiento y, por lo tanto, la diferencia hallada entre los grupos después del
tratamiento se deberá al efecto de éste, siempre que se haya usado el control
oportuno del resto de variables extrañas.

A la variable que se utiliza para formar los bloques se le llama variable de bloqueo
(VB) y es imprescindible que correlaciones muy alto con la variable dependiente. La
medida inicial de la variable dependiente es el mejor criterio para formar los
bloques. Para ver si existe correlación entre esta variable y la dependiente se
pueden consultar estudios previos en los que ambas variables se hayan
correlacionado o hacer un estudio piloto en el que se tomen medidas de las dos
variables y se calcule la correlación entre ellas.

La variable de bloqueo se diferencia de la medida pretratamiento en que se mide


antes de la formación de los grupos y tiene como objetivo poder asegurar la
equivalencia de éstos. Sin embargo, la medida pretratamiento se toma a los sujetos
cuando los grupos ya están formados y su finalidad es comprobar que son
equivalentes.

La ventaja principal de esta técnica de bloque respecto a la técnica de


aleatorización es que los grupos experimentales son inicialmente más homogéneos
entre sí que si se hubieran formado al azar, siendo por tanto la validez interna
mayor en los diseños de bloques.

El inconveniente principal de los diseños de bloques es la escasa validez externa


que tienen debido a la cantidad de sujetos que hay que eliminar por no encajar
dentro de ningún bloque y a la posible sensibilidad de los sujetos a la medida previa

https://campusformacion.net/nuevocampus/impresioncurso.php 75/172
11/12/21 14:12 Campus Virtual

de la variable dependiente cuando se toma como variable de bloqueo.

La técnica de bloqueo da lugar, en función del número de variables bloqueadas a los


siguientes diseños:

Diseños de bloques aleatorios, cuando se bloquea una variable

Diseños de grupos apareados, en el que a la variable de bloqueo se


le llama variable de apareo (VA).

Diseños de cuadrado latino, cuando se bloquean dos variables

Diseños de cuadrado grecolatino, cuando se bloquean dos o tres


variables.

En todos estos diseños puede haber una variable independiente (diseños


unifactoriales) o más de una variable independiente (diseños factoriales) y dos o
más grupos de sujetos, siendo todos los grupos experimentales o uno de ellos de
control o control por placebo

a) Diseño de bloques aleatorios

El procedimiento consta de los siguientes pasos:

1) Definir la población

2) Seleccionar la muestra al azar

3) Determinar la variable de bloqueo (una variable sólo)

Determinar cuantos bloques se formarán y cuantos grupos. Medimos la


variable de bloqueo en todos los sujetos de la muestra y decidimos, en
función de la variabilidad de las puntuaciones y del problema que
estemos investigando, el número de bloques que vamos a formar.
Cuanto mayor es la variabilidad de las puntuaciones mayor tiene que
ser el número de bloques. Una vez formados los bloques, asignamos
aleatoriamente a cada grupo experimental el mismo número de sujetos
de cada bloque, eliminándose los sujetos restantes de forma aleatoria.

4) Asignar al azar los distintos niveles de la VI a cada grupo

5) Registrar la VD

6) Analizar e interpretar los resultados

Los diseños de bloques aleatorios (BA) sólo utilizan una variable de bloqueo y
una o más variables independientes. El número de grupos puede ser de dos o
más.

A continuación tenemos la representación simbólica del diseño unifactorial


(una VI) de bloques aleatorios con tres grupos: dos experimentales y uno de
control.

https://campusformacion.net/nuevocampus/impresioncurso.php 76/172
11/12/21 14:12 Campus Virtual

                BAG1 (BA)    —     X1    01            

                BAG2 (BA)    —     X2    02    


                BAG2 (BA)    —     —     03    

Realizamos el análisis estadístico de los resultados utilizando una diferencia


de medidas (si solo tenemos dos condiciones experimentales) o un ANOVA
cuando tenemos más de dos tratamientos. 

Ventajas e Inconvenientes. Este diseño tiene mayor validez interna y menor


validez externa que el diseño de grupos aleatorios.

b) Diseño de cuadrados latinos

Este diseño   es equivalente al de bloques aleatorizados o al azar, pero en el


diseño de cuadrado latino se bloquea más de una variable extraña muy
relacionada con la variable dependiente. Estas variables de bloqueo pueden
ser de sujeto o ambientales e incluso una de ellas puede ser la misma variable
dependiente.

La denominación simbólica de estos diseños es igual que las de los diseños


factoriales que veremos posteriormente, pero con distinto significado: un
diseño de cuadrado latino 2x2 significa que tiene dos variables de bloqueo
con dos valores cada una y el número de condiciones experimentales es 2. En
cambio, un diseño factorial 2x2 significa que tiene dos variables
independientes con dos niveles cada una y el número de tratamientos es 4.

Los diseños de cuadrado latino pueden ser unifactoriales y factoriales y en


ambos casos se tienen que cumplir las siguientes condiciones: a) las variables
de bloqueo tienen que estar muy relacionadas con la variable dependiente y
no pueden interactuar entre sí, ni con la variable independiente; b) el número
de bloques de cada variable de bloqueo y de tratamientos tiene que ser el
mismo; c) las variables bloqueadas se ordenan dentro de una matriz, matriz
de bloqueo, con tantas filas y columnas como bloques se hayan formado en
las variables de bloqueo. Una de las variables se sitúa en el sentido de las filas
y la otra en el de las columnas. El número de celdillas tiene que ser igual al
producto del número de valores o bloques de cada variable de bloqueo. Así,
por ejemplo, en el caso de un diseño 2x2, el número de celdillas sea cuatro; d)
los tratamientos se suelen representar dentro de cada celdilla con diferentes
letras del alfabeto latino. La disposición del cuadrado latino puede ser
utilizada también en los diseños intrasujeto para el control del efecto del
orden o en la aplicación de diseños factoriales; e) el número de sujetos tiene
que ser igual o múltiplo del número de celdillas, ya que cada celdilla tiene que
tener el mismo número de sujetos, para que el efecto de las variables de
bloqueo se mantenga constante en cada tratamiento experimental; f) a cada
celdilla se le aplica aleatoriamente un tratamiento, teniendo en cuenta que

https://campusformacion.net/nuevocampus/impresioncurso.php 77/172
11/12/21 14:12 Campus Virtual

cada condición experimental debe aparecer una sola vez en cada fila y en cada
columna, siendo cada fila y cada columna una réplica completa del
experimento.

El procedimiento que tenemos que seguir para aplicar este diseño es el


siguiente:

1) Determinar cuáles van a ser las variables de bloqueo y medirlas en


todos los sujetos de la muestra antes de la formación de los grupos.

2) En función del número de tratamientos decidimos cuántos bloques


vamos a formar.

3) Construimos la matriz de datos, colocando los bloques de cada una


variable de bloqueo en las firmas y los de la otra variable de bloqueo en
las columnas.

4) Asignamos aleatoriamente los tratamientos a las celdillas teniendo


en cuenta que cada tratamiento debe aparecer una sola vez en cada fila
y en cada columna y cada fila y cada columna tiene que ser una réplica
del experimento. En cada fila y cada columna tiene que haber todas las
condiciones experimentales.

5) Si las variables de bloqueo no son de sujeto asignamos


aleatoriamente los sujetos a las celdillas.

6) Aplicamos los tratamientos experimentales a todos los sujetos y


medimos la variable dependiente, analizamos los datos con un análisis
de varianza, interpretamos los resultados, extraemos conclusiones y
generalizamos a la población de la que hemos extraído la muestra.
Finalmente redactamos el informe de la investigación.

A continuación tenemos la representación simbólica del diseño de cuadrado


latino 2x2:

2BAG1           —        X1       01                              

2BAG2           —        X2       02

Este diseño, al bloquear dos variables posee mayor validez interna que los
diseños anteriores, pero la validez externa es muy pequeña debido a la
eliminación de sujetos y a la sensibilización de los sujetos a las medidas de las
variables de bloqueo.

c) Diseño con grupos apareados

Al diseño de grupos apareados se le llama también diseño de grupos


equiparados. 
https://campusformacion.net/nuevocampus/impresioncurso.php 78/172
11/12/21 14:12 Campus Virtual

Este diseño puede considerarse un caso especial de diseños de bloques


aleatorios y en él no basta con que los sujetos sean similares dentro de cada
bloque en la variable de bloqueo, sino que tienen que ser idénticos dentro de
cada bloque en esa variable. 

Esta variable, en este diseño se llama variable de apareo o equiparación. Un


diseño perfecto de grupos apareados es cuando utilizamos pares de gemelos
que se han criado juntos y asignamos cada gemelo a cada condición
experimental.

En el diseño de grupos apareados se puede utilizar una sola variable


dependiente (unifactorial) o más de una variable dependiente (factorial) y el
número de grupos tiene que ser como mínimo de dos, pudiendo ser los dos
experimentales o uno experimental y otro de control.

Normalmente sólo se suele utilizar con dos grupos de sujetos, ya que como el
número de sujetos dentro de cada bloque tiene que ser igual o múltiplo del
número de tratamientos, es muy difícil formar los bloques, al tener que ser
ahora las puntuaciones idénticas en la variable de apareo.

También en este diseño se puede usar más de una variable de apareo, pero no
suele hacerse.

Una vez formados los bloques, se asigna aleatoriamente el mismo número de


sujetos a cada uno de los grupos experimentales o tratamientos.

Representación simbólica del diseño de grupos apareados con grupo de


control, donde APA significa que para la composición de los grupos se ha
usado el apareamiento aleatorio.

APAG1           —        X         01                    dos grupos

APAG2           —        —        02

Este diseño suele tener sólo dos grupos, la técnica que se utiliza para analizar
los datos es la diferencia de medias para medidas relacionadas. En el caso de
que existan más de dos grupos se utilizará el ANOVA   de un factor para
medidas repetidas.

Entre sus ventajas es una elevada validez interna, por encima del diseño de
bloques aleatorios, ya que la varianza intergrupo es aún más pequeña.

Como inconvenientes destacan la reducción de la validez externa, al tener


que eliminar muchos sujetos que no encajan en ningún bloque, y la
sensibilización de los sujetos debido a la variable de apareo.

https://campusformacion.net/nuevocampus/impresioncurso.php 79/172
11/12/21 14:12 Campus Virtual

2.2.2. Diseños experimentales Intergrupos Factoriales


 

El diseño experimental factorial es aquel que se aplica cuando las muestras de


observaciones quedan determinadas por dos o más factores (Maxwell  y Delaney, 1990)

Es aquel diseño que se plantea cuando queremos someter a contraste el efecto de dos o
más variables independientes y de una posible interacción entre ellas sobre la variable
dependiente (VD) (Pelegrina y Salvador, 1999).

Características:

Existe más de una variable independiente

Se crean varias unidades de observación en función de ellas

La variable dependiente puede ser una o más

Los sujetos que forman los distintos grupos experimentales son distintos,
han sido formados de forma independiente. 

Los sujetos se han asignado a los grupos de forma aleatoria.

El experimentador ha manipulado las variables independientes y ha


controlado el influjo de posibles variables extrañas

Se contrastan los efectos que producen cada una de las VVII sobre la VD
y también puede estudiarse el efecto de interacción

Tipos de efectos que podemos estudiar en el diseño factorial:

Efectos principales. Son los efectos que se producen al comparar los


resultados de un nivel con la media total. Tenemos un efecto principal
cuando el efecto de una variable independiente es el mismo en todos los
niveles de otra variable independiente. Es el resultado de un diseño
simple para una variable independiente, prescindiendo de los niveles de
la otra variable independiente.

Efectos diferenciales. Son los efectos principales en dos niveles


diferentes de un mismo factor.

Efectos simples. Son los efectos que comparan todos los niveles de un
factor bajo cada nivel de otro

Efectos de interacción. Son los que se producen cuando algunos niveles


de una variable independiente afectan de forma irregular a los diferentes
niveles de otra variable independiente.
https://campusformacion.net/nuevocampus/impresioncurso.php 80/172
11/12/21 14:12 Campus Virtual

Un diseño factorial también se puede caracterizar en función de los niveles de cada


variable independiente. Por ejemplo, un diseño factorial AxBxC es aquel que considera
tres variables independientes con A, B y C niveles, respectivamente.

Ventajas de  los diseños factoriales sobre el unifactoriales:

Poseen mayor validez externa, capacidad de generalización a la


población, porque considera varias variables que pueden estar
incidiendo sobre la variable dependiente, más cercano a la realidad.

Utilizan la misma muestra de sujetos para evaluar simultáneamente los


efectos de varios  factores, por lo que son más eficientes en cuanto a uso
de recursos.

Permiten evaluar los efectos de la interacción entre variables

Inconvenientes: 

Se necesita un mayor número de sujetos para poder evaluar los efectos


de las variables.

La interpretación d el interacción no es sencilla, más compleja cuantas


más variables dependientes e independientes.

Son más largos

Son menos eficientes en cuanto a conseguir los niveles óptimos de las


variables independientes y de las combinaciones entre ellas.

Análisis de datos

ANOVA bifactorial o de 2 factores o su equivalente no paramétrico.

2.2.1. Diseños factoriales intergrupos AxB

Objetivo:

Estudiar el efecto de dos factores sobre una VD

Procedimiento: 

https://campusformacion.net/nuevocampus/impresioncurso.php 81/172
11/12/21 14:12 Campus Virtual

a) Determinar la población de estudio

b) Seleccionar una muestra representativa

c) Asignar al azar los sujetos a las condiciones experimentales

d) Aplicar cada combinación  de los niveles a un grupo de sujetos distinto

e) Registrar la VD en cada sujeto u grupo de sujetos

f) Analizar los datos e interpretar los resultados

EJEMPLO

Un profesor desea evaluar el efecto de tres métodos de enseñanza diferentes y el


horario sobre el rendimiento académico.

Tendremos por tanto dos variables independientes:    

A. Método de enseñanza: a1 (clases magistrales); a2 (aprendizaje


cooperativo); a3 (clases magistrales + prácticas)

B. Horario:  b1 (horario continuo); b2 (horario partido)

Se trata de un diseño 3x2

La VD es el rendimiento académico, las calificaciones de los sujetos (0-10)

Hipótesis:

H0A:     Xa1= Xa2= Xa3         El método de enseñanza no influye en el rendimiento


académico

H0B:     Xb1= Xb2                 El horario no influye en el rendimiento académico

H0AB:   No existe interacción entre ambos factores

Representación simbólica

AG1    —        Xa1b1    01                   

AG2    —        Xa1b2    02

AG3   —        Xa2b1    03

AG4   —        Xa2b2    04

AG5   —        Xa3b1    05

https://campusformacion.net/nuevocampus/impresioncurso.php 82/172
11/12/21 14:12 Campus Virtual

AG6   —        Xa3b2    06

Análisis de datos

ANOVA Factorial

2.2.2. Diseños factoriales intergrupos de 3 o más factores

Objetivo:

Permite estudiar el efecto de tres o más factores sobre la VD.

Procedimiento:

El mismo especificado para el diseño de dos factores

EJEMPLO:

Un profesor desea evaluar el efecto de tres métodos de enseñanza diferentes, el


horario, y el tipo de evaluación sobre el rendimiento académico.

Tendremos por tanto tres variables independientes o factores    

A. Método de enseñanza: a1 (clases magistrales); a2 (aprendizaje


cooperativo); a3 (clases magistrales + prácticas)

B. Horario:  b1 (horario continuo); b2 (horario partido)

C. Tipo de evaluación: c1 (evaluación continua); c2 (evaluación semestral)

Se trata de un diseño 3x2x2

La VD es el rendimiento académico, las calificaciones de los sujetos (0-10).

Hipótesis:

H0A:      Xa1= Xa2= Xa3            El método de enseñanza no influye en el


rendimiento académico

H0B:    Xb1= Xb2            El horario no influye en el rendimiento académico

https://campusformacion.net/nuevocampus/impresioncurso.php 83/172
11/12/21 14:12 Campus Virtual

H0C:    Xc1= Xc2            La evaluación no influye en el rendimiento académico

H0AB: No existe interacción entre ambos factores

H0AC: No existe interacción entre ambos factores

H0BC: No existe interacción entre ambos factores

H0ABC: No existe interacción entre ambos factores

Representación simbólica

AG1     —     Xa1b1c1    01        

AG2     —    Xa1b1c2     02

AG3     —    Xa1b2c1    03

AG4     —    Xa1b2c2    04

AG5     —    Xa2b1c1    05

AG6     —    Xa2b2c1    06

AG7     —     Xa2b1c2    07        

AG8     —    Xa2b2c2     08

AG9     —    Xa3b1c1    09

AG10   —    Xa3b3c1    010

AG11   —    Xa3b1c3    011

AG12   —    Xa3b3c3    012

Análisis de datos: ANOVA Factorial

                               

2.3. Diseños experimentales Intragrupo

2.3.1. Diseños Experimentales Intragrupo Unifactoriales


 

https://campusformacion.net/nuevocampus/impresioncurso.php 84/172
11/12/21 14:12 Campus Virtual

Objetivo: Permite estudiar el efecto de todas las condiciones experimentales sobre la VD


sin que intervengan las diferencias individuales.

Se utiliza un único grupo de sujetos que recibe todas las condiciones experimentales.

Características:

a) La característica fundamental de este diseño es que los mismos sujetos pasan por
todas las condiciones experimentales.

b) Se realizan comparaciones entre condiciones y para ellas se utilizan las medidas


de cada sujeto en cada condición.

c) Este hecho implica que los sujetos actúen como su propio control proporciona
una manera de reducir la cantidad de  error (https://explorable.com/systematic-
error) que surge de la varianza natural entre individuos.

d) Existe una variable independiente

Se crean varias unidades de observación en función de sus niveles

2 niveles VI                           3 o + niveles VI

e) La variable dependiente puede ser una o más.

f) Se pueden estudiar varios efectos en la variable dependiente producidos al variar


la variable independiente.

g) Los grupos experimentales están formados por los mismos sujetos.

2.3.1.1. Dos niveles de la variable independiente

Procedimiento:

1. Seleccionar al azar una muestra de la población de estudio

2. Determinar la VI, sus niveles de interés

3. Contrabalancear el orden de presentación de los tratamientos (condiciones


experimentales)

Contrabalancear. Variar el orden de presentación de las condiciones


experimentales para controlar el error progresivo.

4. Aplicar a cada sujeto un orden de tratamiento determinada


https://campusformacion.net/nuevocampus/impresioncurso.php 85/172
11/12/21 14:12 Campus Virtual

5. Registrar la VD

6. Analizar e interpretar los resultados.

EJEMPLOS

Estudios de aprendizaje.

El fenómeno de la indefensión aprendida es un fenómeno que tiene lugar en el


comportamiento de una persona o un animal que ha aprendido a comportarse
pasivamente, con la sensación subjetiva de no poder  hacer nada ante una situación,
que le lleva a no responder a pesar de que existen oportunidades reales de cambiar
la situación aversiva

Este fenómeno fue descrito por Martin Seligman en los años 70, a partir de un
estudio con diseño intrasujeto unifactorial, que consistió en exponer a un grupo de
animales a una descarga que no podían evitar durante un tiempo. Trascurrido este
tiempo, cuando se le s ofrecía la posibilidad de escapar de las descargas saltando
una barrera, los animales no lo hacían y se quedaban sufriendo las descargas. Los
animales habían aprendido a ser indefensos ante las descargas.

Este aprendizaje sólo se pudo descubrir al estudiar cada uno de los animales a lo
largo del tiempo, utilizando una única unidad experimental

Aprendizaje Cooperativo. Un investigador de la educación puede querer estudiar el


efecto de un nuevo programa sobre los niños y probar
(https://explorable.com/es/prueba-de-la-hipotesis) a los niños antes y después de
que el nuevo método haya sido aplicado.

Estudios de opinión

Se realiza un debate y se le pide a la audiencia que ofrezca su opinión. El moderador


realizará una votación antes del debate para establecer una opinión de referencia y
le pedirá a la audiencia que vote de nuevo al final. El equipo que haya ganado la
mayor cantidad de votos obviamente logró influir en la opinión en los mismos
sujetos mucho mejor, por lo que podrá ser declarado el ganador.

Prueba médica

Se quiere conocer la eficacia de una prueba médica. El investigador puede dar a


todos los participantes un placebo durante un tiempo y ver sus efectos,
posteriormente les administrará la prueba a todos los pacientes y comprobará los
resultados. Comparando ambos efectos puede saber si la prueba es eficaz o no.

Partiendo del ejemplo del aprendizaje cooperativo la hipótesis que sometemos a


comprobación es:

Ho: X1=X2                El aprendizaje cooperativo no tiene influencia


https://campusformacion.net/nuevocampus/impresioncurso.php 86/172
11/12/21 14:12 Campus Virtual

Hi: X1 ≠ X2               El aprendizaje cooperativo influye

Representación simbólica

AG1   _          Xa1; X a2             01; 02

Análisis estadístico

T de Student para muestras relacionadas

Ventajas

Disminución del tamaño de la muestra. El diseño intrasujetos exige menos


participantes que diseño entre sujetos.

Disminución del tiempo y recursos necesarios. El proceso es mucho más ágil y


menos complicado en cuanto a los recursos que los diseños intersujetos.
Encontrar sujetos puede convertirse en un trabajo tedioso.

Por ejemplo, si deseas probar cuatro condiciones con cuatro grupos de 30


participantes se hace difícil de manejar y costoso. Usar un grupo, que es
probado con las cuatro condiciones, es mucho más fácil. 

Aumento de la potencia estadística. Un diseño intra-sujetos bien


planificado permite a los investigadores controlar el efecto sobre
los individuos mucho más fácilmente y reducir la posibilidad de que
las diferencias individuales distorsionen los resultados.

Simplificación del control experimental. En los diseños intersujetos


los sujetos deben ser apareados o equiparados con respecto
aquellas características que pudieran covariar con la variable
independiente. En un diseño intrasujeto no existe la necesidad de
equiparar a los sujetos puesto que los sujetos son los mismos en
todas las condiciones experimentales.

Desventajas

El problema del efecto de la práctica. Las respuestas de los sujetos


en la segunda o en sucesivas condiciones experimentales pueden
verse afectadas por el hecho de haber realizado anteriormente la
tarea experimental. La ejecución puede mejorar en las sucesivas
condiciones o empeorar debido al cansancio o el aburrimiento.
https://campusformacion.net/nuevocampus/impresioncurso.php 87/172
11/12/21 14:12 Campus Virtual

Efectos del orden. El orden puede afectar a las observaciones


obtenidas provocando que el cambio experimentado en la variable
dependiente se deba al orden en que se presentaron los
tratamientos.

(Por ejemplo, si queremos estudiar el efecto del alcohol sobre el tiempo


de reacción y tenemos dos condiciones: una con alcohol y otra sin;
aplicamos primero la con y luego la sin, pasados 5 minutos, por lo que
los sujetos y su tiempo de reacción aún están afectados por la primera
condición, cosa que no habría sucedido si las hubiéramos aplicado en
orden inverso).

También se pueden dar estos efectos al dar las instrucciones en una


condición y éstas afectar a la tarea en las siguientes condiciones, o
cuando los sujetos interpretan los propósitos del experimentador
en un nivel de la variable independiente y continúan con esta
interpretación a lo largo de todas las condiciones.

Estos efectos producirán una disminución de la validez interna que


pueden ser minimizados utilizando las técnicas de aleatorización
(determinar de forma aleatoria el orden de aplicación de los
tratamientos. Cada sujeto recibirá una secuencia aleatoria de los
tratamientos) y contrabalanceo (variando sistemáticamente el orden de
las condiciones experimentales).

Por ejemplo, supongamos que tenemos 3 tratamientos: A, B y C. El


contrabalanceo implica que todos los sujetos pasan por todas las
opciones de las permutaciones de las tres letras A, B, y C.

ABC, ACB, BAC, BCA, CAB, CBA.

La Mortandad experimental. Dado que en los diseños intra-sujetos


todos los sujetos han de pasar por todas las condiciones
experimentales, es de esperar que en algunas ocasiones, es posible
que fallen algunos sujetos en alguna sesión. Esto puede llevar a
tener al final menos sujetos de los que necesitábamos. Una
solución a este problema la obtendríamos comenzando con más
sujetos de los que realmente hubiésemos necesitado y así, si se da
la mortalidad experimental, quedaríamos con la muestra que
necesitábamos o con una mayor, en el caso de no tener ningún
abandono.

Necesidad de elaborar materiales equivalentes. En los diseños


intra-sujetos nos puede ocurrir que necesitemos materiales
equivalentes para las presentaciones sucesivas de los mismos
sujetos.

https://campusformacion.net/nuevocampus/impresioncurso.php 88/172
11/12/21 14:12 Campus Virtual

Por ejemplo, si se ha de leer un texto determinado para medir la rapidez


de lectura, tenemos que tener varias medidas del tiempo en cada sujeto
y, para ello, necesitaríamos varios textos equivalentes al utilizado en
primer lugar. Si usásemos el mismo texto, se podrían introducir efectos
no deseamos de variables que covaríen con la variable independiente,
como el efecto de la práctica. Por otra parte, los materiales no deben
diferir mucho o introducirían diferencias debidas a las diferencias
reales en los materiales.

Para evitar esto se deben equiparar los materiales entre condiciones. Si


se trata de un texto escrito existen criterios de homogeneización
estandarizados como serían: la frecuencia y longitud de las palabras
utilizadas en los textos, la misma longitud de texto, la misma
complejidad sintáctica y la consideración de que el propio tema sea
parecido.

Este tipo de problema se plantea también en los estudios de memoria


en los que los que los sujetos han de memorizar una lista de palabras. En
este caso, se suele utilizar palabras sin sentido en las listas a memorizar.
Así se controlan muchos aspectos al mismo tiempo.

En algunas tareas experimentales esto no es fácil de alcanzar. En esas


circunstancias no se deberían aplicar diseños intra-sujetos ya que la
validez interna del experimento se vería amenazada.

2.3.1.2. 3 o + niveles de la variable independiente

Procedimiento:

Se sigue el mismo procedimiento que en el diseño con 2 niveles de la VI (4.1.1.)

EJEMPLO.

Un grupo de investigadores del Instituto de Investigación Biomédico de Vigo quiere


estudiar el deterioro cognitivo en un grupo de pacientes con esquizofrenia,
comprobar como cambia con la evolución de la enfermedad. Para su objetivo,
seleccionaron al azar 10 pacientes cuando los pacientes presentaron su primer
brote. Después de 2 años se volvió a pasar el mismo test a los sujetos y también a
los cinco años

Hipótesis:
https://campusformacion.net/nuevocampus/impresioncurso.php 89/172
11/12/21 14:12 Campus Virtual

Ho: X1=X2=X3         El deterioro cognitivo cambia con la evolución de la


enfermedad

H1: X1≠X2≠X3         El deterioro cognitivo cambia con la evolución de la


enfermedad

Representación simbólica

AG1   _          Xa1; X a2; X a3                  01; 02; 03

Análisis estadístico

ANOVA  de un factor para comprobar si el deterioro cognitivo cambia con la


evolución de la enfermedad.

T de Student para muestras relacionadas (Xa1-X a2;  Xa1-X a3; X a2-X a3)

2.3.2. Diseños Experimentales Intrasujeto Factoriales


 

Los diseños factoriales intragrupo tienen como característica común la de que cada
sujeto es sometido a dos o más condiciones experimentales; de ahí que, estos diseños
también reciban el nombre de diseños de medidas repetidas.

2.3.2.1. Diseños Factoriales AxB con medidas repetidas en todos los


factores

Procedimiento

1. Seleccionar al azar una muestra de la población de estudio

2. Determinar las VIs y sus niveles de interés

3. Aplicar a cada sujeto un orden de tratamiento determinada

4. Registrar la VD

5. Analizar e interpretar los resultados.

https://campusformacion.net/nuevocampus/impresioncurso.php 90/172
11/12/21 14:12 Campus Virtual

EJEMPLO:

Un investigador de enfermería pretende estudiar el efecto de dos tipos de


tratamiento sobre la higiene intestinal.

Los dos factores fueron:

A. Dieta:  a1 (dieta normal); a2 (dieta rica en fibra)

B. Ejercicio físico b1 (leve); b2 (intenso)

La variable dependiente (VD) era la higiene intestinal, que se operativizó


mediante el número de defecaciones semanales.

Hipótesis:

H0A:   Xa1= Xa2       La dieta no influye en la higiene intestinal

          H0B:   Xb1= Xb2      El ejercicio no influye en la higiene intestinal      

          H0AB:            No existe interacción entre ambos factores

Representación simbólica

AG1    —        Xa1b1;            Xa1b2             01; 02             

                      Xa2b1;            Xa2b2             03; 04 

                         

Análisis estadístico

ANOVA Factorial

2.3.2.2. Diseños Factoriales AxB con medidas repetidas solo en algunos


factores

El procedimiento de este diseño varía un poco del expuesto en el punto 4.2.1.

La diferencia con el diseño anterior es que tenemos un factor o VI que funcionará


como un factor intragrupo y el otro como un factor intergrupo.

https://campusformacion.net/nuevocampus/impresioncurso.php 91/172
11/12/21 14:12 Campus Virtual

EJEMPLO:

Un investigador de enfermería pretende estudiar el efecto de dos tipos de


tratamiento sobre la higiene intestinal.

Los dos factores fueron:

A. Dieta:  a1 (dieta normal); a2 (dieta rica en fibra)

B. Ejercicio físico b1 (leve); b2 (intenso)

La variable dependiente (VD) era la higiene intestinal, que se


operativizó mediante el número de defecaciones semanales.

En el experimento participaron 10 suejtos, de los que cinco recibieron una dieta


normal y otros 5 una dieta rica en fibra. El factor B es intragrupo, los cinco sujetos
pasan por todas las condiciones (ejercicio físico leve e intenso)

Hipótesis:

H0A:   Xa1= Xa2       La dieta no influye en la higiene intestinal

H0B:   Xb1= Xb2      El ejercicio no influye en la higiene intestinal     

H0AB:            No existe interacción entre ambos factores

Representación simbólica

AG1    —        Xa1b1;            Xa1b2             01; 02             

AG1    —        Xa2b1;            Xa2b2             03; 04

                                          

Análisis estadístico

ANOVA Factorial

TOMA DE DECISIÓN:  ¿INTER O INTRA?

https://campusformacion.net/nuevocampus/impresioncurso.php 92/172
11/12/21 14:12 Campus Virtual

A veces no se puede elegir, por razones prácticas o condicionamientos de la situación experimental.

Si podemos elegir, unos posibles criterios serían:

SI:

disponemos de pocos sujetos o

no disponemos de mucho tiempo y


Decisión Intra
queremos estudiar cambios en el comportamiento a lo largo del tiempo,

ENTONCES: debemos utilizar un diseño intra-sujetos.

SI:

no podemos controlar el efecto del orden de los tratamientos o

estudiamos VI que no varían intra-sujeto o

necesitamos sujetos ingenuos en cada condición o


Decisión Inter
existen condiciones cuyos efectos afectan indefinidamente a los sujetos y

queremos estudiar cambios en el comportamiento en un momento dado,

ENTONCES: debemos utilizar un diseño inter-sujetos.

2. 4. Técnicas de análisis de datos

2.4.1. Introducción
 
https://campusformacion.net/nuevocampus/impresioncurso.php 93/172
11/12/21 14:12 Campus Virtual

El Análisis de Datos (Data Analysis, o DA) es la ciencia que examina datos en bruto con el
propósito de sacar conclusiones sobre la información.

Consiste en la realización de las operaciones a las que el investigador someterá los datos
con la finalidad de alcanzar los objetivos del estudio.

El análisis de datos se centra en la inferencia, el proceso de derivar una conclusión


basándose solamente en lo que conoce el investigador.

El análisis e interpretación de los resultados es la última etapa del proceso de


investigación, todas las anteriores, comprendidas en el diseño, concurren hacia la
realización de esta importante operación.

Es importante planificar los principales aspectos del plan de análisis en función de la


verificación de cada una de las hipótesis formuladas ya que estas definiciones
condicionarán a su vez la fase de recolección de datos.

El análisis de los datos que realizaremos va a depender de:

a) La naturaleza del problema de investigación

b) Del tipo de investigación, nivel de investigación y diseño propuesto

c) De las técnicas y procedimientos seguidos en la elaboración de los datos

El análisis de datos es usado en varias industrias para permitir que las compañías y las
organizaciones tomen mejores decisiones empresariales y también es usado en las
ciencias para verificar o reprobar modelos o teorías existentes. El análisis de datos se
distingue de la extracción de datos por su alcance, su propósito y su enfoque sobre el
análisis.

De acuerdo con estas consideraciones, existen dos grandes familias de técnicas de


análisis de datos: 

Técnicas cualitativas: en las que los datos son presentados de manera


verbal (o gráfica), como los textos de entrevistas, las notas, los
documentos…. 
Técnicas cuantitativas: en las que los datos se presentan en forma
numérica.

Aunque, históricamente, estas dos modalidades han sido consideradas mutuamente


excluyentes, dos tipos de análisis claramente diferenciados que utilizan conocimientos y
técnicas completamente distintas, cada vez existe un mayor reconocimiento de lo

https://campusformacion.net/nuevocampus/impresioncurso.php 94/172
11/12/21 14:12 Campus Virtual

contraproducente e inapropiado de esta diferenciación tan rígida (Sofaer 1999; Creswell


2003). Es más adecuado el uso de un enfoque mixto, que incluya ambas técnicas
simultanea o secuencialmente (Creswell, 2003).

2.4.2. Tipos de técnicas de análisis de los datos


 

2.4.2.1. Técnicas de análisis de datos cualitativas

Cuando se habla de datos cualitativos generalmente se habla de textos: periódicos,


películas, mensajes de correo electrónico, cuentos, historias de vida; y también de
narrativas, como por ejemplo, relatos acerca del divorcio, sobre estar enfermo,
sobre el hecho de sobrevivir a un combate cuerpo a cuerpo, sobre prostitución o
sobre cómo intentar dejar de fumar (Ryan y Bernard, 2003).

En este sentido, es posible distinguir entre la tradición lingüística, que trata al texto
como un objeto de análisis en sí mismo, y la tradición sociológica, que trata al texto
como una ventana a la experiencia humana (ver Figura 1).

Figura 1. Tipología de las técnicas de análisis cualitativo (Ryan y Bernard,


2003, p. 260).

https://campusformacion.net/nuevocampus/impresioncurso.php 95/172
11/12/21 14:12 Campus Virtual

La tradición lingüística incluye:

a) el análisis narrativo

b) el análisis conversacional (o del discurso)

c) el análisis de ejecución

d) el análisis lingüístico formal

La tradición sociológica incluye dos tipos de textos escritos:

a) Palabras o frases generadas por medio de técnicas de elicitación


sistemática (traspaso de información fluida entre humanos).

Para recolectar palabras o frases se utilizan técnicas como las listas libres, la
clasificación en pilas, las comparaciones pareadas, las pruebas con tríadas y
las tareas de substitución de estructuras.

Las técnicas de análisis de estos tipos de datos incluyen el análisis


componencial, las taxonomías y los mapas mentales.

https://campusformacion.net/nuevocampus/impresioncurso.php 96/172
11/12/21 14:12 Campus Virtual

b) Textos libres, como las narrativas, los discursos y las respuestas a


entrevistas no estructuradas o semi-estructuradas (preguntas abiertas).

El análisis de textos libres incluye, por un lado, métodos para analizar textos
"crudos", como el método de palabras claves en contexto (KWIC por sus siglas
en inglés), el conteo de palabras, el análisis de redes semánticas y los mapas
cognitivos, y por el otro, métodos que requieren la reducción del texto en
códigos. Estos últimos incluyen la teoría fundamentada, el análisis de
esquemas, el análisis de contenido clásico, los diccionarios de contenido, la
inducción analítica y los modelos de decisión etnográficos.

Cada uno de estos métodos de análisis tiene sus ventajas y desventajas. Algunos
son apropiados para explorar datos, otros para hacer comparaciones y otros para
construir y probar modelos. Ninguno lo hace todo (Ryan y Bernard, 2003).

El análisis de datos cualitativos debe ser sistemático, seguir una secuencia y un


orden (Álvarez-Gayou, 2005). El procedimiento a seguir descrito por Álvarez-
Gayou, 2005; Miles y Huberman, 1994 y Rubin y Rubin, 1995 consta de 4 pasos:

1. Obtener la información:  a través del registro sistemático de notas de


campo, de la obtención de documentos de diversa índole, y de la realización
de entrevistas, observaciones o grupos de discusión.

2. Capturar, transcribir y ordenar la información: la captura de la información


se hace a través de diversos medios. Específicamente, en el caso de
entrevistas y grupos de discusión, a través de un registro electrónico
(grabación en cassettes o en formato digital). En el caso de las observaciones,
a través de un registro electrónico (grabación en vídeo) o en papel (notas
tomadas por el investigador). En el caso de documentos, a través de la
recolección de material original, o de la realización de fotocopias o el escaneo
de esos originales. Y en el caso de las notas de campo, a través de un registro
en papel mediante notas manuscritas. Toda la información obtenida, sin
importar el medio utilizado para capturarla y registrarla, debe ser transcrita
en un formato que sea perfectamente legible.

3. Codificar la información: codificar es el proceso mediante el cual se agrupa


la información obtenida en categorías que concentran las ideas, conceptos o
temas similares descubiertos por el investigador, o los pasos o fases dentro de
un proceso (Rubin y Rubin, 1995).

Los códigos son etiquetas que permiten asignar unidades de significado a la


información descriptiva o inferencial compilada durante una investigación. En
otras palabras, son recursos mnemónicos utilizados para identificar o marcar
los temas específicos en un texto.

https://campusformacion.net/nuevocampus/impresioncurso.php 97/172
11/12/21 14:12 Campus Virtual

Los códigos usualmente están "pegados" a trozos de texto de diferente


tamaño: palabras, frases o párrafos completos. Pueden ser palabras o
números, lo que el investigador encuentre más fácil de recordar y de aplicar.
Además, pueden tomar la forma de una etiqueta categorial directa o una más
compleja (ej: una metáfora).

Los códigos se utilizan para recuperar y organizar dichos trozos de texto. A


nivel de organización, es necesario algún sistema para categorizar esos
diferentes trozos de texto, de manera que el investigador pueda encontrar
rápidamente, extraer y agrupar los segmentos relacionados a una pregunta
de investigación, hipótesis, constructo o tema particular. El agrupar y
desplegar los trozos condensados, sienta las bases para elaborar
conclusiones.

El proceso de codificación fragmenta las transcripciones en categorías


separadas de temas, conceptos, eventos o estados. La codificación fuerza al
investigador a ver cada detalle, cada cita textual, para determinar qué aporta
al análisis. Una vez que se han encontrado esos conceptos y temas
individuales, se deben relacionar entre sí para poder elaborar una explicación
integrada. Al pensar en los datos se sigue un proceso en dos fases. Primero, el
material se analiza, examina y compara dentro de cada categoría. Luego, el
material se compara entre las diferentes categorías, buscando los vínculos
que puedan existir entre ellas.

4. Integrar la información:  relacionar las categorías obtenidas en el paso


anterior, entre sí y con los fundamentos teóricos de la investigación.

Uno de los pasos más críticos es el de la codificación de la información.

"La codificación es el corazón y el alma del  análisis de textos enteros  " (Ryan y
Bernard, 2003, p. 274). La codificación fuerza al investigador a hacer juicios acerca
del significado de bloques contiguos de texto y permite eliminar el caos y la
confusión que habría sin algún sistema de clasificación. Esto implica un trabajo
intelectual y mecánico que permita codificar los datos, encontrar patrones,
etiquetar los temas y desarrollar sistemas de categorías. Esto significa analizar el
contenido central de las entrevistas, observaciones u otros documentos para
determinar qué es significativo, y a partir de allí reconocer patrones en esos datos
cualitativos y transformar esos patrones en categorías significativas y temas
(Patton, 2002).

Ryan y Bernard (2003) señalan que las tareas fundamentales asociadas con la
codificación son:

https://campusformacion.net/nuevocampus/impresioncurso.php 98/172
11/12/21 14:12 Campus Virtual

1.  Muestreo: los investigadores primero deben identificar un  corpus de


textos y luego seleccionar las unidades de análisis dentro de los textos.

La identificación de los textos a analizar puede hacerse al azar o según un


propósito. Cuando no es al azar, las muestras pueden basarse en casos
extremos o desviados, casos que ilustran una máxima variedad de las
variables, casos que se consideran típicos de un fenómeno, o casos que
confirman o niegan una hipótesis.

Una vez que el investigador ha establecido una muestra de textos, el siguiente


paso es identificar las unidades básicas de análisis. Las unidades pueden ser
textos enteros (libros, entrevistas, respuestas a preguntas abiertas en una
investigación por encuestas), segmentos gramaticales (palabras, frases,
párrafos), unidades de formato (filas, columnas, páginas) o simplemente
trozos de texto que reflejen un único tema (unidades temáticas). En general,
las unidades de análisis no deben solaparse entre sí, sobre todo si el objetivo
es hacer comparaciones a lo largo de los diferentes textos.

2.  Identificación de temas: los temas son constructos abstractos que los
investigadores identifican antes, durante y después de la recolección de
datos. La revisión de la literatura es una fuente rica de temas, así como la
experiencia del investigador en el área de estudio. Sin embargo, muchas veces
los investigadores obtienen los temas del texto en sí mismo.

Existen diferentes métodos para obtener estos temas, pero todos ellos
coinciden en que luego de realizada la codificación, y para el momento en que
el investigador ya ha identificado los temas y los ha refinado hasta el punto en
que pueden ser aplicados a todo el corpus de textos, ya se ha realizado mucho
análisis interpretativo.

En este sentido, Miles y Huberman (1994) señalan que codificar es analizar,


ya que para codificar hay que revisar las transcripciones y diseccionarlas de
forma significativa, mientras se mantienen intactas las relaciones ente las
partes, y esto es el centro del análisis. Esta parte del análisis incluye el cómo
se diferencian y combinan los datos recolectados y las reflexiones que se
hacen respecto a esta información.

3. Construir libros o sistemas de códigos: los libros de códigos no son más que
listas organizadas de códigos (a menudo en jerarquías), las cuales deben
incluir una descripción detallada de cada código, criterios de inclusión y
exclusión, y ejemplos de texto real para cada tema. Si un tema es
particularmente abstracto, es aconsejable también dar ejemplos de los límites
del tema e incluso algunos casos que estén estrechamente relacionados pero
no incluídos en ese tema. La finalidad de la codificación es reducir los datos.

https://campusformacion.net/nuevocampus/impresioncurso.php 99/172
11/12/21 14:12 Campus Virtual

Cuando un grupo de investigadores trabajan en equipo analizando los mismos


datos cualitativos, necesitan ponerse de acuerdo sobre lo que incluirán en su
libro de códigos.

La codificación no es un proceso rígido, los buenos libros de códigos se


desarrollan y refinan a medida que avanza la investigación. Se puede
comenzar con varios temas principales, y a medida que el análisis avanza,
dividir esos temas principales en subtemas. De igual manera, es posible que a
lo largo del análisis, se decida unir algunos de los temas principales y
combinar sus subtemas, o que surjan nuevos temas que sustituyan, incluyan o
subdividan categorías anteriores. Éstas se incorporan y el proceso se
dinamiza y flexibiliza durante todo el análisis (Álvarez- Gayou, 2005; Ryan y
Bernard, 2003).

4.  Marcar textos: el acto de codificar implica la asignación de códigos a


unidades contiguas de texto. La codificación sirve a dos propósitos diferentes
en el análisis cualitativo. Primero, los códigos actúan como  etiquetas  para
marcar el texto dentro del corpus, para luego recuperarlo o indexarlo. Las
etiquetas no se asocian con unidades fijas de texto, pueden marcar frases
simples o extenderse a lo largo de múltiples páginas. Segundo, los códigos
actúan como  valores  asignados a unidades fijas. Los códigos son valores
nominales, ordinales, de intervalo o razón que se aplican a unidades de
análisis fijas y que no se solapan entre sí. Estas unidades pueden ser textos
(como párrafos, páginas, documentos), episodios, casos o personas.
Los  códigos como etiquetas  se asocian con la teoría fundamentada y el
análisis de esquemas, y los códigos como valores con el análisis de contenido
clásico y los diccionarios de contenido. Estos dos tipos de códigos no son
mutuamente excluyentes, pero el uso del mismo término (código) para ambas
acepciones puede ser engañoso.

5. Construir modelos conceptuales (relaciones entre códigos): una vez que el


investigador identifica una serie de elementos (temas, conceptos, creencias,
conductas), el siguiente paso es identificar cómo esos elementos se
relacionan entre sí en un modelo teórico. Los modelos son un grupo de
constructos abstractos y de relaciones entre ellos. Una vez que un modelo
comienza a tomar forma, el investigador debe buscar casos negativos, es
decir, casos que no encajan en el modelo. Los casos negativos o niegan partes
del modelo o sugieren conexiones que necesitan hacerse. En cualquier caso,
los casos negativos deben acomodarse.

Tanto la teoría fundamentada, como el análisis de esquemas, los modelos de


decisión etnográfica y la inducción analítica, incluyen fases de construcción de
modelos. Estos métodos junto con el análisis de contenido clásico y los diccionarios
de contenido, constituyen los métodos más comunes que usan los investigadores
para analizar bloques de textos.

 
https://campusformacion.net/nuevocampus/impresioncurso.php 100/172
11/12/21 14:12 Campus Virtual

Para realizar estas tareas los pasos que deben seguirse (Álvarez-Gayou, 2005;
Miles y Huberman, 1994; Patton, 2002; Rubin y Rubin, 1995) son:

Transcribir todo el material a ser analizado. Resulta útil usar un formato


que, al imprimirse, tenga un amplio margen derecho y/o izquierdo para
hacer anotaciones.

Es importante tener rotuladores de color, hojas grandes de cartulina,


tijeras, lápiz adhesivo, borrador, rotulador negro, bolígrafo, lápices, notas
Post-it.

Leer cuidadosamente el texto, y con un rotulador de color, señalar


cualquier parte que parezca interesante o importante. En esta primera
lectura se pueden anotar con lápiz códigos tentativos (o su abreviatura)
para estos trozos de los datos considerados relevantes, ya sea a través de
notas al margen o pegando trozos de papel, notas Post-it o lengüetas en
la página de interés. También se pueden anotar comentarios que
contengan nociones acerca de lo que se puede hacer con las diferentes
partes de los datos. Esto constituye el primer paso para organizar los
datos en tópicos, ya que el objetivo de esta primera lectura de los datos
es desarrollar un primer sistema de códigos, de categorías, en general, un
primer sistema de clasificación.

Encontrar tópicos es como elaborar el índice de un libro o las etiquetas


para un sistema de archivo: miras lo que hay y le das un nombre, una
etiqueta. El listado de estos tópicos o etiquetas se transforma en el índice
de las transcripciones.

Con un rotulador de otro color se pueden subrayar partes de texto que


pudieran servir de citas textuales en el reporte final por lo ilustrativo que
son de un código o categoría.

No basta una sola lectura, el investigador debe familiarizarse


plenamente con el texto. Las lecturas repetidas con las anotaciones y la
codificación brindan mayor claridad y estructura al análisis. Deben
efectuarse tantas lecturas como sean necesarias para apropiarse del
texto.

Después de estas primeras lecturas, se debe hacer una nueva lectura


para realmente comenzar la codificación formal de una manera
sistemática. Se puede necesitar leer los datos varias veces antes de que
todas las transcripciones puedan ser completamente indexadas y
codificadas. Algunas personas encuentran útil utilizar marcadores de
colores, codificando con colores diferentes, diferentes ideas o conceptos.
Otras utilizan puntos auto-adhesivos de colores y otras notas Post-it. Y
algunas personas utilizan una impresora a color para imprimir

https://campusformacion.net/nuevocampus/impresioncurso.php 101/172
11/12/21 14:12 Campus Virtual

transcripciones en diferentes colores para facilitar la búsqueda de la


fuente de una cita, cuando se cortan y pegan diferentes citas dentro un
tema.

Puede resultar útil al imprimir los textos, que la información de distintas


personas o, por ejemplo, de distintos grupos de discusión, quede en hojas
de papel de diferente color, así cuando se corten y peguen segmentos de
esta información junto a otra, siempre existirá la referencia evidente, por
el color, de a qué grupo o persona pertenece.

Una vez codificado todo el material, resulta útil colocar juntos todos los
trozos de texto que corresponden a un mismo código o categoría.

Para ello, se pueden utilizar una hoja grande de cartulina para cada
código, colocando el nombre del código en la parte superior de la
cartulina con el rotulador negro. Habrá que tener una cartulina sin
nombre en la que se peguen las porciones de texto sin codificar o cuya
categorización parezca incierta. Las cartulinas se pueden pegar en la
pared. Se recorta cada sección de texto seleccionado y se pega en la
cartulina correspondiente al código. Si se han impreso las
transcripciones de cada persona o grupo de discusión en hojas de papel
de diferente color, en las cartulinas se tendrá evidencia de la procedencia
del texto.

Hay investigadores que en lugar de utilizar cartulinas, prefieren pegar los


trozos de texto en hojas de papel de tamaño normal o colocarlos en pilas
diferentes según el código al que se refieran. Lo importante es que esta
re-distribución del material permite tener una visión global de cada
categoría, de la información que contienen, de si es necesario abrir una o
más categorías o subcategorías, del número de citas que incluye cada
categoría (frecuencia), y así determinar las que predominaron, y notar
cualquier elemento de análisis que la investigación específica requiera.

Cuando están trabajando en el análisis más de una persona, es útil que


cada uno desarrolle el sistema de códigos de forma independiente, y
luego comparar y discutir las semejanzas y diferencias. De esta forma,
pueden emerger elementos importantes a partir de las diferentes
maneras en que diferentes personas ven los mismos datos. De igual
manera, es útil que una vez elaborado el sistema de códigos, las
transcripciones sean codificadas por cada investigador de forma
independiente y luego comparar los resultados.

Como sabemos, es muy posible que durante el proceso de codificación el


sistema de códigos sea modificado, al aparecer trozos de texto que no
encajan bien en las categorías disponibles, o en el caso de múltiples
codificadores, cuando hay trozos de textos que son codificados de

https://campusformacion.net/nuevocampus/impresioncurso.php 102/172
11/12/21 14:12 Campus Virtual

manera diferente por diferentes codificadores. Las modificaciones en el


sistema de códigos implican la relectura y recodificación de todo el
material.

Clasificar y codificar datos cualitativos produce un marco para organizar


y describir lo que se recolectó durante el trabajo de campo. Esta fase
descriptiva del análisis sienta las bases para la fase interpretativa en la
cual se extraen los significados a partir de los datos, se hacen
comparaciones, se construyen marcos creativos para la interpretación,
se determina la importancia relativa, se sacan conclusiones, y en algunos
casos, se genera teoría.

Para crear códigos existen varios métodos, Miles y Huberman (1994) describen
tres de los más útiles:

1.  Crear una lista inicial de códigos previa. Esta lista se elabora antes del
trabajo de campo y proviene del marco conceptual, de las preguntas de
investigación, hipótesis, áreas problemáticas y/o variables clave que el
investigador lleva al estudio. Tiene un contenido específico.

Esta lista inicial puede tener desde alrededor de 12 hasta 50-60 códigos.
Sorprendentemente, el investigador puede retener fácilmente esa cantidad
de códigos en su memoria a corto plazo, sin tener que consultar
constantemente la lista completa, siempre que ésta tenga una estructura y
una lógica claras. Es buena idea colocar esa lista en una sola página para fácil
referencia.

2. Técnicas de codificación inductivas. En este caso el investigador prefiere no


tener ninguna codificación previa a la recolección de datos, prefiere
obtenerlos directamente de los datos. Se dice que de esta manera los datos se
amoldan mejor a los códigos que los representan y que hay una sensación de
"código en uso" y no de "código genérico para muchos usos" generado por una
lista inicial prefabricada. También se dice que el investigador muestra una
mente más abierta y mayor sensibilidad al contexto, aunque el objetivo final
sigue siendo casar las observaciones con una teoría o serie de constructos. De
ninguna manera es un proceso completamente desestructurado como
algunos investigadores noveles piensan.

Como una manera de comenzar, se sugiere codificar las  condiciones,


interacciones entre actores, estrategias y tácticas,  y  consecuencias. Por
ejemplo, para encontrar las condiciones, el investigador puede buscar
palabras como "porque" o "desde". Para encontrar las  consecuencias,
términos como "como resultado de" o "debido a". Las frases que los
informantes usan repetidamente (códigos "en vivo") también son buenas
guías, generalmente apuntan a temas importantes.

https://campusformacion.net/nuevocampus/impresioncurso.php 103/172
11/12/21 14:12 Campus Virtual

3. Crear un esquema de códigos general. Alternativa a mitad de camino entre


la aproximación a priori y la inductiva. Ese esquema de códigos general no
tiene un contenido específico, pero apunta a aspectos generales en donde los
códigos pueden desarrollarse inductivamente.

Por ejemplo Lofland (1971) plantea que los códigos en cualquier estudio
pueden lidiar con los siguientes tipos de fenómenos, los cuales ordena del
nivel micro al macro:

1.  Actos: acción en una situación, que es de corta duración,


consumiendo sólo pocos segundos, minutos u horas.

2. Actividades: acciones de mayor duración (días, semanas o meses) que


constituyen elementos significativos de la vida de las personas.

3. Significados: producciones verbales de los participantes que definen


y dirigen la acción.

4. Participación: implicación holística de la persona o adaptación a una


situación o contexto bajo estudio.

5.  Relaciones: interrelaciones entre varias personas consideradas


simultáneamente.

6. Contextos: todo el contexto bajo estudio considerado como la unidad


de análisis.

Otro ejemplo de uno de estos tipos de esquemas lo aportan Bogdan y Biklen (1992)
quienes dividen los códigos de la siguiente manera:

1. Ambiente/Contexto: información general de los alrededores que permiten


poner el estudio en un contexto mayor.

2. Definición de la situación: cómo las personas entienden, definen o perciben


el contexto o los tópicos en que se basa el estudio.

3. Perspectivas: maneras de pensar acerca del contexto que son compartidas


por los informantes ("cómo se hacen las cosas aquí").

4. Maneras de pensar acerca de las personas y los objetos: modo de verse a


ellos mismos, a los de afuera, a los objetos en su mundo (más detalladamente
que el anterior).

5.  Proceso: secuencia de eventos, flujo, transiciones y puntos decisivos,


cambios a través del tiempo.

6. Actividades: conductas que ocurren con regularidad.

https://campusformacion.net/nuevocampus/impresioncurso.php 104/172
11/12/21 14:12 Campus Virtual

7.  Eventos: actividades específicas, especialmente aquellas que ocurren con


poca frecuencia.

8.  Estrategias: maneras de conseguir las cosas; tácticas, métodos y técnicas


que utilizan las personas para cubrir sus necesidades.

9.  Relaciones y estructura social: patrones no definidos oficialmente, como


pandillas, coaliciones, romances, amistades, enemigos.

10.  Métodos: problemas, alegrías y dilemas del proceso de investigación, a


menudo en relación a los comentarios de los observadores.

Estos esquemas ayudan al investigador a pensar acerca de categorías dentro de las


que deben desarrollarse los códigos. Por supuesto, cada investigación en concreto
puede focalizarse sólo en pocas de estas categorías.

En todos los métodos de codificación: predefinido, guiado por un esquema o


postdefinido, los códigos cambian y se desarrollan a medida que avanza el trabajo
de campo. Sin embargo, e independientemente del método a través del cual sean
creados los códigos y del tipo de proceso de revisión posterior, lo más importante
es que tengan un orden conceptual y estructural. Los códigos deben relacionarse
entre sí de forma coherente y relevante para el estudio, deben ser parte de una
estructura reguladora. No se deben agregar, remover o reconfigurar códigos de
manera casual (Miles y Huberman, 1994).

Por último, los códigos deben cumplir una serie de requisitos:

a) Estar definidos operacionalmente de forma clara y precisa. Esto permite


que los códigos puedan ser aplicados de manera consistente por un solo
investigador a través del tiempo o para que múltiples investigadores piensen
acerca del mismo fenómeno a medida que codifican.

b) Ser nombrados, con un término lo más cercano posible al concepto que


describen. Por ejemplo, si el término es motivación, el código podría ser MOT.
La idea es que el codificador debe ser capaz de regresar al concepto original
tan rápido como sea posible, sin tener que traducir el código al concepto.

2.4.2.2. Técnicas de análisis de datos cuantitativas

Las técnicas de análisis de datos cuantitativas estudian los fenómenos observables


(del mundo real) como “representaciones numéricas” y por ello se basan en la
ciencia estadística.

https://campusformacion.net/nuevocampus/impresioncurso.php 105/172
11/12/21 14:12 Campus Virtual

Los análisis cuantitativos se interpretan a la luz de las predicciones iniciales


(hipótesis) y de estudios previos (teoría). La interpretación constituye una
explicación de cómo los resultados encajan en el conocimiento existente (Creswell,
2003).

En la actualidad, el análisis cuantitativo de los datos se lleva a cabo mediante


paquetes estadísticos, programas informáticos que están especialmente diseñados
para resolver problemas en el área de la estadística. Ya casi nadie lo hace de forma
manual ni aplicando fórmulas, en especial si hay un volumen considerable de datos.

Existen multitud de paquetes informáticos, tanto de  software privado  como


de  software libre, sin embargo, los más utilizados son: R, SAS, SPSS, Epi Info 7,
SPAD, Stata, Statgraphics, Redatam, Minitab, Matlab, S-PLUS, LISREL, Win QSB,
Excel y PSPP. A pesar de que SAS y SPSS suelen ser considerados los más potentes,
hay muchísimas empresas que utilizan programas mucho menos potentes como
Excel.

Existen dos niveles de análisis cuantitativos:

1. Análisis descriptivos: permiten ordenar, agrupar, clasificar y representar la


información de los datos obtenidos de la observación. Se construyen tablas y
se representan gráficos que permiten simplificar la complejidad de los datos.
Asimismo, permite calcular parámetros (números que resumen la gran
cantidad de datos que pueden derivarse del estudio de una  variable
estadística) que caracterizan como se distribuye una variable en la población.

2. Análisis ligados a las hipótesis (Análisis estadístico inferencial). Busca dar


explicación al comportamiento o hallar conclusiones de un amplio grupo de
individuos, objetos o sucesos a través del análisis de una pequeña fracción de
sus componentes (Muestra) para poder crear un modelo de la realidad. Un
modelo que permita poder predecir la realidad.

El proceso de análisis cuantitativo se esquematiza en la Figura 2.

Figura 2. Procedimiento del análisis estadístico cuantitativo

(Sampieri – Metodología de la Investigación, Capítulo 10-2010)

https://campusformacion.net/nuevocampus/impresioncurso.php 106/172
11/12/21 14:12 Campus Virtual

Fase 1. Seleccionar un programa de análisis

Como vimos anteriormente, existen diversos programas para analizar los datos
cuantitativos (por ejemplo, SPSS). Todos funcionan de forma muy similar. Incluyen
dos partes:

Una parte en la que se definen las variables, y consecuentemente los


datos (los elementos de la codificación ítem por ítem).

Se introduce cada variable con su nombre, que equivale a un ítem, una


categoría, una característica.

Otra parte que contiene la matriz de datos, la cual es como cualquier hoja
de cálculo. La matriz contiene columnas (variables o ítems), filas (casos,
sujetos) y celdas (intersección entre una columna y una fila. En las celdas
se introducen los datos (valor de cada caso en una variable.

Figura 3. Ejemplo de matriz de datos con 4 casos y tres variables. (Sampieri,


2010)

https://campusformacion.net/nuevocampus/impresioncurso.php 107/172
11/12/21 14:12 Campus Virtual

Por lo general, en la parte superior de la matriz de datos aparecen las opciones de


los comandos para operar el programa de análisis estadístico como cualquier otro
programa (Archivo, Edición, etc…)

Fase 2. Ejecutar el programa

Statistical Package for the Social Sciences SPSS® o PASW Statistics

El SPSS (Paquete Estadístico para las Ciencias Sociales) desarrollado en la


Universidad de Chicago, es uno de los más difundidos.

Existen versiones para Windows, Macintosh y UNIX.

Contiene las dos partes citadas que se denominan:

a) vista de variables (para definiciones de las variables y consecuentemente,


de los datos)

b) vista de los datos (matriz de datos)

El paquete SPSS trabaja de una manera muy sencilla: éste abre la matriz de datos y
el investigador selecciona las opciones más apropiadas para su análisis.

File (archivo): sirve para construir un nuevo archivo, localizar uno ya construido,
guardar archivos, especificar   impresora, imprimir, cerrar, enviar archivos por
correo electrónico, entre otras funciones.

Edit (edición): se emplea para modificar archivos, manipular la matriz, buscar datos,
copiar, cortar, eliminar y otras acciones de edición.

View (ver):  para ver o visualizar la barra de estado, barra de herramientas, fuentes,
cuadrícula (matriz), etiquetas y variables.

Data (datos): se insertan variables, insertan casos, ordenan casos, fundir archivos
(juntar varios archivos o matrices), segmentar archivos (por una variable o criterio;
por ejemplo, la variable género, en este caso se realiza el análisis por submuestra
segmentada, resultados para hombres y para mujeres), seleccionar casos, etcétera.

Transform (transformar): la función es de recodificar, conjuntar o unir y modificar


variables y datos; categorizar variables; asignar rangos a casos, entre otras.

Analyze (analizar): permite realizar los análisis estadísticos que básicamente serían:

Informes (resúmenes de casos, información de columnas y filas).

Estadísticos descriptivos (tablas de frecuencias, medidas de tendencia


central y dispersión, tablas de contingencia).
https://campusformacion.net/nuevocampus/impresioncurso.php 108/172
11/12/21 14:12 Campus Virtual

Comparar medias (prueba t y análisis de varianza —ANOVA—


unidireccional).

Modelo lineal general (independiente y dependiente, con covariable).

ANOVA (análisis de varianza factorial en varias direcciones).

Correlaciones (bivariada —dos— y multivariadas —tres o más—) para


cualquier nivel de medición de las variables.

Regresión (lineal, curvilineal y múltiple).

Clasificación (conglomerados y análisis discriminante).

Reducción de datos (análisis de factores).

Escalas (fiabilidad y escalamiento multidimensional).

Pruebas no paramétricas.

Respuestas múltiples (escalas).

Validación compleja.

Series de tiempos.

Ecuaciones estructurales y modelamiento matemático.

Add-ons (agregados): mediante esta función se tiene acceso a análisis complejos


como redes neurales, identificación de casos inusuales y varias pruebas estadísticas
avanzadas)

Graphs (gráficos): con esta función se solicitan gráficos (histogramas, de sectores,


diagramas de dispersión, Q-Q —solicitar normalización de distribuciones—, P-P,
curva COR, etcétera).

    Utilities (utilidades o herramientas): se definen ambientes, conjuntos,


información sobre variables, etcétera.

    S-plus: es para la adquisición, edición y transformación de datos, la línea de


comandos, métodos estadísticos básicos con S-Plus y R, gráficos estadísticos
básicos con S-Plus y R, métodos estadísticos multivariados avanzados y creación de
funciones propias con S-Plus.

    Window (ventana): sirve para moverse a través de archivos y hacia otros
programas.

    Help (ayuda): cuenta con contenidos de ayuda, cómo utilizar SPSS, comandos,
guías, “asesor estadístico” y demás elementos aplicados al paquete (con índice).

https://campusformacion.net/nuevocampus/impresioncurso.php 109/172
11/12/21 14:12 Campus Virtual

Fase 3: Explorar los datos (Análisis Descriptivo de las variables)

El análisis que realicemos de los datos depende de tres factores:

a) El nivel de medición de las variables (nominal, ordinal, intervalo y razón)

b) La manera como se hayan formulado las hipótesis.

c) El interés del investigador.

El análisis descriptivo de los datos permite resumir toda la información recopilada


en unos pocos valores numéricos de los datos. Se realiza un análisis de estadística
descriptiva para cada una de las variables de la matriz (ítems) y para cada una de las
variables del estudio.

El análisis descriptivo aporta diversos datos numéricos que nos ofrecen distinta
información:

Medidas de centralización: media, moda, mediana, cuartiles, percentiles, …

Medidas de dispersión: varianza, desviación típica, rango, etc…

Medidas de forma: coeficiente de variación de Pearson, Curtosis de Fisher,…

Relación entre variables: coeficiente de correlación, regresión lineal

Dentro de las técnicas que permiten resumir la información de las variables, los
gráficos resultan indispensables, debido a su fácil comprensión. Entre los gráficos
nos encontramos con  los diagramas de barras, los histogramas, los polígonos de
frecuencias, los diagramas de caja.

Fase 4. Evaluar la confiabilidad y validez lograda por el instrumento de


medición

La confiabilidad se calcula y evalúa para todo el instrumento de medición utilizado,


o bien, si se administran varios instrumentos, se calcula para cada uno de ellos.

La confiabilidad es un índice que muestra el grado en que un instrumento produce


resultados consistentes y coherentes. Un instrumento es confiable si su aplicación
repetida al mismo individuo u objeto produce resultados iguales. Ejemplo.-  un
termómetro que indique que hay 22°C, un minuto más tarde deberá indicar lo
mismo. Una prueba de inteligencia que se aplica hoy a un sujeto deberá
proporcionar los mismos valores un mes más tarde.

https://campusformacion.net/nuevocampus/impresioncurso.php 110/172
11/12/21 14:12 Campus Virtual

La confiabilidad de un instrumento de medición se determina mediante diversas


técnicas. Todas utilizan procedimientos y fórmulas que producen coeficientes de
fiabilidad. El valor del coeficiente de fiabilidad puede oscilar entre cero y uno,
donde un coeficiente de cero significa nula confiabilidad y uno representa un
máximo de confiabilidad (fiabilidad total, perfecta). Cuanto más se acerque el
coeficiente a cero (0), mayor error habrá en la medición.

Las técnicas pueden ser:

Confiabilidad por test-retest (Coeficiente de estabilidad). Consiste en aplicar un


mismo instrumento de medición dos o más veces a un mismo grupo de personas,
después de un cierto periodo. Si los resultados de las diferentes aplicaciones son
muy similares, el coeficiente de fiabilidad es próximo a 1 el instrumento se
considera confiable. Desde luego, el periodo entre las mediciones es un factor a
considerar. Si el periodo es largo y la variable que queremos medir es susceptible de
cambios se puede confundir la interpretación del coeficiente de fiabilidad obtenido
por este procedimiento. Y si el periodo es corto las personas pueden recordar cómo
respondieron en la primera aplicación del instrumento.

Método de formas alternativas o paralelas (Coeficiente de equivalencia). Consiste


en aplicar dos versiones equivalentes de un tipo de instrumento de medición a un
mismo grupo de personas simultáneamente o dentro de un periodo relativamente
corto. Ex.- dos escalas que midan depresión. Estas deben ser similares en contenido,
instrucciones, duración y otras características, y se administran. Si el coeficiente de
fiabilidad es próximo a 1 el instrumento se considera confiable.

Método de mitades partidas (split-halves). Consiste en sola administración de un


instrumento de medición pero dividido en dos partes, el conjunto total de ítems se
divide en dos mitades equivalentes y se comparan las puntuaciones o los resultados
de ambas. Si el instrumento es confiable, las puntuaciones de las dos mitades deben
estar muy correlacionadas. Un individuo con baja puntuación en una mitad tenderá
a mostrar también una baja puntuación en la otra mitad. Se cálcula a través de la
correlación entre las dos mitades del test aplicando la fórmula de Spearman-
Brown.

Medidas de coherencia o consistencia interna. Consiste  en sola administración de


un instrumento de medición. Tenemos dos principales:  el coeficiente alfa de
Cronbach y los coeficientes KR-20 y KR-21

En normas generales podemos afirmar que un que si obtengo 0.25 en la correlación


o coeficiente, esto indica baja confiabilidad; si el resultado es 0.50, la fiabilidad es
media o regular. En cambio, si supera el 0.75 es aceptable, y si es mayor a 0.90 es
elevada, para tomar muy en cuenta.

https://campusformacion.net/nuevocampus/impresioncurso.php 111/172
11/12/21 14:12 Campus Virtual

La validez se refiere al grado en que un instrumento realmente mide la variable que


pretende medir. Por ejemplo, un instrumento válido para medir la inteligencia debe
medir la inteligencia y no la memoria. En apariencia es sencillo lograr la validez.
Después de todo, como dijo un estudiante: “Pensamos en la variable y vemos cómo
hacer preguntas sobre esa variable”. Sin embargo, la situación no es tan simple
cuando se trata de variables como la motivación, la actitud hacia un candidato
político, y menos aún con sentimientos y emociones. La validez es una cuestión más
compleja que debe alcanzarse en todo instrumento de medición que se aplica.

La validez no es un concepto unitario, posee diferentes dimensiones:

Validez de contenido. Se refiere al grado en que un instrumento de


medición refleja o tiene representados prácticamente a todos o la
mayoría de los componentes de la variable que se desea medir. ¿El
instrumento mide adecuadamente las principales dimensiones de la
variable en cuestión?

Ejemplo.- una prueba de conocimientos sobre enfermería en salud mental no


deberá basarse solamente en el conocimiento de los inyectables depot, sino que
debe incluir definiciones de los síndromes mentales.

Para medir la validez de contenido:

1) revisar cómo ha sido medida la variable por otros investigadores;

2) con base en dicha revisión, elaborar un universo de ítems  posibles;

3) consultar a investigadores familiarizados con la variable para ver si el


universo es verdaderamente;

4) se seleccionan los ítems bajo una cuidadosa evaluación, uno por uno;

5) se extrae una muestra probabilística de ítems al azar;

6) se administran los ítems y se correlacionan las puntuaciones de éstos entre


sí  y se hacen estimaciones estadísticas para ver si la muestra es
representativa.

Validez de criterio. Establece la validez de un instrumento de medición al comparar


sus resultados con los de algún criterio externo que pretende medir lo mismo

El criterio externo es una medida que existe con anterioridad al instrumento, y que
es aceptado por expertos como un índice adecuado de la característica que el
nuevo instrumento pretende medir.

Ejemplo.- Consideraremos que un test para seleccionar buenos conductores tiene


validez de criterio si existe una fuerte correlación entre la puntuación obtenida en
el test y la pericia mostrada en la conducción (criterio).

https://campusformacion.net/nuevocampus/impresioncurso.php 112/172
11/12/21 14:12 Campus Virtual

Si los mejores en el test son los que conducen mejor, el test tendrá un alto
coeficiente de validez y tendremos un test empíricamente válido para seleccionar
conductores.

La validez de criterio de un test, a su vez, puede ser concurrente, cuando las


puntuaciones en el test y la pericia para conducir se comparan o correlacionan en el
mismo momento, o puede ser predictiva, cuando las el test se aplica para
seleccionar a los mejores conductores y semanas más tarde se comprueba que los
seleccionados conducen de maravilla.

¿En qué grado el instrumento comparado con otros criterios externos mide lo
mismo? La validez de criterio se estima al correlacionar la medición con el criterio
externo (puntuaciones del instrumento frente a las puntuaciones en el criterio), y
este coeficiente se toma como coeficiente de validez.

Validez de constructo. Es probablemente la más importante, sobre todo desde una


perspectiva científica, y se refiere a la capacidad del instrumento para explicar el
modelo teórico empírico que subyace a la variable de interés.

La validez de constructo nos indica que el instrumento está midiendo una variable
que es aceptable, una variable que está definida operacionalmente y situada dentro
de un modelo teórico que le otorga ese significado. Para decir que el test que mide
la capacidad de conducción tiene validez de constructo, primero tiene que existir
ese contructo, qué es la capacidad de conducción, como la definimos. Y este
concepto teórico o constructo tiene que estar reflejado en los ítems del test.

¿El concepto teórico está realmente reflejado en el instrumento?, ¿qué significan las
puntuaciones del instrumento?

Un constructo es una conceptualización teórica sobre una característica medible, la


validez de constructo trata de evaluar hasta qué punto una prueba mide los
constructos sobre los que se sustenta. Se trata de comprobar si el instrumento
mide el rasgo o concepto teórico o si se cumplen las hipótesis sobre la estructura
del constructo (Martínez Arias, 1995).

La validez de constructo suele medirse mediante procedimientos de análisis


estadístico multivariado

(“análisis de factores”, “análisis discriminante”, “regresiones múltiples”)

Entre las técnicas posibles para analizar la validez de constructo la más usada es el
análisis factorial o el análisis de componentes principales. Ejemplo.- Aplicación del
análisis factorial exploratorio del conjunto de respuestas a los ítems del
cuestionario para examinar la estructura factorial de las puntuaciones al
cuestionario e identificar las fuentes de variación en las medidas observadas.

Existen múltiples factores que afectan a la confiabilidad y la validez de los


instrumentos de medición e introducen errores en la medición:

https://campusformacion.net/nuevocampus/impresioncurso.php 113/172
11/12/21 14:12 Campus Virtual

Utilizar instrumentos desarrollados en el extranjero que no han sido validados en


nuestro contexto: cultura y tiempo. Traducir un instrumento, aun cuando
adaptemos los términos a nuestro lenguaje y los contextualicemos, no es ni
remotamente una validación. Incluso un mismo test en Venezuela y España no será
válido porque culturalmente no somos iguales. Ni usar un test que se aplicaba en
los años 60.

Usar un instrumento inadecuado para las personas a quienes se les aplica: no es


empático. Utilizar un lenguaje muy elevado para el sujeto participante, no tomar en
cuenta diferencias en cuanto a género, edad, conocimientos, memoria, nivel
ocupacional y educativo, capacidades de conceptualización y otras diferencias en
los participantes, son errores que llegan a afectar la validez y confiabilidad del
instrumento de medición.

Deseabilidad social de los participantes(tratar de dar una impresión muy favorable


a través de las respuestas), tendencia a asentir con respecto a todo lo que se
pregunta, dar respuestas inusuales o contestar siempre negativamente

Condiciones en las que se aplica el instrumento de medición. El ruido, la


iluminación, el frío.

Por ejemplo, en una encuesta pública sería muy difícil aplicar una prueba larga o
compleja.

Falta de estandarización. Por ejemplo, que las instrucciones no sean las mismas
para todos los participantes, que el orden de las preguntas sea distinto para algunos
individuos, que los instrumentos de observación no sean equivalentes, etc.

La objetividad. Se refiere al grado en que el instrumento es permeable a la


influencia de los sesgos y tendencias de los investigadores que lo administran,
califican e interpretan.

2005). Investigadores racistas o “machistas” quizás influyan negativamente por su


sesgo contra un grupo étnico o el género femenino. Lo mismo podría suceder con
las tendencias ideológicas, políticas, religiosas o la orientación sexual.

La objetividad se refuerza mediante la estandarización en la aplicación del


instrumento (mismas instrucciones y condiciones para todos los participantes) y en
la evaluación de los resultados; así como al emplear personal capacitado y
experimentado en el instrumento. Por ejemplo, si se utilizan observadores, su
proceder en todos los casos debe ser lo más similar que sea posible y su
entrenamiento tendrá que ser profundo y adecuado.

La validez, la confiabilidad y la objetividad no deben tratarse de forma separada. Sin


alguna de las tres, el instrumento no es útil para llevar a cabo un estudio

https://campusformacion.net/nuevocampus/impresioncurso.php 114/172
11/12/21 14:12 Campus Virtual

Unidad formativa 3. El método causi-experimental

3.1. Diseños cuasi-experimentales

3.1.1. Definición
 

Los diseños cuasiexperimentales manipulan deliberadamente una o más


variables independientes para observar su efecto y relación con una o más
variables dependientes como los dieños experimentales puros, pero
difieren de estos en el grado de seguridad o confiabilidad que pueda
tenerse sobre la equivalencia inicial de los grupos.

La investigación cuasi experimental proviene del ámbito educativo, donde la


investigación de ciertos fenómenos no podía llevarse a cabo siguiendo los
procedimientos experimentales (Campbell y Stanley, 1966).

El investigador no puede cumplir los  requerimientos de un experimento


verdadero,  debido a que no puede asignar aleatoriamente los  participantes a las
condiciones experimentales.

Una definición que incluye las características más relevantes de la metodología


cuasiexperimental es la ofrecida por Pedhazur y Schmelkin (1991):

¿Qué es un cuasi-experimento? Es una investigación que posee todos los elementos de un


experimento, excepto que los sujetos no se asignan aleatoriamente a los grupos. En ausencia
de aleatorización, el investigador se enfrenta con la tarea de identificar y separar los efectos de
los tratamientos del resto de factores que afectan a la variable dependiente (p. 277)

Hedrick y cols. (1993) la describen como:

 Los diseños cuasi-experimentales tienen el mismo propósito que los estudios experimentales:
probar la existencia de una relación causal entre dos o más variables. Cuando la asignación
aleatoria es imposible, los cuasi-experimentos (semejantes a los experimentos) permiten
estimar los impactos del tratamiento o programa, dependiendo de si llega a establecer una
base de comparación apropiada (p. 58)

https://campusformacion.net/nuevocampus/impresioncurso.php 115/172
11/12/21 14:12 Campus Virtual

Por su parte Arnau (1995) la define como:

Aquellos sistemas de investigación donde el criterio de asignación de los sujetos o unidades a


las condiciones de tratamiento o condiciones de estudio no se rige por las leyes del azar (p. 15).

Debido al deficiente control que implican las investigaciones cuasiexperimentales,


algunos autores, como por ejemplo Van Dalen y Meyer (1971), se refieren a ellas
con el nombre de investigaciones con control parcial. Otros metodólogos prefieren
utilizar el término de estudios no aleatorizados (Anderson y cols., 1980).

3.1.2. Características
 

Su objetivo es estudiar el impacto de los tratamientos y de los procesos


de cambio intra e interindividuales.

Mide los efectos del tratamiento sobre la VD (puede haber uno o más
tratamientos).

Se utilizan en situaciones en las que no se pueden asignar aleatoriamente


los sujetos a las distintas condiciones.

Los sujetos no se asignan al azar  a los grupos ni se emparejan, sino que los grupos ya
están formados antes del experimento, surgen por si mismos, independientemente del
objetivo del estudio (por ejemplo, grupos clínicos por diagnóstico, grupos geográficos)

Las comparaciones en la respuesta de los sujetos se realizan entre grupos ‘no


equivalentes’, es decir, grupos que se pueden diferenciar en muchos otros aspectos
además de la VI manipulada. Para buscar la mayor equivalencia se recomienda emplear
en la medida de lo posible el pretest, es decir, una medición previa a la aplicación del
tratamiento, a fin de analizar la equivalencia entre los grupos.

Poseen menor grado de control sobre los efectos de las variables


extrañas que en los diseños experimentales (menor validez interna que
los diseños puros). Para minimizar los errores de cara a la generalización
de los resultados, se puede optar por controlar los factores derivados del
procedimiento de estudio, del ambiente o del propio sujeto, mediante
técnicas de control, para maximizar la varianza primaria, controlar la
secundaria y minimizar la varianza error.

https://campusformacion.net/nuevocampus/impresioncurso.php 116/172
11/12/21 14:12 Campus Virtual

Los estudios cuasiexperimentales se llevan a cabo donde existen


barreras éticas y prácticas para realizar experimentos verdaderos o
estudios experimentales.

Son de gran utilidad en la evaluación de programas de intervención


psicológica o social, para mejorar su planificación y control, y para
evaluar la efectividad y eficacia de los programas en ámbitos de la salud,
educación, bienestar y otros servicios sociales.

Comparte la lógica del paradigma experimental que implica que, para


poder establecer relaciones causales, se tienen que cumplir las
siguientes condiciones: 1) la VI debe anteceder a la VD; 2) debe existir
covariación entre las variables; 3) se deben poder descartar
explicaciones alternativas.

La investigación se lleva a cabo en situaciones donde suele darse de


forma natural la conducta objeto de estudio, por eso suele tener mayor
validez externa. El alcance de generalización de los resultados es
altísima.

3.1.3. Tipos y Clasificaciones


 

Atendiendo a la clasificación de Judd y Kenny (1981) los diseños cuasi-experimentales se


clasifican atendiendo a tres aspectos esenciales:

1) La estrategia de comparación y obtención de datos

Transversal: la conducta de los sujetos (o unidades de observación) se


registra en un punto específico de tiempo (no hay seguimiento de los
sujetos). Intersujetos

Con grupo control no equivalente. Su formato consta de


medidas antes y después de la aplicación del
tratamiento. Las medidas antes sirven para ajustar las
diferencias iniciales de los dos grupos (control y
tratamiento) mediante técnicas estadísticas adecuadas.

Grupos no equivalentes (tratamiento y control, todas las


condiciones, a un solo grupo). Los sujetos se asignar al
grupo de tratamiento o control conforme a un punto de
corte en la variable pretratamiento. Por ejemplo, los
sujetos con puntuaciones por debajo del punto de corte

https://campusformacion.net/nuevocampus/impresioncurso.php 117/172
11/12/21 14:12 Campus Virtual

son asignados al grupo de control, mientras que los


sujetos que se sitúan por encima son asignados al grupo
de tratamiento.

Longitudinal. Intrasujetos

diseños de un solo sujeto

diseños de un grupo o k grupos de sujetos (series


temporales interrumpidas, medidas repetidas, estudios
de cohorte, en panel)

2) El procedimiento de asignación de las unidades a los tratamientos (cuál es la regla o


variable que ha determinado la formación de los grupos)

Variable de selección conocida:

diseños de discontinuidad en la regresión (por ejemplo,


puntuación pretest)

Variable no conocida:

diseños de grupo control no equivalente

diseños de grupos no equivalentes

3) La existencia de medidas pre-test.

Sin pretest
Con pretest

La clasificación de Campbell y Stanley (1966)

Diseños cuasi experimentales

1) Con grupo de control:

Con grupo de control no equivalente

Pretest+postest

Cohortes

Discontinuidad en la regresión

2) Sin grupo de control:

Tratamiento repetido

Retirada de tratamiento con pretest+postest

https://campusformacion.net/nuevocampus/impresioncurso.php 118/172
11/12/21 14:12 Campus Virtual

3) De series temporales interrumpidas:

Simple

Con grupo control equivalente

Aunque se han propuesto diversas clasificaciones del diseño cuasiexperimental, todas


ellas coinciden en mantener la dicotomía entre dos grandes bloques: los diseños
transversales y los diseños longitudinales.

3.1.3.1. Transversales

En contextos aplicados,  donde las muestras no proceden de las poblaciones según


un procedimiento de selección aleatoria y los sujetos no son asignados al azar a los
grupos, la investigación transversal (grupos paralelos) utiliza formatos similares a
los diseños experimentales

Dentro del contexto cuasi-experimental, los sujetos van a parar al grupo de


tratamiento y control por la propia decisión de los sujetos o por consideraciones
prácticas. En consecuencia, los grupos experimental y control pueden ser
diferentes y no comparables en oposición a lo que ocurre en la investigación
aleatorizada.

Los diseños cuasi-experimentales son esquemas de investigación afectados por un


sesgo de selección o por variables de selección. Esto requiere la adopción de técnicas
de análisis para corregir los posibles sesgos y neutralizar las variables de selección,
de modo que se infiera el efecto de los tratamientos sin que esté contaminado por
las diferencias iniciales de los grupos. Las diferencias iniciales de los grupos los
hacen no comparables o no equivalentes, siendo éste el sentido último del enfoque
cuasi-experimental transversal.

Diseños de grupo control no equivalente

Existe un grupo de tratamiento y otro de control.

El criterio de asignación de las unidades a los grupos es conocido.

En ambos grupos, las medidas pueden tomarse sólo después, o bien antes y
después de la aplicación del tratamiento. Los sujetos pueden ser
seleccionados de poblaciones diferentes, o bien se asignan grupos de sujetos
a las condiciones control o de tratamiento (diseños de grupos intactos).
https://campusformacion.net/nuevocampus/impresioncurso.php 119/172
11/12/21 14:12 Campus Virtual

Las técnicas de análisis que pueden aplicarse a los datos son,


fundamentalmente, el análisis de la variancia, el análisis de la covariancia, el
análisis de la regresión múltiple.

Diseño postest con grupo control no equivalente

Existe un grupo de tratamiento y otro de control. Los sujetos no son asignados


aleatoriamente a los distintos grupos, con lo que una gran cantidad de
variables pueden confundir la acción del tratamiento. El principal
inconveniente radica en la dificultad de derivar inferencias causales sobre el
impacto de la intervención. Por dicha razón, no es recomendable su uso.

                                               G0                   –          01        grupo control

                                               G1                   X         02        grupo tratamiento

Diseño pre/postest con grupo control no equivalente

A diferencia del diseño anterior, al tomarse medidas antes de la aplicación del


tratamiento, es posible verificar la equivalencia inicial de los grupos. Existen dos
formatos básicos: a) diseños donde los sujetos son seleccionados de poblaciones
que difieren en la medida de respuesta, y b) diseños de grupos intactos.

G0       01        –          02        grupo control

                                               G1       03        X         04        grupo tratamiento

Diseño de grupos no equivalentes con medidas antes y después

Estructura de investigación cuasi-experimental con tres o más grupos de


tratamiento, de acuerdo con los niveles de la variable independiente. Se trata,
por tanto, de una extensión de los diseños de grupo control no equivalente con
sólo medidas después.

G0       01        –          02                grupo control

                                               G1       03        X         04                 grupo tratamiento

           G2       05        X         06                  grupo tratamiento

           G3       07        X         08                  grupo tratamiento

https://campusformacion.net/nuevocampus/impresioncurso.php 120/172
11/12/21 14:12 Campus Virtual

Diseños de discontinuidad en la regresión

Su estructura básica consta de una medida o variable antes y una medida


después que refleja el efecto de tratamiento.

En esta clase de diseño, el criterio de asignación de las unidades a los grupos


es conocido, aunque no aleatorio. La asignación tratamiento y control se
realiza  en función de un punto de corte en la variable pretratamiento.

Una descripción más precisa del se da a través de su representación gráfica en


la Figura 1.

Figura 1. Representación gráfica del Diseño de discontinuidad en la regresión


(Trochim, 1984)

En la Figura 1. El eje de ordenadas se refiere al rango de valores de la variable post-


tratamiento (Y) y el eje de abcisas representa los valores de la variable
pretratamiento (X), con base a la cual se define un punto de corte (X0) que
determina la pertenencia de los sujetos al grupo control (los que muestran valores
inferiores a dicho punto) o al grupo de tratamiento (los que se sitúan por encima del
punto de corte). Las líneas continuas representan las rectas de la regresión de Y
sobre X para los grupos control y tratamiento, y la línea punteada muestra como

https://campusformacion.net/nuevocampus/impresioncurso.php 121/172
11/12/21 14:12 Campus Virtual

sería la recta de regresión del grupo tratado si la intervención no hubiese tenido


ningún efecto. La magnitud del desplazamiento de la línea de regresión en el grupo
de tratamiento indica la amplitud del efecto de intervención.

La discontinuidad de las rectas en el punto de corte refleja el efecto del


tratamiento. Se pueden analizar tanto efectos principales (cuando se produce un
desplazamiento vertical de las líneas de la regresión en el punto de corte) como
efectos de interacción (cuando el tratamiento está asociado a la variable antes).
Trochim (1984) distingue cinco posibles efectos (Figura 2):

Figura 2. Patrones hipotéticos de las líneas de regresión (Trochim, 1984)

En el análisis de datos del los diseños de discontinuidad en la regresión se utiliza el


Análisis de la covarianza, bajo el supuesto de una relación lineal y aditiva entre la
variable antes y la de tratamiento.

3.1.3.2. Longitudinales

https://campusformacion.net/nuevocampus/impresioncurso.php 122/172
11/12/21 14:12 Campus Virtual

El objetivo de los estudios longitudinales es analizar los procesos de cambio y


explicarlos. Se pretende caracterizar el cambio de la variable de respuesta en
función del tiempo y examinar qué covariables contribuyen al cambio.

Uno de los aspectos específicos del enfoque longitudinal es tomar registros u


observaciones de la misma (o mismas) unidades a lo largo del tiempo.

De ahí, el porqué lo longitudinal está siempre asociado a los cambios intra-


individuales. Ha de tenerse en cuenta que, en estos estudios, no siempre las
unidades de observación o análisis son los individuos, ya que pueden ser unidades
más amplias como barrios, áreas urbanas, familias, fábricas, ciudades, países, etc

Los diseños longitudinales usan, como estrategia de recogida de datos, la técnica de


medidas repetidas. De este modo, cada unidad de trabajo (por lo general,
individuos) es medida en distintos puntos del tiempo, de forma secuencial.

Diseños de series temporales interrumpidas

Este diseño permite mejorar los diseños cuasiexperimentales, consiste en tomar


múltiples registros, del mismo sujeto, a lo largo del tiempo. Por este motivo, se
denominan diseños de series temporales.

Los puntos de tiempo están serialmente secuenciados, antes y después de la


intervención.

La unidad observacional puede ser un individuo o un colectivo

Existen dos modalidades básicas de este tipo de diseño (Arnau, 1995b): simple y de
grupo control no equivalente.

Simple. Conjunto de datos registrados secuencialmente en una serie


discreta de momentos u observaciones de una sola unidad
observacional, antes y después de la presencia de un evento o aplicación
de un tratamiento. El objetivo es verificar si la introducción de la
intervención produce cambios de nivel y/o pendiente en la serie.

G1       01        02        03        X         04        05        06       

De grupo control no equivalente. Es similar al diseño


preprueba/postprueba con grupo de control no equivalente pero se
toman varias medidas antes y después de introducir el tratamiento.

https://campusformacion.net/nuevocampus/impresioncurso.php 123/172
11/12/21 14:12 Campus Virtual

            G1       01        02        03        X         07        08        09

                                G2       04        05        06        –          010      011      012

Desde el punto de vista estadístico, en los diseños de series temporales, el objetivo


del analista es inferir el mecanismo generador de la serie.

Con objeto de determinar esta estructura de dependencia existen dos


instrumentos diagnósticos: la función de autocorrelación (FAC) y la función de
autocorrelación parcial (FACP). El valor que puede tomar una autocorrelación
indica el grado en que una determinada observación del proceso se halla
correlacionada con otra en un retardo k. De este modo, la FAC (0) es la correlación
de la serie original consigo misma que, obviamente, sería igual a la unidad; la FAC
(1) es la correlación de la serie original con la retardada (la serie se desplaza un
lugar hacia adelante), y así sucesivamente se calculan el resto de valores de la
función de autocorrelación.

Diseños de medidas repetidas

El interés, en contextos aplicados, radica en la posibilidad de tomar medidas de una


variable en dos o más puntos del tiempo.

Permite estudiar las tendencias que presentan los datos en función del tiempo

G1       01        X         02        X         03        X         04

Resultados más interpretables: 01 difiere de 02; 03 difiere de 04; 03 - 04 difieren


en la misma dirección que 01 – 02

Diseño longitudinal antes y después

Su objetivo es el estudio del cambio de un mismo grupo de sujetos entre


dos ocasiones de observación como consecuencia de algún hecho
circunstancial, tratamiento, o por el simple paso del tiempo.

Diseño longitudinal de múltiples observaciones. Un solo grupo de sujetos


es medido, respecto a una misma variable dependiente, en diferentes
intervalos de tiempo, con objeto de determinar la curva de crecimiento.

https://campusformacion.net/nuevocampus/impresioncurso.php 124/172
11/12/21 14:12 Campus Virtual

Diseño split-plot o de muestra dividida. Los sujetos se agrupan de


acuerdo con los niveles de una variable de clasificación o categórica
(variable pronóstica), tomándose medidas repetidas de cada uno de los
sujetos en las distintas ocasiones de observación. La variedad más simple
consta de dos grupos y una sola variable de registro.

El objetivo principal de los análisis estadísticos aplicados a los diseños de medidas


repetidas es obtener una curva de crecimiento que represente cómo la media
poblacional cambia con el tiempo (Bock, 1979; Rogosa, Brandt y Zimowski, 1982;
Stoolmiller, 1995). A fin de determinar el tipo de tendencia o presencia de alguna
orientación sistemática de las medias en función de las ocasiones de observación.
Se aplica un análisis de la varianza mixto.

Diseños de cohortes

El análisis de cohortes se orienta a la identificación de la contribución de los efectos


de edad, período (o tiempo de medida) y cohorte en la explicación del cambio
ontogénico o madurativo.

Pueden definirse como estructuras de investigación donde los datos están


organizados en función de distintas cohortes, edades y períodos, con el propósito
de estudiar el efecto de cada factor y su posible interacción. Los conceptos
relacionados con esta clase de estudios son los siguientes.

Una cohorte es un grupo o agregado de individuos, dentro de una población


específica, que ha experimentado el mismo acontecimiento vital en un intervalo de
tiempo determinado.

Se comparan dos grupos, uno afectado por una situación o circunstancia


(enfermedad, cambio de plan de estudios), cohorte experimental, y otro no
afectado por tal circunstancia,       cohorte control.

           

G1       01        X         02        03        04        05.....   Cohorte experimental

G2       05        -           06        07        08        09......   Cohorte control

* Grupos fácilmente comparables, aunque no se llegue a la equivalencia


conseguida con la aleatorización

* Permite establecer inferencias causales razonables

* Se aplica un análisis de la varianza mixto.


https://campusformacion.net/nuevocampus/impresioncurso.php 125/172
11/12/21 14:12 Campus Virtual

Diseños de panel

El diseño longitudinal en panel requiere que a partir de una misma muestra de


sujetos (una única muestra) se tomen registros u observaciones de dos o más
variables, en intervalos de tiempo de bastante amplitud o tandas (waves). Puesto
que las medidas se toman en tandas o cortes temporales a lo largo de una serie de
puntos discretos en el tiempo, los diseños de panel constituyen una combinación de
los diseños de series temporales y los diseños transversales (Arnau, 1997; Rogosa,
1979).

Figura 3. Representación de las correlaciones de un diseño de panel (1) rX1Y1; (2)


rX2Y2; (3) rX1X2; (4) rY1Y2; (5) rX1Y2, y (6) rY1X2 (modificada de Rogosa, 1980; p.
149).

3.2. “Diseños selectivos”

3.2.1. Definición
 
https://campusformacion.net/nuevocampus/impresioncurso.php 126/172
11/12/21 14:12 Campus Virtual

El método selectivo es una estrategia particular del método científico que estudia los
fenómenos bajo su presentación natural, sin que el investigador manipule
intencionalmente los niveles de la variable independiente que influyen en los resultados.
Se estudia la relación existente entre las variables seleccionando las unidades de
observación; esto es, los sujetos, en virtud de que posean en distinto grado o nivel la/s
variable/s de interés (p. ej., sexo, edad, nivel cultural, etc.)

Este método se ha llamado también “método correlacional”, ya que lo que puede medirse
no es una relación causa-efecto, como ocurre con el método experimental, ya que el
investigador no puede manipular las variables independientes, y se limita a comprobar si
existe relación entre los valores que toma la variable independiente con los valores que
toma la variable dependiente; es decir, si ambas variables “correlacionan” entre sí.

Se trata de una metodología de investigación que trata de obtener información


cuantitativa sobre una población, ya sea en términos descriptivos o de relación entre
variables medidas- utilizando diseños que controlen de modo externo las condiciones de
4 producción de la conducta mediante la adecuada selección de las unidades de análisis y
la sistematización de la recogida de información (Gómez, 1990).

La metodología selectiva enfatiza la generalizabilidad de la población que desea


representar, en detrimento de un menor control interno y de considerar el contexto
concreto como irrelevante para sus propósitos (Brinberg & McGrath 1985).

La metodología selectiva tiene fuerza en la representación, la generalizabilidad de la


población que desea representar, pero resulta débil en la precisión de la medición y el
control interno (Kish 1981).

Durante años se han asignado diversas denominaciones a la metodología selectiva.


Términos como:

Correlacional (Dominowski, 1980; Wood, 1984; Shaughenessy &


Zechmeister, 1985; Visauta, 1989; Colás y Buendía, 1992; Arias Astray y
Fernández Ramírez, 1998; Pérez Meléndez, Rojas Tejada y Fernández
Prados, 1998).

Diferencial (Pérez Meléndez, Rojas Tejada y Fernández Prados, 1998)

Comparativa (Smelsner, 1973; Warwick & Osherson, 1973; Pérez


Meléndez, Rojas Tejada y Fernández Prados, 1998)

Comparativa-causal (Martínez, Hernando y Latorre, 1999)

Metodología de encuesta (Gómez, 1990; Buendía, 1992; León y


Montero, 1993; Arnau, 1995; Gambara, 1995; Buendía, Colás y
Hernández Pina, 1998; Moreno Rodríguez, Martínez Cervantes y
Chacón Moscoso, 2000)

https://campusformacion.net/nuevocampus/impresioncurso.php 127/172
11/12/21 14:12 Campus Virtual

Pero, ha sido el término de metodología selectiva (Anguera, 1990; Salvador i Pelegrina,


1993; Delgado y Prieto, 1997; Pérez Meléndez, Rojas Tejada y Fernández Prados, 1998;
Moreno Rodríguez, Martínez Cervantes y Chacón Moscoso, 2000) el que finalmente se
ha consolidado.

La denominación de metodología selectiva se refiere a la adecuada selección de sujetos y


variables, que, si bien debería darse en toda investigación científica, permite apuntar a la
representatividad como la condición sine qua non de esta metodología (Delgado y Prieto,
1997).

3.2.2. Características
 

a) Permite formular preguntas directamente a los sujetos diana, que son los
adecuados en función del objetivo pretendido. Esta característica otorga a la
metodología selectiva entidad en sí misma, diferenciándola claramente de la
metodología observacional, que recoge la información mediante el registro sin que
intervenga para nada el individuo observado, y de la metodología experimental, en
la cual hay un elevado grado de dominio y control de la situación por el investigador
de la obtención de información.

b) Es el método por excelencia en la investigación social, debido a la facilidad que


ofrece para obtener cantidades “masivas” de respuestas. Permite obtener
respuestas de un número enorme de sujetos, a través por ejemplo de cuestionarios,
que versan sobre los principales temas de interés en la sociedad.

c) Adecuación de los instrumentos de investigación a los destinatarios. Los


instrumentos no se construyen previa y específicamente para conseguir el objetivo,
sino que adaptan los instrumentos a los sujetos. Habitualmente instrumentos
semiestructurados. Los instrumentos que se utilizan básicamente en metodología
selectiva son: Entrevista, cuestionario y pruebas estandarizadas (tests).

d) El investigador selecciona las variables que le interesan, una variable


(antecedente o predictora) con la finalidad de conocer la relación que ejercen sobre
otra variable (consecuente o criterio).

e) El objetivo que se persigue es intentar descubrir la posible relación de


covariación existente entre las variables que interesan en el estudio.

f) La metodología selectiva es preferentemente nomotética. Los datos, las medidas,


son recogidas preferentemente por el observador externo, no por información
dada por el propio sujeto. Con excepción de la entrevista. La metodología selectiva
es muy extensiva (pretende recoger información de un colectivo enorme) y de
intensidad moderada (no busca respuestas profundas).

https://campusformacion.net/nuevocampus/impresioncurso.php 128/172
11/12/21 14:12 Campus Virtual

La metodología selectiva resulta adecuada cuando se quieren generalizar los hallazgos de


una muestra a una población, y también cuando la información requerida no se puede
obtener con mayor facilidad o menos coste a partir de otras fuentes. Igualmente es
recomendable en aquellos casos en que la aleatorización es impracticable o no ética
(Mayntz, Holm y Hübner, 1985)

Dado que la metodología selectiva posee sus propias características que le otorgan
entidad propia, también presenta un procedimiento particular que la diferencia de la
metodología experimental.

El procedimiento se divide en tres momentos: (Arnau, 1990; Buendía, Colás y Hernández


Pina, 1998)

1. Planteamiento de objetivos y/o problemas e hipótesis de investigación. Teórico-


conceptual

2. Selección de la muestra, definición de las variables de estudio y confección del


instrumento piloto. Metodológico

3. Codificación y análisis de los datos, elaboración de las conclusiones, realización


de generalizaciones e integración en el marco teórico. Estadístico-conceptual

El proceso que implica la metodología selectiva comprende diversos aspectos


relacionados, y todos ellos deben contemplarse (Fowler, 1993), de modo que el fallo de
cualquiera de ellos puede invalidar la totalidad:

a) Ausencia de manipulación o intervención por parte del investigador

b) se obtienen datos cuantitativos, que se pueden resumir en estadísticos

c) la recogida de información se produce mediante elicitación de la respuesta

d) la información se recoge únicamente sobre una muestra, o fracción


representativa de una población, determinándose sus elementos mediante algún
diseño muestral de tipo probabilístico.

Ante estas aproximaciones hoy podemos concluir que el proceso completo de aplicación
de la metodología selectiva contempla las siguientes fases:

1. Planificación del estudio

2. Elaboración de instrumentos en función del tipo que sea más adecuado

3. Uso del instrumento, que conlleva el plan de muestreo, selección de la muestra y


recogida de datos

4. Transformación y análisis de datos


https://campusformacion.net/nuevocampus/impresioncurso.php 129/172
11/12/21 14:12 Campus Virtual

5. Elaboración del informe En los siguientes apartados vamos a referirnos a cada


una de ellas.

3.2.3. Tipos y clasificaciones


 

3.2.3.1. Diseños de encuesta

           

El objetivo de los diseños de encuesta es conocer las características de una


población mediante un conjunto de preguntas. Realizar una interrogación general
sobre un gran conjunto de aspectos -actuales, pasados o futuros- con el objetivo de
describir una población con la mayor representatividad posible.

La encuesta es la técnica básica, ahora bien, la forma en que se presenta el


instrumento admite diversas posibilidades (Padilla García, González Gómez y Pérez
Meléndez, 1998):

a) Entrevista. Instrumento de aplicación oral que requiere la interacción entre


el entrevistador y el entrevistado.

b) Cuestionario. Sistema de recogida amplia de información sobre los


objetivos propuestos. Se suele identificar con un sondeo o medida masiva de
la opinión de un amplio colectivo de individuos.

c) Test. Instrumento estandarizado de medición diseñado para cuantificar


diversos atributos de un individuo.

d) Escala de apreciación (“rating scale”). Instrumento utilizado también desde


la metodología observacional, que tiene carácter dimensional y requiere la
ordenación de un atributo o dimensión, que no siempre es posible ni fácil,
además de caracterizarse por un importante riesgo de subjetividad.

La entrevista

La entrevista consiste en la obtención de información a través de un proceso de


comunicación en el transcurso del cual el individuo entrevistado responde a
cuestiones planteadas oralmente y previamente diseñadas en función de los
objetivos (Sierra Bravo, 1983)

Existen múltiples definiciones de entrevista, pero todas ellas coinciden en sus


características esenciales (Sandín, 1985):
https://campusformacion.net/nuevocampus/impresioncurso.php 130/172
11/12/21 14:12 Campus Virtual

Es una comunicación oral, planteada habitualmente entre entrevistador


y entrevistado, aunque también cabe la entrevista grupal (un
entrevistador y varios entrevistados), así como la entrevista
autoadministrada (sólo entrevistado).

Posee cierto grado de estructuración, que puede adquirir diversos


grados, desde la entrevista libre (en la cual sólo existen líneas directrices
muy generales) hasta la estructurada (las preguntas están prefijadas, e
incluso pueden llegar a estarlo las posibilidades de respuesta).

Tiene una finalidad específica, que dependerá de los objetivos


planteados.

Es una situación asimétrica establecida entre entrevistador y


entrevistado, que será tanto mayor en la medida en que aumente el
grado de estructuración de la entrevista.

Es un proceso bidireccional derivado de la influencia mutua


entrevistador-entrevistado.

En la entrevista se adoptan de roles específicos por ambas partes,


aunque sin relación de jerarquía entre ellos. El papel del entrevistado
estará en función de los fines de la entrevista, mientras que el del
entrevistador puede estar determinado por la información que se desee
obtener.

Existen distintos tipos de entrevista que se clasifican atendiendo a cinco criterios:


estructuración, situacional, directividad, finalidad y según el número de
participantes.

Según el grado de estructuración

Entrevista no estructurada, utilizada esencialmente en


estudios exploratorios. El planteamiento es totalmente
flexible, y el entrevistador, que debe estar especialmente
formado, tiene libertad para formular el contenido, el
número y la secuencia de las preguntas, según considere
conveniente, improvisando si es necesario. Las
respuestas son abiertas, sin categorías de respuestas
preestablecidas. Por ejemplo, una entrevista abierta a
enfermeras sobre las dificultades que plantea el
entrenamiento de los pacientes con discapacidad física.

Entrevista semi-estructurada, que contiene


especificadas las cuestiones sobre las cuales interesa
recabar información, pero no la forma específica de

https://campusformacion.net/nuevocampus/impresioncurso.php 131/172
11/12/21 14:12 Campus Virtual

preguntarlas, que se modula de acuerdo con las


características del entrevistado. El entrevistador puede
adaptar la secuencia y presentación de las preguntas,
según juzgue conveniente. Por ejemplo, la relativa a la
resolución de situaciones propias de una clase que
plantea un dilema (Boixadós, Valiente, Pintanel y Cruz,
1996).

Entrevista estructurada, que tiene una estructura y


formulación de las preguntas inflexible, así como su
orden y presentación. Presenta la ventaja de reducir los
sesgos del entrevistador, pero impide la formulación de
preguntas complementarias o aclaratorias. Cabe la
modalidad en que las respuestas sean cerradas, de
acuerdo a un sistema de categorías preestablecido.

Según la situación

La entrevista cara a cara es el tipo básico y convencional


de entrevista, y se caracteriza por su carácter presencial.

La entrevista por teléfono resulta especialmente útil


cuando se abordan temas delicados que se tratan mejor
desde la posición impersonal del individuo al que no se
ve mientras responde.

Según el grado de directividad

La entrevista dirigida se caracteriza por disponer


previamente de una lista de cuestiones o aspectos que
han de ser explorados. El entrevistador queda libre para
adaptar la forma y el orden de las preguntas. El estilo
suele ser coloquial, espontáneo e informal. La entrevista
dirigida garantiza que no se omitan áreas importantes y
permite aprovechar al máximo el tiempo de que se
dispone.

En la entrevista no dirigida el entrevistador debe crear


un clima para facilitar que el entrevistado exprese con
libertad sus opiniones y sentimientos. La clave radica en
trasladar el foco de atención desde el entrevistador al
entrevistado. Una modalidad de esta entrevista no
dirigida es la entrevista en profundidad, que sigue el
modelo de conversación entre iguales en lugar del
intercambio formal de preguntas y respuestas.

Según la finalidad (objetivos planteados)

https://campusformacion.net/nuevocampus/impresioncurso.php 132/172
11/12/21 14:12 Campus Virtual

Entrevista de diagnóstico suele solicitarla el


entrevistado y el objetivo es algún tipo de ayuda
(terapéutica, de selección, etc.).

Entrevista de estudio suele pedirla el entrevistador, y


tiene como objetivo la realización de un estudio de
interés propio. Este segundo tipo es el estándar en
metodología selectiva. Por ejemplo, entrevistas a los
profesores de los centros educativos de una ciudad con
la finalidad de detectar talentos.

Según el número de participantes

Individual,  tiene las mayores garantías de lograr una


comprensión profunda de las respuestas. Por ejemplo,
entrevista a la profesora de una niña con parálisis
cerebral.

En grupo, no es alternativa a la individual, sino una


modalidad que merece una atención propia debido a que
proporciona una información difícilmente accesible a
través de entrevista individual. Pretende recoger datos
en un contexto social donde los participantes pueden
considerar sus propios puntos de vista a la luz de las
opiniones de los otros.

El cuestionario

El cuestionario es un procedimiento sistemático y flexible que abarca desde la


decisión inicial de elaborar un instrumento hasta los posibles controles sobre su
calidad, pasando por la aclaración de los objetivos que se pretenden conseguir, el
diseño del instrumento, la redacción y elaboración de las preguntas, la aplicación de
una prueba piloto, para acabar con la edición del cuadernillo, formulario o
documento que recoge de forma organizada las preguntas sobre el objetivo de la
encuesta (Santesmases, 1997; Padilla García, González Gómez y Pérez Meléndez,
1998).

Los criterios más útiles para clasificar los tipos de cuestionario son: cientificidad,
forma de administración, contenido, dimensión temporal y tipo de preguntas.

Según la cientificidad

Descriptivos, tienen por finalidad establecer cuál es la


distribución de un determinado aspecto de la realidad en
una determinada muestra o población.

https://campusformacion.net/nuevocampus/impresioncurso.php 133/172
11/12/21 14:12 Campus Virtual

Explicativos, tienen como finalidad determinar las


razones por las que se produce un determinado
fenómeno.

Según la forma de administración

Cuestionario personal o cara a cara, es el sistema más


utilizado, aunque también el más costoso (éste es el
motivo del uso frecuente de los otros tipos), y consiste
en obtener las opiniones, hechos o actitudes de un
individuo a través de un formulario previamente
redactado y suministrado por quién aplica el
instrumento. b.

Cuestionario por correo ha sido enviado por el equipo


investigador al domicilio del destinatario por correo, con
el fin de que éste se autoadministre el cuestionario y
responda al mismo. Presenta el grave inconveniente de
las tasas altas de no respuestas, así como la dificultad de
comprobar las que se reciben. Además, un grave
problema proviene de la falta de actualización y
duplicaciones de los listados de los nombres de las
personas que se han localizado. Si se remite el
cuestionario por correo se debe facilitar su devolución
incluyendo un sobre cumplimentado con franqueo o a
franquear en destino.

Cuestionario por teléfono, suele estar previamente


estructurado, y se dirige a aspectos muy concretos del
colectivo al cuál se dirige. Presenta la limitación de no
poder preservar el anonimato, ya que como mínimo es
necesario disponer, a priori, de números de teléfono, lo
cual hace aumentar la cantidad, calidad y actualización
de la información exigida a los listados de donde se
extrae la muestra. La encuesta por teléfono es la más
sensible a los errores de cobertura, ya que es necesario
que la población estudiada tenga teléfono y que además
figure en un listín telefónico.

De acuerdo con el contenido

Los cuestionarios relativos a hechos tratan de recabar


información sobre aquellos acontecimientos de los
cuales el encuestado es protagonista principal, y se
refieren a su propio ámbito y características
demográficas o contexto.

https://campusformacion.net/nuevocampus/impresioncurso.php 134/172
11/12/21 14:12 Campus Virtual

Los cuestionarios sobre acción son los que se refieren a


actividades de los encuestados. Por ejemplo, un
cuestionario relativo a las actividades que forman parte
de la asignatura de geografía.

Los cuestionarios sobre opiniones pretenden conseguir


información sobre datos subjetivos del individuo, y están
constituidos por sus declaraciones verbales sobre
situaciones o informaciones. Por ejemplo, un
cuestionario sobre opiniones acerca de las
características más importantes que debe poseer tanto
un profesor de Educación Física

Los cuestionarios sobre intenciones pretenden conocer


los propósitos del colectivo de encuestados. Por
ejemplo, un cuestionario relativo a cómo debe
evolucionar el rol profesional de los investigadores

Los cuestionarios actitudinales tratan de lograr


información sobre tales aspectos cognitivos. Cabe tener
en cuenta que los cuestionarios constituyen uno de los
escasos instrumentos diponibles para el estudio de
actitudes, valores y creencias.

Según la dimensión temporal

Los cuestionarios sincrónicos o transversales pretenden


obtener información referida a un momento dado, como
si se pretendiese una “instantánea del momento” del
fenómeno en cuestión.

Los cuestionarios diacrónicos o longitudinales (de panel


o de series temporales) pretenden estudiar uno o más
fenómenos en momentos temporales distintos, o en un
período determinado de tiempo, con la finalidad de
conocer la evolución seguida. A su vez, pueden ser
longitudinales prospectivos o retrospectivos. Por
ejemplo, un registro semanal de actividades que permita
cuantificar la actividad física diaria y semanal en
términos de gasto de energía

Los cuestionarios de cohortes o longitudinales-


transversales (también denominados estudios de panel
repetidos), que estudian la sucesiva incorporación de
cohortes (generaciones) de individuos caracterizados
previamente. Por ejemplo, un cuestionario a los

https://campusformacion.net/nuevocampus/impresioncurso.php 135/172
11/12/21 14:12 Campus Virtual

sucesivos entrenadores de baloncesto a muchachos de


16 a 18 años en un club de barrio, realizado en los años
2010, 2015, 2020 y 2000.

Según el tipo de preguntas:

Preguntas abiertas

Preguntas cerradas

Según la naturaleza de las preguntas:

De hechos

De acción

De información

De intención

De opinión

De escalas subjetivas

Según el modo de respuesta:

Respuestas abiertas

Respuestas escalares

Respuestas de clasificación

Respuestas categorizadas

Según la función de las preguntas:

Preguntas filtro

Preguntas de sinceridad

Preguntas de consistencia

Preguntas de relleno,

Preguntas amortiguadoras o colchón)

Preguntas batería

Preguntas de clasificación

Preguntas de acceso y de aflojamiento.

Según la finalidad de las preguntas:

https://campusformacion.net/nuevocampus/impresioncurso.php 136/172
11/12/21 14:12 Campus Virtual

Preguntas directas

Preguntas indirectas

El test

En metodología selectiva, el test es un instrumento estándar que, en forma de


prueba, permite efectuar la medición de un determinado atributo.

“El test es una medida objetiva y tipificada de una muestra de conducta”


Anastasi (1976, p. 21).

Es objetiva en la medida en que es totalmente independiente del examinador


particular que administre la prueba, y es un instrumento tipificado porque ha
de presuponer una cierta uniformidad de procedimiento en la aplicación y
puntuación que permita comparar las puntuaciones obtenidas por los
distintos individuos.

Los test pueden ser:

Psicométricos. Se centran en el estudio de rasgos específicos, dando


como resultado una puntuación total; se preocupa especialmente del
producto final y se vale de elementos fuertemente estructurados que
conducen a valoraciones objetivas de los atributos medidos. Se
caracterizan por:

Período de elaboración complejo y laborioso que


requiere de un conocimiento profundo del rasgo o
atributo medido, de las técnicas de medición y de las
características del colectivo al cual se dirige.

Garantía de obtención de la misma puntuación a


distintos individuos en distintas aplicaciones del test, sea
por uno o diversos correctores.

Estandarización, en el doble sentido de presentar unas


normas para interpretar las puntuaciones (tipificación) y
de indicar el conjunto de reglas de presentación,
aplicación y puntuación que permitan la comparación de
los valores alcanzados por unos sujetos con los logrados
por otros.

Muestreo de conductas para la elaboración de ítems y la


posterior selección de aquellos que reúnan las
características de validez, discriminación, homogeneidad
y dificultad.

https://campusformacion.net/nuevocampus/impresioncurso.php 137/172
11/12/21 14:12 Campus Virtual

Un test psicométrico puede ser el que se aplica en el ámbito laboral para escoger
 entre candidatos, a los más aptos para ocupar cargos vacantes en las empresas.

Holísticos. Tiene como meta una evaluación global de la personalidad.

Proyectivos. Permiten que los sujetos puedan proyectar tanto elementos


de su personalidad como conflictos inconscientes que le pueden resultar
desconocidos y, a su vez, proyecta elementos conscientes sobre sí mismo
pero de forma inconsciente. Test de Rorschach (Manchas de tinta).

Un aspecto, en relación con los test, que actualmente resulta indispensable es la


adaptación de tests para su uso en diferentes idiomas y culturas de aquellos en que
fueron elaborados originariamente, dado que cada vez está adquiriendo mayor
interés la realización de estudios internacionales comparativos. Se han elaborado
22 directrices específicas por parte de la ITC (International Test Commission) sobre
contexto, construcción y adaptación del test, aplicación, e interpretación de las
puntuaciones, y es imprescindible su seguimiento para no incurrir en los múltiples
sesgos derivados de una actuación inadecuada.

Asimismo, en el último siglo se ha producido una auténtica revolución con el uso de


tests informatizados, que originariamente pretendían optimizar
fundamentalmente aspectos operativos relacionados con la corrección de
respuestas y la interpretación de la puntuación obtenida, pero que a día de hoy se
ha convertido en la práctica habitual.

Una extensión lógica de la informatización de los test ha sido la posibilidad de


elaboración automatizada de informes digitales, con todo lo que ello significa de
agilidad y riesgo.

La escala de apreciación

Este instrumento detecta el grado en que un sujeto presenta el rasgo evaluado,


desde su ausencia o escasa presencia hasta la posibilidad de tener el máximo de
éste o de una determinada actitud o conducta (mediante una escala gráfica,
categórica o numérica).

El proceso de la escala es:

Se presentan a un colectivo de individuos un conjunto de ítems formado


por aproximadamente el mismo número de ítems favorables y
desfavorables.

https://campusformacion.net/nuevocampus/impresioncurso.php 138/172
11/12/21 14:12 Campus Virtual

Se pide a los individuos que respondan a cada una de las frases en


función de su grado de acuerdo o desacuerdo con ellas

Se combinan las respuestas de manera que aquéllos que tienen una


actitud más favorable obtengan las puntuaciones más altas, y los que
tienen una actitud más desfavorable las puntuaciones más bajas

El modelo de escalamiento asume unos supuestos sobre la naturaleza de los ítems y


de la escala final:

Las variaciones sistemáticas en las respuestas de las personas a los ítems


se deben únicamente a las diferencias interindividuales.

Los items están relacionados monotónicamente con la variable que se


supone que miden.

Los items miden una única variable, formando, en consecuencia, una


escala unidimensional. Las categorías de respuesta se sitúan en un orden
determinado, y mediante este tipo de escalas se puede obtener
información tanto objetiva como subjetiva. Existe una relación de orden
en las categorías de respuesta, aunque este orden no proporciona
información sobre la diferencia existente entre las distintas categorías.

Ejemplo.  Escala de Apreciación

Rasgo a evaluar: Participación responsable del alumno en el trabajo en


equipo.

Items: Participa activamente en la toma de decisiones del grupo; Respeta el


orden de intervención;  Respeta las opiniones de los demás; Expone sus
propias ideas; Escucha atentamente a los demás

Respuestas: Permanentemente; Frecuentemente; Ocasionalmente; Rara Vez;


Nunca.

2.3.2. Diseños ex post facto

El término ex post facto significa después de hecho.

En este tipo de diseño "el investigador se plantea la validación de las hipótesis


cuando el fenómeno ya ha sucedido. Generalmente se trata de una búsqueda de las
causas que lo han producido, de forma retrospectiva...es un tipo de investigación
https://campusformacion.net/nuevocampus/impresioncurso.php 139/172
11/12/21 14:12 Campus Virtual

que se aplica cuando no se puede producir el fenómeno o no conviene


hacerlo" (Bisquerra, R. 1989 pag 219). 

"Una característica esencial de la investigación ex post facto es que no se tiene


control sobre la variable independiente, puesto que sus manifestaciones ya han
ocurrido. Es decir, ha ocurrido un hecho (variable independiente) y se observan
posteriormente los efectos en las variables dependientes" (Bisquerra, R. 1989 pag
218).

En diversas circunstancias, lo que el investigador encuentra es todo el proceso


causal, es decir, han ocurrido las causas (variables independientes) y su
consecuencia (variable dependiente). En ese caso sólo puede tratar de reconstruir
los hechos, sin embargo, hay otras situaciones en las que la expresión Ex post facto
se aplica sólo a las variables independientes, siendo así, el investigador no necesita
mirar hacia atrás para reconstruir los hechos, sino que puede mirar hacia delante.
Cuando se trabaja en el primer tipo de situación, todo a ocurrido antes de que
llegue el investigador, hablamos de diseños ex post facto retrospectivos, mientras
que cuando trabajamos en el segundo tipo de esquema, las causas están en marcha,
pero todavía no ha habido desenlace, hablamos de diseños ex post facto
prospectivos.

"La investigación ex post facto tiene tres limitaciones claramente definidas: 1)


Incapacidad de controlar directamente las variables independientes, lo cual
provoca desconfianza experimental... 2) Imposibilidad o impotencia de realizar la
asignación aleatoria. 3) Riesgo ante las interpretaciones erróneas derivadas de la
falta de control. Por otra parte presenta múltiples ventajas, como la validez
ecológica, que la hacen especialmente adecuada a la investigación
educativa" (Bisquerra, R. 1989 pag 220).

a) Diseño etiológico de cohortes. De la población (N) cojo los participantes no


diagnosticados con TAG y los separo según su locus de control. Con el tiempo
observaré si acaban o no presentando este trastorno y veré a que grupo
pertenecen (o locus de control interno o externo)

b) Diseño de casos y controles. El estudio se inicia seleccionando personas


que tienen trastorno de ansiedad generalizada y personas que no tienen, es
decir, según la variable dependiente. Una vez hecho esto, se realiza el camino
a la inversa: miramos atrás en el tiempo y miramos el historial de la persona

c) Diseño transversal analítico. Ejemplo: optimismo como factor protector de


la depresión infantil y adolescente. Este diseño implica simplemente coger un
grupo de personas únicamente y medir simultáneamente las dos variables
que queremos relacionar. En estos diseños, como no podemos manipular la
VI, no podemos controlar.

https://campusformacion.net/nuevocampus/impresioncurso.php 140/172
11/12/21 14:12 Campus Virtual

3.2.4. Técnicas de muestreo


 

Una de las características de la metodología selectiva es que se opera con fracciones


representativas de una población, por lo que la garantía de representatividad de la
muestra es un requisito imprescindible para la validez de estos estudios (Moreno
Rodríguez, Martínez Cervantes y Chacón Moscoso, 2000), el cual sólo puede conseguirse
mediante el azar. Ahora bien, como el azar es imprevisible, las técnicas de muestreo
establecen ciertas restricciones para garantizar el control específico de algunas
variables.

El plan de muestreo (o diseño muestral) tiene como objetivo seleccionar la parte de la


población que se incluirá en la muestra y de la que se recogerá la información deseada
(Martínez Arias, 1995); es decir, implica adoptar una decisión sobre el modelo o tipo de
muestreo que va a aplicarse y sobre el tamaño de la muestra, para poder posteriormente
preparar un listado con las unidades de muestreo que se seleccionen con el fin de acceder
a la respuesta elicitada y planificar así la fase de recogida de datos.

3.2.4.1. Técnicas de Muestreo probabilístico

a) Muestreo aleatorio simple.

Es la técnica más simple de muestreo probabilístico, aunque probablemente resulte


la más difícil de implementar debido a las imperfecciones del listado de los
elementos de la población. A partir del listado, marco, o base de datos
poblacionales, mediante un procedimiento aleatorio se seleccionan “n” unidades,
que corresponderán a individuos concretos, identificados y numerados. Se puede
efectuar la extracción de las unidades muestrales con o sin reemplazo. Por ejemplo,
elección aleatoria de una muestra de participantes en una maratón.

b) Muestreo aleatorio estratificado.

La población se organiza en subconjuntos o estratos mediante la aplicación de uno


o más criterios de homogeneidad, procediéndose posteriormente a la afijación o
reparto de las unidades de muestreo en los diferentes estratos que componen la
muestra, que puede efectuarse con diversos criterios: (Manzano Arrondo, 1998a)

Criterio de uniformidad, según el cual todos los estratos tienen el


mismo tamaño de muestra.

https://campusformacion.net/nuevocampus/impresioncurso.php 141/172
11/12/21 14:12 Campus Virtual

Criterio proporcional, en donde el tamaño de la muestra para cada


estrato se halla en función de la magnitud de dicho estrato
respecto a la población.

Criterio de varianza mínima, en el cual, para un determinado


tamaño fijo de la muestra, se calculan los tamaños de cada estrato
de forma que la varianza de la muestra sea la menor posible.

Criterio de compromiso, en el cual se establece un tamaño mínimo


para toda submuestra.

Criterio óptimo, que es una variación de mínima varianza,


considerando además un coste particular en la obtención de cada
submuestra.

c) Muestreo sistemático.

En función del tamaño de la población y del tamaño deseado de la muestra, se


calcula, mediante una simple razón, cuántos elementos de la población se precisan
para que se pueda extraer una unidad muestral (y, por tanto, en cuántos intervalos
se podría segmentar la lista de los elementos que componen la población).

En un segundo paso, se selecciona un elemento aleatoriamente del primer


intervalo, y a partir de él, para la selección de las sucesivas unidades muestrales, se
va aplicando sobre el listado poblacional la misma longitud de intervalo, siempre
que esté previamente ordenado mediante algún criterio neutro (como puede ser el
orden alfabético de los apellidos).

Como ilustración, se podría aplicar igualmente la extracción de una muestra de


participantes en una maratón, una vez se dispone de la lista total de participantes
ordenada alfabéticamente. Si participan 1.000 individuos, y se desea que la
muestra tenga un tamaño de 100, ello significa que de cada 10 individuos se elegirá
uno para la muestra. En el primer intervalo (individuo 1 a individuo 10) se selección
un participante al azar, y suponemos que sale el 4. Como consecuencia, los
integrantes de la muestra serán el 4, 14, 24, 34, etc., hasta el 994.

d) Muestreo por conglomerados

Los conglomerados son agrupaciones de unidades que se disponen en un orden


jerárquico de extensión o magnitud. Para llevar a cabo esta técnica de muestreo,
primero se considera una subdivisión de la población en conglomerados (barrios,
familias, centros escolares, clubes, etc.), y en un segundo momento se establece una
selección de conglomerados, no de las unidades elementales que los componen, por
lo que la muestra se construye con la unión de los conglomerados completos
seleccionados.
https://campusformacion.net/nuevocampus/impresioncurso.php 142/172
11/12/21 14:12 Campus Virtual

e) Muestreo por rutas aleatorias. En aquellos casos en que interese obtener una
muestra aleatoria de una población para una entrevista cara a cara y no se disponga
de la información precisa que identifique las unidades a seleccionar.

En este caso se realiza un muestreo por etapas en función de la información


disponible; después se limita geográficamente la zona a encuestar, poniéndose en
marcha un procedimiento aleatorio de selección in situ, que da lugar a las rutas
aleatorias, que se justifican por la necesidad de contar con un procedimiento que
seleccione unidades de la población en la situación frecuente de desconocimiento
tanto de identidad como de localización de las unidades.

El principio básico que rige las rutas aleatorias es el de conseguir una selección
objetiva, en el sentido de que la selección de un encuestado concreto y no de otro
no depende del encuestador que realiza la selección (Manzano Arrondo y González
Gómez, 1998). De aquí que se objetiven los diversos momentos en los cuales deben
adoptarse decisiones, como son los de punto de partida en la zona, sentido de la
marcha desde el punto de partida, selección de un edificio, selección de una
vivienda dentro del edificio y selección de un posible encuestado dentro de la
vivienda.

2.4.2. Técnicas de Muestreo no probabilístico

a) Muestreo accidental, circunstancial o errático. La selección de elementos


se realiza sin ningún criterio, y es totalmente fortuito. Por ejemplo, en una
encuesta a socios de una empresa, los primeros en llegar a la asamblea.

b) Muestreo de voluntarios

c) Muestreo intencional o deliberado. Se escogen los elementos más


accesibles de la población por razones de accesibilidad o comodidad. Por
ejemplo, entrevista a gestores de una empresa con los cuales se tiene amistad
y por tanto se presume que no van a negarse a ello.

d) Muestreo intencional, experto o de juicio. El investigador acude a un


experto (que puede ser él mismo) que utiliza sus prejuicios, experiencia y
conocimientos previos para decidir qué unidades deben ser incluidas en la
muestra por considerarlas representativas de la población. Por ejemplo, el
profesor de matemáticas de un grupo de alumnos podrá decidir cuáles de
ellos presentan mayores posibilidades para participar en un concurso
intensivo con el fin de competir con los niños de otras escuelas.

https://campusformacion.net/nuevocampus/impresioncurso.php 143/172
11/12/21 14:12 Campus Virtual

e) Muestreo por cuotas. Se decide de forma justificada qué criterios permiten


una estratificación de la población, y posteriormente se seleccionan de forma
no aleatoria los integrantes de cada uno de dichos estratos. Por ejemplo,
entre los nadadores de un club se delimitan subgrupos según su estilo
predominante (mariposa, libre, espalda, etc.), pero luego se seleccionan desde
de cada estilo a juicio del autor del estudio.

f) Muestreo por bola de nieve (Noelle, 1970), según el cual se comienza por
encuestar a unos pocos seleccionados, sea por su condición de expertos o por
criterios de disponibilidad, aumentando progresivamente el tamaño de la
muestra hasta completar la cantidad prefijada.

¿QUÉ TIPO DE MUESTRA ELEGIR, PROBABILISTICA O NO


PROBABILISTICA?

Realizar uno u otro tipo de muestreo para seleccionar la muestra va a depender de


de los objetivos del estudio, del diseño de la investigación y de la generalización que
queramos realizar de los resultados.

Si el  diseño de investigación es exploratorio y el enfoque fundamentalmente


cualitativo, cuyo objetivo es documentar ciertas experiencias para generar datos e
hipótesis para futuras investigaciones. NO PROBABILISTICO.

Si  se hace una asociación entre variables, los  resultados servirán de base para
tomar decisiones y se quieren generalizar datos a la población con una estimación
precisa del error. PROBABILISTICA.

3.2.5. Técnicas de recogida de datos


 

Recogido en el punto 2.4

https://campusformacion.net/nuevocampus/impresioncurso.php 144/172
11/12/21 14:12 Campus Virtual

Unidad formativa 4. Diseños observacionales

4.1. Diseños observacionales

4.1.1. Definición y características


 

La metodología observacional pretende recoger el significado de una conducta, evitando


su manipulación, a través del sistema de observación más adecuado (Anguera, 1983).

Ahora bien, la observación sin más no puede ser considerada como método científico. En
la observación científica las percepciones no son casuales u ocasionales, no se
comprueban los hechos tal y como se presentan espontáneamente, sino que se utilizan
hipótesis manifiestas, existe intencionalidad de buscar una relación entre dos o más
variables en base a una teoría. A pesar de ello, existen ocasiones en las que se pueden
obtener observaciones científicas por azar, descubrimientos realizados por accidente,
casualidad, inesperados y afortunados, de cosas que no se están buscando ni
investigando, pero que son la solución para otro problema que se tenía, es la denominada
serendipia o serendipity.

La observación es, por tanto, un instrumento básico para el logro empírico de nuestros
objetivos, constituye uno de los aspectos importantes del método científico.

La observación se considera una técnica científica en la medida que:

Sirve a un objetivo ya formulado de investigación.

Es planificada sistemáticamente (¿qué se observa, cómo y cuándo? ).

Es controlada y relacionada con proposiciones más generales en vez de


ser presentada como una serie de curiosidades interesantes.

Está sujeta a comprobaciones de validez y fiabilidad.

Es cierto en la metodología observacional no existe manipulación (a diferencia de la


metodología experimental y cuasi-experimental) de la conducta, pero sí control de las
posibles variables extrañas que distorsionarían los datos. Con dicho control se pretende
que la variable o variables independientes sean las únicas responsables directas de los
valores de la o las variables dependientes.

https://campusformacion.net/nuevocampus/impresioncurso.php 145/172
11/12/21 14:12 Campus Virtual

El grado de control que el investigador puede lograr de la situación a observar depende


en gran medida de la situación de observación: ambiente natural / ambiente de
laboratorio. En el primer caso la conducta a estudiar ‘forma parte’ del repertorio de
respuestas del sujeto mientras que en el ambiente de laboratorio la conducta se produce
en un entorno totalmente diferente, existiendo una cierta manipulabilidad de la misma.
En el ambiente de laboratorio se crean situaciones análogas que requieren que el sujeto
responda a estímulos que simulan a aquellos que se podrían encontrar en el ambiente
natural. El sujeto tiene que desempeñar el papel que se le adjudica como si se encontrara
en la situación propuesta por el investigador, incrementándose la validez interna del
estudio en comparación con los estudios en ambiente natural. A pesar de ello, se
recomienda utilizar la situación artificial solamente cuando es totalmente imposible
recoger las mediciones en ambiente natural (Anguera, 1983).

El grado de control, es el factor determinante diferenciador entre la observación y la


experimentación. Mientras que en la observación este es nulo (observación pasiva) o,
mínimo (observación activa), en la experimentación toma su valor más alto, ya que
permite al experimentador manejar y dominar la situación (tomando decisiones sobre las
variables independientes, formación de grupos, etc.), es decir, asegurándose que las
fuentes y condiciones de variación son las que él ha introducido, sin que intervengan
variables extrañas.

El método observacional se lleva a cabo siguiendo una serie de fases que coinciden con
las de la investigación científica en general:

a) Formulación del problema. En muchos estudios, se parte de un periodo de


observación exploratorio para llegar posteriormente a una sistematización en
donde todo esté planificado. La observación exploratoria trata de especificar mejor
el problema y las variables que resultan relevantes, también nos indica como
organizar el proceso y que puede ser observado.

b) Codificación y registro.

c) Análisis e interpretación de los datos observacionales. Nos aporta resultados


útiles en cada estudio, bien porque extraigamos una conclusión satisfactoria, o bien
porque al resultarnos negativas, nos estimulen a un nuevo replanteamiento del
problema y, a la formulación de nuevas hipótesis.

d) Comunicación de los resultados. Informan de los hallazgos a cualquier persona


que se interese por el trabajo realizado, y a la que podrán estimular e inspirar en su
continuación.

4.1.1.1.  Clasificación de la observación

En función de la sistematización.
https://campusformacion.net/nuevocampus/impresioncurso.php 146/172
11/12/21 14:12 Campus Virtual

Observación no sistematizada, ocasional o no controlada. La distinción entre


observación controlada y no controlada se establece según se realice o no con
previa sistematización o precisión científica. La observación no sistematizada
puede ser un medio útil para la búsqueda de una problemática que orienta hacia
una investigación posterior. No obedece a ninguna regla. Por tanto, este tipo de
observación se aplica especialmente, cuando aún se sabe relativamente poco en
torno al objeto a investigar. La observación realizada en este estudio exploratorio
está caracterizada por una atención poco estructurada, pero abierta el máximo en
todas las direcciones y a todos los comportamientos que se sucedan. En definitiva,
se acumulan unas observaciones que pueden, sin embargo, suscitar una
orientación, una idea de investigación.

Observación sistematizada. Es la más usual, rigurosa y de interés científico. Se


restringe a la observación de determinados fenómenos. Se parte de una hipótesis
previa. Su propósito es precisar con exactitud las variaciones de la conducta
relacionadas con la hipótesis. La observación sistemática se caracteriza por: a) es
específica y cuidadosamente definida; b) la tipología de los datos a recoger se fija
previamente; c) se emplean pruebas mecánicas o auxiliares para la exactitud
(filmaciones); d) nos aseguran una información objetiva; e) el grado de control
depende, en gran parte, de los instrumentos empleados y del observador-
observado limitando sus prejuicios y tendencias; f) la observación sistematizada es
cuantificable; g) se suele emplear especialmente en el estudio de pequeños grupos;
h) las unidades de tiempo de observación, cantidad de tiempo incluido en una
anotación por un observador, pueden variar de escasos segundos a horas, en
función de la conducta que estemos observando; h) no debe olvidarse el contexto
en el cual transcurre la situación o comportamiento observado, puesto que en
muchas ocasiones se trata del efecto determinante.

En la observación sistematizada según el grado de sistematización podemos


distinguir entre:

Observación preparada: Se recogen los datos observacionales en una esfera


determinada de antemano, haciendo relación a unos factores precisos establecidos
en la hipótesis. Esta observación puede tener lugar en diferentes marcos: 1)
natural: se estudia el comportamiento de los individuos en las circunstancias de su
vida cotidiana. La psicología profesional y la social utilizan principalmente esta
técnica: observación del comportamiento de compradores, de obreros en su
trabajo, etc.; 2) de laboratorio: el observador prepara de antemano los aspectos
principales de la situación, de modo que puedan satisfacer sus fines de
investigación y reducir el peligro de interferencias inesperadas; y 3) clínica: las
condiciones del entorno son fijadas por el investigador, se tiene en cuenta todos los
rasgos semiológicos de un enfermo, el cual, generalmente, sabe que está siendo
observado.

https://campusformacion.net/nuevocampus/impresioncurso.php 147/172
11/12/21 14:12 Campus Virtual

Observación equipada: Son observaciones controladas, donde se emplean test,


espejos unidireccionales, siendo mayor su grado de sistematización. Generalmente
se realizan en el marco del laboratorio o clínico.

En función de la participación del observador.

Observación externa o no participante. El observador no pertenece al grupo objeto


de estudio.

Hay dos tipos de observación externa: directa (realizada sobre el terreno en


contacto inmediato con la realidad. Se funda principalmente en la entrevista y el
cuestionario) e indirecta: se basa en los datos estadísticos (censos, etc), y fuentes
documentales (archivos, prensa, grabaciones magnetofónicas)

Observación interna o participante. Proceso caracterizado por que el observador


de una forma consciente y sistemática comparte, dentro de lo que permiten las
circunstancias, las actividades de la vida y, en ocasiones, los intereses y afecto de un
grupo de personas.

Existen dos tipos de observación participante: pasiva (el observador interactúa lo


menos posible con los observados, siendo consciente de su única función de
observador, lo cual aumentará su oportunidad de percibir eventos tal y como se
desarrollan) y activa (el observador maximiza su participación en lo observado con
el fin de recoger datos, e intenta integrar su rol con los demás existentes en la
situación. En algunos casos su conducta es similar a la de los observados, en otros
desempeñan papeles complementarios e incluso en algunos casos puede introducir
cambios en la estructura social del grupo).

Autoobservación. El observador es a la vez sujeto y objeto: observa y es un


elemento del conjunto observado. Se diferencia de la introspección en que en esta
última el sujeto se pregunta sobre sí mismo, es una reflexión sobre lo observado
con una perspectiva psicológica. En la autoobservación sólo se anota la conducta
realizada o de interés.

4.1.2. Codificación y Registro


 

La conducta producida por un organismo, un suceso, fenómeno, hecho u objeto  poseen


ciertas características observables que debemos tener en cuenta y que podemos resumir
en los siguientes apartados:

Frecuencia: oscila desde cero a cifras altas.

https://campusformacion.net/nuevocampus/impresioncurso.php 148/172
11/12/21 14:12 Campus Virtual

Latencia: tiempo que transcurre entre la presentación de un estímulo y la


aparición de una respuesta.

Ritmo: orden acompasado con que se produce una respuesta.

Intensidad: siempre que exista determinada unidad de medida

Duración: tiempo durante el cual se mantiene un determinado elemento


de conducta. p.e. lapso de tiempo en el que permanecemos en un
determinado lugar.

Cantidad de elementos que intervienen

Condiciones antecedentes y consecuentes.

Topografía de respuesta: variedad, dirección, corrección o adecuación de


la respuesta al objetivo, etc.

Una vez elegida la situación a observar y establecidas las hipótesis debemos pasar en
primer lugar a la definición de las conductas a observar tan operacionalmente como sea
posible, en segundo lugar debemos elegir indicadores o categorías que se utilizarán para
anotar la conducta pasando posteriormente a su registro (realizado generalmente por
más de un observador). En último lugar, examinaremos la fiabilidad de los datos
observacionales comparando los registros realizados por los observadores. El ideal
común a todos los observadores es que la observación sea objetiva. El uso de técnicas e
instrumentos de registro contribuye de manera importante a aumentar esta objetividad
ya que nos permite perfeccionar las respuestas perceptivas y obtener registros
adecuados. Son muchos los instrumentos utilizados en la observación: videos,
magnetófonos, etc.

El registro puede ser continuo, cuando el observador anota la ocurrencia de las


diferentes categorías a lo largo de toda la sesión de observación, o discontinuo. En este
último caso, el observador registra las categorías en determinados momentos de la
sesión de observación establecidos a priori (Bakeman y Gottman, 1986).

El tipo de soporte o instrumento utilizado para la recogida de los datos está conexionado
con la metodología aplicada (Losada, 1993). Dentro del ámbito de la metodología
experimental, el laboratorio y las ‘máquinas de medir’ constituyen las dos piezas claves
para la medición. La metodología cuasi experimental suele basar la recogida de datos en
los cuestionarios, entrevistas y encuestas y la metodología observacional requiere del
observador apoyado por instrumentos mecánicos (sistemas de codificación y plantillas de
registros) y tecnológicos (soportes magnéticos como magnetófono, vídeo, foto y
memorias portátiles).

Un claro ejemplo de sistema de codificación (Blanco y Anguera, 1991) lo constituye el


sistema de Kent, O´Leary y Broderick (citado en Losada, 1999). Este sistema tiene como
objetivo básico identificar ciertas conductas disruptivas del niño en el aula y así poder
perfilar ciertos objetivos de intervención. Los registros se refieren a la conducta del niño

https://campusformacion.net/nuevocampus/impresioncurso.php 149/172
11/12/21 14:12 Campus Virtual

en clase y durante la realización de una prueba. Este sistema de codificación requiere un


proceso de categorización de las conductas logrado a través de un sistema de categorías
que permita registrar las conductas-foco con un alto grado de sistematización.

El registro consiste en expresar en términos observables toda la información contenida


en conductas o eventos, de manera que no se produzca pérdida de información o matiz
expresivo; todo ello de manera que permita funcionalidad y rapidez con un adecuado
adiestramiento.

Para llegar a cabo el registro:

1) Se observa la conducta o evento elaborando las correspondientes categorías.

2) Se establecen las unidades de observación de la conducta o evento núcleo de


nuestra observación y del entorno que le rodea (que incide en la conducta por estar
en interacción constante, actuando como evento antecedente, consecuente o como
ambos a la vez)

3) Se establece un control temporal y un control de orden, ya que se indica


mediante cifras correlativas la sucesión global de las acciones del sujeto y de los
eventos antecedentes y consecuentes

3) Se categoriza la conducta o evento para poder ser medidos mediante el sistema


de códigos o categorías que se ha desarrollado en la fase anterior

4) Se realiza el análisis de los datos registrados

La categorización es una fase crítica de la observación. Es un intento progresivo de


agrupar la información recogida en base a ciertos criterios, que en unos casos estaban
perfectamente perfilados de antemano y en otros son susceptibles de revisiones y
adaptaciones. Mediante la categorización, clasificamos los diferentes comportamientos
observados en un cierto número de categorías como el término que designa una clase
dada de fenómenos donde se pueda colocar el comportamiento observado.

Los pasos para realizar la categorización son:

1)  especificar adecuadamente el fenómeno a observar (¿Qué se va a observar?


¿Dónde? ¿Cómo?); 

2) distinguir entre categorías moleculares (respuestas lo más pequeñas posibles de


las observadas) y molares (agrupación de respuesta moleculares en una unidad con
significado propio; por ejemplo la agresividad);

3) establecer el tamaño o amplitud de cada categoría (su número no deber ser


excesivamente elevado como para que impida o dificulte un registro posterior);

4) definir las categorías de forma que sean identificables inequívocamente;

5) calcular el coeficiente a: razón de ocurrencia de una conducta por intervalo de


tiempo (si asumimos unidades temporales de observación).
https://campusformacion.net/nuevocampus/impresioncurso.php 150/172
11/12/21 14:12 Campus Virtual

Las categorías deben ser:

1) exhaustivas (todos los comportamientos posibles deben poder ser clasificados en


una u otra de las categorías);

2) razonables (permitiendo inferir un comportamiento implícito a partir del


comportamiento físico); y

3) continuas o discontinuas. (Ej. Continuas: categorías que permiten clasificar las


diversas manifestaciones agresivas como: ataques moderados verbales;  amenazas
verbales y gestuales; agresión física, etc. Podríamos colocarlas en un esquema en
forma de linea continua que comprendiera desde la de menor intensidad a la de
mayor).

4.1.2.1. Tipos de registros

a) Registros de intervalos.

Son los registros más corrientemente usados.

Basados en criterios cronológicos.

Miden la presencia o ausencia de un fenómeno en intervalos de tiempo específicos.


La sesión de observación total es dividida en breves intervalos de tiempo de igual
medida. Por ejemplo, si la sesión de observación total es de 10 minutos y el
observador está utilizando intervalos de 10 segundos, la sesión estará dividida en
60 unidades de registro de 10 segundos. El tamaño del intervalo seleccionado
proporcionará al observador el tiempo suficiente para observar y registrar la
conducta confiablemente. El tamaño del intervalo usualmente fluctúa de 6 a 15
segundos dependiendo del fenómeno que será observado. Para registrar la
presencia o ausencia, el observador puede graficar una serie de cuadros en una
hoja, con cada cuadro representa un intervalo. Los cuadros pueden ser colocados
horizontal o verticalmente. El observador marca cada intervalo de tiempo con un
símbolo que indica si la conducta ocurrió. Los datos colectados por medio del
registro de intervalo se reportan como el porcentaje de intervalos en los que
ocurrió el. El registro por intervalo comúnmente involucra el uso de lápiz, papel,
hoja de registro y cronómetro. El cronómetro puede ser sujetado a la hoja de
registro. El registro de intervalo puede ser parcial, el cual requiere que el
observador registre simplemente si la conducta se presentó o no en cualquier
momento dentro del intervalo. El registro de intervalo parcial no se interesa en
cuantas ocasiones la conducta ocurrió durante el intervalo o cuanto tiempo estuvo
presente. El registro de intervalo parcial puede ser utilizado en muchas ocasiones
cuando el registro de intervalo es seleccionado como un sistema de medición. Sin
embargo, cuando es importante conocer si una clase de conductas está ocurriendo
https://campusformacion.net/nuevocampus/impresioncurso.php 151/172
11/12/21 14:12 Campus Virtual

por un tiempo determinado, el registro de intervalo completo sería preferible.  El


registro de intervalo completo requiere que la conducta esté presente a través del
intervalo completo si se considera una ocurrencia. Por ejemplo, si la conducta de
atender se registra utilizando un procedimiento de intervalo completo, un
estudiante necesitará atender durante el intervalo completo para que en ese
intervalo se califique como una ocurrencia.

b) Registro de Evento

Es un registro o conteo de los eventos tal y como estos ocurren. Anotar el número
de veces que ocurre es una técnica de registro observacional frecuentemente
utilizada. Algunos ejemplos de estos registros incluyen un conteo del número de
respuestas correctas o erróneas de un estudiante, el número de personas que
empujan un auto, el número de veces que un estudiante llega tarde, el número de
accidentes laborales en una fábrica. Aunque un lápiz y papel son suficientes para
hacer registros de eventos, los siguientes aspectos facilitarían el proceso:
contadores digitales, pizarras, ..

c) Registro de Duración.

Si un supervisor está interesado en la cantidad de tiempo libre que un empleado


principiante da a sus pacientes, el registro de duración es la mejor forma de obtener
los datos requeridos. El registro de duración puede ser utilizado para medir
conductas que son emitidas en altos índices. Algunos individuos con desórdenes
conductuales severos emiten altos índices de conductas autodestructivas. Ya que
cada golpe tiene un comienzo y un final distinguibles, el registro de evento sería
utilizado. Sin embargo si los golpes ocurrieran en altos índices, sería difícil y poco
confiable contar cada ocurrencia. Un método más fácil y confiable sería registrar la
cantidad total de tiempo que el individuo se propina golpes en la cara.

El instrumento más preciado para el registro de duración es un cronómetro. Un


reloj de pared o un reloj de muñeca también pueden utilizarse pero probablemente
producirán mediciones menos precisas que las que obtiene un cronómetro. El
procedimiento para registrar la duración total con un cronómetro es activarlo
cuando la conducta comienza y detenerlo cuando termina el episodio. Sin regresar
el cronómetro, el observador debe activarlo nuevamente cuando comienza la
segunda ocurrencia de la conducta y detenerlo cuando termina. El observador
continúa acumulando las duraciones de tiempo en esta forma hasta el final del
periodo de observación y entonces transfiere la duración total de tiempo mostrado
en el cronómetro a una hoja de registro.

d) Registro de Latencia

Es la medición del tiempo transcurrido entre el comienzo de un estímulo (una


instrucción) y la iniciación de una conducta. El registro de latencia se utiliza cuando
el interés principal es la cantidad de tiempo entre una oportunidad de emitir una
conducta y el comienzo de la ejecución de esa conducta, por ejemplo, un estudiante

https://campusformacion.net/nuevocampus/impresioncurso.php 152/172
11/12/21 14:12 Campus Virtual

podría ser lento en seguir las instrucciones del maestro. La latencia de respuesta
sería la cantidad de tiempo entre el momento en que el profesor termina de dar la
instrucción y cuando el estudiante comienza a obedecer. El interés también puede
enfocarse a la latencia que es muy corta. En este caso, un estudiante daría
respuestas incorrectas pues no espera a que el profesor termine la pregunta.   El
procedimiento para el registro de latencia es similar al registro de duración. Ambos
reportan datos de la dimensión temporal de la conducta, ambos utilizan el mismo
procedimiento de medición y ambos requieren una identificación precisa del
fenómeno registrado.

e) Muestreo de Tiempo Momentáneo

El procedimiento para el muestreo de tiempo momentáneo es similar al


procedimiento para el registro de intervalo pero con una diferencia notable. El
muestreo de tiempo momentáneo se interesa en el registro de la presencia o
ausencia de conductas seguidas inmediatamente por intervalos de tiempo
especificados, a diferencia del registro de intervalo que se interesa en el registro de
conductas durante intervalos de tiempo especificado. Si un observador desea
registrar la ocurrencia o no ocurrencia de una conducta, un papel es graficado con
cuadros que representan intervalos de tiempo variable o igual.

Estimación de la Fiabilidad de los datos observacionales

La utilización de instrumentos de observación supone hablar de fiabilidad de los


datos observacionales obtenidos, no refiriendose al instrumento en sí mismo, sino a
los resultados recogidos.

Los resultados originados a través de la aplicación de instrumentos de medición


requieren la comprobación de su fiabilidad como producto de la utilización de un
sistema de registro dado, de un observador determinado y de unas condiciones
ambientales específicas.

La fiabilidad de los datos depende así de muchos factores y no sólo del propio
sistema de registro empleado (Suen y Ary, 1989).

El cálculo repetido de las propiedades psicométricas del instrumento de


observación se convierte en tarea obligada para cada conjunto de datos obtenidos,
dado que el factor humano-observador requiere un continuo control de la calidad
de sus registros. Dicho factor no es un elemento fijo del instrumento ya que va
cambiando en función de la persona encargada del registro e incluso para un
observador dado la eficacia de los datos recogidos puede variar de sesión a sesión
de observación. Por ello, es recomendable realizar evaluaciones periódicas de la
fiabilidad de las observaciones realizadas aunque los observadores ya sean
expertos en el manejo del instrumento de observación.

https://campusformacion.net/nuevocampus/impresioncurso.php 153/172
11/12/21 14:12 Campus Virtual

Cuando un investigador decide aplicar un método de recogida de datos basado en


la observación, es necesario llevar a cabo en primer lugar un entrenamiento de
observadores con el fin de que sean expertos en el registro de los datos,
asegurando la calidad y objetividad de la información proporcionada por dicha
metodología. Para garantizar la certeza de los registros se suele estimar la similitud
de los juicios emitidos por al menos dos observadores expertos que observan
simultáneamente una misma situación o también la proximidad del registro de un
único observador en relación a una plantilla estándar que se considera que recoge
la codificación del instrumento con alta perfección. Estos acuerdos o correlación
entre las observaciones realizadas de una misma situación se reseñan como
estimación de la fiabilidad y proporcionan la base para afirmar que los registros
realizados son el producto replicable del proceso de observación utilizado y no del
juicio idiosincrásico de los observadores. Se considera que existe acuerdo entre dos
o más observadores cuando al observar una situación dada coinciden en la
codificación de presencia o ausencia de una determinada conducta, código o
categoría. Existe un amplio número de índices que permiten estimar la fiabilidad de
datos observacionales. Los coeficientes de fiabilidad entre observadores más
utilizados por los investigadores se presentan a continuación, destacando por su
mayor frecuencia de uso el porcentaje de acuerdo entre observadores y
especialmente el coeficiente kappa de Cohen (1960).

El porcentaje de acuerdo indica el porcentaje de veces que dos observadores están


de acuerdo respecto a que una determinada conducta está presente o de acuerdo
en cuanto a la ausencia o no ocurrencia de dicha conducta. Supone sumar el
acuerdo de los observadores, dividir por el total y multiplicarlo por cien

Índice de porcentaje de acuerdo =  nº de intervalos de acuerdo/ nº de interv. de


acuerdo + nº de interv. de desacuerdo

Este índice ha sido muy discutido y cuestionado. No tiene en cuenta la no


ocurrencia de la conducta. Se considera el intervalo de acuerdo como aquel en que
ambos observadores coinciden en registrar, o en no registrar, o bien el intervalo en
que ambos observadores registran la misma frecuencia de respuesta.

4.1.3. Diseños observacionales


 

4.1.3.1. Reporte de casos y serie de casos

https://campusformacion.net/nuevocampus/impresioncurso.php 154/172
11/12/21 14:12 Campus Virtual

Consiste en la descripción cuidadosa y detallada de casos clínicos; constituyendo la


única diferencia entre ambos, el número de sujetos estudiados. De tal forma que,
cuando el número de casos en estudio es igual o inferior a 10, se habla de reporte
de casos y cuando el número de casos en estudio es superior a 10, se considera una
serie de casos. Son los diseños más comúnmente encontrados en las revistas
científicas y en este tipo de estudios no existe un grupo de comparación.

Se trata entonces, de la observación y descripción de características de uno o de un


grupo de sujetos que presentan un cuadro clínico, una enfermedad poco frecuente,
una manifestación poco usual de una enfermedad; o que han sido sometidos a una
modificación terapéutica, o que respondieron de manera inusual a un tratamiento
determinado. Constituyen entre el 70% y 80% de los artículos originales publicados
en la literatura biomédica (Manterola  y cols., 2009; Manterola & Astudillo, 2013).

4.1.3.2. Estudios de corte transversal

Su característica fundamental es que todas las mediciones se hacen en una sola


ocasión, por lo que no existen períodos de seguimiento. En otras palabras, con éste
diseño, se efectúa el estudio en un momento determinado de la evolución de la
enfermedad o evento de interés. De esta manera, no se puede distinguir si la
exposición determinó el desarrollo de la enfermedad evento de interés, o sólo
afecta el nivel individual de la exposición.

Los estudios de prevalencia son un exponente de éste tipo de diseño (Manterola,


2001a). Entendiendo como prevalencia la proporción de sujetos de una población
determinada, en un momento determinado, que presentan una enfermedad o
EVENTO (Newman  y cols., 2001).

Para algunos factores que permanecen inalterables en el tiempo como sexo o grupo
sanguíneo, este tipo de estudios proveen evidencias de asociación estadística
válidas, sin embargo para variables generales no permiten plantear asociación.

En algunos estudios los factores de riesgo pueden estar sujetos a alteraciones


subsecuentes al desarrollo de la enfermedad o evento. En estos casos, los datos
pueden ser utilizados para describir las características de los individuos que
padecen la enfermedad y formular hipótesis, pero no para probarlas.

4.1.3.3. Estudios poblacionales y correlacionales

https://campusformacion.net/nuevocampus/impresioncurso.php 155/172
11/12/21 14:12 Campus Virtual

En estos estudios se miden dos o más variables, y se pretende establecer si éstas


están o no relacionadas, además de medir el grado de relación que existe entre
ellas. Estos, utilizan datos de la población general para comparar frecuencias de
enfermedad o evento entre diferentes grupos durante un mismo período de
tiempo, o en una misma población en diferentes períodos de tiempo (Sackett   y
cols., 1994). Su utilidad está en conocer el comportamiento de una variable
conociendo el de la otra. La correlación puede ser positiva cuando las dos variables
suben, inexistente cuando una de ellas sube y la otra baja, o inversa cuando ambas
bajan; de este modo, podremos por ejemplo, entender la correlación entre los
niveles de proteína C reactiva y la gravedad de una pancreatitis aguda.

4.1.3.4. Estudios de casos y controles

Son estudios que se basan en la recopilación de datos ya generados, por ende, de


carácter retrospectivo. Permiten el análisis comparativo de un grupo de sujetos que
han desarrollado una enfermedad o evento (denominados "casos"), con un grupo de
individuos que no la presentan (denominados "controles"). Por lo tanto, se trata de
estudios cuyo objetivo es determinar si la frecuencia de aparición de una variable
en estudio es diferente en los "casos" respecto de los "controles" (Fig. 1) (Borja-
Aburto  y cols., 1997; Manterola, 2001b;).

Figura 1. (Adaptado de  Monterola y cols., 2014).

https://campusformacion.net/nuevocampus/impresioncurso.php 156/172
11/12/21 14:12 Campus Virtual

Estructura de los estudios de casos y controles. Se seleccionan dos grupos de


sujetos. Uno de casos (en gris) y otro de controles (en blanco). Se va hacia el pasado
en busca de un factor de riesgo y se verifica que en los "casos" este factor estaba
presente en 6/8, es decir en el 75,0%; en cambio, en los "controles", sólo en 2/8 es
decir en el 25,0%; situación que representa una fuerza de asociación entre el factor
de riesgo y la condición de caso y control, que en esta hipotética situación tendría
un OR de 9,0 (la presencia del factor se asocia a mayor ocurrencia del evento, en
este caso 9,0 más frecuente).

Dentro de las características propias del diseño, es relevante hacer mención en lo


que se refiere a la definición y selección de los "casos". Este aspecto es de suma
importancia, pues la selección de los casos permitirá establecer cuáles serán los
límites para la generalización de los resultados; de este modo, los "casos" se pueden
obtener a partir de hospitales, clínicas y consultorios; registros o sistemas de
vigilancia; certificados de defunción; etc.; pudiendo ser "casos prevalentes", cuando
se utilizan aquellos existentes al momento de iniciar la investigación (casos
antiguos o que ya existían); o "casos incidentes", cuando se trabaja con aquellos que
se van reclutando desde el momento en que comienza la investigación en adelante
(casos nuevos o que no existían cuando se diseñó la investigación) (Newman  y cols.;
Borja-Aburto y cols., 1997). Por su parte, los "controles" constituyen el mayor
problema de éste tipo de diseño, pues deben ser sujetos en todo similares a los
casos, con la excepción que no tienen la enfermedad o evento (lo ideal sería que
sean tan parecidos que al observar un caso y un control, nadie pueda saber cual es
cual). Dicho de otra manera, los casos deben representar la población de individuos
que habrían sido incluidos como controles si no hubieran desarrollado la
enfermedad o evento.

Los "controles" también pueden ser de tipo poblacional, es decir tomados al azar a
partir de la población general;   hospitalarios, elegidos al azar desde población
hospitalaria, de clínicas o consultorios; y los denominados controles especiales,
entre los que se encuentran parientes, amigos o vecinos de los casos. Sin embargo,
sin importar la fuente obtención de los controles, es fundamental considerar los
siguientes hechos: la muestra de controles debe pertenecer a la población fuente
de los casos, debe existir exactitud comparable en la medición de la exposición en
estudio, y se han de minimizar las variables extrañas (variables que pueden alterar
o confundir la asociación en estudio). Por otro lado, se ha de considerar el problema
del número necesario de controles por cada caso; y es así que en general se tiende a
pensar en una relación de 1:1 (es decir un control por cada caso), sin embargo, esta
relación variará dependiendo de la disponibilidad de casos y controles. El tamaño
de muestra más pequeño se obtiene cuando la proporción de casos:controles es
1:1; sin embargo, cuando hay poca disponibilidad de unos u otros, se puede utilizar
una relación distinta (1:2, 1:3 ó 1:4), tomando en cuenta que el total de sujetos en la
muestra se incrementará.

https://campusformacion.net/nuevocampus/impresioncurso.php 157/172
11/12/21 14:12 Campus Virtual

Pero, aunque los controles hospitalarios son los más comúnmente utilizados,
debido a su disponibilidad; se ha de considerar que pueden estar tan o más
enfermos que los casos, y tener patologías de algún modo relacionadas con la
entidad en estudio, que actuarán como variables extrañas. Por otra parte los
controles poblacionales podrían ser los ideales, pues en general se encuentra libres
de influencias relacionadas con la salud, pero su interés por participar en estudios
científicos en general no es adecuado, razón por la que con ellos se corre el riesgo
de incurrir en sesgos de medición (calidad de la información aportada). Finalmente
los controles especiales (familiares o amigos de los casos), podrían ser perfectos,
pues al estar cerca del caso suelen tener interés en colaborar en estudios
relacionados con la enfermedad o evento que afecta a su pariente o conocido, pero
al mismo tiempo, con ellos se corre el riesgo del sobre reporte de información, o
incluso que por vivir en el mismo sector estén expuestos al o a los mismos factores
de exposición en estudio. No obstante las consideraciones previas, es importante
tener en cuenta la importancia de una buena definición de los casos y los controles,
utilizar técnicas de emparejamiento (por sexo, edad, peso, estatura, etc.), y
considerar también que en ocasiones puede ser necesario utilizar un segundo o
tercer grupo de controles o controles de un origen diferente (por ejemplo, un grupo
de controles hospitalarios y otro del consultorio adosado, situación en la que la
finalidad es comparar la fuerza de asociación entre los casos y los controles de un
grupo; y los casos y los controles del otro grupo para posteriormente comparar los
resultados) (Wacholder cols., 1992a, 1992b; Newman y cols.,1997).

4.1.3.5. Estudios de cohortes

Una cohorte es un grupo de sujetos que se siguen en el tiempo esperando la


aparición de una enfermedad o evento (variable resultado), y por otro lado un
"factor de exposición", que es aquel que puede predecir la variable resultado
(variable predictiva). Son estudios en los que el investigador realiza una
comparación entre grupos de sujetos, buscando factores de riesgo que pudiesen
asociarse al desarrollo del evento, sin tener control sobre la exposición a estos
factores en evaluación (Figura 2) (Manterola, 2001c). Su objetivo es asegurar que la
aparición de un caso nuevo de una enfermedad o evento difiere entre un grupo de
individuos expuestos y no expuestos a al potencial factor de riesgo (Steven y cols.,
2001).

Las cohortes pueden ser simples y dobles; retrospectivas o históricas; prospectivas


o concurrentes; y cohortes especiales (bidireccionales, casos y controles anidados
en una cohoirte, etc.) (Manterola, 2001c; Steven y cols., 2001).

https://campusformacion.net/nuevocampus/impresioncurso.php 158/172
11/12/21 14:12 Campus Virtual

Dentro de las características propias del diseño, es relevante hacer mención de


algunos aspectos fundamentales: Uno de ellos se refiere a la selección de las
cohortes. Estas, se han de seleccionar con base en la presencia o ausencia de
exposición a un factor presumiblemente de riesgo para el desarrollo de una
enfermedad o evento. La población expuesta se selecciona según el tipo de
exposición; así, en el caso de exposiciones comunes (como el consumo de alcohol),
los sujetos expuestos se pueden seleccionar a partir de la población. En caso de
exposiciones poco frecuentes (como factores ocupacionales), los sujetos expuestos
se pueden seleccionar a partir de grupos especiales de la población (áreas
específicas), de ésta forma la medida de exposición será más exacta. En ambos
casos, se ha elegir grupos de estudio que faciliten la obtención de la información
relevante (en empresas, compañías, escuelas, etc.). La población no-expuesta debe
ser similar al grupo expuesto en todos los factores posibles relacionados al
resultado excepto en el factor de exposición a evaluar; por lo tanto, la recolección
de información debe ser comparable a la del grupo expuesto; es así como, si se
realiza un estudio que requiere de un grupo especial de exposición con problemas
ocupacionales, se sugiere utilizar a la población general del área donde se
encuentra instalada la empresa o industria en cuestión como un grupo externo de
comparación o una cohorte similar que comparte la experiencia con la cohorte de
exposición especial.

Otro aspecto tiene que ver con la definición de la exposición. Una vez definida la
exposición todos los sujetos potenciales deben estar libres de la enfermedad o
evento al ingresar al estudio. Todos los sujetos elegibles deben ser seguidos por un
periodo de tiempo predeterminado para evaluar la ocurrencia de la enfermedad o
evento.

También se ha de considerar las fuentes de información de la exposición. Estas nos


permiten clasificar al sujeto en expuesto y no-expuesto, nos aportan datos
demográficos, datos sobre potenciales factores de confusión, y nos dan cierto
margen de seguridad que la información obtenida será comparable para todos los
participantes. Sin embargo, se ha de considerar que pueden ocurrir cambios en los
niveles de exposición durante el seguimiento.

https://campusformacion.net/nuevocampus/impresioncurso.php 159/172
11/12/21 14:12 Campus Virtual

Figura. 2. (Adaptado de  Monterola y cols., 2014).

Estructura de un estudio de cohortes. A partir del PRESENTE, se siguen en el


tiempo a dos grupos de sujetos (cohortes); uno de expuestos a un factor en estudio
y otro de no expuestos a este factor. En el FUTURO, se evalúa la incidencia o riesgo
absoluto (RA) del desarrollo del evento de interés en ambos grupos. En este
hipotético escenario, en la cohorte de no expuestos la incidencia o RA de desarrollo
del evento de interés es de 1/6 (0,167 o 16,7%), y en la cohorte de expuestos la
incidencia o RA de 3/6 (0,5 o 50%). Por ende, el cálculo del riesgo relativo
(0,5/0,167) nos da un valor de 2,99; es decir, la presencia del factor en estudio se
asocia a mayor ocurrencia del evento), en este caso 2,99 veces más frecuente.

Las fuentes de información pueden ser de tipo indirecta, cuando se utilizan


registros preexistentes; o directas, cuando la información se obtiene a partir de
encuestas, entrevistas, examen clínico, pruebas de laboratorio, etc.

Y por último, se han de considerar las fuentes de información de la variable


resultado. Este tipo de información debe tener un alto grado de certeza, y ha de ser
comparable tanto en los expuestos como en los no-expuestos. Se puede obtener de
fuentes tan diversas como exámenes periódicos de salud o certificados de
defunción. Sin embargo, se ha de asumir que los resultados dependerán del
seguimiento de las cohortes. Este debe ser completo para cada individuo que
compone cada cohorte, desde el momento de su enrolamiento hasta el fin del
período considerado (este lapso de tiempo debe ser suficiente para que los sujetos
en estudio desarrollen o no el evento); considerando que el porcentaje de pérdida
de seguimiento de las cohortes no debe ser inferior a 80%. No obstante ello, la
duración del seguimiento dependerá del periodo de latencia estudiado entre la
exposición y el resultado o evento de interés.

https://campusformacion.net/nuevocampus/impresioncurso.php 160/172
11/12/21 14:12 Campus Virtual

Existen diversos tipos de estudios de cohortes. Los estudios de cohorte prospectiva


o concurrente se definen como aquel estudio, que puede ser utilizado para
determinar el pronóstico e historia natural de algún evento, con un seguimiento
que comienza en el presente y se extiende hacia el futuro; período en el que se
pueden medir y en forma acuciosa una serie de variables. En estos, la exposición al
factor puede ya haber ocurrido, pero la enfermedad o evento aún no. Además, es el
diseño que permite calcular la incidencia y riesgos.

Los estudios de cohortes retrospectivas o históricas, son aquellos en que tanto la


exposición como el evento ya ocurrieron cuando se dio inicio el estudio. En estas, el
seguimiento es desde el pasado hasta el presente. Son más rápidas y económicas
que los estudios de cohortes prospectivas; son de gran utilidad si los periodos de
latencia entre la exposición y el desarrollo de la enfermedad o evento son
prolongados; para su ejecución, requieren del acceso a fuentes de información
preexistentes adecuadas, esto implica que se puede disponer de datos incompletos
y por ende no comparables de los sujetos en estudio (por ejemplo hábitos de vida,
consumo de tabaco, alcohol, actividad sexual, etc., datos que habitualmente no se
encuentran disponibles en los registros, lo que determina a su vez, potenciales
factores de confusión).

Se define como cohorte bidireccional a aquella en la que los datos son recolectados
tanto de forma prospectiva como retrospectiva; pudiendo ser de utilidad cuando la
exposición en estudio tiene efectos tanto a corto como a largo plazo. Son
especialmente útiles para estudiar exposiciones raras a factores ocupacionales o
ambientales.

Se considera como estudio de casos y controles anidado en una cohorte aquel en el


que se introduce un diseño de "casos y controles" en una cohorte; para lo que se
efectúa una evaluación de todos los casos con el evento y se seleccionan grupos de
control sin el evento dentro de la misma cohorte; siendo su gran ventaja el que
permite disminuir los costos de un estudio de cohorte.

https://campusformacion.net/nuevocampus/impresioncurso.php 161/172
11/12/21 14:12 Campus Virtual

Bibliografía

Bibliografía

-  Kerlinger, F. y H. Lee (2002). Investigación del comportamiento. México: McGraw Hill/


Interamericana.

-  Arnau, J (1978). Psicología Experimental. Un enfoque Metodológico. México: Trillas.

-  Hernández Sampieri, R.,  Fernández-. Collado C. y Baptista Lucio P. Metodología de la


investigación. McGraw-Hill. México. 2006. 4ª Edición.

-  Boring, E.: The nature and history of experimental control. American Journal of
Psychology, 67, 573-589 (1954)

-  Campbell, D. y Stanley, J. (1978). Diseños experimentales y cuasiexperimentales en la


investigación social. Buenos Aires, Amorrourtu Editores.

-  Ley 25/1990, de 20 de noviembre, del Medicamento. B.O.E. de 22 de diciembre de


1990.

-  Carmines, E. G. y Zeller, R. A. (1979). Reliability and Validity Assesment. Newbury Park.


Sage Publications.

-  O’Neil, W. (1968). Introducción al método en psicología (2ª ed.). Buenos Aires: Eudeba

-  Stevens, S.S.(Editor)(1951): Handbook of Experimental Psychology. Nueva York: Wiley.


-  Hernández Sampieri  Roberto, Fernández Collado Carlos y  Baptista Lucio Pilar.
Metodología de la Investigación. México: Mc Graw Hil

- Pelegrina Del Rio, M; Salvador Beltrán, F. La investigación experimental en psicología.


Málaga: Aljibe; 1999.

- Hernández Sampieri  Roberto, Fernández Collado Carlos y  Baptista Lucio Pilar.


Metodología de la Investigación. México: Mc Graw Hill

- Hernández Sampieri  Roberto, Fernández Collado Carlos y  Baptista Lucio Pilar.


Metodología de la Investigación. México: Mc Graw Hill

- Álvarez-Gayou, J.L. (2005). Cómo hacer investigación cualitativa. Fundamentos y


metodología. México: Paidós.

- Bogdan, R. & Biklen. S.K. (1992) Qualitative research for education: An introduction to


theory and methods. (2a ed.). Boston: Allyn & Bacon.

https://campusformacion.net/nuevocampus/impresioncurso.php 162/172
11/12/21 14:12 Campus Virtual

- Creswell, J. (2003). Research design: Qualitative, quantitative and mixed methods


approaches (2nd ed.). Thousand Oaks, CA: SAGE Publications

- Hernández Sampieri, R., Fernández Collado, C. i Baptista Lucio, P. (2010) Metodología


de la investigación (10a ed.). México: McGraw-Hill

- Lofland, J. (1971) Analyzing social settings: A guide to qualitative observation and


analysis.Belmont: CA: Wadsworth.

- Martínez Arias, R. (1995). Psicometría: Teoría de los tests psicológicos y educativos.


Madrid: Síntesis.

- Miles, M. B. y Huberman, A.M. (1994) Qualitative data analysis: An expanded


sourcebook (2a ed.). Thousand Oaks, CA: Sage.

- Patton, M.Q. (2002) Qualitative research & evaluation methods (3a ed.). Thousand


Oaks, CA: Sage.

- Rubin, H.J. y Rubin, I.S. (1995) Qualitative interviewing. The art of hearing


data. Thousand Oaks, CA: Sage.

- Ryan, G.W. y Bernard, H.R. (2003) Data management and analysis methods. En N.K.
Denzin y Y.S. Lincoln (eds.) Collecting and interpreting qualitative materials. (2a ed.). (pp.
259-309). Thousand Oaks, CA: Sage.

- Sofaer, S. (1999). Qualitative methods: What are they and why use them? HSR: Health
Services Research, 34, 1101-1117

- Anderson, S., Auquier, A., Hauchk, W.W., Oakes, D, Vandeale, W., y Weisberg, H. (1980).
Statistical methods for comparative studies. New York:

- Arnau, J. (1995a). Metodología de la investigación psicológica. En M. T. Anguera, J.


Arnau, M. Ato, R. Martínez, J. Pascual y G. Vallejo (Eds.), Métodos de investigación en
psicología (pp. 23-43). Madrid: Síntesis.

- Arnau, J. (1995b). Fundamentos metodológicos de los diseños experimentales de sujeto


único. En M. T. Anguera, J. Arnau, M. Ato, R. Martínez, J. Pascual y G. Vallejo (Eds.),
Métodos de investigación en psicología (pp. 179-193). Madrid: Síntesis.

- Arnau, J. (1997). Diseños de investigación aplicados en esquemas. Barcelona: Edicions


U.B.

- Bock, R. D. (1979). Univariate and multivariate analysis of variance of time-structured


data. En J. R. Nes selroade y P. B. Baltes (Eds.), Longitudinal research in the study of
behavior and development. New York: Academic Press.

- Campbell, D. T. y Stanley, J. C. (1966). Experimental and quasi-experimental designs for


research. Boston, MA: Houghton Mifflin Company.

https://campusformacion.net/nuevocampus/impresioncurso.php 163/172
11/12/21 14:12 Campus Virtual

- Hedrick, T., L. Bickman y D. Rog. (1993). Applied research design. A practical guide.
Newbury Park: Sage

- Judd, C. M. y Kenny, D. A. (1981). Estimating the effects of social interventions.


Cambridge: Cambridge University Press.

- Pedhazur, E.J. y Schmelkin, L.P. (1991). Measurement, desing, and análisis. Hillsdale, NJ:
Lawrence Erlbaum Associates.

- Rogosa, D. (1979). Causal models in longitudinal research: Rationale, Formulation and


Interpretation. En J. R. Nesselroade y P. B. Baltes (eds.), Longitudinal research in the
study of Behavior and Development. New York: Academic Press. ­

- Rogosa, D. (1980). A critique of cross-lagged correlation. Psychological Bulletin, Vol


88(2), Sep 1980, 245-258

- Rogosa, David; Brandt, David; Zimowski, Michele. (1982). A growth curve approach to
the measurement of change. Psychological Bulletin.

- Stoolmiller, M. (1995). Using latent growth curve models to study developmental


processes. In J. M. Gottman (Ed.), The analysis of change (pp. 103-138). New Jersey:
Mahwah.

- Trochim, W. M. K. (1984). Research design for program evaluation: The


regressiondiscontinuity approach. Beverly Hills, CA: Sage.

- Van Dalen, D. & Meyer, W. (1971). Manual de Técnica de la Investigación Educacional.


Buenos Aires: Paidós

- Anastasi, A. (1976). Tests psicológicos. Madrid: Aguila

- Anguera, M.T. (1990). Metodología observacional. En J. Arnau, M.T. Anguera y J. Gómez,


Metodología de la investigación en Ciencias del Comportamiento (pp. 125- 236). Murcia:
Universidad de Murcia.

- Arias Astray, A. y Fernández Ramírez (1998). La encuesta como técnica de investigación


social. En A.J. Rojas Tejada, J.S. Fernández Prados y C. Pérez Meléndez (Eds.), Investigar
mediante encuestas. Fundamentos teóricos y aspectos prácticos (pp. 31-49). Madrid:
Síntesis.

- Bisquerra, R. (1989). Métodos de investigación educativa: Guía práctica. (1ª. Ed. pp-55-
69). Barcelona: CEAC

- Boixadós, M., Valiente, L., Pintanel, M. y Cruz, J. (1996). Identificación de acciones


relevantes respecto al fairplay en jugadores jóvenes de fútbol. En E. Pérez Córdoba y J.C.
Caracuel Tubío (Eds.), Psicología del Deporte. Investigación y aplicación (pp. 179-187).
Málaga: Instituto Andaluz del Deporte de la Junta de Andalucía.

- Brinberg, D. & McGrath, J.E. (1985). Validity and the research process. Beverly Hills, Ca.:
Sage.
https://campusformacion.net/nuevocampus/impresioncurso.php 164/172
11/12/21 14:12 Campus Virtual

- Buendía Eisman, L. (1992). Técnicas e instrumentos de recogida de datos. En M.P. Colás


Bravo y L. Buendía Eisman, Investigación Educativa (pp. 201-248). Sevilla: Alfar.

- Buendía Eisman, L., Colás Bravo, M.P. y Hernández Pina, F. (1998). Métodos de
investigación en psicopedagogía. Madrid: McGraw-Hill.

- Colás Bravo, M.P. (1992). Los métodos correlacionales. En M.P. Colás Bravo y L. Buendía
Eisman, Investigación Educativa (pp. 155-176). Sevilla: Alfar.

- Delgado, A.R. y Prieto, G. (1997). Introducción a los métodos de investigación de la


Psicología. Madrid: Pirámide

- Dominowski, R.L. (1980). Research methods. Englewood Cliffs, N.J.: Prentice-Hall.

- Fowler, F.J., Jr. (1993). Survey research methods. Newbury Park, Ca.: Sage.

- Gambara, H. (1995). Diseño de investigaciones. Madrid: McGraw-Hill.

- Gómez, J. (1990). Metodología de encuesta por muestreo. En J. Arnau, M.T. Anguera y


Gómez, J., Metodología de la investigación en Ciencias del Comportamiento (pp. 239-
310). Murcia: Universidad de Murcia.

- Kiss, L. (1981). Representación, aleatorización y control. En F. Alvira, M.D. Avia, R. Calvo


y F. Morales, Los dos métodos de las Ciencias Sociales (pp. 227-252). Madrid: Centro de
Investigaciones Sociológicas.

- León, O. y Montero, I. (1997). Diseño de investigaciones. Introducción a la lógica de la


investigación en Psicología y Educación, 2ª edición. Madrid: McGraw-Hill.

- Manzano Arrondo, V. (1998a). Selección de muestras. En A.J. Rojas Tejada, J.S.


Fernández Prados y C. Pérez Meléndez (Eds.), Investigar mediante encuestas.
Fundamentos teóricos y aspectos prácticos (pp. 51-97). Madrid: Síntesis.

- Manzano Arrondo, V. y González Gómez, A. (1998). Selección del encuestado. En A.J.


Rojas Tejada, J.S. Fernández Prados y C. Pérez Meléndez (Eds.), Investigar mediante
encuestas. Fundamentos teóricos y aspectos prácticos (pp. 99-113). Madrid: Síntesis.

- Martínez Arias, R. (1995). Diseños muestrales probabilísticos. En M.T. Anguera, J. Arnau,


M. Ato, R. Martínez Arias, J. Pascual y G. Vallejo, Métodos de investigación en Psicología
(pp. 433-484). Madrid: Síntesis.

- Martínez, F., Hernando, J.C. y Latorre, A. (1999). Recursos de autoaprendizaje. Bases


metodológicas de la investigación educativa. Barcelona: Hurtado.

- Mayntz, R., Holm, K. y Hübner, P. (1985). Introducción a los métodos de la sociología


empírica. Madrid: Alianza

- Moreno Rodríguez, R., Martínez Cervantes, R.J. y Chacón Moscoso, S. (2000).


Fundamentos metodológicos en Psicología y Ciencias afines. Madrid: Pirámide.

https://campusformacion.net/nuevocampus/impresioncurso.php 165/172
11/12/21 14:12 Campus Virtual

- Noelle, E. (1970). Encuestas en la sociedad de masas. Introducción a los métodos de la


demoscopia. Madrid: Alianza Editorial.

- Padilla García, J.L., González Gómez, A. y Pérez Meléndez, C. (1998). Elaboración del
cuestionario. En A.J. Rojas Tejada, J.S. Fernández Prados y C. Pérez Meléndez (Eds.),
Investigar mediante encuestas. Fundamentos teóricos y aspectos prácticos (pp. 115-
140). Madrid: Síntesis.

- Pérez Meléndez, C., Rojas Tejada, A.J. y Fernández Prados, J.S. (1998). Introducción a la
investigación social. En A.J. Rojas Tejada, J.S. Fernández Prados y C. Pérez Meléndez
(Eds.), Investigar mediante encuestas. Fundamentos teóricos y aspectos prácticos (pp.
17-29). Madrid: Síntesis.

- Salvador, F. i Pelegrina, M. (1993). El mètode científic en Psicologia. Barcelona:


Biblioteca Universitària, Universitat Ramon Llull.

- Sandín, B. (1985). La entrevista psicológica. En F. Morales (Coord.), Metodología y teoría


de la Psicología (pp. 79-118). Madrid: Universidad Nacional de Educación a Distancia,
Vol. 2.

- Santesmases Mestre, M. (1997). Dyane. Diseño y análisis de encuestas en investigación


social y de mercados. Madrid: Pirámide.

- Shaughenessy, J.J. y Zechmeister, E.B. (1985). Research methods in Psychology. New


York: Alfred A. Knopf.

- Sierra Bravo, R. (1983). Técnicas de investigación social. Teoría y ejercicios.

- Anguera, M. T. (1983). Manual de prácticas de observación. México: Trillas.

- Bakeman, R., & Gottman, J.M. (1986). Observing interaction: An introduction to


sequential analysis. New York: Cambridge University Press. 1st edition.

- Borja-Aburto, V. H.; Muñoz, S. & Bustamante-Montes, P. The case-control design in


medical research. Rev. Invest. Clin., 49:481-9, 1997.

- Losada López,J.L. (1999). Metodología observacional. A Coruña: Penta.

- Monterola, C. Estudios Observacionales. Los Diseños Utilizados con Mayor Frecuencia


en Investigación Clínica. International Journal of Morphology, 32(2):634-645, 2014.

- Manterola, C. & Astudillo, P. Checklist for reporting of descriptive observational studies.


MINCIR initiative. Int. J. Morphol., 31(1):115-20, 2013

- Manterola M, Page J, Vasco C, Berrios S, Parra MT, Viera A, Rufas JS, Zuccotti M,
Garagna S, Fernandez-Donoso R (2009) A high incidence of meiotic silencing of
unsynapsed chromatin is not associated with substantial pachytene loss in heterozygous
male mice carrying multiple simple robertsonian translocations. 

https://campusformacion.net/nuevocampus/impresioncurso.php 166/172
11/12/21 14:12 Campus Virtual

- Manterola, C. Estrategias de investigación. Diseños observacionales 1a parte. Estudios


descriptivos. Rev. Chil. Cir., 53:229-33, 2001a.        

- Manterola, C. Estrategias de investigación. Diseños observacionales 2a parte. Estudio


de casos y controles. Rev. Chil. Cir., 53:316-20, 2001b.  

- Manterola, C. Estrategias de investigación. Diseños observacionales 3a parte. Estudio


de cohortes. Rev. Chil. Cir., 53:410-4, 2001c.

- Newman, T. B.; Browner, W. S.; Cummings, S. R. & Hulley, S. B. Designing an


observational study: Cross sectional and case-control studies. In: Hulley, S. B. &
Cummings, S. R. (Eds.). Designing clinical research. 2nd ed. Philadelphia, Lippincott
Williams and Wilkins, 2001. pp.107-24.  

- Suen, H.K. & Ary, D. (1989) Analyzing quantitative behavioral observation data.
Hillsdale, N.J.: Lawrence Erlbaum Associates

- Sackett, D. L.; Haynes, R. B.; Guyatt, G. H. & Tugwell, P. Epidemiología Clínica: Ciencia
básica para la medicina clínica. Buenos Aires, Médica Panamericana, 1994. 

- Steven, R.; Cummings, S. R.; Ernster, V. & Hulley, S. B. Designing an observational study:
Cohort studies. In: Hulley, S. B. & Cummings, S. R. (Eds.). Designing clinical research. 2nd
ed. Philadelphia, Lippincott Williams and Wilkins, 2001. pp.95-106

- Wacholder, S.; McLaughlin, J. K.; Silverman, D. T. & Mendel, J. S. Selection of controls in


case control studies I, Principles. Am. J. Epidemiol., 135:1019-28, 1992a.

- Wacholder, S.; McLaughlin, J. K.; Silverman, D. T. & Mendel, J. S. Selection of controls in


case control studies II, Types of controls. Am. J. Epidemiol., 135:1029-41, 1992b. 

https://campusformacion.net/nuevocampus/impresioncurso.php 167/172
11/12/21 14:12 Campus Virtual

Casos prácticos

Ejercicio desarollo 1 - Unidad formativa 1 - La investigación científica -


Bloques 1 y 2

EJERCICIO 1
En los ejemplos siguientes, identifica las variables dependientes e
independientes.

Dos grupos de niños se sometieron a programas de cálculo


con ábaco diferentes para ver si los programas tenían algún
efecto sobre el pensamiento abstracto.
A un profesor universitario le interesaba determinar cuál era
la mejor manera de enseñar la materia Fundamentos de la
Investigación y asegurar que sus estudiantes aprendieran el
material.
El número de butacas en un teatro se determina en relación a
cuántos tickets se pueden vender.

El contenido no debe sobrepasar los 2MB

 
  

 
Enviar al tutor

El plazo de realización y envío al equipo docente de los ejercicios y casos prácticos deberá realizarlo al menos 5
días antes de la fecha de fin de convocatoria del curso.

Le recordamos que estos ejercicios y casos prácticos son voluntarios y no repercutirán en la evaluación de la
acción formativa.

Ejercicio desarollo 2 - Unidad formativa 1 - La investigación científica -


Bloques 1 y 2

https://campusformacion.net/nuevocampus/impresioncurso.php 168/172
11/12/21 14:12 Campus Virtual

EJERCICIO 2
 

Formula las hipótesis nula y alternativa que corresponderían a la siguiente


hipótesis de investigación:

Hi: “A mayor tiempo de estudio y dedicación de los estudiantes de


Metodología,  mayores calificaciones obtendrán”.

El contenido no debe sobrepasar los 2MB

 
  

 
Enviar al tutor

El plazo de realización y envío al equipo docente de los ejercicios y casos prácticos deberá realizarlo al menos 5
días antes de la fecha de fin de convocatoria del curso.

Le recordamos que estos ejercicios y casos prácticos son voluntarios y no repercutirán en la evaluación de la
acción formativa.

Ejercicio desarollo - Unidad formativa 1 - La investigación científica - Bloque


3

EJERCICIO 1
 

Presenta un ejemplo de un diseño de panel, un diseño de cohortes y un diseño


de medidas repetidas. Con base en ellos analice las diferencias entre los tres
tipos de diseños longitudinales.

El contenido no debe sobrepasar los 2MB

https://campusformacion.net/nuevocampus/impresioncurso.php 169/172
11/12/21 14:12 Campus Virtual

 
  

 
Enviar al tutor

El plazo de realización y envío al equipo docente de los ejercicios y casos prácticos deberá realizarlo al menos 5
días antes de la fecha de fin de convocatoria del curso.

Le recordamos que estos ejercicios y casos prácticos son voluntarios y no repercutirán en la evaluación de la
acción formativa.

Ejercicio desarollo - Unidad formativa 1 - La investigación científica -


Bloques 4 y 5

EJERCICIO 1
 

En base al siguiente ejemplo responde a las preguntas que se presentan a


continuación:

“En Alaska se está llevando a cabo un estudio para establecer si el hábito de


fumar es diferente entre los dos sexos. Se toma una muestra aleatoria simple
de tamaño 100 de una población de hombres adultos. Se toma una muestra
aleatoria simple de tamaño 120 de una población de mujeres. Se encuentra
que la proporción de hombres fumadores en la muestra es de 0,40 y la
proporción de mujeres que fuman es de 0,55”

¿Cuál es la variable respuesta?

¿Cuál es la variable explicativa?.

¿Es este un estudio observacional ó experimental?. Razona tu respuesta.

¿Es este un estudio prospectivo ó retrospectivo?. Justifica.

¿Qué método de muestreo se usó para obtener la muestra?. Justifica.

El contenido no debe sobrepasar los 2MB

https://campusformacion.net/nuevocampus/impresioncurso.php 170/172
11/12/21 14:12 Campus Virtual

  

 
Enviar al tutor

El plazo de realización y envío al equipo docente de los ejercicios y casos prácticos deberá realizarlo al menos 5
días antes de la fecha de fin de convocatoria del curso.

Le recordamos que estos ejercicios y casos prácticos son voluntarios y no repercutirán en la evaluación de la
acción formativa.

https://campusformacion.net/nuevocampus/impresioncurso.php 171/172
11/12/21 14:12 Campus Virtual

https://campusformacion.net/nuevocampus/impresioncurso.php 172/172

También podría gustarte