Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PARCIAL
OM
identifica la unidad de análisis (en quien o en que se va a realizar la
investigación) para seleccionar la muestra. La muestra debe ser representativa
de la población para garantizar la validez externa (generalización de los
resultados).
o Que la muestra sea representativa tiene que ver con como seleccionamos
los sujetos que van a formar parte de la muestra, es decir, tiene que ver con
.C
la técnica de muestreo.
- Hay dos grupos de técnicas de muestreo:
▪ Muestreo probabilístico (aleatorio): Se obtiene la muestra
aleatoriamente por azar; en las muestras aleatorias cada elemento de la
DD
población tiene una probabilidad igual, o una probabilidad cuantificable,
de ser seleccionado. Garantizan en mayor medida que la muestra sea
representativa. Permite realizar investigaciones con mayor validez
interna y externa.
LA
aleatoria.
OM
- En varias etapas: antes de llegar a la unidad de análisis,
se pasa por mas de una etapa previa, se toman en forma
sucesiva varias unidades mayores que los elementos de
la población. (Ej, Primera etapa: Considerando todas las
provincias del país (que tienen Centros de hemodiálisis)
se seleccionan aleatoriamente un número de ellas.
OM
cubierto una cuota se continúa únicamente con sujetos que
apliquen para la otra cuota. (Ej. los investigadores desean un
numero igual de hombres y mujeres; una vez que obtengan su
cuota para un genero, se acercarán solo a miembros del otro
género, hasta que tengan los individuos suficientes).
Si las cuotas se establecen en varias dimensiones (tomando más
OM
• DISEÑO FACTORIAL (CON MÁS DE UNA VARIABLE INDEPENDIENTE) - Teórico
- Como actúan diferentes causas (VI) afectan sobre una VD.
- Las VI no se suman, sino que interactúan entre ellas, generando un tipo de
efecto diferente al que se podría observar en diseños simples (con una sola VI).
- Están armados con dos o mas VI o factores.
- Variable Independiente → Variable Factor
.C
- Variable Dependiente → Variable Criterio
- Cuando tiene dos variables independientes o factores se denomina: Diseño
Factorial A x B. La cantidad de niveles/valores que tenga cada VI/factor
reemplazan a las letras: Diseño Factorial 2 x 2 (ej)
DD
LA
A TENER EN CUENTA
Si un numero tiene un
arquito arriba, eso quiere
decir que es de MEDIDAS
REPETIDAS
Si hubiera tanto medidas repetidas
como medidas independientes, la
cantidad de grupos estaría dada
- Los factores pueden tener MANIPULACIÓN INTENCIONAL
porcomo
los factores de medidas
MANIPULACIÓN DE SELECCIÓN. independientes.
Ej. en un diseño 2x3x2 con medidas
repetidas en C, habría 12
tratamientos y 6 grupos (dados por
4
OM
con medidas repetidas.
.C
▪ Es más sencillo controlar variables contaminadoras, porque es mas fácil
el control en una sola investigación que en varias.
▪ Dan mejor capacidad de generalización a situaciones naturales (validez
externa ecológica), ya que en la realidad las variables suelen interactuar
DD
con otras y no solamente presentar efectos aislados.
▪ Requiere menor tiempo y cantidad de sujetos que si se hicieran varias
investigaciones con cada variable independiente por separado.
▪ Efectos Principales: Son los efectos que tiene cada una de las variables
independientes (factores) por separado, tomados de forma aislada.
▪ Efectos de Interacción: Hay interacción cuando el efecto de cada factor
varia (se ve modificado) en función de los valores que tome del otro u
FI
▪ Efectos Simples: Son los efectos que tienen cada uno de los factores
bajo cada nivel (valor) del otro factor, o bajo cada combinación de
niveles de los otros factores.
Se utilizan para interpretar la interacción; los efectos simples se dan
dentro de cada efecto de interacción.
Se tienen efectos simples para cada factor. De manera que en un diseño
A x B. Vamos a tener varios efectos simples para A y varios efectos
simples para B. Para cada factor vamos a tener tantos efectos simples
como niveles tenga el otro factor. Por ejemplo para un diseño 2 x 4
tendríamos 6 efectos simple. Cuatro de estos efectos simples
corresponderían al factor A (ya que el factor B tiene cuatro niveles), y
OM
▪ Efectos del error
interacción
▪
▪
▪ .C
Efectos de A x B
Efectos de A x C
Efectos de B x C Efectos de
DD
▪ Efectos de A x B x C interacción
▪ Efectos del error
- EFECTOS PRINCIPALES
▪ Se informa que hay efecto principal de cada variable o factor, solo si la
LA
- EFECTOS DE INTERACCIÓN
▪ Son los efectos de la combinación entre los factores (o variables) donde
se evidencia que alguno cambia su impacto por influencia de otro (u
- EFECTOS SIMPLES
▪ Permiten analizar la interacción. Corresponde a los efectos de cada
factor en cada uno de los niveles del otro/otros factor/es.
▪ Se analizan cuando hay un efecto de interacción significativo, para
interpretar la interacción entre los factores. Esta interpretación muestra
que los efectos principales pueden ser engañosos.
▪ Cuando las pendientes (de las líneas que dibujamos para unir puntos en
el gráfico de interacción) tienen el mismo signo (ambas se inclinan en la
OM
misma dirección), podemos dibujar el Efecto principal en dicho gráfico.
Significación o no
p ≤ 0.05 → hay efecto significativo
p > 0.05 → NO hay efecto
significativo
.C
¿Cómo observar la dirección en la tabla?
DD
A
a1 a2
B b1 se resta se resta
b2
LA
OM
diferencia entre los mismos, sin indicar por ejemplo que grupo va a tener
los valores más elevados; y si fuera una correlación no se indica si la misma
va a ser directa o inversa.
o Unilateral: En una hipótesis unilateral (también conocida como direccional
o a una cola), se establece la dirección del resultado. Si se comparan
grupos, no solo basta que difieran entre si, sino que hay que especificar la
.C
dirección de la diferencia, estableciendo por ejemplo que tal grupo va a
presentar valores mayores que el otro, o también en otro caso podría ser
que tal grupo va a tener valores menores. Si fuera una correlación, se
DD
establece si la misma va a ser directa o inversa.
- Si se da la situación (1) y por lo tanto rechazamos H0, sería un Error tipo I. Esto
es, rechazar H0 cuando en realidad es verdadera.
- Si se da la situación (2) y se rechaza H0, aquí si sería no solo razonable, sino
• Varianza
OM
- Varianza sistemática (intergrupo-entre grupos): si los promedios entre grupos
tienen una diferencia estadísticamente significativa (p ≤ 0.05); desviación
sistemática de datos en una dirección mas que en otra, que se observa en las
diferencias entre grupos.
o VI genera varianza sistemática primaria. No se puede distinguir de cual de las
o VC genera varianza sistemática dos
.C
secundaria.
OM
Ej. Estudios pre-experimentales.
- La varianza de error está siempre, pero se dice que es la que predomina
cuando no hay diferencia significativa.
.C
Existen dos enfoques diferentes:
1) Enfoque nomotético de investigación (normativo):
DD
o Estudios que buscan determinar el “promedio” o desempeño típico de un
grupo cuya conducta se observa luego de la aplicación de un tratamiento
experimental o más.
o Metodología de grupos.
o Diferencias individuales: varianza de error. Las cuestiones particulares de
cada sujeto no son de interés, por eso se consideran varianza de error.
LA
pequeño.
▪ Estudios de casos: generan hipótesis, pero no permiten probarlas.
▪ Diseños de sujeto único o N pequeño: diseños experimentales que
plantean relaciones causales, son diseños específicos que permiten
demostrar esas relaciones con un cierto grado de validez interna.
10
OM
intervención.
o Fase de aplicación de la INTERVENCIÓN/TRATAMIENTO: se aplica y se
continúa la medición repetida de la VD mientras dura esta fase. Esta
intervención, en el contexto de estos diseños, se denomina FASE “B”. En
este caso, la conducta sigue siendo medida de manera repetida, mediante
las mismas operacionalizaciones que en la anterior fase, pero con una
-
.C
intervención o tratamiento.
11
OM
▪ A través de situaciones
.C
DD
LA
FI
12
13
OM
grupos; se actualizan (los términos teóricos se han modificado); cambian, se
adecúan a nuevos contextos.
- ¿Qué son los estudios de validez y confiabilidad?
Son investigaciones sobre las técnicas para determinar la capacidad que tienen
de medir un término teórico determinado y con qué constancia lo hacen.
Estas investigaciones se denominan estudios psicométricos.
Pueden clasificarse como investigación metodológica.
.C
El estudio psicométrico puede ser una investigación en sí, o puede comprender
solo una etapa de una investigación, donde cumple la función de crear o
adaptar las técnicas que se van a utilizar en la misma.
DD
- ¿Por qué es importante que un instrumento sea válido y confiable?
Los instrumentos permiten MEDIR las variables estudiadas.
En la investigación significa que ofrecen la posibilidad de operacionalizar
términos teóricos.
El uso adecuado de una técnica psicométrica no se reduce a conocer como se
LA
• CONFIABILIDAD
- Refiere específicamente a los errores aleatorios -no pueden ser controlados y
no se pueden predecir-.
- Si un instrumento tiene alta confiabilidad, eso NO significa necesariamente que
es válido; un instrumento puede ser confiable y al mismo tiempo no ser válido.
Pero a la baja confiabilidad se la puede relacionar con problemas de validez.
- La confiabilidad es la consistencia en un conjunto de medidas de un atributo.
- La medición implica obtener un puntaje del instrumento (valor numérico o
score) o varios.
- Ese valor obtenido u observado (puntaje bruto) es el resultado de la medida
real del atributo o variable y una medida de error.
- Valor observado = Valor verdadero +/- Error.
14
OM
distintas partes del instrumento deben estar correlacionadas entre sí; es
decir, la congruencia interna se establecería según la magnitud de los
valores que expresaren las correlaciones entre sus partes.
La situación ideal sería que todos los reactivos tengan la misma intensidad
(cuestión no posible). Lo que se puede hacer es agrupar los ítems que
miden mucho por un lado, y los ítems que miden poco o menos el mismo
atributo, para luego distribuirlos de forma pareja a lo largo del instrumento;
.C
si se logra eso, entonces se puede decir que tiene congruencia interna u
homogeneidad.
DD
• División por mitades:
15
OM
resultados de un instrumentos en aplicaciones sucesivas: memoria
episódica en adultos.
o Ejemplo de atributo no estable: estado de ánimo.
Se ve afectada por diferentes aspectos del paso del tiempo, cambio de
actitud de los sujetos, sensibilización, maduración, historia…
• Procedimiento test-retest:
.C
DD
Consiste en aplicar la misma prueba en dos momentos diferentes al mismo
grupo de sujetos, y luego correlacionar entre sí los puntajes obtenidos en
cada toma.
LA
16
OM
de las dos formas para medir el atributo.
.C
Tipo II: Consistencia entre dos evaluadores u observadores. Determinar la
confiabilidad entre evaluadores y observadores.
o Ejemplo en técnicas de observación estructurada: Se calcula el índice de
DD
concordancia = número de concordancia/numero de concordancias +
discordancias.
Esta formula no contempla el efecto del azar en la concordancia observada,
para ajustar esto uno de los coeficientes que se pueden usar es Kappa de
Cohen (para variables cualitativas con dos observaciones).
LA
• Procedimiento:
FI
• VALIDEZ
- La validez tiene que ver con poder determinar si el instrumento esta midiendo
realmente lo que dice medir. Recordando que los instrumentos tienen como
propósito operacionalizar constructos -medir determinados atributos-.
- Determinar la validez es mucho más difícil que establecer su confiabilidad. La
confiabilidad es esencialmente una cuestión empírica, pero la validez incluye
más elementos teóricos, ya que la validación persigue la explicación.
- Se debe evaluar la validez de:
1) Contenido: Evaluación por jueces expertos (personas especialistas que han
trabajado con el constructo)
2) Criterio:
o Concurrente: relación con un criterio actual
o Predictiva: relación con un criterio futuro
17
1) Validez de contenido: Evaluar si los ítems del test son relevantes para el uso
que se le va a dar al test. Determina si los ítems del instrumento están en el
dominio de interés y si representan al universo de características o aspectos
que abarca el constructo. Expertos hacen un juicio para indicar si abarca todas
las características del constructo; una vez que los jueces den el ok, entonces se
OM
puede decir que el contenido es válido.
2) Validez de criterio: Relación entre los puntajes del instrumento con otra
variable vinculada o criterio. No se trata únicamente de establecer que se mida
adecuadamente un constructo, sino fundamentalmente relacionar las
puntuaciones del instrumento con otras variables criterio.
.C
Es útil cuando se quiere hacer inferencias a partir de los puntajes que se
obtienen en el test respecto de alguna otra variable de interés. Por ej. Si lo que
quisiéramos fuera establecer la validez de criterio de un test de inteligencia,
DD
podríamos usar algún indicador de rendimiento académico (por éj. notas
escolares), como criterio, para relacionar con el test de inteligencia.
o Concurrente: Si relacionamos las puntuaciones del test con alguna
medida del criterio tomada en el mismo momento.
Esta validez concurrente implica un diseño transeccional/transversal:
recolectan datos en un solo momento, en un tiempo único.
LA
18
OM
Se aplica el instrumento a dos o mas grupos, pero deben diferir en el atributo
que se mide, en razón de alguna característica que se usó para formar los
grupos, pudiendo inferir que dicha característica estaría relacionada con
diferencias predecibles en el atributo.
.C
Formar grupos que
Aplicar el Determinar si
difieran en el atributo
instrumento a difieren
(considerando una
ambos grupos significativamente al
característica asociada
DD
compararlos
al mismo)
Ej. Si tenemos un test que mide inteligencia, teniendo en cuenta que las
habilidades cognitivas varían con la edad, podríamos formar grupos de distintas
edades, de acuerdo a las diferencias cognitivas que fueran esperables, y
LA
tests, se puede correlacionar el nuevo con aquel, con los varios tests ya
existentes. Esto depende de que exista
Aplicar por lo menos un test con un constructo
otro/s
Aplicar el instrumento
idéntico o muy similar, al que se intenta validar.
instrumento/s ya Correlacionar ambos
validado/s que mida/n el puntajes
mismo constructo
o Análisis factorial
Se utiliza cuando el test está dividido en factores. Cuando teóricamente el
constructo o atributo plantea la división en factores, en el instrumento se
estudia si empíricamente dichos factores se observan (mediante la agrupación
de ítems correlacionados entre sí); se analizan las intercorrelaciones de un
conjunto de datos, para establecer determinadas agrupaciones de ítems
correlacionados entre sí, las cuales remiten a factores que no son observables,
que constituyen distintos constructos. El objetivo es reducir del conjunto total
de ítems un conjunto reducido de variables subyacentes (factores).
19
OM
Análisis de las cargas factoriales (de cada ítem respecto a cada
factor) y descarte de los ítems en conflicto (cargas altas en
mas de un factor, cargas bajas en todos los factores),
incongruencia teórica o descarte de factores (pocos ítems)
.C
Ej. Capaz el ítem que yo creía que media X variable, media algo completamente
DD
distinto, entonces ese debe ser eliminado. Si me da una carga alta en un factor
pero al mismo tiempo da carga alta en otro, entonces no me sirve, solo debe
correlacionarse con una variable/factor, con el conjunto de ítems propio de esa
X variable, no de otra.
LA
Desventajas:
▪ Las estructuras factoriales pueden tender a ser inestables y dependen
mucho del tamaño de la muestra.
▪ Al replicar la estructura factorial, deberíamos considerar la validez
factorial como una cuestión de grado, ya que si se aplica en un país o
FI
Ventaja:
▪ Cuando la estructura factorial no es exactamente igual, pero guarda
20
OM
• OBSERVACIÓN SISTEMÁTICA - Práctico
- Técnicas de observación sistemática
o Finalidad: Operacionalización de conductas complejas
o Medición exacta del comportamiento
o Medición objetiva, válida y confiable del comportamiento
.C
o “Registro sistemático válido y confiable del comportamiento o conducta
manifiesta. Se recolecta información sobre la conducta más que de
percepciones.”
DD
- Construcción de un sistema de observación
1) Definir de manera precisa las conductas a observar: ¿Qué conductas y
quiénes se van a observar y por cuánto tiempo?
2) Especificar las circunstancias espaciales y temporales de la observación:
¿Dónde y cuándo se realizará la observación?
LA
- Observación Sistemática
21
OM
.C
DD
LA
FI
22
OM
o un producto perdurable. Los productos pueden contarse, o puede
determinarse su presencia o ausencia.
▪ Ventajas:
1) Demuestra con facilidad la validez de las mediciones
cuantitativas o cualitativas si se pide a jueces independientes
que valoren los productos según sus criterios.
.C
2) Reduce la reactividad o los efectos de los procedimientos
experimentales sobre las personas.
3) Los productos permanentes son mas fáciles de registrar cuando
se quiere establecer la confiabilidad.
DD
Ej. Defecación: al ser producto permanente, puede medirse
directamente (en el momento o más tarde) y la confiabilidad es más
fácil de establecer.
número mayor
23
OM
(conductas discretas). Se observa todo el tiempo y se anota en momentos
determinados de un intervalo de tiempo, cuánto duró una determinada
conducta.
Ej. tiempo que un niño se mantiene realizando una tarea (tiempo de
atención)
La confiabilidad se calcula:
.C duración menor
duración mayor
= índice de
acuerdo
DD
o Muestreo temporal de la conducta:
▪ Momentáneo: al finalizar el intervalo de observación, se anota la
presencia/ausencia de la conducta según esta sucediendo o no en
ese momento. Registra la conducta cuando ocurre, en el momento
en que se termina el intervalo; registra conductas que son propensas
a persistir por cierto tiempo.
LA
24
OM
una mayor precisión se puede usar el coeficiente Kappa de Cohen que es un
índice de concordancia.
.C
DD
LA
FI
25