Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Para poner a prueba la suposición, se implementan análisis estadísticos sobre los datos obtenidos en una muestra que se usa para
la investigación. Estos nos dan la probabilidad de obtener los valores muestrales observados o aún más extremos, en el caso de
que el valor del parámetro (sostenido en la H0) sea verdadero. Esa probabilidad se denomina valor “p”. Si el valor de p es pequeño,
puede deberse a: 1. Los datos muestrales observados se deben solo a la casualidad, 2. Los datos muestrales responden a la
situación actual de la población. Si se diera la situación de la primera alternativa y rechazamos la H 0 nos estaríamos equivocando
(error de tipo 1: rechazar la H0 cuando en realdad es verdadera). En el segundo caso, rechazar la H 0 no solo sería razonable sino
acertado.
En el caso de que el valor p sea grande tambien puede deberse a dos situaciones: 1. El estadístico da cercano al parámetro porque
es verdadero, 2. El estadístico da cercano al parámetro por casualidad. En la primera situación seguir sosteniendo la H 0 es lo
correcto, y en el segundo un error (error de tipo 2: mantener la H0 cuando en realidad es falsa).
En las investigaciones de psicología, se propone un límite que determina si el p es bajo o no: 0,05. Si el p es inferior o igual a
0,05 se rechaza la H0. Y si el p es mayor que 0,05 se sostiene. Este valor se denomina “nivel de significación” y se simboliza con
. Entonces el valor de se establece en 0.05.
Cuando el p es menor o igual a , por ser el estadístico demasiado improbable para el parámetro de H 0 se dice que hay diferencia
significativa (entre el estadístico y el parámetro). Si p es mayor a se dice que aunque exista diferencia real dicha diferencia no es
estadística significativa.
CONFIABILIDAD
𝑉𝑎𝑙𝑜𝑟 𝑜𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑜 = 𝑣𝑎𝑙𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜 ± 𝐸𝑟𝑟𝑜𝑟
Toda medición tiende a presentar errores, de manera que el valor observado en la medición está formado por el valor verdadero y
por el error de medición. Cuanto más error incluya la medición, más contaminada quedaría la variable de interés y más imprecisa
seria la técnica que intenta medirla. Si en toda medida el valor obtenido está compuesto por el valor verdadero y los errores de
1
medición, un instrumento será más confiable en la medida que maximice el valor verdadero, es decir que se aproxime lo más posible
al valor verdadero u obtenido. Al reducir el error de medición, incrementamos la similitud entre el valor verdadero y el obtenido.
Entonces, al maximizar el valor verdadero, minimizamos el error de medición, con el consecuente incremento de la confiabilidad.
Podemos hablar de dos tipos de errores: los errores aleatorios que no pueden ser controlados y no se pueden predecir, y los
errores sistemáticos que son controlables y pueden ser explicados por alguna fuente de variación sistemática. Los errores
aleatorios son los que interesan a la teoría de la fiabilidad.
Martínez Arias: la confiabilidad es la consistencia en un conjunto de medidas de un atributo.
Podríamos definir la confiabilidad como la proporción de la variabilidad verdadera respecto de la variabilidad obtenida.
En el análisis de la confiabilidad tenemos que considerar tres aspectos:
» Su congruencia o consistencia interna División por mitades y Covarianza de los ítems
» La estabilidad del instrumento Test-retest o confiabilidad de primera y segunda prueba
» La equivalencia Aplicación de instrumentos paralelos y concordancia entre observadores
ESTABILIDAD
Al hablar de estabilidad del instrumento contemplamos el factor de las variaciones que podrían darse en las medidas y la
consecuente disminución de la confiabilidad debidas al paso del tiempo. Lo que se observa es en qué grado se obtienen las mismas
medidas al aplicar dos veces el mismo instrumento, mediando entre ambas tomas un tiempo determinado. Entre ambas tomas
pueden intervenir una serie de factores q sean fuente de varianza de error disminuyendo la confiabilidad de las medidas.
Consiste en aplicar la misma prueba en dos momentos diferentes al mismo grupo de sujetos, y luego correlacionar entre sí los
puntajes obtenidos en cada toma. La correlación sirve para establecer la confiabilidad del instrumento.
2
Cuestiones que podrían afectar la confiabilidad en estos estudios test-retest:
» Modificaciones en la actitud de los sujetos respecto de la prueba o cambios en la información que estos manejen
» Puede haber efectos derivados de la primera aplicación del test q afecten al rendimiento en el segundo
» Un lapso demasiado breve entre ambas tomas podría incrementar el efecto distorsivo de la memoria y la práctica. Y a su vez,
un lapso demasiado largo produciría problemas relacionados con la maduración y la historia. En el caso de instrumentos q
evalúen psicopatologías, la historia podría afectar la confiabilidad test-retest, principalmente en patologías con altos índices de
remisión espontanea.
Uno de los problemas de las técnicas para evaluar la confiabilidad mediante test-retest es que pueden llegar a confundir las
fluctuaciones aleatorias con cambios que se producen realmente en el atributo. Puede haber tambien otras fuentes de errores
sistemáticos, que alteren los puntajes del test, sin modificar básicamente el atributo, como ser por ej., factores que modifiquen el
contexto de la medida. Ej.: psicólogo aplica test que mide Atención a un grupo de sujetos. Dos días más tarde les aplica de nuevo
el mismo test, pero en otro lugar más ruidoso. Es probable q el resultado en la prueba sea mejor en la primera toma, ya que los
sujetos estaban expuestos en menor medida a estímulos distractores que pudieran afectar su rendimiento.
EQUIVALENCIA
Se aplica cuando se quiere determinar la confiabilidad de dos instrumentos que se consideran paralelos. Se trata de poder establecer
la consistencia/equivalencia de los instrumentos, que suponen medir el mismo constructo, al aplicarlos a los mismos sujetos.
Se aplican las dos formas del test en forma simultánea, se va variando el orden de presentación de las formas de sujeto en sujeto y
luego se correlacionan los puntajes de ambas formas. De ser ambas formas equivalentes tendría que obtenerse un coeficiente de
correlación elevado. En la práctica es difícil establecer q las formas sean realmente paralelas, por ese motivo suele tratárselas como
formas alternativas. En esta técnica no solo se establece la confiabilidad, respecto de la magnitud de los errores aleatorios, sino que
tambien se establece cual es el grado de paralelismo que hay entre ambas formas.
A veces las formas no se aplican simultáneamente, sino que se deja transcurrir un tiempo. De esta manera la correlación q se
obtendría serviría tanto para estimar la equivalencia como la estabilidad de las dos formas para medir el atributo.
Otra forma de equivalencia consiste en determinar la confiabilidad entre evaluadores u observadores. Esta es especifica de aquellos
instrumentos en los cuales dos o más evaluadores tienen que calificar la conducta/rendimiento como parte de la aplicación del
instrumento.
Administrar el
instrumento a una Correlacionar los
muestra al mismo puntajes de ambos
tiempo que un casos
instrumento paralelo
VALIDEZ
La validez tiene que ver con poder determinar si el instrumento está midiendo realmente el atributo que dice medir.
Validez de contenido Evaluación por jueces expertos
Validez de criterio Concurrente (relación con un criterio actual) y predictiva (relación con criterio futuro)
Validez de constructo Grupos conocidos o diferenciación entre grupos, correlaciones con otras medidas del constructo,
análisis factorial y matriz multimétodos-multirasgos o validez convergente-discriminante
DE CONTENIDO
Al analizar la validez de contenido, lo que hacemos es evaluar si los ítems que hemos usado para construir el test, son
relevantes para el uso que se le va a dar. Es decir, si todos los ítems están dentro del dominio de interés. Después, lo que
importa es saber si los ítems constituyen una muestra representativa del universo de conductas q podrían haberse elegido como
indicadoras del atributo en cuestión.
DE CRITERIO
Tiene un fin más práctico. Se trata de relacionar las puntuaciones del instrumento con las variables criterio. Nos es útil cuando
deseamos hacer inferencias a partir de los puntajes que se obtienen en el test respecto de alguna otra variable de interés. Ej. si
quisiéramos establecer la validez de criterio de un test de inteligencia, podríamos usar algún indicador de rendimiento académico
(notas escolares) como criterio para relacionar con el test de inteligencia.
3
» Validez predictiva: si las puntuaciones del test se utilizan para predecir alguna medida del criterio que se va a realizar a futuro.
Ej. si aplicamos un test (EPQ-A – Cuestionario de Personalidad de Eysenck para Adultos) y lo usamos para predecir q pacientes
depresivos, pasado un año, tendrán mejor respuesta al tratamiento. No se debe confundir ésta con el poder predictivo propio
de las investigaciones científicas. Implica un diseño prospectivo.
Obtener los puntajes del Dejar pasar el tiempo
instrumento aplicado a una correspondiente y luego
muestra y seleccionar el criterio obtener la medida del Correlacionar ambas
a medir criterio
» Validez concurrente: si relacionamos las puntuaciones del test con alguna medida del criterio tomada en el mismo momento.
Ej. si aplicamos el EPQ-A y el Inventario de Depresión de Beck (como criterio) en forma simultánea, y relacionamos los puntajes
de ambos instrumentos entre sí, para analizar en qué medida el Neuroticismo puede predisponer a la adquisición de conductas
depresivas. Ésta validez implica un diseño transeccional o transversal, recolectan momentos en un tiempo único.
DE CONSTRUCTO
Cuando una variable no es observable directamente, se constituyen constructos hipotéticos, deben ser operacionalizadas, es decir
hacerlas empíricas. Los instrumentos psicométricos se refieren a constructos hipotéticos, siendo el instrumento una forma de
operacionalizar los mismos. La validez de constructo consiste en tratar de probar que las conductas que registra el test pueden ser
consideradas indicadores válidos del constructo al cual refieren. Se trata de establecer que las puntuaciones del test constituyen
en forma valida una de las manifestaciones del constructo. Sólo es posible aproximarse a ese objetivo, es el más difícil de comprobar.
Ej. si tomamos la variable Neuroticismo medida por el EPQ-A lo que se quiere establecer es si este factor que mide el test se
corresponde con el constructo Neuroticismo, ubicado en la teoría de la personalidad de Eysenck, de la cual se deriva el instrumento
al que nos referimos.
Procedimientos para evaluar la validez de constructo:
» Análisis factorial: se utiliza cuando el test está dividido en factores y sirve para medir la validez del constructo, debido a que
desde la teoría del instrumento se plantean los distintos factores como atributos diferenciados. Se utiliza no solo para evaluar
la validez del instrumento sino tambien en su construcción. Una vez construido el test y establecidos los correspondientes
factores, la técnica puede aplicarse sobre los datos obtenidos a partir de una muestra de sujetos para establecer si la estructura
factorial planteada, puede ser replicada, lo cual nos permitiría hablar de la validez factorial del instrumento. Las estructuras
factoriales pueden tender a ser inestables y dependen mucho del tamaño de la muestra.
Cuando teóricamente el constructo o atributo plantea la división en factores, en el instrumento se estudia si empíricamente
dichos factores se observan (mediante la agrupación de ítems correlacionados entre sí). El objetivo es reducir del conjunto total
de ítems un conjunto reducido de variables subyacentes (factores).
» Diferenciación entre grupos: se aplica el instrumento a dos o más grupos, los cuales debieran diferir en el atributo que se
mide, en razón de alguna característica que se usó para formar los grupos, y que podría inferir a partir de la teoría del constructo
que mide el instrumento, que dicha característica estaría relacionada con diferencias predecibles en el atributo. Ej. si tenemos
test q mide inteligencia, teniendo en cuenta q las habilidades cognitivas varían con la edad, podemos formar grupos de distintas
edades según las diferencias cognitivas esperables, y esperaríamos encontrar diferencias entre los grupos en cuanto al nivel
de inteligencia q mide el test.
» Correlaciones con otras medidas del constructo: cuando ya existe otro test (o varios) validado que mide el mismo constructo,
se puede correlacionar el nuevo con aquel para establecer su validez de constructo.
Aplicar otro/s instrumento
Correlacionar ambos
Aplicar el instrumento ya validado que mida el
puntajes
mismo constructo
» Las matrices multimétodo-multirasgo (validez convergente-discriminante): se precisa que existan como mínimo dos
métodos diferentes para medir el constructo que se va a validar. Tambien se necesitan otros constructos que puedan ser
medidos por los mismos métodos. Se miden en los sujetos de la muestra los distintos constructos con métodos distintos. Se
calculan las correlaciones entre todas las medidas y se forma con ellas una matriz que contendría los siguientes datos:
4
- Coeficiente de fiabilidad: serían las correlaciones obtenidas entre medidas del mismo constructo con el mismo método.
Se espera que sean elevados
- Coeficiente de validez convergente: son las correlaciones entre las medidas del mismo constructo, obtenidas con
métodos diferentes. Se espera que las correlaciones sean altas.
- Coeficientes de validez divergente: son las correlaciones de constructos diferentes medidos con igual método y las
correlaciones de diferentes constructos medidos con distintos métodos. Se espera q sean más bajas que las de la
validez convergente y en el cálculo de la confiabilidad.
- Relación entre las medidas de diferentes constructos obtenidas por el mismo método
Discriminante - Relación de las medidas de diferentes constructos obtenidas por diferentes métodos
Diseños de sujeto único énfasis en el estudio del cambio conductual de un único sujeto, a lo sumo de unos pocos. Han sido
derivados de procedimientos generados desde el análisis experimental de la conducta de Skinner. Desde el punto de vista clínico,
es más importante evaluar cuál es el efecto especifico que produce un tratamiento en una conducta de importancia social para un
sujeto en particular. Presentan la ventaja de una reducción de la confusión que generan las diferencias individuales de los sujetos,
que normalmente deben ser controladas mediante técnicas de control metodológico/estadístico. En este diseño, la fluctuación de la
conducta de cada sujeto es evaluada y monitoreada de manera continua. Hay q tener en cuenta que la capacidad de generalización
de los resultados se ve limitada por lo cual no pueden derivar afirmaciones generales. Se podría generalizar el resultado a individuos
con idénticas característica si se repitiera la investigación con varios sujetos similares.
Requieren del diseño de una situación sumamente estructurada, para poner analizar la influencia que ejercen los programas e
intervenciones sobre la conducta en situaciones aplicadas. Para eso, se contrastan condiciones aplicadas a un individuo cuya
conducta es continuamente monitoreada mientras la VI es manipulada de manera sistemática.
La primera etapa se llama “Fase de línea base”, durante la cual se lleva un registro de la conducta (VD) del individuo antes de aplicar
cualquier intervención. Una medida típica es la frecuencia de la conducta por alguna unidad de tiempo (días, horas). Provee
información acerca de cómo es la conducta antes de que se aplique el tratamiento. Este registro siempre va a presentar fluctuaciones
de la conducta, ya que la misma suele verse modificada en diferentes momentos por muchas variables.
Ej. se puede registrar la cantidad de tics que presenta un niño en 8 intervalos de 5 minutos, a las 16hs, durante dos semanas. La
cantidad de tics puede depender si un día está más ansioso que otro.
Una vez que la conducta muestra que es relativamente estable, que exhibe poca fluctuación entre los intervalos de registro, se
introduce una intervención (tratamiento/valor de la VI: presencia)
5
Dos tipos de diseño de N = 1 o N pequeño:
DISEÑOS DE REVERSIÓN a ABAB
Buscan confirmar el efecto de un tratamiento al demostrar q la conducta cambia sistemáticamente al alternar condiciones de
tratamiento y no tratamiento.
Fase de línea base inicial (A) fase de tratamiento (B) retorno a línea base (A) otra fase de tratamiento
Durante los periodos de tratamiento, la conducta se sigue midiendo de manera idéntica a la línea de base, pero mientras está siendo
intervenida. En la tercera fase, se retira la intervención. Y como el tratamiento es removido en la segunda A, el cambio conductual
q se había producido es revertido, por eso se denomina diseño de reversión, se busca revertir el efecto positivo del tratamiento.
El investigador observa si:
a. La conducta-meta (que es la q quiere modificarse) cambia inmediatamente luego de la introducción de una variable de tratamiento
(primera B)
b. Si la conducta se revierte cuando el tratamiento es retirado (segunda A)
c. Si la conducta vuelve a mejorar cuando se reintroduce el tratamiento (segunda B)
Cuando las variaciones en la conducta siguen a la introducción y retiro del tratamiento, existiría evidencia de que es el tratamiento
el que causó el cambio en la conducta, demostrándose entre el tratamiento y el cambio en la conducta-meta una relación funcional.
Ventajas:
Permiten demostrar una relación funcional entre una VI (intervención) y la VD, teniendo así un alcance explicativo al permitir
determinar las condiciones específicas bajo las cuales se produce el cambio conductual. Tambien, como el diseño implica fases
alternantes de tratamiento y no tratamiento, tiene una función importante dentro de las terapias ayudando al paciente a transitar de
programas continuos de tratamientos a programas intermitentes, llegando al retiro definitivo de la intervención y que la conducta
permanezca modificada.
Desventajas:
a. No se pueden aplicar para modificar conductas q una vez establecidas sean irreversibles.
b. El establecimiento y medición de conducta durante línea base lleva tiempo, y durante el mismo no se generan condiciones para
un cambio conductual
c. A veces, no desean aplicar la reversión del cambio conductual, se rehúsan a retirar el tratamiento una vez que observaron cambios
positivos
d. Los resultados suelen ser difíciles de interpretar. Ej. cuando al retirar el tratamiento el cambio conductual no se revierte, y se
complica adjudicar una relación funcional entre VI y VD. Dicha relación queda demostrada cuando, desp de producirse el cambio
conductual ante la aplicación del tratamiento, el mismo es revertido al retirarse la intervención.
e. Hay casos en los que no se pueden aplicar porque no se puede hacer la reversión por los siguientes motivos:
Problemas éticos: no se considera ético retirar un tratamiento que está mostrando éxito, solo con fines de control
experimental.
Problemas prácticos: muchas veces se niegan a aplicar la reversión
» A través de sujetos
Procedimiento x el cual se observa y registra simultáneamente una misma conducta en más de un individuo.
1. Se establecen las líneas de base de una misma conducta para diferentes sujetos
2. Cuando la conducta de c/u se ha estabilizado, se introduce una intervención para modificar la línea de base de c/u, sin retirar el
tratamiento. El tratamiento es introducido en diferentes momentos para cada sujeto.
Si el tratamiento es responsable de cambiar la conducta, debería observarse un efecto en el registro conductual inmediatamente
luego de la aplicación del tratamiento en cada conducta (línea de base) y no en las restantes.
Ej. de psicología del deporte
» A través de conductas
Se establecen dos o más líneas de base en diferentes conductas de una misma persona. Primero se interviene una de las conductas
mientras las otras permanecen en línea de base, luego otra, y así sucesivamente. Se asumirá una relación causal si cada conducta
responde directamente al tratamiento.
Ej. de adulto con timidez extrema
» A través de situaciones
Se establecen dos o más líneas de base de la conducta de un individuo, pero cada una medida en diferentes situaciones. La
intervención se aplica primero en la línea de base de la conducta de una situación, y si ocurre un cambio conductual, en vez de
retirar la intervención, se le aplica a la línea de base de la conducta en la segunda situación y así sucesivamente
6
En estos diseños no hay reversión, no se retira el tratamiento, sino que el mismo se aplica a cada línea de base en momentos
diferentes. La aplicación de la intervención en cada línea de base es escalonada en el tiempo. Esto permite que las líneas de base
no intervenidas sirvan como control para la evaluación de la eficacia del tratamiento en aquellas que si son intervenidas.
Una desventaja posible es cuando las conducta-meta están muy relacionadas entre sí, y el efecto del tratamiento en una de ellas
puede generalizarse de manera no programada.
7
Muestreo estratificado
Requiere la división de la población en subgrupos/estratos mutuamente excluyentes. Su ventaja es que se garantizará que la muestra
contenga representantes suficientes de cada estrato.
Ej. podríamos dividir la muestra por género. Una vez que se han elegido los estratos puede aplicarse muestreo aleatorio simple o
sistemático, garantizando q la muestra esté constituida por el porcentaje de sujetos establecido para cada estrato. Porcentaje de
hombres y mujeres previamente establecido.
Proporcionado: refleja las proporciones de la población.
Ej. 2500 pacientes renales de CABA q asisten a Centros de hemodiálisis FMC
1500 hombres
1000 mujeres
Entonces la muestra presentará un 60% hombres y 40% mujeres.
Desproporcionado: no refleja las proporciones de la población. En este caso no se puede extrapolar directamente a la
misma, se requiere de un análisis más complejo.
Ej. En este caso la muestra podría presentar 50% hombres y 50% mujeres
Muestreo de conglomerados
Requiere un muestreo inicial con base en una unidad mayor que el elemento de la población. Cuando los elementos de la población
están muy dispersos geográficamente, este tipo de recurso permite que la muestra se aglomere en un número limitado de lugares.
De dos maneras:
En una sola etapa: antes de llegar a la UdeA, hay una sola etapa previa en la que se toma una unidad mayor
Si requiriera llevar a cabo la investigación con todos los pacientes de hemodiálisis del país, sería conveniente implementar este
tipo de muestreo, tomando como base del mismo una unidad inicial mayor que cada elemento de la población (px de
hemodiálisis). Se escogerían aleatoriamente un n° determinado de servicios de hemodiálisis del país, supongamos q dicha
empresa cuenta con 123 centros, de tal modo q se simplificaría el trabajo, ya q en vez de extraer los pacientes de cada centro,
solo se trabajaría con los provenientes d los centros escogidos aleatoriamente.
En varias etapas: antes de llegar a la UdeA, se pasa por más de una etapa previa, se toman en forma sucesiva varias
unidades mayores que los elementos de la población
Ej. Primera etapa: considerando todas las provincias del país (q tienen centro de hemod.) se seleccionan aleatoriamente un n°
de ellas
Segunda etapa: de las provincias, se seleccionan aleatoriamente alguna/s ciudades entre aquellas q tengan centros de hemod.
Tercera etapa: de los centros de hemod. Seleccionados se procederá a elegir al azar pacientes de c/u de ellos
Muestreo propositivo
Cuando desea estudiarse una muestra definida claramente, y q cumpla con ciertas características en función de las necesidades de
la investigación.
Ej. identificar pacientes en diálisis q presentan distintas comorbilidades asociadas a la insuficiencia renal crónica, por ej. diabetes,
hipertensión, para explorar respuestas diferenciales a la terapéutica dialítica.
La realidad práctica de una investigación, a veces va por otros caminos. ¿Cuánto de lo que refiere a una muestra aleatoria se cumple
en los distintos métodos de investigación cuantitativos?
8
a1 a2
b1 a1b1 a2b1
b2 a1b2 a2b2 Al analizar los resultados de una investigación, tomamos decisiones sobre si corroboramos o no las
hipótesis planteadas, “dos estudios conducidos de la misma manera en todos los aspectos, excepto el tamaño de la muestra, pueden
llevar a conclusiones diferentes”. Cuanto más pequeño sea el tamaño de la muestra, más probable será que cometamos Error tipo
2 (rechazar la hipótesis cuando es correcta). Entonces, que podamos corroborar una hipótesis, depende bastante del tamaño de
muestra que empleemos
Diseño factorial: aquellas investigaciones que tienen dos más VI y en las cuales se analiza el efecto combinado que producen
estas variables.
A los factores se los representa mediantes las primeras letras del alfabeto: VI: Factor – VD: Criterio
Diseño factorial: A x B x C
Tiene tres VI ya que cada letra representa una VI. Tambien se puede representar como: 2 x 3 x 2
Tambien sería un diseño con tres factores (VI), el valor de cada numero nos indica la cantidad de niveles que toma esa VI. Entonces
tenemos un factor con dos niveles, otro con tres y el ultimo con dos.
Los factores pueden tener tanto manipulacion intencional como manipulacion de selección. Cuando todos los factores son de
manipulacion intencional el diseño factorial puede ser un experimento. Cuando todos o alguno es de selección es un
cuasiexperimento.
Por ej. en este caso un tratamiento seria a1b1, que sería la aplicación conjunta del nivel 1 del factor A y del nivel 1 del factor B.
La cantidad de tratamientos depende de la combinacion de los niveles de los factores. En un diseño 2 x 3 x2 la cantidad de
tratamientos es 12 (multiplicando los niveles de los factores). En un diseño 2 x 2 son 4 tratamientos.
La cantidad de grupos va a depender del tipo de medidas que tenga el diseño factorial (Independiente o repetidas).
Si son todas medidas independientes, la cantidad de grupos es igual a la cantidad de tratamientos, diseño 2 x 3 x 2 con medidas
independientes seria 12 tratamientos y 12 grupos
Si son todas medidas repetidas, la cantidad de grupos es uno. Si el ejemplo de 2 x 3 x 2 fuera de medidas repetidas, serian 12
tratamientos y 1 solo grupo.
Si hay ambas medidas, la cantidad de grupos está dada por los factores de medidas independientes. Ej si el diseño 2 x 3 x 2
con medidas repetidas en C, habria 12 tratamientos y 6 grupos (dados por los factores A y B).
9
30 sujetos, 30 sujetos. Total 60 sujetos
Para ambas investigaciones necesitamos en total 120 sujetos
En esta tabla los numeros representan cantidad de sujetos (sólo en este caso). Para ambas variables tenemos 30 sujetos por grupo
igual que en los anteriores, pero la cantidad de sujetos que se precisan en total serian 60 y no 120.
EJEMPLOS:
Efectos principales de B
100 + 20 = 60 80 + 40 = 60
2 2
Efectos principales de A
100 + 80 = 90 20 + 40 = 30
2 2
Efectos de interacción: Se analizan tanto efectos de interaccion como combinacion de los factores, ya que el efecto de interacción
da cuenta del efecto global que tiene cada cominación de factores. En diseño A x B se analiza un solo efecto de interacción. En un
diseño A x B x C tenemos 4 posibles efectos de interacción.
Los efectos de interacción pueden ser estadisticamente significativos o no. Podemos encontrar que hay efectos de interaccion en
algunos casos y en otros no.
Efectos simples: Se utilizan para interpretar la interacción, y los efectos simples se dan dentro de cada efecto de interacción. En
un diseño A x B vamos a tener varios efectos simples para A y varios efectos simples para B. Para cada factor vamos a tener tantos
efectos simples como niveles tenga el otro factor. Ej. en un diseño 2 x 4 tendriamos 6 efectos simples. Cuatro de estos efectos
simples corresponderían al factor A (ya que el factor B tiene cuatro niveles) y los otros dos al factor B, porque el A tiene dos niveles.
10
La cantidad total de efectos simples de un diseño factorial va a variar en función de la cantidad de factores y la cantidad de niveles
que tengan estos factores.
Ej. La inteligencia y la dificultad en la tarea impactan sobre el rendimiento o la dificultad en la tarea modula el impacto de la
inteligencia sobre el rendimiento
VI A: Inteligencia a1: Baja , a2: Alta
VI (factores) VD B: Dificultad en la tarea b1: Fácil , b2: Difícil
VD Rendimiento (resultados de 0 a 10)
El factor A (inteligencia) solamente puede tener manipulación natural (porque es atributo de los sujetos). Por lo que debe ser de
MEDIDAS INDEPENDIENTES (intergrupo). El factor B (dificultad en la tarea) puede tener ambos tipos de manipulación, medidas
independientes (inter) o medidas repetidas (intra).
Entonces según si el diseño tiene medidas independientes o repetidas, tendremos distinta cantidad de grupos
Inteligencia Inteligencia Completamos la tabla con datos de Rendimiento, pueden ir entre 0 y 10. Si el
baja alta diseño es de medidas independientes y se partió de 200 sujetos, asignando
Tarea fácil 9 8 50 a cada grupo, puedo obtener el promedio de cada grupo en rendimiento
Tarea difícil 3 7 (sumando los rendimientos individuales y dividiendo por 50 en cada grupo).
Tambien puedo saber los promedios obtenidos en las investigaciones con solo una VI, en este caso Inteligencia sobre Rendimiento
y Dificultad de la tarea sobre Rendimiento. Si sumo ambos valores de inteligencia baja (primera columna) y divido por dos, obtengo
el promedio de Rendimiento en la condición de inteligencia baja: 9+3=12 12/2= 6
Lo mismo con inteligencia alta: 8+7=15 15/2 = 7.5
En inteligencia baja el promedio de rendimiento es 6 y en alta es 7.5. Si la diferencia entre ambos promedios es estadísticamente
significativa (p menor o igual a 0.05) concluiríamos que la Inteligencia impacta en el Rendimiento en el sentido que a mayor
Inteligencia el Rendimiento será mayor.
Inteligencia Inteligencia
baja alta
Tarea fácil 9 8 8.5
Tarea difícil 3 7 5
6 7.5
11
Para saber si estas diferencias son significativas o no, siempre los resultados son analizados por un estadístico y junto al mismo en
nivel de p (significación) para cada caso (efectos principales, interacción y efectos simples). Si todos fueran significativos podría ser
algo así:
El efecto principal de la inteligencia (donde se observaba que a mayor inteligencia mayor rendimiento) solo se mantiene en la
condición de tarea difícil, pero se ha invertido en tarea fácil (donde a mayor inteligencia, menor rendimiento).
Para Neuroticismo tomamos tres valores: Bajo, medio y alto. Para extraversión tomamos dos valores: Introvertidos y
Extrovertidos.
La VD es la frecuencia de emociones negativas. Este diseño factorial es un método cuasiexperimental porque los factores tienen
manipulación de selección. Son de medidas Independientes (intergrupo), ya que al ser variables de personalidad es la única
opción posible. Son 6 tratamientos (3 x 2 = 6) y los grupos son 6, ya que, al ser de medidas independientes, la cantidad de grupos
es igual a la cantidad de tratamientos.
Efecto de interacción: para construir los gráficos vamos a utilizar la primera tabla.
Para analizar la interacción hay que seguir la siguiente secuencia de pasos:
1. Observar si el factor deja de tener efecto bajo algún nivel del otro factor. Para ello hay que tener en cuenta si todos los efectos
simples son significativos o si alguno no lo es.
2. Observar cual es la dirección del efecto. Si la dirección es igual o diferente en cada efecto simple
3. Observar el tamaño del efecto
12
¿Cómo la interacción modifica el efecto del Neuroticismo?
Para resolver el primer paso hay que ver la significación de los efectos simples. En este caso, los dos efectos simples del
Neuroticismo son significativos.
Segundo paso. El cambio en la dirección lo podemos ver en el grafico o en la tabla. En el grafico tenemos que mirar las líneas de
los efectos simples. Si van todas en la misma dirección o no. En este caso las líneas de ambos efectos simples son ascendentes,
no cambia la dirección del efecto.
En la tabla tenemos que mirar si la comparación de las secuencias de medias que representan cada efecto simple, mantienen el
mismo ordenamiento. Por ej. en el par 140 y 147, ambos valores son los más bajos en cada secuencia de medias, 174 y 175 ocupan
lugar medio y 214 y 199 son los más altos. Conclusión, se puede observar que la dirección del efecto no cambia.
En ambos efectos simples los valores más elevados de la VD los observamos en los sujetos con alto Neuroticismo, de manera que
a mayor Neuroticismo, mayor frecuencia de emociones negativas.
Tercer paso. Hay que observar si hay cambios en el tamaño del efecto. En los dos pasos anteriores no se encontraron cambios
producidos por la interacción, y como la hay, algo tiene que verse modificado y lo único que queda es el tamaño del efecto. Entonces
lo que se ve modificado por la interacción en el efecto del Neuroticismo, es el tamaño del efecto. En el grafico lo observamos en la
pendiente que presentan las líneas de los efectos simples. Si las líneas difieren claramente en la inclinación q presentan (si son
relaciones lineales) hay una variación en el tamaño del efecto. En este caso, el efecto simple del Neuroticismo cuando los sujetos
son introvertidos tiene mayor inclinación que cuando son extrovertidos.
En la tabla podemos verlo, (también si son lineales) haciendo la resta entre los valores de los extremos de los efectos simples. En
este caso seria 214 – 140 = 74, y 199 – 147 = 52. Vemos que los resultados difieren entre sí, siendo el valor más elevado el que
corresponde al efecto simple del Neuroticismo para los introvertidos.
Entonces, la interacción modifica el efecto del Neuroticismo de la siguiente manera:
Bajo las dos condiciones de extraversión, se manifiesta el efecto del Neuroticismo sobre la frecuencia de emociones
negativas y en el mismo sentido (a mayor Neuroticismo mayor frecuencia de emociones negativas). La diferencia que
determina la interacción se manifiesta en el tamaño del efecto del Neuroticismo, siendo este más elevado en los sujetos
introvertidos.
Ejemplo 1: el factor deja de tener efecto bajo algún nivel del otro factor
13
Como modifica la interacción el efecto del factor B:
- Ambos efectos simples son significativos. El factor B siempre
tiene efecto más allá de que nivel de A se tome
- La línea del efecto simple del factor B bajo el nivel a1 es
descendente y bajo a2 es ascendente. Cambia la dirección del
efecto
- Las líneas de los efectos simples tienen la misma inclinación. La
diferencia entre las medias de los efectos simples,
independientemente del signo, da el mismo resultado (20). El
tamaño del efecto no cambia.
Entonces, ambos efectos simples de B son significativos. El factor B siempre tiene efecto. Eso no se ve modificado por la interacción.
Entonces analizamos si la dirección del efecto se ve modificada. La dirección del efecto de B es diferente para cada efecto simple,
bajo el nivel a1 los valores mayores de la VD se observan en b1 y bajo nivel a2 en el valor b2. El tamaño del efecto no varía. De
modo que lo que modifica la interacción es la dirección del efecto.
Ejemplo 3.
Como modifica la interacción el efecto del factor A:
- Ambos efectos simples son significativos. El factor A siempre tiene efecto más allá de que nivel de B se tome.
- Las líneas de los efectos simples son descendentes en ambos casos. La diferencia entre a1 y a2 bajo el nivel b1 es de signo
negativo (20-100 = -80) y a2 bajo el nivel b1 tambien (40-80=-40). No cambia la dirección del efecto.
- Teniendo en cuenta que no hubo cambios por la interacción en los dos pasos anteriores, tiene que haber cambios en el tamaño
del efecto. Esto se confirma observando que las líneas de los efectos simples tienen distinta inclinación.
14
OBSERVACIÓN SISTEMÁTICA se operacionalizan los constructos hipotéticos mediante categorías de comportamientos. Se
acuerda sobre el tiempo durante el cual se realizará el registro.
Ej. las categorías observables de una rata pueden ser acicalarse, sostenerse en dos patas, explorar, quedarse quieta. Defecación
o micción permiten operacionalizar la respuesta emocional de ansiedad en ratas.
Sulzer-Azzaroff y Mayer: la medición del comportamiento requiere de la selección de técnicas o mediciones objetivas, válidas y
confiables.
Objetivas: los observadores q registran los datos conductuales no deben ser influenciados por sus sentimientos o interpretaciones
subjetivas o personales. Ej. no se puede expresar “la rata extraña a sus congéneres y por eso quiere escapar”.
Válidas: que midan de forma directa el comportamiento que se supone que miden. Puede ocurrir que las mediciones objetivas no
sean válidas.
Confiables: deben ser de manera pautada, independientemente de quienes la apliquen y de las ocasiones en que se usen.
REGISTRO DE DURACIÓN
Mide el lapso de tiempo en que ocurre un comportamiento. Cuando lo que se busca es modificar la duración de un comportamiento.
Ej. la reducción del tiempo q un niño tarda en realizar la tarea desde el momento en q se le anuncia. Medir la “latencia de respuesta”
será medir el tiempo transcurrido desde el momento en q se le anuncia el “tiempo de hacer la tarea” hasta que la realiza.
𝐷𝑢𝑟𝑎𝑐𝑖ó𝑛 𝑚𝑒𝑛𝑜𝑟
= í𝑛𝑑𝑖𝑐𝑒 𝑑𝑒 𝑎𝑐𝑢𝑒𝑟𝑑𝑜
𝐷𝑢𝑟𝑎𝑐𝑖ó𝑛 𝑚𝑎𝑦𝑜𝑟
DE INTERVALO COMPLETO: Registra la respuesta cuando se emite en todo el intervalo completo de tiempo. Es decir,
cuando se requiere saber que la conducta se desarrolla durante todo el intervalo y que no es interrumpida
15
DE INTERVALO PARCIAL: el sistema requiere solo una muestra de la respuesta dentro del intervalo de tiempo. Útil para
registrar conductas transitorias
MOMENTÁNEO: sistema que registra la conducta cuando ocurre en el momento en que se termina el intervalo. Sirve para
pedir comportamientos estereotipados como chuparse los dedos.
𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑎𝑐𝑢𝑒𝑟𝑑𝑜𝑠
𝑥100 = 80% (𝑝𝑜𝑟𝑐𝑒𝑛𝑡𝑎𝑗𝑒 𝑑𝑒 𝑎𝑐𝑢𝑒𝑟𝑑𝑜 𝑚𝑖𝑛𝑖𝑚𝑜)
𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑎𝑐𝑢𝑒𝑟𝑑𝑜𝑠 + 𝐷𝑒𝑠𝑎𝑐𝑢𝑒𝑟𝑑𝑜𝑠
El nivel de confiabilidad se calcula aplicando esta fórmula, buscando que el resultado sea un porcentaje igual o mayor a 80%. Si
diera menor, indicaría que los observadores tienen que entrenarse más y acordar los criterios de registro con mayor precisión.
Un problema de la fórmula es q tiende a sobrevalorar los acuerdos, no contempla que pueden darse por azar. para una mayor
precisión se puede usar el coeficiente Kappa de Cohen que es un índice de concordancia.
16