Está en la página 1de 16

Resumen Método

Objetivo de la investigación
Van a ser guías que nos van a orientar hacia aquello a lo que queremos llegar o plantear en la
investigación. Indica aquello que aspiramos lograr con la investigación, debe redactarse
comenzando con un verbo en infinitivo y ser claro y preciso.

Ejemplo: “Evaluar la eficacia de un programa para mejorar la autoestima en niños con


problemas específicos de aprendizaje.”

Marco teórico:
El desarrollo de la perspectiva teórica implica exponer y analizar las teorías, las
conceptualizaciones, las investigaciones previas y los antecedentes en general que se
consideren válidos para el correcto encuadre del estudio.

El marco teórico es un conjunto de conceptos articulados entre sí, que busca describir y
explicar determinado fenómeno de la realidad. Incluye hipótesis, leyes generales.

→Puede estar conformado por una o por varias teorías de mayor o menor complejidad.

→Nos brinda las definiciones de los constructos de interés y de las variables que vamos a
medir.

● Constructos: conceptos abstractos no observacionales.


Definición constitutiva: definir el constructo mediante otros constructos.
Definición operacional: cómo lo vamos a observar y medir.
● Variables: propiedades susceptibles de observarse y medirse.
→Nos sugieren hipótesis.

Ejemplo: “Branden (1994) define la autoestima como la experiencia fundamental de que


podemos llevar una vida significativa y cumplir sus exigencias. En otras palabras, la autoestima
es la confianza en nuestra capacidad de pensar, en nuestra capacidad de enfrentarnos a los
desafíos básicos de la vida, por un lado; y la confianza de nuestro derecho a triunfar y a ser
felices, por el otro (…).

Antecedentes de investigación
Otras investigaciones empíricas (no bibliografía teórica) relacionadas al problema de
investigación. Lo que ya se conoce, ya se investigó.

Ejemplo: “Diferentes estudios (Pérez, 1995; Branden, 1996; Jhonson, 1998) han podido
demostrar la existencia de una estrecha relación entre autoestima y rendimiento escolar. Como
es evidente, por lo general los niños con buen rendimiento escolar tienen una buena
autoestima. Ellos tienden a confiar en sus capacidades y a sentirse autoeficaces y valiosos”.
Deficiencias del conocimiento
A partir de los antecedentes se identifican las deficiencias, lo que aún no se conoce o falta
investigar.

Ejemplo: “No obstante, es escasa la investigación sobre programas e intervenciones que


permitan promover o mejorar la autoestima en niños en el contexto escolar”.

Pregunta de investigación
Tengo que poder llegar a hacerme preguntas sobre esto que quiero investigar. Tienen que ser
claras, no tienen que ser ambiguas.

Ejemplo:” ¿El programa para mejorar la autoestima en niños con problemas específicos de
aprendizaje es eficaz?” (inferida a partir del objetivo, no aparece explícita).

Hipótesis
Son guías para la investigación. Investigaciones tentativas del fenómeno investigado. Se
formulan como proposiciones. Son tentativas acerca de las relaciones entre dos o más
variables. Surgen del planteamiento del problema y de la revisión de la literatura.

Tipos de hipótesis:
● De investigación (Hi): aquellas que vamos a plantearnos en nuestra investigación. Van
a plantear una relación entre dos o más variables y pueden ser: descriptivas,
correlacionales, de diferencia de grupos o causales.
Ejemplo: “El programa para mejorar la autoestima en niños con problemas específicos
de aprendizaje es eficaz” (inferida a partir del objetivo, no aparece explícita).
● Hipótesis Nula (Hn): niega o refuta la relación entre variables (no hay relación entre
variables). Sería lo contrario a la hipótesis de investigación.
Ejemplo: “El programa para mejorar la autoestima en niños con problemas específicos
de aprendizaje NO es eficaz”.
● Hipótesis alternativas (Ha): son posibilidades alternas entre la hipótesis de
investigación y la hipótesis nula.

Según alcance: a dónde queremos llegar con la investigación, qué queremos hacer.

● Descriptiva de un dato o valor que se pronostica: describe algo.


● Correlacional:
-Se establecen simplemente relaciones entre las variables.
-Direccional cuando se explica de qué manera es esa relación.
● Diferencia de grupos:
-Si existe o no existe diferencia entre los grupos.
-Las que especifican en favor de que grupo es la diferencia.
● Causales: influyen en o causan algo.
Variables
Son conceptos que pueden ser observables (ej: color de ojos o pelo de una persona) o que
sobrepasan la observación empírica (ej: estrés) y expresan supuestos teóricos.

Los constructos (conceptos abstractos que no los podemos ver empíricamente de manera
inmediata), no tienen referentes empíricos inmediatos, aunque sí, relaciones lógicas entre
conceptos. En psicología los conceptos pueden definirse de manera diferente según cada
escuela.

● Definición constitutiva de un constructo🡪 se define un constructo por medio de


otro. Definición teórica o abstracta de la variable, siempre proviene de una teoría
psicológica. “Ansiedad” como “miedo subjetivo”.
Ejemplo: “Branden (1994) define la autoestima como la experiencia fundamental de
que podemos llevar una vida significativa y cumplir sus exigencias. En otras palabras, la
autoestima es la confianza en nuestra capacidad de pensar, en nuestra capacidad de
enfrentarnos a los desafíos básicos de la vida, por un lado; y la confianza de nuestro
derecho a triunfar y a ser felices, por el otro (…).”
● Definición operacional de un constructo🡪 operaciones mediante las que el
investigador determina, presencia, ausencia o magnitud. (Mediciones o registros
numéricos).
Ejemplo: “La variable autoestima fue medida con la Escala de autoestima de
Coopersmith (1993)”

X variable independiente: puede tener solo 2 valores o ausencias o presencia o distintas


condiciones.

Y variable dependiente: siempre debe ser medida.

Aspectos éticos de la investigación


Tenerlos en cuenta durante todo el proceso de investigación.

1) Selección de temas de investigación


Evaluar las consecuencias que el estudio puede tener para los sujetos, para la
comunidad y para los avances de su disciplina.
2) Planeamiento de la investigación
Adecuado diseño metodológico para asegurar viabilidad, calidad de los resultados y
que no se violen otros principios éticos.
3) Proceso de investigación
→Consentimiento informado
→Engaño u omisión
→Daño físico y/o psíquico
→Asimetría en la relación participante-investigador.
→Invasión de la privacidad, confidencialidad y anonimato.
→Distorsión de datos y fabricación de resultados.
4) Publicación de la investigación
Evitar el plagio.
5) Manipulación de los resultados
El uso de datos, la manipulación de resultados con fines ajenos al avance del
conocimiento o el bienestar de las personas involucra una grave falta ética.

Justificación
Ejemplo: “Si el mismo demostrara ser eficaz, su implementación podría significar una
contribución a la mejora de la calidad de vida de estos niños en general y su rendimiento
académico particularmente”.

Alcance
Resulta de la revisión de la literatura y de la perspectiva del estudio. Dependen de los
objetivos del investigador para combinar los elementos en el estudio. Hasta dónde
queremos llegar con la investigación, sobre todo en términos de causalidad o
explicación.
● Exploratorios
Se realizan cuando el objetivo consiste en examinar un tema poco estudiado.
Ayudan a identificar conceptos promisorios y preparan el terreno para nuevos
estudios. Que haya poca información respecto a un tema no significa que
necesariamente sea exploratorio.
No tienen hipótesis porque es un campo muy nuevo.
● Descriptivos
Busca especificar propiedades, características, y rasgos importantes de
cualquier fenómeno que se analice. Describe tendencias de un grupo o
población. Pretenden medir o recoger información de manera independiente o
conjunta sobre los conceptos o las variables a las que se refieren, no buscan
relacionar. Miden conceptos y definen variables. (1 sola variable, univariables;
+1 variables, multivariables).
Por lo general, no hay hipótesis o hay hipótesis de pronóstico (poco probable).
Ejemplo: “Qué síntomas presentan las personas de la tercera edad a raíz del
aislamiento”. (Se busca describir qué síntomas-variable- en ese contexto y a
esas personas. Univariable).
● Correlacionales
Establecen y cuantifican la relación entre variables. Asocia variables
mediante un patrón predecible para un grupo o población. Ofrecen
predicciones. Establecer si una variable está relacionada con otra. Conociendo
el efecto o cómo se comporta la primera variable, podemos deducir cómo se va
a comportar la segunda, aunque no siempre va a ser así.
Hipótesis correlacionales.
Hipótesis de diferencia de grupos.
● Explicativos
Explica los fenómenos en términos de causa y efecto. Pretenden establecer las
causas de los eventos, sucesos o fenómenos que se estudian. Determinan las
causas de los fenómenos. Generan un sentido de entendimiento y son
sumamente estructurados.
Hipótesis causales.

Diseño de Investigación
Definido el alcance, tenemos que planificar precisamente cómo recoger la información
que nos permitirá poner a prueba las hipótesis.
El diseño de investigación es el plan o estrategia que se desarrolla para obtener la
información necesaria para nuestra investigación. Su propósito es responder
preguntas de investigación, cumplir objetivos del estudio y someter la hipótesis a
prueba.
La pregunta clave para determinar el diseño es ¿hay manipulación de variables? Si la
hay, experimental; si no la hay, no experimental.
● No experimental
Se estudia el fenómeno en su ambiente natural. Solo se miden las variables,
no hay manipulación.
Alcances: exploratorios, descriptivos y correlacionales.
● Experimental
Hay manipulación de variables porque se buscan relaciones causa y efecto.
Siempre tienen alcance explicativo.

Manipulación de variables: acción/intervención activa del investigador para luego


ver cuál era el resultado de eso. El investigador presenta algún tipo de
estímulo/tratamiento/programa (variable independiente) para ver qué sucedía o qué
efecto tiene eso sobre la variable dependiente.
Experimento: estudio en el que se manipulan intencionalmente una o más variables
independientes (causas) para analizar las consecuencias de la variable dependiente
(efecto).
Requisitos de un experimento:
1. Manipulación intencional de una o más variables independientes.
2. Medir el efecto de la variable independiente sobre la dependiente (causa y
efecto)
3. Control o validez interna: grado de confianza que tenemos de que los
resultados del experimento se deben a la manipulación de la variable
independiente y no a otros factores.
La validez de control se logra mediante: (control = validez interna)
1. Que haya varios grupos de comparación:
2. Equivalencia de los grupos (asignación al azar/emparejamiento): comparación
de grupos con características similares para que la misma sea válida.

Tipos de experimentos:
● Pre-experimental: 1 solo grupo (es experimental). La variable independiente
asume un solo valor (presencia) → posibilidad de manipular la variable
independiente es limitada porque no se tienen dos valores (presencia y
ausencia), sino uno solo. Grado de control mínimo.
Dos tipos:
→Estudio de caso con una sola medición: tratamiento - medición.
1. Grupo Experimental.
2. Tratamiento/Intervención/Estímulo.
3. Medición de la variable dependiente (necesitamos algún tipo de
instrumento de medición. Ejemplo: cuestionario, test, etc).
Limitación: poco grado de control, porque no podemos comparar si un grupo
que no hubiera recibido ese tratamiento o hubiera recibido un tratamiento
clásico, hubiera presentado el mismo cambio o el mismo nivel de
disminución de síntomas.
→ Diseño de pre-prueba/pos-prueba: PreP → Tratamiento → PosP.
1. Grupo exp.
2. Pre-prueba: medición de la variable dependiente previa al tratamiento
experimental. Se utiliza el mismo instrumento de medición o uno
equivalente en la pre-prueba y posprueba.
3. Tratamiento/Intervención/Estímulo: se aplica el tratamiento.
4. Post-prueba/Medición de la variable dependiente: se vuelve a medir
con el cuestionario pero ahora posterior a la aplicación del tratamiento.
Si los resultados posteriores a la intervención (post-prueba) son más bajos
que los resultados de la pre-prueba, el investigador va a estar más seguro
(tener más control) de que su tratamiento es efectivo.
Desventaja de incluir pre-pruebas: sensibilización y/o aprendizaje. Puede
afectar los resultados de la post-prueba, ya sea porque los sujetos aprenden
a responder (porque se usa el mismo instrumento) o porque recoger ciertos
datos con la pre–prueba hace que los sujetos ya conozcan/prevean que se
está evaluando, de esta forma la reacción no va a ser la misma que si no
hubiera una pre-prueba.
Esta desventaja se puede mejorar empleando pruebas equivalentes:
pruebas que miden lo mismo pero no son iguales, no tienen la misma forma.
Por ejemplo: si el instrumento de medición fuera resolver 4 ejercicios
matemáticos, las pruebas equivalentes podrían ser utilizar ejercicios
matemáticos pero diferentes operaciones, no las mismas que en la primera
medición. Se mide la misma variable pero utilizando pruebas diferentes,
evitando así el efecto de aprendizaje sobre el grupo experimental.

● Cuasi-experimental: + de 1 grupo sin asignación aleatoria. Manipulan


deliberadamente al menos una variable independiente para observar su efecto
y relación con una o más variables dependientes. Se trabaja con grupos que ya
están formados antes del experimento (grupos intactos). No hay confiabilidad
sobre la equivalencia inicial de los grupos.
Hay menos control porque no podemos saber si son grupos equivalentes o no.
Sucede cuando son grupos ya armados y el experimentador no puede
organizar los grupos.
● Experimentos puros: + de 1 grupo con asignación aleatoria. Manipulación
de variable independiente. Medir el efecto de la variable independiente sobre la
dependiente. Control o validez interna (para contener la influencia de otras
variables) → varios grupos de control y equivalencia de los grupos. Validez
externa (posibilidad de generalizar). Máximo grado de control.
Tipos de Exp. Puros:
→ Posprueba + Grupo Control (G.C)
○ G.E - G.C (grupo experimental → se administra tratamiento) (grupo
control→ no se administra tratamiento: por ejemplo, placebo).
○ Tratamiento - No Tratamiento (placebo)
○ PosPrueba - PosPrueba
Si en los resultados encuentro que al grupo control le fue mejor que al
experimental puedo concluir en que mi tratamiento no fue efectivo. Si
ambos grupos obtienen los mismos valores, el tratamiento no fue
relevante. Si los resultados del grupo experimental fueron superiores,
entonces el tratamiento es eficaz.
→ Pre-prueba + Post-prueba + GC
○ GE - GC
○ Pre-prueba - Pre-prueba
○ Tratamiento - NoT
○ PosPrueba - PosPrueba
○ El investigador va a tener dos resultados: va a poder comparar si el
grupo experimental mejoró sus niveles de ansiedad antes y después del
tratamiento, y va a saber si los resultados del grupo experimental son
mejores que los del grupo control.

→ 4 Grupos de Solomon (suma en un solo diseño los dos grupos de los dos
tipos de diseño anteriores)
○ G1 (e) - G2 - G3 - G4
○ PreP - PreP -
○ T - NT - T - NT
○ PosP - PosP - PosP - PosP
En este diseño se compensan las deficiencias/limitaciones de los dos
tipos de diseños anteriores.
→ Series Cronológicas Múltiples
○ Se realizan a través del tiempo mediciones sobre una o más variables.
○ Varias PreP.
○ Varias PosP.
○ Varios Tratamientos.
○ Varias condiciones.
→ Diseños Factoriales (no los vamos a ver en profundidad).
Varias variables independientes para evaluar su efecto sobre la variable
dependiente.

Contextos de los experimentos:


● De campo: experimentos llevados a cabo en contextos más naturales.
Problema: menor control de las variables. Ventaja: contexto más natural
permite comportamientos más reales.
● De laboratorio: contextos más artificiales. Nos permite controlar variables y
estar más seguros de nuestros resultados. Problema: el contexto es tán
artificial que el resultado no siempre va a reflejar lo que sucede en el contexto
real de los sujetos.
● Diseños de Intersujeto (entre sujetos): GE y GC, dos grupos diferentes donde
uno solo pasa por la condición experimental y uno solo por la condición control.
● Diseños de Intrasujeto: 1 solo grupo que pasa primero por la condición
control y luego por la condición experimental. Se compara el desempeño del
mismo grupo en las dos condiciones.

Validez interna y externa (de los estudios experimentales)


● Validez Interna → grado de confianza que se tiene de que los resultados del
experimento se deban a la manipulación de la variable independiente y no a
otros motivos. Se logra cuando hay CONTROL a través de varios grupos de
comparación y equivalencia entre los grupos (por asignación aleatoria o por
emparejamiento).
● Validez Externa → posibilidad de generalizar los resultados de un experimento
fuera de la situación experimental.

Mientras más artificial es la situación experimental que yo genere, más control voy a
tener (validez interna) pero voy a tener menor validez externa, porque en un contexto
diferente al experimental es probable que las variables no se comporten de la misma
manera si no se presentan juntas todas las condiciones de artificialidad (es decir, no se
pueden generalizar los resultados).
¿Qué cosas generan artificialidad? La presencia del investigador, administrar
pre-prueba y posprueba, usar diferentes tratamientos (muchos efectos juntos que
luego no se dan de la misma manera en un contexto real), generar condiciones de luz,
sonido, etc que en la realidad no se dan.
Fuentes de Invalidación Interna

Fuente Descripción

Tiempo

Historia Eventos o acontecimientos externos que


ocurran durante el experimento e
influyan solamente a algunos de los
participantes.

Maduración Los participantes pueden cambiar o


madurar durante el experimento y esto
afectar a los resultados.

Mortalidad Que los participantes abandonen el


experimento en el transcurso del mismo.

Participantes

Selección Que los grupos del experimento no sean


equivalentes.

Regresión a la media Seleccionar participantes que tengan


puntuaciones extremas en la variable
medida (casos extremos) y que no se
mida su valoración real.

Instrumentos

Instrumentación Que las pruebas o instrumentos


aplicados a los distintos grupos que
participan en el experimento no sean
equivalentes.

Administración de Pruebas Que la aplicación de una pre-prueba


influya en las respuestas de los
individuos cuando se vuelve a
administrar la prueba después del
experimento, posprueba (recuerdan sus
respuestas).

Inestabilidad del instrumento de Que las condiciones del ambiente o


medición entorno del experimento no sean iguales
para todos los grupos participantes.
Fuentes de Invalidación Externa

Fuente Descripción

Efecto reactivo o de interacción de las Cuando la preprueba aumenta o


pruebas. disminuye la sensibilidad o la calidad de
la reacción de los participantes a la
variable experimental, lo que contribuye
a que los resultados obtenidos para una
población con preprueba no puedan
generalizarse a quienes forman parte de
la misma pero sin preprueba.

Efectos reactivos de los tratamientos La artificialidad de las condiciones puede


hacer que el contexto experimental
resulte atípico, respecto a la manera en
la que se aplica regularmente el
tratamiento.

Interferencias de tratamientos múltiples. ?

El experimentador. También considerado fuente de


invalidación interna. Puede generar
alteraciones o cambios que no se
presentan en situaciones no
experimentales. El tratamiento sólo tiene
efecto con la intervención del
investigador.

Muestra
Población → unidad de análisis → muestra.
Para seleccionar una muestra lo primero que hay que hacer es definir la unidad de
análisis → qué o quiénes (casos o elementos).
Una vez definida se delimita la población.
Población: conjunto de todos los casos que concuerdan con una serie de
especificaciones. Debe situarse en torno a características de lugar, tiempo, etc.
La muestra se selecciona por economía de tiempo y recursos. ¿Sobre qué o quiénes
se recolectarán los datos?
Muestra: subgrupo de la población del cual se recolectan los datos y debe ser
representativo de ésta. Requiere delimitar la población para generalizar resultados y
establecer parámetros.
Clases de Muestra:
● Probabilística: subgrupo de la población en el que todos los elementos de
ésta tienen la misma posibilidad de ser elegidos. Requiere precisar el tamaño
de la muestra. Debe ser representativo de la población. Seleccionar elementos
muestrales por medio de programas estadísticos o marcos muestrales.
A partir de un cálculo extraigo el número exacto de personas que tengo que
encuestar para que sea representativo de esta población (muestra) → si la
población tiene X cantidad de personas, ¿cuál es el menor número de
unidades muestrales que necesito para conformar una muestra (n) que me
asegure un determinado nivel de error estándar? Nos brinda mayor seguridad
de que los resultados van a ser representativos de toda la población.
Tipos:
→ Simple.
→ Estratificada: muestreo en el que la población se divide en segmentos y se
selecciona una muestra para cada segmento.
→ Por racimos: muestreo en el que las unidades de análisis se encuentran
encapsuladas en determinados lugares físicos. ¿Dónde podemos encontrar a
nuestra unidad de análisis? Por ejemplo: niños en colegios primarios,
adolescentes en escuelas secundarias, obreros en industrias o fábricas, etc.
● No probabilística o dirigida: subgrupo de la población en la que la elección
de los elementos no depende de la probabilidad sino de las características de
la investigación. Selecciona participantes por uno o varios propósitos y no
pretende que los casos sean representativos en la población. El procedimiento
de elección no requiere de un cálculo, es informal.
★ Para fines deductivos-cuantitativos, donde la generalización es una
finalidad en sí misma, las muestras dirigidas tienen desventajas: no es
posible calcular con precisión el error estándar; no todos tienen la
misma probabilidad de ser elegidos, sino de la decisión de un
investigador.
★ Ventaja (desde la visión cuantitativa): va a depender de tu decisión la
cantidad de casos que vas a tomar. Su utilidad para determinado diseño
de estudio que requiere no tanto una “representatividad” de elementos
de una población, sino una cuidadosa y controlada elección de casos
con ciertas características especificadas previamente en el
planteamiento del problema.

Recolección de Datos
Recolección de datos → Una de las decisiones fundamentales en el diseño de una
investigación, es la relativa al modo en que se van a recolectar los datos, es decir,
cómo se va a obtener la evidencia empírica para poner a prueba la o las hipótesis del
estudio.
Según Ynoub (2000), los instrumentos son dispositivos para captar, recolectar o
producir la información necesaria para los fines de la investigación. Medir variables.
Recogen datos de tipo numéricos, solo de esta forma se pueden hacer análisis
estadísticos de los resultados.
La información necesaria depende de:
→Marco teórico del estudio: porque están definidas conceptualmente las variables y
vamos a buscar instrumentos que midan esa definición conceptual de las variables y
no otras.
→Definición de las variables.
→Alcance de la investigación.
→Hipótesis planteadas.

Medir variables es un proceso que permite vincular conceptos abstractos con


indicadores empíricos.
Objeto: Persona
Propiedad (variable): Peso
Instrumento: Balanza
Indicador (observable): x Kilos.

Los instrumentos a emplear deberán reunir algunas características especiales:


● Captar adecuadamente los indicadores que se hayan definido para la variable.
● Contar con un sistema de medición numérico para los diferentes valores que
puede asumir la variable (en cualquiera de sus posibilidades: nivel de medición
nominal, ordinal, intervalar o de razón).
● Permitir registrar dichos valores de modo sistemático y estructurado, siguiendo
un sistema de reglas que se aplicará de modo similar en todos los casos.
Además un instrumento de medición debe cumplir tres requisitos para ser útil en el
marco de un proceso investigativo: confiabilidad, validez y objetividad.
★ Confiabilidad: hace referencia al grado en que las puntuaciones de un
instrumento están libres de error.
★ Validez: considera si el instrumento mide adecuadamente el constructo o la
variable que se propone medir.
★ Objetividad: indica en qué grado el instrumento es permeable a la influencia de
los sesgos y tendencias del investigador o investigadores que lo administran,
califican e interpretan.
Clasificación de los instrumentos de medición
● Observación: clásicos de nuestra disciplina. Mirar atentamente algo sin
modificarlo, con la intención de examinarlo, interpretarlo y obtener conclusiones
sobre ello. Se caracteriza por ser planificada, estructurada, objetiva y
registrada, de modo que la información que se obtenga por su medio sea
comprobable y tenga garantías de cientificidad. Puede ser estructurada, con
mayor grado de sistematicidad y delimitación previa del qué, quién, cómo y
cuándo, será observado; no estructurada, con menor grado de definición
previa respecto al fenómeno a observar.
Investigación cuantitativa: siempre se va a utilizar una observación
estructurada para asignar número a los comportamientos que observamos y
obtener datos numéricos a partir de esa observación.
● Entrevista: clásicos de nuestra disciplina. Forma especial de encuentro, una
conversación a la que se recurre con el fin de recolectar determinado tipo de
información. Dirigida por el entrevistador.
Tipos:
○ No estructurada/abierta: grado de libertad amplio del entrevistado para
responder. Se establece un tema o cuestiones a abordar pero no se
sigue una estructura rígida o un orden preestablecido. A medida que el
sujeto aporta información el investigador agrega preguntas según su
criterio.
○ Semiestructurada: el entrevistador cuenta con una guía de preguntas
a seguir, pero las mismas son amplias y admiten modificaciones en
cuanto al orden de presentación. El mismo puede sumar nuevas
preguntas. Suele presentarse una combinación de preguntas cerradas y
abiertas. Sin embargo, las preguntas abiertas son de mayor grado de
especificidad que las que se plantean en una entrevista abierta.
○ Estructurada: aquellas que presentan un diseño previo detallado, el
orden de las preguntas se sustenta en ciertos criterios, las preguntas
son de alto nivel de especificidad y el grado de libertad del sujeto al
responder es más limitado. Algunos tipos se encuentran
estandarizadas, lo que implica que se prescribe con detalle el modo de
administración, registro de las respuestas y el modo de clasificar las
mismas.
● Cuestionario: documento que recoge de forma organizada y mediante
preguntas, los indicadores de las variables de interés del estudio. Este conjunto
de preguntas puede ser administrado por el investigador de modo presencial,
vía telefónica o empleado algún otro medio virtual.
Preguntas factuales y preguntas subjetivas.
Diferentes formas de responder:
○ Dicotómico: presentan sólo dos opciones de respuesta. Corresponden
al nivel de medición nominal.
Ejemplo: si/no; verdadero/falso;acuerdo/desacuerdo.
○ Opción múltiple: cuando se plantean más de dos opciones y se debe
seleccionar solo una como respuesta. Corresponde al nivel de medición
nominal u ordinal.
Ejemplo: “nivel educativo finalizado”: primario/secundario/universitario.
○ Respuestas múltiples: se presentan diversas opciones y la persona
puede seleccionar dos o más de ellas. Corresponden al nivel de
medición nominal u ordinal.
Ejemplo: “marcas de automóviles que conozca o haya escuchado
nombrar”: Mercedes Benz/Peugeot/Ford/Fiat/BMW/Audi.
○ Escalas: implican opciones que se relacionan entre sí según orden o
cantidad del atributo. Las opciones pueden presentarse de modo verbal
o numérico. Se corresponden con el nivel de medición ordinal, intervalar
o de razón.
Ejemplo: “frecuencia de una acción”: 1/2/3/4/5.
● Aparatos y Equipos: evidencia empírica que sólo puede ser recogida
mediante el empleo de algún tipo de aparato o equipo. En el ámbito de la
Psicología, son de interés variables motoras, cognitivas y psicofisiológicas que,
por lo general, no son controladas voluntariamente por los sujetos.
Ejemplo: Electrocardiograma, que representa gráficamente la actividad
eléctrica del corazón. Eye Tracker, permite medir el movimiento de los globos
oculares, la dilatación de la pupila y el parpadeo.
● Test o Pruebas estandarizadas: entran las escalas de aptitud. Específicos de
la psicología. Procedimiento de medida objetiva y estandarizada de una
muestra de comportamiento. Incluye 3 elementos principales.
○ Medición objetiva: la objetividad hace referencia a la sustitución del
juicio personal, basado en criterios subjetivos, por un conjunto de
normas determinadas y conocidas que permiten obtener e interpretar
las puntuaciones de los individuos en igualdad de condiciones.
○ Estandarización: las puntuaciones obtenidas dependen del
procedimiento establecido de administración, corrección e interpretación
que la hacen, o las deberían hacer, independientes del profesional que
administran los test, las condiciones específicas en las que lo hace y el
modo como obtiene e interpreta las puntuaciones resultantes.
○ Muestra de comportamientos: se considera que las respuestas a los
ítems que conforman la prueba consiste en una muestra de
comportamientos representativa del constructo que se desea medir.
Inventario-escala-test/cuestionarios de… → palabras claves para
identificar pruebas estandarizadas.
● Técnicas proyectivas: específicas de la Psicología, tienen su origen en el
psicoanálisis. Se caracterizan por ser dispositivos para la recogida de
información donde la clase de estímulos que se presenta a los sujetos es de
carácter ambiguo y poco estructurado, considerando que permiten la
exploración de la personalidad.

Nivel de Medición de las Variables


Método de Escalamiento tipo Likert: consiste en un conjunto de ítems presentados en
forma de afirmaciones o juicios, ante los cuales se pide la reacción de los
participantes. Se presenta cada afirmación y se solicita al sujeto que externe su
reacción eligiendo uno de los cinco puntos o categorías de la escala. A cada pregunta
se le asigna un valor numérico. Así, el participante obtiene una puntuación respecto de
la información y al final su puntuación total, sumando las puntuaciones obtenidas en
relación con todas las afirmaciones.
Conjunto de ítems que se presentan en forma de afirmaciones para medir la reacción
del sujeto en tres, cinco o siete categorías.

Tránsito de la variable al ítem: cuando se construye un instrumento, el proceso más


lógico para hacerlo es transitar de la variable a sus dimensiones o componentes, luego
a los indicadores y finalmente a los ítems o reactivos.

Codificación: es asignarles un valor numérico o símbolo que los represente, ya que es


necesario para analizarlos cualitativamente. Por ejemplo, si tuviéramos la variable
“género” con sus respectivas categorías (masculino y femenino), a cada categoría le
asignaríamos un valor.
Ítem/variable: género.
Categorías: femenino y masculino.

Categorías Codificación (valor asignado)

Masculino 1

Femenino 2

Niveles de Medición
Nominal: hay dos o más categorías del ítem o variable. Las categorías no tienen orden
o jerarquía (uno no vale más que el otro). Lo que se mide se coloca en una u otra
categoría, lo cual indica tan sólo diferencias respecto de una o más categorías.

Ordinal: hay varias categorías que mantienen un orden lógico, de mayor a menor o al
revés. Las etiquetas o los símbolos de las categorías sí indican jerarquía.
Por ejemplo: nivel de educación, qué estudios finalizó (1. primario - 2. secundario - 3.
terciario - 4. universidad).
Por ejemplo, el prestigio ocupacional en EEUU se ha medido por diversas escalas que
reordenan las profesiones de acuerdo a su prestigio.

Valor en Escala Profesión

90 Ingeniero Químico

80 Científico de Ciencias Naturales (excluyendo la química)

60 Actor Común

50 Operador de estaciones eléctricas de potencia

Escalar: el número representa al número en sí mismo, los valores pueden tener


decimales. Una variable puede tratarse como escala (continua) cuando sus valores
representan categorías ordenadas con una métrica con significado, por lo que son
adecuadas las comparaciones de distancia entre valores.
Ejemplos de variables de escala: la edad, los ingresos (plata), peso, altura, cantidad
de horas que pasas haciendo determinada tarea, etc.
Variables: son todas aquellas preguntas que hagamos. Edad, género, hogar, etc.

Análisis de los Datos Cuantitativos


1. Se elige un programa.
2. Se cargan los datos.
3. Se exploran los datos y hacen análisis descriptivos de cada variable.
4. Se evalúa la confiabilidad y validez del instrumento.
5. Se analizan mediante pruebas estadísticas las hipótesis planteadas.
6. Se realizan análisis adicionales.
7. Se preparan los datos (tablas, cuadros, etc).
Análisis descriptivo: para describir.
Análisis inferencial: sirve para estimar parámetros y probar hipótesis.

Estadística descriptiva para cada variable


Describir los datos, valores o las puntuaciones obtenidas para cada variable. Una
distribución de frecuencias es un conjunto de puntuaciones respecto de una variable
ordenadas en sus respectivas categorías. Otro elemento de la distribución de
frecuencias es el porcentaje.

Frecuencia: cantidad de personas que responden a cada una de esas opciones. Por
ejemplo, 50 personas respondieron “Si”, 8 personas respondieron “No sé” y 26
respondieron “No”.

Porcentaje: frecuencia trasladada a número en porcentaje. Por ejemplo, el 50%


respondió “Si”, el 20% “No”.

Puntuación Media: es el promedio de una distribución. Es la suma de todos los valores


dividida entre el número de casos. Carece de sentido para variables medidas en un
nivel nominal u ordinal, solo se aplica a variables de nivel escalar. Resulta sensible a
valores extremos.
Por ejemplo, entre las siguientes puntuaciones: 8, 7, 6, 4, 4, 2, 6, 9, 8; el promedio
sería igual a 5,88. Sin embargo, al sumarle una puntuación de 20 por ejemplo, se
alteraría ese promedio completamente (pasaría a tener un promedio de 7,22).

Análisis Estadístico Inferencial


Estadística inferencial: estadística para probar hipótesis y estimar parámetro. De
acuerdo a nuestros objetivos e hipótesis, llevaremos a cabo las pruebas
correspondientes.
● Diferencia de grupos: se comprueba si existen o no diferencias entre grupos.
● Correlacional/causal: se comprueba si existe relación entre variables y cómo
es esa relación.

También podría gustarte