Está en la página 1de 98

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD

Escuela de Ciencias Sociales, Artes y humanidades.


Programa de Psicología 2014

CURSO INVESTIGACIÓN CUANTITATIVA

401533

2014

La edición de material didáctico del curso Investigación Cuantitativa,


diseñado por Sandra Melo Zipacón del programa Psicología estuvo a
cargo de la Escuela de Ciencias Sociales Artes y Humanidades de la
Universidad Nacional Abierta y a Distancia (UNAD).
Derechos reservados:
©2014, Universidad Nacional Abierta y a Distancia - UNAD
Vicerrectoría de Medios y Mediaciones Pedagógicas, Bogotá D.C.
3443700 Calle 14 # 14- 22 sur.
Programa de Psicología
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

TABLA DE CONTENIDO

OBJETIVO DIDACTICO DEL MODULO

UNIDAD DIDÁCTICA 1.
Fundamentación y diseño de la investigación cuantitativa.
Presentación.
Objetivos Específicos de la unidad.
Evaluación diagnóstica.

Capítulo 1. Aspectos generales de la investigación cuantitativa.


Lección 1. Referentes epistemológicos de la investigación cuantitativa.
Lección 2. Criterios metodológicos de la investigación cuantitativa.
Lección 3. Características y diferencias de investigación cuantitativa y cualitativa.
Lección 4. Diseño y tipos de la investigación cuantitativa.
Lección 5. Aspectos éticos de la investigación psicológica.

Momento reflexivo: Cuáles son los aportes de la investigación cuantitativa a la


psicología?.

Capítulo 2. Medición de lo psicológico


Lección 1: Características del paradigma positivista.
Lección 2: Hipótesis.
Lección 3: Variables, constructos y definición operacional.
Lección 4: Medición de variables y tipos de variables.
Lección 5: Muestra y tipos de muestreo.

Momento reflexivo: Por qué el problema de la cuantificación en la investigación


psicológica?
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Capítulo 3. Técnicas y escalas de actitud.


Lección 1. La encuesta.
Lección 2. La entrevista.
Lección 3. La observación.
Lección 4. Análisis de contenido.
Lección 5. Escalas de actitudes.

Momento reflexivo: Cuál es la importancia de elegir la técnica adecuada para la


investigación?

Autoevaluación de la unidad.
Referencias bibliográficas.

UNIDAD DIDÁCTICA 2.
Tratamiento y análisis de datos en el proceso de investigación cuantitativa.
Presentación.
Objetivos específicos de la unidad.
Evaluación diagnóstica.

Capítulo 1. Resumen y descripción de datos


Lección 1. Procedimiento para el análisis de datos y tipos de datos.
Lección 2. Codificación y matriz de datos
Lección 3. Métodos gráficos
Lección 4. Probabilidad
Lección 5. Significación estadística

Momento reflexivo: Cómo proceder al tratamiento de datos?


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Capítulo 2. Análisis Estadístico


Lección 1. Concepto básico de estadística.
Lección 2. Análisis Univariado
Lección 3. Análisis Bivariado
Lección 4. Análisis multivariante
Lección 5. Software para el análisis estadístico de datos.

Momento reflexivo: Cuales son las dificultades y ventajas que ofrece la estadística ante
el análisis de datos?.

Capítulo 3. Meta análisis


Lección 1. Definición de meta análisis
Lección 2. Etapas del meta análisis
Lección 3. Limitaciones metodológicas del meta análisis
Lección 4. Presentación de los resultados del meta análisis.
Lección 5. Utilidad de la aplicación del meta análisis.

Momento reflexivo: De qué manera el meta-análisis permite una mayor generalización


de sus resultados respecto de los estudios individuales?

Autoevaluación de la unidad
Referencias bibliográficas.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

OBJETIVO GENERAL DEL MODULO:


Brindar al estudiante elementos conceptuales y didácticos que permitan satisfacer las
necesidades de aprendizaje a través de la activación de esquemas organizados y
secuenciales de los temas propuestos y sugeridos con el fin de posibilitar el alcance de
las intencionalidades formativas expuestas en el protocolo académico del curso.

En este punto inicial del curso, se invita a que ingresen al siguiente enlace
http://youtu.be/g5OcFz_e6c8 en el cual se presenta un video de saludo y presentación
de aspectos generales del curso.

UNIDAD DIDÁCTICA 1.
FUNDAMENTACIÓN Y DISEÑO DE LA INVESTIGACIÓN CUANTITATIVA.

Presentación:
La investigación es un proceso riguroso, cuidadoso y sistematizado en el que se busca
resolver problemas, es un proceso organizado y garantiza la producción de
conocimiento o de alternativas de solución viables. Esta primera unidad del curso
denominada perspectiva epistemología se basa en la presentación de los aspectos
teóricos, metodológicos y éticos de investigación, especialmente en el área de las
ciencias sociales con el fin de orientar un proceso de aprendizaje en torno la
coherencia y pertinencia de elección de un enfoque de investigación, el respectivo
diseño metodológico, el impacto a nivel de la generación de conocimiento y los
parámetros éticos en torno acercamiento a las personas y las comunidades. Por tanto,
apreciado estudiante y próximo profesional de psicología es importante tenga en
cuenta que desde el código ético y deontológico que regula esta profesión en Colombia
se define la psicología como una ciencia sustentada en la INVESTIGACIÓN, por tanto
la invitación es que realice la lectura de cada uno de los temas, analizando los
conceptos, igualmente desarrolle los ejercicios planteados en cada lección con el fin de
reforzar y contextualizar los temas.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Estas dos actividades son fundamento del aprendizaje, permitirá mejores logros en las
actividades evaluativas y de trabajo colaborativo, por ende permitirá una mayor de
cualificación como profesional, y más aún, conducen a un ejercicio ético, estético y
pragmático que orientado por el principio de la autonomía y la solidaridad lograran la
consolidación de procesos de gestión en comunidad y calidad de vida en las personas,
aspectos que en la sociedad actual son el reto a la labor y campo de acción
profesional.

Objetivos específicos de la unidad:

- Brindar referentes conceptuales sobre los aspectos teóricos, metodológicos y éticos


de la investigación a través de la presentación de las características de conocimiento
científico, generalidades del código deontológico y enfoques y diseños de investigación.

- Generar a través de la comprensión de los temas y el desarrollo de los ejercicios


niveles de contextualización sobre las situaciones reales del contexto en el cual cada
estudiante interactúa.

- Aplicar estrategias pedagógicas, didácticas y evaluativas en cada capítulo con el fin


de promover las competencias cognitivas y contextuales basado en las fases de
aprendizaje de reconocimiento, profundización y trasferencia.

Evaluación diagnóstica

Apreciado estudiante, este es un momento preliminar para dar inicio a la lectura de la


unidad 1. Este curso requiere de unos conocimientos previos y básicos sobre
metodología de la investigación, técnicas de investigación, e igualmente aspectos
sobre presentación de propuesta de investigación, y paradigmas y enfoques de
investigación, por tanto es importante responda las preguntas expuestas.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Preguntas:

1. Conozco la definición de paradigma de investigación?.


Si____ Cual :______________________________________________
_________________________________________________________
_________________________________________________________
No____
Es importante conocerla?
Si____ No______
Por qué ____________________________________________________
__________________________________________________________

2. Conozco cuáles son los tipos de investigación cuantitativa?


Si_____ Nómbralos:
________________________
________________________
________________________

No_____
Es importante indagar sobre ellos?
Si______ No________
Dónde o con quién puedo Investigar:_____________________________

3. Conozco los parámetros éticos de la profesión de psicología en Colombia ?

Si_____
De un concepto general:
__________________________________________________________
__________________________________________________________

No_____
Es importante conocerlos como eje temáticos del curso Investigación Cuantitativa:
Si______ No_______
Por qué?____________________________________________________
___________________________________________________________
___________________________________________________________

4. He revisado de forma juiciosa el protocolo académico del curso.


Si______
Qué elementos son importantes:
___________________________________________________________
___________________________________________________________
Es importante revisarlo?
Si_______ No_______
Por qué:___________________________________________________

5. Valoro el impacto de la labor de investigación desde la psicología.


Si______ No_______
Por qué?____________________________________________________
___________________________________________________________
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

CAPÍTULO 1. ASPECTOS GENERALES DE LA INVESTIGACIÓN CUANTITATIVA.


Apreciado (a) estudiante es importante tenga en cuenta que el proceso de aprendizaje
se basa en una fases, que desde la UNAD se contemplan como reconocimiento,
profundización y trasferencia. En ese orden de ideas, se inicia con la fase de
reconocimiento del capítulo 1. Es importante tenga en cuenta que esta actividad que
emprende se basa en los principios del aprendizaje autónomo y significativo.

Lección 1. Referentes epistemológicos de la investigación cuantitativa.

Los enfoques cuantitativos pretenden moverse en el campo de la predicción y la


explicación, tratando de encontrar nexos lógicos entre hechos y causas o entre estas y
sus efectos, en una realidad social objetivada, vista desde afuera y considerada en sus
aspectos generales
El método cuantitativo nos permite concluir que la base de la investigación parte de los
referentes teóricos aceptados por la comunidad científica. Ello implica la formulación
de las hipótesis, que serán puestas a prueba, tomando a las variables como conceptos
empíricos y medibles. La clasificación y análisis de los datos permitirán la obtención de
resultados y establecer el grado de significación entre las relaciones de los fenómenos
en estudio.
En la investigación una vez identificada la índole de un problema y definidos los
objetivos que persigue, es el de escoger el modelo de método que más se adecua,
tanto al problema como al logro de los objetivos. Sin embargo, valga la pena aclarar
que es difícil escoger un método como el ideal y único camino para realizar una
investigación, pues muchos de ellos se complementan y relacionan entre si. Para ello
dispone de un amplio menú de posibilidades, dentro del cual se encuentra:

-El modelo lógico - deductivo.


Es un tipo de modelo por lo general empleado en las ciencias naturales, aunque no
exclusivamente en ellas. Tiene la estructura formal de un razonamiento deductivo en el
cual el explicandum es una consecuencia lógicamente necesaria de las premisas
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

explicativas; por consiguiente, en las explicaciones de este tipo, las premisas expresan
una condición suficiente (y a veces aunque no siempre, necesaria) de la verdad del
explicandum. Este tipo de explicación ha sido estudiado intensamente desde la
antigüedad, considerado como el paradigma de toda explicación ―genuina" y a
menudo ha sido adoptado como la forma ideal a la cual deben tender todos los
esfuerzos por hallar explicaciones.
Para algunos académicos el método más completo de investigación es el método
DEDUCTIVO ya que en él se plantea una hipótesis que se puede analizar deductiva o
inductivamente y posteriormente comprobar experimentalmente, es decir que se busca
que la parte teórica no pierda su sentido, por ello la teoría se relaciona posteriormente
con la realidad. Una de las características del método deductivo es que incluye otros
métodos, como el inductivo, el deductivo y el experimental, lo cual es opcional. La
deducción, tiene a su favor que sigue pasos sencillos, lógicos y obvios que permiten el
descubrimiento de algo que hemos pasado por alto. Mediante este modelo, se aplican
los principios descubiertos, representados en proposiciones generales, a casos
particulares, a partir de un enlace de juicios. El rol de la deducción en la investigación
es doble:
a. Primero consiste en encontrar principios desconocidos, a partir de los ya
conocidos.
Una ley o principio puede reducirse a otra más general que la incluya. Si, por ejemplo,
un cuerpo cae, decimos que pesa porque es un caso particular de la gravedad.
b. También sirve para descubrir consecuencias desconocidas, de principios conocidos.
Si sabemos que la fórmula de la velocidad es v=e/t, por deducción podremos calcular la
velocidad de un avión. La matemática es la ciencia deductiva por excelencia, que parte
de axiomas y definiciones aplicables a los casos particulares.
El proceso de la deducción varía en ciencia y en filosofía. Las investigaciones en
ciencia y filosofía son de carácter teórico porque su dinámica es la búsqueda de la
verdad en alas de resolver problemas teóricos.
Ej. En filosofía
Se parte de una premisa general y se llega a una premisa particular.
En ciencia
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Se parte de hipótesis o conjeturas y se van depurando con la experimentación.


En un razonamiento deductivo se pretende que sus cuyas premisas suministren
pruebas, concluyentes para afirmar la verdad de su condición. La teoría de la
deducción trata explicar la relación entre las premisas y las conclusiones de un
razonamiento válido y de establecer técnicas para juzgar los razonamientos
deductivos, es decir, para discriminar entre las deducciones válidas y las que no lo
son. El tratamiento clásico o aristotélico, de la deducción se centraba en los
razonamientos que contenían proposiciones de un tipo especial llamados
proposiciones categóricas.

Cuadro 1: Aspectos epistemológicos

Lección 2. Criterios metodológicos de la investigación cuantitativa.


La investigación cuantitativa corresponde a una metodología que exige la
determinación de variables, de técnicas de recolección de información mediante
instrumentos objetivos y estandarizados; además, requiere de la interpretación de la
información obtenida por medio de técnicas estadísticas para realizar generalizaciones
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

en la cuantificación de las características observadas. En este tipo de investigación la


validez interna y la fiabilidad son los requisitos de rigor y credibilidad científica.
En él se exige a la investigación el uso de técnicas que en general son cuantitativas
dado que tiene como finalidad la elaboración de leyes de algún nivel de generalidad y
desecha lo particular en tanto que a partir de unos pocos casos no se puede inferir
nada sobre lo universal.
El siguiente cuadro muestra cómo el paradigma cuantitativo se preocupa por los hechos
estáticos que abarca en su totalidad, los asume como atemporales y los sitúa en
contextos de una amplitud considerable.

Cuadro 2 Metodología de la investigación cuantitativa.


Metodología de la investigación cuantitativa
La realidad es única, se puede controlar y predecir dado que se caracteriza por un
orden mecánico y estable.

Es un diseño cerrado lógico deductivo conformado por conceptos, definiciones


operacionales, recolecciones de datos, comprobación de hipótesis, análisis e
informes para ratificar o desechar la hipótesis.

Busca identificar relaciones causales predominantes previamente establecidas con


base en un marco teórico.

Se establecen generalidades como afirmaciones verdaderas y con


independencia del contexto, con base en las relaciones de causalidad dado que cada
acción es el resultado de otra que la precede.

El investigador emplea conceptos y definiciones operacionales de los


mismos.

El papel del investigador debe ser neutro y acrítico por lo tanto debe eliminar toda
subjetividad y mantenerse al margen del hecho investigado. En este paradigma
la relación sujeto objeto no debe existir.
Utiliza información previamente delimitada y reducida solamente a las variables que se
deben observar. Esta delimitación es establecida solamente por el investigador.
Transmite información por medio de números y medidas requiriendo garantizar la
objetividad; para ello utiliza procedimientos estáticos y sin la intervención del
investigador.
La información se entrega en un reporte final que se expresa en un informe
objetivo y ajeno tanto al investigador como al investigado.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Cuadro 3. Criterios metodológicos

Lección 3. Características y diferencias de investigación cuantitativa y cualitativa.

Uno de los aspectos más relevantes, tenidos en cuenta en el debate epistemológico de


los últimos años, ha sido el relacionado con los nexos entre los diseños cuantitativos y
cualitativos de la investigación científica. Los defensores de una y otra posición asumen
con frecuencia posturas radicales en relación con los puntos de vista que consideran
los modelos defendidos y hasta se llega a posturas excluyentes y de rechazo de la
posición no compartida. Pocas veces asumen la posibilidad de conjugar ambas formas
del diseño en un mismo proceso investigativo, cuando la realidad dice que lo cualitativo
y lo cuantitativo no son compartimentos estancos y excluyentes.

Las diferencias entre la investigación cuantitativa y la cualitativa, no estriban tanto en


que la una elabore sus conclusiones a partir del análisis de cifras o que trabaje con
datos numéricos, mientras la otra lo hace a partir de la evaluación de conceptos. Los
dos tipos de diseños se diferencian más bien en el punto de partida, en el diseño
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

metodológico, en los objetos abordados y en el desarrollo del proceso. Igualmente, se


puede decir que hay diferencias en lo referente al tratamiento de las fuentes y el uso
de la información obtenida, además de otros aspectos relacionados. Lo anterior tiene
implicaciones en la fase de planeación o elaboración de la propuesta, proyecto o plan
de la investigación, lo mismo que en la ejecución del plan; por cuanto para los
proyectos cuantitativos el diseño es más riguroso y prospectivo, pues requiere de una
previsión de todos y cada uno de los pasos que se van a ejecutar y las actividades
planeadas se cumplen con cierto rigor, pues se trata de pautas de estricto
cumplimiento, si se quiere llegar a los resultados previstos.

En general, los enfoques cuantitativos pretenden moverse en el campo de la


predicción y la explicación, tratando encontrar nexos lógicos entre hechos y causas o
entre estas y sus efectos, en una realidad social objetivada, vista desde afuera y
considerada en sus aspectos generales. Mientras que en la investigación cualitativa,
los esfuerzos se orientan más a comprender la realidad social como el resultado de
un proceso histórico siempre en construcción, visto con los lentes de la lógica, pero
sin prescindir de los aspectos valorativos de sus protagonistas; todo lo cual pone de
presente la existencia de diferentes propósitos y diferentes lógicas.

En los procesos cualitativos por tanto, se presenta una situación totalmente diferente
a la que plantean los diseños cuantitativos, especialmente en lo que tiene que ver con
el o los momentos de identificación del problema, la exploración y uso de la literatura
disponible, el muestreo, la metodología, las técnicas y estrategias a emplear para la
recolección de los datos, lo mismo que en el empleo de estos a lo largo del proceso y
en el momento final. Si se intenta establecer las diferencias básicas entre los dos
tipos de diseño, se encuentra que entre ellas hay rasgos distintivos que en general se
pueden representar de manera a sintética en lo que se indica en el siguiente cuadro
comparativo:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Cuadro 4. Comparación de los enfoques


INVESTIGACIÓN CUANTITATIVA INVESTIGACIÓN CUALITATIVA

Son analíticos. Asumen aspectos parciales de Tienen carácter holístico. Mediante un enfoque
la realidad para abordarlos mediante el análisis totalizador de la realidad estudiada, buscan
de sus componentes, los cuales reduce a variables. afrontarla con una visión integral o de conjunto,
como un todo.
Experimentales. Mediante el sistema de creación Constructivistas. Se atienen a la realidad dada,
de condiciones especiales, controlan y manipulan de la cual intentan hacer una lectura, sin
variables para medir resultados. intervenir para modificarla.
Probabilísticos. Sus conclusiones se infieren a Heurísticos. Mediante un trabajo comprensivo,
partir del número de posibilidades. A partir de las cuales se convierte en una búsqueda de hechos,
un resultado se puede dar en condiciones específicas. significados, y esfuerzo por llegar a la naturaleza
del objeto estudiado.
Deductivistas Universalistas. Inductivistas Particularistas.
A partir de hipótesis o principios generales Del estudio de casos y hechos particulares, su
o universales busca llegar a inferencias y aplicaciones intención es llegar a conclusiones universales.
a casos particulares.
Extensivos. A partir de las deducciones alcanzadas, Intensivos. Centraliza si interés en el foco de
buscan incluir universos de individuos en sus estudio que la ocupa y circunscribe a él sus
conclusiones. conclusiones.
Empiristas. Sus conclusiones solo pueden provenir del Racionalistas. Además de las sugerencias
dictado experiencial que suministran los datos de la de la realidad estudiada, el investigador
realidad estudiada. No hay mucho campo para la aporta su propia racionalidad e interpretación,
subjetividad. a partir de su formación y experiencia.

Lección 4. Diseño y tipos de la investigación cuantitativa.


En el proceso de construcción y reconstrucción del conocimiento en el campo de las
ciencias sociales hablamos de diseños cuantitativos y cualitativos. El diseño que utiliza
como base, preferiblemente una información expresada en forma numérica y factible de
cuantificar es el cuantitativo. Se apoya en categorías numéricas y permite realizar el
análisis de los fenómenos a través de diferentes formas estadísticas.

-Diseño cuantitativo
- Se aplica a planteamientos operacionales.
- A referentes empíricos observables.
- Se trata de entender el cuánto.
Pero en la práctica existe interacción de diferentes factores que se deben tener en
cuenta: sociales, psicológicos y culturales que influyen en las personas.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Hoy en la investigación social, se pueden integrar las herramientas estadísticas y la


informática como instrumentos auxiliares.

Cuadro 5. Clasificación de diseños de investigación.


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

La investigación, independiente de cual diseño tenga mayor énfasis, se entiende como


un proceso social donde se debe integrar al análisis: la creatividad, el compromiso, la
imaginación, las ideas, la argumentación, la perspicacia y la sagacidad. Utilizando
instrumentos válidos y confiables.
Así por su nivel de profundidad se pueden clasificaren estudios exploratorios,
descriptivos, correlaciónales y explicativos.

-Los estudios exploratorios, observación documental, a fin de rastrear la información


con estrategias que impliquen trabajo de campo, pueden tener como alcance la
realización de un sondeo de opinión, en una muestra limitada, de suerte tal que le
permita descubrir otras alternativas que no pudo detectar desde la bibliografía y
documentación relevada, como así también podrá dar sugerencias para aplicar otras
técnicas y profundizar en la investigación que se propone.
En general este tipo de estudios, metodológicamente no se exige rigurosidad alguna,
que, aunque tiene un perfil acotado, puede dar las bases de lo que hasta el momento
no se contaba.

-Los estudios descriptivos, por el contrario, colocan al investigador frente a un objeto de


estudio el cual será descrito y obligan a la medición de las variables que entran en
juego. Esta medición podrá ofrecer un estado de situación de las variables sin
profundizar en las relaciones que se establecen. Desde ese punto de vista se responde
al cómo es, más que al por qué es.
Los estudios descriptivos, nos sitúan ante las taxonomías, Las mismas procuran lograr
un esquema o clasificación de cualquier cuestión de incumbencia social, para nuestro
caso. Desde luego que en las Ciencias Naturales se encuentran estudios que
clasifican un determinado factor de la naturaleza con lo cual se puede tener una
referencia del mismo, sin que por ello se ofrezcan explicaciones.
En las Ciencias Sociales existen muchos ejemplos que podrían citarse, desde los
estudios de Parsons y Smelser- respecto de la distinción entre oferta y demanda es un
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

caso especial entre sanción y acción en un sistema social hasta los sistemas de
categorías establecidas.
En cualquiera de los casos, no se trata de estudios relaciónales, tan sólo, son, pero no
por ello menos importante, diagnósticos sobre el objeto de estudio que se aborde.
El método que se instrumente tendrá un fuerte sesgo cuantitativo, en el sentido de
procurar la medición de variables específicas y generalmente aplicadas a áreas
geográficas de mayor extensión que, para acceder a ellas, se necesitarían de técnicas
de corte cuantitativo, como los cuestionarios estructurados o el denominado método
por encuesta, que tienen como particularidad la precisión de los aspectos sobre los que
se quiere indagar. Si bien no tiene un grado de profundidad, desde el punto de vista de
las potenciales explicaciones que del diagnóstico pueden derivarse, igualmente sus
resultados tienen relevancia sustantiva. Las investigaciones descriptivas adoptan
también el método cualitativo. Sobre estudios de caso, que es a lo que el enfoque
cualitativo se orienta, en el sentido del hecho particular, lo que se obtenga de una
investigación de esa naturaleza, es una descripción basada en variables nominales. El
modelo de los "tipos ideales," antes señalado, se presenta como un caso sobresaliente
de investigación comprensiva-interpretativa, de la que Weber no sólo pudo propiciar
una sobrada caracterización de la sociedad de su tiempo, sino que sienta las bases de
una construcción teórica que tiene resonancia hasta nuestros días, dicho lo cual, los
criterios sostenidos respecto de los grados de profundidad conforme los modelos que
se exponen, entran en un tono de relatividad que no puede ser obviado.

-Los estudios correlaciónales: nos acercan a los estudios explicativos en tanto medir el
grado de influencia que una variable tiene sobre otra, aunque no tengamos, a través de
tal respuesta, precisiones acerca de por qué se puede dar tal o cual hecho o fenómeno
y cuáles pueden ser sus efectos.
No obstante son estudios muy utilizados por cuanto, muchas veces, la composición de
las hipótesis es realizada sobre más de dos variables respecto de las unidades de
análisis que se tengan en consideración. En el esquema que sintetiza los tipos de
proposiciones según relaciones establecidas entre determinantes y resultados, pueden
observarse diferentes maneras de provocar las mismas. Entre otras: Si P ------ Q es la
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

relación que más conocemos, pero, también, frecuentemente usamos más de dos
variables en nuestras investigaciones con lo cual los tipos que pueden establecerse
son muy diversos.
Por su parte, también en Zetterberg85, "las relaciones que puedan intentar nos pueden
llevar a configurar sistemas de hipótesis", en los que podemos fijar relaciones a través
de:
A) Listado de determinantes: "Todos los factores que afectan ciertos factores están
ligados a un conjunto de determinantes".
B) Listado de Resultados: "La determinante es una y la misma, pero en la que las
variables dependientes son diferentes, es un inventario de resultados".
C) Secuencia de proposiciones encadenadas: "Cuando en dos o más proposiciones
secuenciales en las cuales el resultado de una vuelve a aparecer como determinante
en otra, permiten su ordenamiento en cadena. Las relaciones establecidas dan lugar a
observar que la variable que aparece como efecto en una, luego se presenta como
determinante en otra".
Damos a entender de ese modo las diversas opciones que en materia de relac iones
pueden establecerse entre variables y que dejamos para el lector ampliar sobre el
tema.

-Los Estudios Explicativos: son aquellos que alcanzan mayor profundidad y, como ya
señaláramos, son los que permiten responder al por qué de las hipótesis. Se
configuran a través de un sistema de hipótesis que mediante su comprobación dan
lugar a la obtención de generalizaciones teóricas de mayor relevancia.

Otra clasificación importante de las investigaciones cuantitativas se basa en la


posibilidad que tiene el investigador de controlar la variable independiente y otras
situaciones del estudio (como conformar por su cuenta el grupo o los grupos que serán
objetos de su estudio). De acuerdo con este criterio se distinguen los siguientes tipos
generales de investigaciones:
a) experimentales
b) cuasi experimentales
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

c) no experimentales.
Investigaciones experimentales
En las investigaciones experimentales el investigador tiene el control de la variable
independiente o variable estímulo, la cual puede hacer variar en la forma que sea más
apropiada a sus objetivos. De igual manera, puede controlar la conformación de los
grupos que necesita para su estudio.
En términos generales, las investigaciones experimentales permiten determinar:
a) El efecto de una variable independiente (llamada también causal, estímulo o
tratamiento) sobre una variable dependiente (por ejemplo, el efecto de la autoimagen
creada experimentalmente sobre el rendimiento en la solución de problemas de
aprendizaje).
b) Los efectos diferenciales de dos o más modalidades de una variable independiente
sobre otra dependiente (por ejemplo, comparar el estudio individual con el estudio en
grupo .dos modalidades de la variable estudiar. sobre los niveles de aprendizaje).
c) El efecto conjunto de dos o más variables independientes sobre otra (como sería el
caso de determinar el efecto combinado de dos métodos de enseñanza con dos formas
de organización del trabajo en el aula sobre el rendimiento escolar).
Antes de pasar a la presentación de los principales tipos específicos de la
investigación experimental, cuando se trata de utilizar estos diseños en educación, de
manera especial, pero no exclusivamente, conviene tener en cuenta estas
recomendaciones:
1. La investigación debe realizarse, en la medida de lo posible, en la misma escuela o
ambiente en el cual se pretende generalizar los resultados obtenidos en una muestra:
de alumnos, profesores, etc.
2. Deben utilizarse diversos contextos educacionales (escuelas de diversos niveles
socioeconómicos, etc.) con las respectivas muestras experimentales cuando se desea,
por ejemplo, validar un cierto recurso instruccional: una guía didáctica, un nuevo texto,
un método de enseñanza diferente, etc.
3. Al efectuar un experimento, el investigador debe prestar atención a las conductas de
las personas sometidas al estudio con el propósito de utilizar, si procede, sus opiniones
y comentarios al interpretar los resultados obtenidos. (Podría servirse de una entrevista
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

individual en profundidad, con lo cual utiliza una técnica cualitativa con una técnica
cuantitativa, como lo es el estudio experimental).
4. En muchas ocasiones, es útil darle instrucciones un tanto más detalladas que las
usuales a las personas que participan en el experimento, sin llegar a inducir las
respuestas o reacciones buscadas. Este procedimiento puede convenir cuando las
condiciones en las cuales se va a realizar el estudio son muy diferentes a aquellas en
las cuales se desenvuelven habitualmente tales personas.
A continuación pasamos a presentar los tipos específicos más usados de la
investigación experimental, propiamente tal.
a) Diseño con un grupo experimental, un grupo de control y mediciones antes y
después en ambos grupos.
Este diseño constituye la forma clásica de la investigación experimental. En él, los
sujetos del estudio son asignados aleatoriamente al azar al grupo experimental y al
grupo de control. Luego se siguen los pasos siguientes:
1. En ambos grupos se hace una medición antes (pre-test) de la variable dependiente,
es decir, del fenómeno o característica en el cual se desea determinar el efecto de la
variable independiente (llamada, también, como ya dijimos, variable estímulo,
experimental o tratamiento).
2. Luego, se aplica la variable independiente sólo en el grupo experimental (por
ejemplo, se expone a los sujetos de este grupo un video sobre el tema que se está
estudiando).
3. Se hacen mediciones después (postest) en ambos grupos.
4. Finalmente, se hacen comparaciones, en ambos grupos entre las mediciones antes y
las respectivas mediciones después.
La aplicación de la variable independiente puede ser de corta o de mediana duración.
Un ejemplo del primer caso es la aplicación de un video, ofrecer una conferencia, etc.
Del segundo, podría ser la enseñanza durante algunas semanas con un nuevo método
al grupo experimental. En este caso, debe cuidarse especialmente la influencia posible
de factores externos al experimento que pudieran afectar a las personas involucradas
en él.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Dicho lo mismo en términos metodológicos: que pudieran afectar la validez interna del
experimento con lo cual sería difícil afirmar que los cambios producidos en el grupo
experimental se deben a la variable experimental, de manera directa. (Para el concepto
de validez interna y de los factores que pueden invalidarla, conviene que usted recurra
al libro de Campbell y Stanley Diseños experimentales y cuasi-experimentales en la
investigación social, que citamos en la bibliografía).
De acuerdo con la terminología introducida por los dos autores que acabamos de
mencionar, el diseño experimental clásico se representa en la forma siguiente:
E: designa al grupo experimental.
A: quiere decir que el grupo se ha conformado al azar
C: indica al grupo de control
O: significan mediciones antes y después
X: indica la introducción o aplicación de la variable independiente o tratamiento utilizado
por el investigador:
La conformación aleatoria de los dos grupos permite eliminar, al nivel del azar, las
diferencias que pudieran existir entre sus sujetos componentes; las mediciones antes y
después en ambos grupos y sus comparaciones en cada uno de ellos permiten
constatar si ha habido diferencias entre ellos, y si éstas fueran a favor del grupo
experimental, entonces el investigador podría decir que ellas se deben a la acción de
la variable independiente o tratamiento que sólo fue aplicado a ese grupo.
Debido al mismo hecho de utilizar el azar, en la formación de los grupos se controlan
los factores de selección (no hay elección intencionada) y el de mortalidad (si los
grupos son prácticamente iguales, los dos deberían tener, de ocurrir, similar número de
personas que no completan el experimento). Por usar un grupo de control, el
experimento clásico controla también los factores de historia (efecto de circunstancias
externas al experimento que pueden influir en sus resultados, el cual debería ser similar
para los dos grupos) y el de maduración (cambios biológicos y psicológicos que se
darían en ambos grupos de manera semejante mientras se hace el experimento).
Para la constatación de las posibles diferencias entre los grupos experimental y de
control, una vez terminado el experimento, se debe utilizar análisis de la covarianza con
los puntajes antes (pretest) como covariable. Este procedimiento permite ajustar las
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

diferencias de los sujetos de ambos grupos, dejando solamente los cambios de la


variable independiente como causa de las modificaciones que se darían entre ellos. Es
frecuente, sin embargo, especialmente si hay bases para asegurar que las condiciones
de los dos grupos en lo que se refiere a su valores en la variable dependiente son
iguales en el momento de iniciar el estudio, que se utilice en el análisis de los datos la
estadística o el análisis de la varianza. Este diseño, como el que exponemos a
continuación, puede utilizarse con más de un grupo experimental.
b) Diseño con un grupo experimental y un grupo de control con mediciones sólo
después. Es un diseño que sólo se diferencia del clásico que acabamos de ver en
cuanto, por alguna razón o impedimento, no se hacen mediciones antes de la variable
dependiente en ninguno de sus dos grupos. Comprende los siguientes pasos:

Conformación aleatoria de los grupos experimental y de control (puede utilizarse más


de un grupo experimental, por ejemplo, al comparar dos métodos de exposición sobre
las drogas).
2) Aplicación de la variable independiente, tratamiento o prueba sólo al grupo
experimental.
3) Medición después (postest) de la variable dependiente (por ejemplo, actitud frente a
las drogas) en ambos grupos.
4) Comparación de las dos mediciones después.
La representación simbólica del diseño es la que sigue:
El diseño controla los factores que pueden actuar contra la validez interna del
experimento, como lo son la historia y la maduración, por utilizar un grupo de contr ol.
También controla los factores de la selección (sesgos) y de la mortalidad experimental.
Debido al hecho que no se hacen mediciones antes no puede haber efecto sobre la
prueba que se utiliza en la medición después. Pero, precisamente, por no utilizar
medición antes, el diseño tiene varias desventajas, entre las cuales se destacan las
siguientes:
1) No es posible usar el análisis de la covarianza para controlar las diferencias iníciales
que podrían tener los grupos experimental y de control.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

2) Si se retiran sujetos de cualquiera de los dos grupos, y como no tenemos


mediciones antes., no sabemos si las diferencias, de producirse, entre las situaciones
finales del grupo experimental y de control se deben a la influencia del tratamiento
(variable independiente) en el primero de estos grupos o bien se deben a las
diferencias que pudieron existir al comienzo del experimento entre los sujetos de
ambos grupos.
3) El análisis de los resultados (puntajes, en general) se hace comparando la
diferencia entre los puntajes después de ambos grupos mediante la estadística t. Si se
utilizan más de dos grupos, se debe utilizar el análisis de la varianza.
c) Diseño de dos grupos apareados con mediciones antes y después. Es una variación
del diseño clásico en cuanto consiste en aparejar (igualar, en la mayor medida posible)
los sujetos que constituirán el grupo experimental y el grupo de control, con la finalidad
de eliminar o disminuir al máximo las diferencias entre ellos. El apareamiento cumple la
misma función que la asignación al azar utilizada en el diseño clásico con el resultado
que en este nuevo diseño se logra mayor precisión en el momento de analizar los
datos.
El procedimiento metodológico comprende las siguientes tareas:
1) Se aplica una prueba a un grupo de sujetos, destinada a medir la variable
dependiente (digamos, la actitud hacia la política), o una variable estrechamente
correlacionada con ella, cuya modificación se desea establecer por una cierta variable
independiente.
2) Con base en los puntajes obtenidos por los sujetos en la prueba mencionada en el
paso anterior, se forman pares de sujetos con puntajes iguales o con pequeñas
diferencias entre sí.
3) De cada par, se asigna un sujeto al grupo que será el grupo experimental y el otro al
que será el grupo de control (puede haber más de un grupo experimental).
4) Se aplica el tratamiento (por ejemplo, una exposición sobre las funciones de la
política en la sociedad) al grupo experimental y, si es necesario, un placebo al grupo de
control.
5) Como medición después se aplica a los dos grupos la misma prueba de la medición
o una prueba equivalente a ella.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

6) Finalmente se comparan las diferencias entre los valores después de los dos grupos.
Para el análisis de la diferencia anterior se emplea la estadística como prueba de
significación estadística.

Todos los diseños que hemos presentado hasta aquí trabajan con una sola variable
independiente. Sin embargo, se debe tener en cuenta que en muchas investigaciones,
sobre todo de aquellas que se realizan en el campo de la enseñanza-aprendizaje en el
aula, se utilizan dos o más variables independientes, con el propósito de determinar los
efectos combinados de ellas en la variable dependiente del caso. Los diseños
correspondientes a tales investigaciones reciben el nombre de diseños factoriales como
lo son el diseño factorial 2x2, el diseño factorial m x n, el diseño jerárquico, etc.
Un problema diferente al anterior, pero importante de resolver, tiene que ver con el
tamaño de los grupos del experimento. En sentido estricto, ese tamaño está
determinado por la estadística que se utilizará en el análisis de los datos, el nivel de
significación elegido, la estimación del tamaño de la varianza y la magnitud del error
probable que tendrá la diferencia real encontrada. Sin perjuicio de esos criterios, en la
práctica, los investigadores utilizan alrededor de 10 sujetos por grupo, con rangos que
van de 5 a 30 sujetos.

-Investigaciones cuasiexperimentales
En todos los diseños experimentales, propiamente tales, la asignación a los grupos
experimentales y de control se realiza en forma aleatoria, con la finalidad principal de
lograr una igualación, lo más cercana posible, de las características de los sujetos que
conforman esos grupos. Esto, en definitiva, para descartar variables (propiedades)
distintas a la variable independiente cuyo efecto particular se desea establecer en la
variable dependiente.
Con toda la importancia que tiene la aleatorización de los grupos, en muchas
circunstancias no es posible cumplir con el propósito de control señalado
anteriormente. Sin embargo, como lo han señalado Campbell y Stanley, en ausencia de
esa posibilidad, aún es posible realizar experimentos que pueden tener validez interna
y externa, si bien no eliminan todos los factores que las debilitan. De manera general,
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

los diseños en los cuales no se ha podido utilizar el azar en la formación de los grupos
reciben el nombre de diseños cuasiexperimentales, de los cuales presentamos los de
mayor utilización.
a) Diseño con un grupo de control no equivalente.
Es un diseño que se utiliza, no exclusivamente, con grupos naturales, como el
constituido por los alumnos de un cierto grado o de una cierta escuela, personas que
han sido sometidas a una intervención social (de la cual se podría tomar una mu estra),
etc. Tales grupos forman el grupo experimental; el grupo de control se forma con
sujetos, no elegidos al azar, que tengan características muy semejantes a los sujetos
del grupo experimental. El diseño se representa de la manera siguiente:
La línea de puntos indica que los grupos no han sido formados al azar.
La principal debilidad del diseño es la no aleatorización de los grupos, en la medida que
el grupo de control sea diferente del grupo experimental, más allá de la diferencias
debidas al azar. En esa medida, no podrán controlarse los factores extraños cuyos
efectos podrían confundirse con el efecto de la variable independiente, que es el foco
de la investigación.
Esta situación, sin embargo, puede resolverse, en buena proporción, con el uso del
análisis de la covarianza en el tratamiento final de los datos, con la elección de una
covariable adecuada.
b) Diseño de series cronológicas.
Es un diseño cuasiexperimental que no requiere de grupo de control. Consiste en una
serie de mediciones periódicas que se hacen en las personas en estudio, antes y
después que se ha introducido la variable experimental. Su representación simbólica es
la que sigue:
Los posibles resultados entre los dos momentos se dan en el gráfico siguiente, tomado
de Campbell y Stanley (pág. 78).
Posibles configuraciones de los resultados de introducir una variable experimental en el
punto X, en una serie cronológica de mediciones, O1 - O8. Salvo en el caso D, la
diferencia O4 - O5 es la misma para todas las series cronológicas, en tanto que la
legitimidad de inferir un efecto varía mucho, siendo máxima en A y B y totalmente
injustificada en F, G y H.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

El principal problema de este diseño es el factor denominado historia, constituido por la


influencia que pudieron tener factores externos al experimento, ocurridos durante su
desarrollo. Otro problema tiene que ver con la elección de las técnicas de análisis que
permitan establecer el efecto de la variable independiente en los sujetos del estudio. La
mejor fórmula es el análisis de la varianza, que compara el promedio de los valores
antes de la introducción de la variable independiente con el promedio de los valores
después.

-Las investigaciones no experimentales


Las investigaciones no experimentales sobre la variable independiente, que es una de
las características de las investigaciones experimentales y cuasiexperimentales, como
tampoco conforma a los grupos del estudio. En estas investigaciones, la variable
independiente ya ha ocurrido cuando el investigador hace el estudio. O sea, ha ocurrido
un cierto fenómeno, que es tomado como variable independiente (por ejemplo, la
exposición a la televisión) para un estudio en el cual el investigador desea describir esa
variable como también los efectos que provoca sobre otro fenómeno, que es la variable
dependiente (por ejemplo, conductas delictivas). Por esta característica distintiva en lo
que se refiere a la ocurrencia de la variable independiente, las investigaciones en las
que se da esta circunstancia reciben el nombre de investigaciones ex post facto
(después del hecho). A este tipo de investigaciones pertenecen, entre las principales se
encuentra la encuesta social, el estudio de casos, el estudio de cohortes, la
observación estructurada, la investigación acción participativa y la investigación
evaluativa.
Según el tiempo durante el cual se realiza el estudio se distinguen las investigaciones
sincrónicas o transversales, que se refieren al objeto de investigación en un mismo
período de tiempo. Y, las investigaciones diacrónicas o longitudinales, en las cuales los
individuos se analizan durante un cierto tiempo, de manera más o menos continua. A
este tipo pertenecen los estudios de cohortes constituidas por personas que tienen uno
o más rasgos comunes (por ejemplo, estudiantes egresados de un cierto nivel
educativo en un mismo año), los estudios de paneles (un mismo grupo estudiado en
varios momentos), etc.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Lección 5. Aspectos éticos de la investigación psicológica.

Es importante considerar que todo profesional debe acogerse a unos parámetros éticos
y se retoma los principios como un conducto que regula toda acción profesional entre
ella la investigación, igualmente es importante reconocer este código con el fin de
orientar y servir como regla de conducta profesional, en el ejercicio de la psicología en
cualquiera de sus modalidades, proporcionando principios generales que ayuden a
tomar decisiones informadas en la mayor parte de las situaciones con las cuales se
enfrenta el profesional de la Psicología, fundamentado en los principios de
beneficencia, no maleficencia, autonomía, justicia, veracidad, solidaridad, lealtad y
fidelidad, además de las contempladas en la ley.

El ejercicio de la profesión de psicología debe ser guiado por criterios, conceptos y


elevados fines que propendan a enaltecer su profesión; por lo tanto, están obligados a
ajustar sus actuaciones profesionales a las disposiciones de las siguientes normas que
constituyen su Código Deontológico y de Bioética. Los psicólogos en todas sus
especialidades, para todos los efectos del Código y Bioético y su régimen disciplinario
contemplado en esta ley se denominarán los profesionales.

Como componentes fundamentales está el uso de la información, el respeto, la


igualdad, la prudencia, la crítica, igualmente aspectos legales de uso de la profesión a
nivel público, la imparcialidad, el secreto profesional, la confidencialidad de información
del consultante, tales como datos de la entrevista, resultados de pruebas psicotécnicas,
aspectos que pueden consultarse de forma más puntual en la ley 1090 de 2006 en los
artículos 14 hasta el 32.

En este tema es importante revisar y comprender la definición de la psicología, tal y


como se contempla en la ley 1090, como una ciencia sustentada en la investigación y
una profesión que estudia los procesos de desarrollo cognoscitivo, emocional y social
del ser humano, desde la perspectiva del paradigma de la complejidad, con la finalidad
de propiciar el desarrollo del talento y las competencias humanas en los diferentes
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

dominios y contextos sociales tales como: La educación, la salud, el trabajo, la justicia,


la protección ambiental, el bienestar y la calidad de la vida. Con base en la
investigación científica fundamenta sus conocimientos y los aplica en forma válida,
ética y responsable a favor de los individuos, los grupos y las organizaciones, en los
distintos ámbitos de la vida individual y social, al aporte de conocimientos, técnicas y
procedimientos para crear condiciones que contribuyan al bienestar de los individuos y
al desarrollo de la comunidad, de los grupos y las organizaciones para una mejor
calidad de vida. Tal artículo presenta la siguiente observación: La definición de salud
por parte de OMS; En la que se subraya la naturaleza biopsicosocial del individuo, que
el bienestar y la prevención son parte esencial del sistema de valores que conduce a la
sanidad física y mental, que la Psicología estudia el comportamiento en general de la
persona sana o enferma. Se concluye que, independientemente del área en que se
desempeña en el ejercicio tanto público como privado, pertenece privilegiadamente al
ámbito de la salud, motivo por el cual se considera al psicólogo también como un
profesional de la salud.

Retomando nuevamente la definición de la psicología como una ciencia sustentada en


la investigación, la ley 1090 de 2006 define de forma puntual el proceso que debe
seguir el profesional que se dedica a esta labor, invito en este punto a detenernos un
momento y hacer un análisis y reflexión, realmente se debe comprender que la
actividad investigativa va más allá de la formulación de problemas, indagación y
búsqueda de respuesta bajo un estudio que aborda los fenómenos, en nuestro caso,
sociales; esta ley le da el realce como una actividad que promueve la producción
científica, la propiedad intelectual y la gestión de conocimiento, por lo cual contempla el
uso adecuado de metodologías, la planeación, el manejo adecuado de la información
recolectada, el consentimiento de las personas o comunidades, la práctica de los
principios básicos definidos por la Unesco y la APA para guiar éticamente la
investigación con animales, el derecho a la propiedad intelectual sobre los trabajos que
elabore en forma individual o colectiva, en general guiarse por los principios éticos que
generan de forma crítica y objetiva el análisis de las problemáticas y el respeto por el
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

ser humano. Estos aspectos pueden ser revisados de forma puntual en los artículos 49
y 55 establecidos en el código deontológico y bioético de psicología.

Para ampliar el tema y dar revisión completa al código bioético y deontológico, revisar
la ley 1090 de 2006. Que pueden consultar en el siguiente enlace:
http://www.colpsic.org.co/portal/tribunales_normatividad.php

Momento reflexivo: Cuáles son los aportes de la investigación cuantitativa a la


psicología?.

CAPÍTULO 2. MEDICIÓN DE LO PSICOLÓGICO

Lección 1: Características del paradigma positivista.


En psicología abundan los paradigmas de investigación y por tanto los métodos para
abordar los fenómenos que le interesan a cada uno. Gracias a esa diversidad, también
son frecuentes los debates y apuntes que hacen los representantes de un paradigma
hacia otro. Cabe aclarar que las ideas que se emiten de un lado hacia otro están llenas
de matices, y en varias ocasiones estas opiniones están basadas en concepciones
antiguas, dogmáticas o que simplemente no están acordes con la realidad. Para que
una disciplina avance deben hacerlo sus métodos, teorías y discurso; los debates y
opiniones respecto a otros paradigmas y disciplinas no se pueden quedar en
malentendidos. Con el presente texto se pretende aclarar algunas de las críticas que se
le hacen a ciertos enfoques en psicología que usan como su método principal lo
cuantitativo; críticas hechas especialmente por las áreas de la psicología, la enfermería
y otras disciplinas sociales que prefieren el uso de los métodos de corte cualitativo.

El Enfoque Cuantitativo es Positivista: Según Zamora (2003) el positivismo, sea viejo o


nuevo, sostiene que los únicos métodos válidos de obtención de conocimiento son la
demostración formal y la contrastación empírica. Estos datos son reinterpretados a la
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

luz de una teoría al igual que se haría en cualquier metodología investigativa, de tal
forma que sean coherentes con las ideas científicas.

El enfoque cuantitativo es Penetrantes no Naturalista: Cook y Reichardt (1997)


mencionan que algunos métodos como la observación participativa, de uso frecuente
en la investigación cualitativa, es de hecho un método penetrante; adicionalmente hay
métodos cuantitativos que son naturalistas.

El enfoque cuantitativo es objetivo e Ignora la Subjetividad: Cook y Reichardt (1997),


citando a Scriven (1972), afirman que los significados del término subjetivo pueden ser
dos; a saber, “influido por el juicio humano” o que toma en cuenta los sentimientos y
creencias humanos, se supondría que lo objetivo sería lo contrario. Cos métodos
cuantitativos no se pretende ignorar la subjetividad sino que ésta sea lo más prec isa y
coherente con los datos que se presentan en la realidad, los métodos cuantitativos nos
son “antihumanistas” (Zamora, 2003), las conclusiones de un trabajo tienen
afirmaciones a la luz de los datos y teorías, hipótesis respecto a lo que aún no tiene
una explicación consistente y por último opiniones y especulaciones respecto a lo que
se podría encontrar en otros estudios.

Los métodos cuantitativos son confirmatorios y deductivos y no se fundamentan en la


realidad: En la investigación de corte cuantitativo existe una forma de investigación
denominada exploratoria que no está interesada en confirmar una hipótesis sino, como
su nombre lo indica, explorar y describir un fenómeno, y poder hacer ajustes para
abordarlo de la forma más apropiada.

Estudios Carentes de Validez: Se supone que no son válidos porque ignoran la


individualidad, “La pregunta que evidentemente hacen los investigadores cualitativos a
los cuantitativos es ¿cuán particularizables son tus generalidades...?” (Pita y Pértegas,
2002). Es innegable que cada persona en el mundo es diferente a otra, pero resulta,
que así como hay diferencias, las similitudes entre personas que comparten ciertos
grupos sociales también son bastantes, y es gracias a esos puntos en común que se
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

pueden hacer generalizaciones y además afirmar que esas generalizaciones son


correctas; no se niega la individualidad ni se promedian subjetividades se parte de
puntos comunes entre los sujetos para explicar una situación.

Ignoran la Totalidad: Es prácticamente imposible abarcar un fenómeno en su totalidad,


y más aún si es un fenómeno social, la cantidad de variables es tal (familia, entorno,
ambiente, biología (genética, nutrición, salud), economía, creencias, educación…) que
su manejo se convertiría en un problema más difícil de resolver que el objeto de estudio
como tal, hay un dicho popular que dice que “el que mucho abarca poco aprieta”; en
ese orden de ideas se hablaría de estudios que tienen en cuenta más o menos
factores.

Consideran una Realidad Inmutable: En los estudios sociales con métodos


cuantitativos se registran los factores relevantes para el lugar, comunidad y momento
objetivo, decir que la investigación cuantitativa y las disciplinas que hacen uso de ella
consideran la realidad inmutable es equivalente a decir que ignoran el contexto, y eso
es algo que definitivamente no ocurre con este tipo de investigación, así como tampoco
en la cualitativa.

Se Sirve de los Sujetos no se Comunica con Ellos:Esta posición tomada del texto de
Mendoza (2006), asume que la investigación que utiliza una metodología cuantitativa
no se comunica con los sujetos sino que les “extrae” información. Gran parte de la
investigación cuantitativa o empírico analítica busca obtener datos para más adelante
proponer programas para la solución de ciertos problemas, si el interés no es la
solución de un problema sino dar cuenta de un fenómeno podría decirse que tanto la
investigación cuantitativa como la cualitativa “extraen” información de los sujetos, pero
si se tiene un interés académico el término “extraer” no tiene un carácter peyorativo
como se presenta en el texto de Mendoza (2006).

Explica no Comprende: Según Guerrero (2007) “una explicación es un respuesta


eficaz, en relación con una teoría, a petición de información sobre ciertos hechos
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

relevantes”. Se explican los fenómenos de la naturaleza de carácter predecible y


repetible, al contrario las actividades humanas son hechos únicos, sin causa (sino con
propósito) que no se explican sino se comprenden. Esta dicotomía entre explicación y
comprensión, más que aportar al conocimiento y abordaje de lo que es relevante para
la psicología, lo que hace es crear confusión; al respecto hay que preguntar a los
investigadores que hacen uso de los métodos cualitativos si el comportamiento es algo
que se puede explicar o solamente comprender, y si el que es capaz de explicar algo
no lo comprende también.

Los anteriores planteamientos son tomados a modo de lo más relevante del artículo
¿Los que explican pero no comprenden? Una reflexión en torno a las críticas que
hacen otras metodologías a los abordajes cuantitativos. Ávila, J (2008), psicólogo
Universidad Nacional de Colombia, es importante dar la revisión al todo el artículo,
pueden ubicarlo por el nombre.

Lección 2: Hipótesis

Las hipótesis como una suposición o conjetura sobre características con las cuales se
da en la realidad el fenómeno social en estudio; o bien como una conjetura de las
relaciones que se dan entre características o variables de ese fenómeno. Como un
problema de investigación es una pregunta que se plantea el investigador con el
propósito de darle una respuesta correcta, también se puede decir que la hipótesis es
la respuesta anticipada que el investigador propone a tal pregunta, respuesta que
someterá a verificación empírica con los datos que recoja, ya sea de manera directa o
indirecta. Agreguemos, todavía, que no toda suposición es una hipótesis: lo es cuando
ella se formula dentro de un conjunto de conocimientos ya acumulados sobre el objeto
de investigación o dentro de la problemática teórica o práctica que lo rodea. En tal
caso, esos conocimientos constituyen la fundamentación de la hipótesis.
Ejemplo de un objetivo formulado como hipótesis.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Objetivo: En las escuelas básicas de un municipio, determinar el efecto que produce


sobre el logro escolar la inversión per cápita por alumno en capacitación de los
profesores en técnicas actuales de enseñanza - aprendizaje.
Hipótesis: En las escuelas básicas de un municipio, la inversión per cápita por alumno
aumenta el logro escolar cuando la inversión se hace en la capacitación de los
profesores en técnicas actuales de enseñanza - aprendizaje.
Clasificación de las hipótesis.
Existen varios criterios para clasificar las hipótesis. Aquí elegimos la relación que, se
supone, tiene la hipótesis con las principales funciones que ella, con las principales
funciones de la investigación. Según este criterio, se distinguen cinco tipos de
hipótesis: descriptivas, tipológicas, relacionales, explicativas y estadísticas.

Hipótesis descriptivas: Se refieren a características que se darían en el objeto


estudiado: .En un grupo heterogéneo en su composición socioeconómica, las personas
con mayores niveles son menos autoritarias que las personas con menores niveles.

Hipótesis tipológicas: Proponen clasificaciones de las personas u objetos estudiados:


.En relación con la modernización del currículum, los profesores pueden clasificarse
en: a) innovadores; b) conformistas; c) opositores totales; d) opositores parciales.

Hipótesis relacionales: Suponen relaciones entre dos o más propiedades o variables


que se dan en las personas del objeto estudiado: .La correlación entre el nivel de
escolaridad de la madre y el nivel de escolaridad que logran sus hijos es mayor que la
correlación que se da entre este nivel y la escolaridad del padre.

Hipótesis explicativas o causales: Suponen causas o factores determinantes de un


cierto fenómeno: .La causa principal de la deserción en las escuelas básicas es la
diferencia que existe entre el código lingüístico que se usa en la escuela y el código
lingüístico de los alumnos en el cual han sido socializados en sus hogares.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Si bien muchas de las hipótesis explicativas o causales proponen un solo factor (el
código lingüístico, en el ejemplo), en la complejidad del mundo social sobre todos y
cada uno de los fenómenos se dan múltiples influencias. Como reconocimiento de esta
situación, estas hipótesis deberían enunciarse con la cláusula .en igualdad de otras
condiciones.. Así se diría, por ejemplo: .En igualdad de condiciones económicas las
personas que respetan principios religiosos son más autoritarias que aquellas que no
se rigen por tales principios.. El investigador debe elegir las condición (es) que se
igualará (n) en cuanto también podría tener efecto en el fenómeno estudiado (el
autoritarismo, en el ejemplo).

Hipótesis estadísticas: Las hipótesis estadísticas son supuestos hechos por el


investigador acerca del valor que puede tener una cierta medida estadística en una
muestra probabilística tomada de una determinada población. Estas hipótesis se
formulan con una cierta probabilidad del margen del error que puede tener ese valor.
Dentro de estas hipótesis estadísticas tienen especial importancia las llamadas
hipótesis nulas y la correspondiente hipótesis alternativa. Así, e:n un estudio realizado
en una muestra en la cual se han calculado dos medios aritméticos, la hipótesis nula
dirá que, si fuera el caso, no existe una diferencia estadísticamente significativa entre el
promedio de salarios de los hombres y de las mujeres en una cierta profesión. La
hipótesis alternativa, por su lado, dirá que sí existe diferencia. Para aceptar o rechazar
una u otra de las alternativas, se deberá conocer cuál es la probabilidad de darse tal
valor y cuál es la probabilidad propuesta por el investigador para eso.

Lección 3: Variables y Constructos y definición operacional.

Las variables son las características de un objeto o evento que tenga a los menos dos
atributos (categorías o valores); los atributos son distintas categorías o valores que
componen la variable, en función de ellos se clasifican los objetos. Variables como
edad, ingresos económicos, altura, toman valores numéricos; pero las variables cono
sexo, estado civil, adoptan categorías.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

A continuación encuentra un cuadro esquemático de los tipos de variables y


posteriormente encuentra la definición y ejemplos.

Cuadro 6. Tipo de variables.

Se invita a ver el siguiente vínculo. http://www.youtube.com/watch?v=4x3iI-oj53k

- Variable independiente: es el atributo, propiedad o característica que el investigador


va a observar bajo condiciones controladas, proceso denominado manipulación de la
variable en una investigación experimental, para valorar y medir la incidencia en la
variable dependiente; es la causa en la relación causa-efecto.
- Variable Dependiente: en una investigación es una característica cuyo valor cambia
porque se manifiesta de diferentes formas, o aparece y desparece cuando el
experimentador introduce, reitera o cambia la variable independiente. Es la
consecuencia en la relación causa-efecto y no se manipula sino que se mide para ver
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

el efecto de la manipulación de la variable independiente sobre ella; por lo tanto se


debe definir para saber qué se va a medir u operacionalizar.
- Variables Intervinientes: son aquellas que pueden modificar os valores de la variable
dependiente pero que no son controladas por el investigador.
Según el tipo de valor:
- Variables cualitativas son aquellas que toman como valores cualidades o categorías
que representan la pertenencia a una clase de cosas.
- Variables cuantitativas: toman como valores numéricos aunque no representan
cantidades, como es el caso de los códigos.
-Variables Continuas: son variables cuantitativas cuyos valores cambian en forma
progresiva y no a asaltos o de una a otra categoría, tienen un orden que no puede
alterarse y sobre ellas se pueden hacer análisis estadísticos descriptivos a través de
medidas de tendencia central y medidas de dispersión.
- Variables Discretas: son aquellas cuyos valores corresponden a clases
independientes, no admiten valores intermedios y por lo tanto, no tiene sentido hablar
de promedios o de otros estadísticos descriptivos.
Según técnicas u operaciones estadísticas (Escalas):
- Variables nominales: se refieren a nombres, no proporcionan información referente a
un atributo, excepto en términos de equivalencia o no equivalencia. Son excluyentes y
si se asignan números sólo se utilizan para distinguir unos objetos sociales de otros.
- Variables ordinales: se refiere a la distribución de objetos según su lugar relativo con
respecto a otros, de un tributo especifico. Los atributos o características se ordenan de
acuerdo con algún criterio, sin embargo no dice que tanto es mayor el atributo con
respecto a otro nivel. El criterio para clasificar a las personas u objetos en un grupo u
otro no obedece a operaciones matemáticas sino a criterios establecidos por el
investigador que construyo la escala o prueba) Ver modulo Psicometría o Medición
Psicológica).
- Variables de intervalo: los números asignados corresponden a la intensidad con la
cual se da una variable en las personas u objeto de estudio. Especifican el rango de
ordenamiento de los objetos o atributos y la distancia entre dichos objetos.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

- Variables de proporción o de razón: cumplen todos los requisitos anteriores, excepto


que aquí el cero si es racional, es decir el cero indica ausencia del atributo o
característica que se está midiendo.

Los constructos se definen como propiedades subyacentes, que no pueden medirse en


forma directa, sino mediante manifestaciones externas de su sexo, la ocupación, etc.,
que, como se ve, corresponden a grados diferentes o iguales de darse una cierta
propiedad en las personas o de darse en modalidades diferentes.
Los constructos se definen como propiedades subyacentes, que no pueden medirse en
forma directa, sino mediante manifestaciones externas de su existencia, es decir,
mediante indicadores. En otras palabras, los constructos son variables subyacentes,
por lo cual, habitualmente, caen en la denominación común de variables.

A partir de esa definición, es importante buscar procedimientos que permitan su


medición indirecta mediante manifestaciones externas, empíricas y observables. Tales
manifestaciones o expresiones reciben el nombre de indicadores. En el caso de una
cierta actitud, son indicadores de ella las respuestas que pueda dar un sujeto a una o
más preguntas que se supone se relacionan con la correspondiente variable
subyacente. O, también como ejemplo, el ingreso de una persona es un indicador de su
posición social, o bien su nivel de instrucción formal, etc. Como se ve en estos
ejemplos, los indicadores dicen la forma cómo será medida una cierta variable.
La selección de indicadores objetivos para medir una variable subyacente o compleja
corresponde a la definición operacional de esa variable. De manera abreviada, y si
corresponde, una definición operacional consiste en señalar el instrumento con el cual
será medida la variable. Así, la inteligencia queda definida operacionalmente cuando
decimos que será medida por el test de Raven.

Otras definiciones operacionales se dan en los párrafos que siguen.


. Definición operacional de la variable posición socioeconómica. En este caso, se dirá
que la variable será medida con los siguientes indicadores con sus respectivos valores
ordinales:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Ocupaciones no manuales = 2
Ocupaciones manuales = 1
Educación universitaria = 5
Educación secundaria = 3
Educación primaria = 1
De acuerdo con esta definición operacional, una persona con una ocupación no manual
y con educación secundaria tendrá una posición socioeconómica de valor .5.; otra con
ocupación manual y educación primaria tendrá un valor .2. Cabe hacer notar que esos
valores corresponden a una variable ordinal: los números sólo indican que uno de ellos
es mayor que el otro. Lo mismo vale para otros ejemplos que damos a continuación.
. Definición operacional de actitud autoritaria. La actitud será medida con las
respuestas y ponderaciones dadas a las siguientes preguntas:
- Debe enseñársele a los niños que la obediencia es siempre un comportamiento
positivo.
De acuerdo = 3 Indiferente=2 En desacuerdo=. 1

Definición operacional de flexibilidad laboral a nivel de la empresa. Se medirá la


flexibilidad laboral de las empresas con el número de trabajadores que salen de ellas
anualmente. (Nótese que según el problema que se investiga, este mismo indicador
podría serlo de .inseguridad laboral.).
Directamente relacionado con los indicadores se encuentra la medida de una variable
compleja que no se puede medir directamente, denominada índice. En forma de
definición, un índice es una combinación de dos o más variables o de sus indicadores
elegidos por el investigador que propone como procedimiento para medir una cierta
variable de la naturaleza indicada antes.

Por lo dicho, un índice puede estar representado por los indicadores que se utilizan en
la definición operacional de una variable. De esta manera, un índice de posición
socioeconómica sería la combinación de valores o ponderaciones asignados a las
categorías distinguidas, por ejemplo, en la ocupación y en la educación.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Lección 4: Medición de variables y tipos de escalas de medición.


Una variable puede adoptar varios valores, tal vez muchos de ellos en cierto rango. El
valor suele ser numérico, aunque no necesariamente. Los diferentes valores son
nombres; ese tipo de variable se conoce como variable categórica, porque cada valor
de ella es una categoría diferenciada. Si bien es posible decir porque partido vota una
persona, esto no mide una actitud política en una escala; de igual modo, se puede
preguntar a los individuos si son casados o solteros, pero no es posible decir que tan
casados están. Las variables como la estatura, el tiempo y la cantidad de hermanos
que se tiene, eso sí representa una un valor concreto y se conocen como variables
medidas, puesto que se vale de un numero para indicar en qué parte de una escala se
encuentra la persona en esa variable. Una de las principales tareas al tratar de evaluar
las variables psicológicas, a menudo consiste en pasar de una variable categoría, de
acuerdo/ desacuerdo a una variable de medida que tan de acurdo esta.

Algunas variables son fáciles de medir y uno esta familiarizado con el tipo de
instrumento de medición necesario. Algunas variables son familiares en términos
conceptuales, pero medirlas en forma numérica es algo difícil de hacer, como en el
caso de la actitud, la ansiedad, o los sentimientos. Sin embargo, aunque a las personas
suele agradarles pensar que no hacen mediciones psicológicas de las personas, hay al
menos cierta medición implícita en afirmaciones como por ejemplo se opone
fuertemente al consumo del cigarrillo, y quien puede oponerse solo un poco.
En psicología se trabaja con variables como la actitud y la ansiedad, es necesario en
posibilidades de especificarlas con precisión, en parte porque se desea ser exacto en la
medición de sus cambios y en parte porque es importante comunicar a los demás los
hallazgos. Si se aspira que estos trabajos se tomen con seriedad, debe existir la
posibilidad de que los demás los repliquen con la ayuda de los mismos procedimientos
de medición que uno utilizó y que obtengan los mismos resultados.

La medición de una variable consiste precisamente en el proceso de asignar valores o


categorías a las distinta características que conforman el objeto de estudio, para que se
realice adecuadamente la medición, se recomienda tres aspectos; el primero, la
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

exhaustividad; es decir, que comprenda el mayor número de atributos, el propósito es


que ningún atributo quede sin poder clasificarse, en un cuestionario la opción -otros-
corresponde a aquellas en las que caben otras respuestas diferentes a las del
cuestionario; el segundo; la exclusividad, los distintos atributos que componen la
variable deben ser mutuamente excluyentes y el tercero; la exactitud, que establece la
precisión y claridad.

-Tipos de escalas de medición


Todos los datos son en última instancia resultado de un proceso de medición.
Podemos distinguir cuatro niveles de medición: escala nominal, escala ordinal, escala
de intervalo, escala de razón.

Escala nominal: corresponde a los datos cualitativos, cuando se clasifican en


categorías que no implican orden.
¿Es propietario de automóvil?: Sí No

Escala ordinal: cuando los datos cualitativos se clasifican en categorías distintas en las
que existe algún orden.
Rango docente: Titular Asociado Adjunto Auxiliar

Escala de intervalo: es una escala ordenada en la cual la diferencia entre las


mediciones es una cantidad que tiene significado preciso. Por ejemplo, si una persona
mide 1,65 m, entonces tiene 5 cm más que otra que mide 1,70 m. Estos 5 cm
representan la misma diferencia entre una persona que mide 1,82 m y otra que mide
1,77m.

Escala de razón: En este caso, además de que las diferencias son significativas e
iguales en todos los puntos de la escala, existe un cero real, de modo que se pueden
considerar cocientes de mediciones. Por ejemplo, una persona que mide 180 cm tiene
el doble de altura de otra que mide 90 cm, mientras que una temperatura de 80ºC no
significa precisamente el doble de otra de 40ºC.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Lección 5: Muestra y tipos de muestreo.


Cuadro 7. Tipos de muestreo

La muestra es una parte de la población que de acuerdo con la selección que se haga
representa la población y es la suficiente y necesaria para obtener la información
requerida. Axial la muestra son los grupos de individuos, acontecimientos o situaciones,
que se incluirán en la investigación. La muestra es siempre una parte representativa de
la población dada y de ella se obtiene efectivamente la información. El problema
principal consiste en asegurar que la muestra sea representativa de la población, de
manera que permite generalizar las conclusiones a ésta. En ocasiones, cuando la
investigación no es muy extensa, puede tomarse la totalidad de la población como
muestra.
Establecer la Unidad de Observación, es un paso inevitable. Esta nos conduce a las
Unidades de Análisis, las cuales se configuran por las instituciones, grupos de
individuos, personas individuales, etc, las que por su parte se ubican en un espacio
geográfico y temporal.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Por ejemplo, estudiantes universitarios, organizaciones gubernamentales, jefes de


hogar, otros.
La pregunta que aparece frente a tales Unidades de Análisis es ¿todos los estudiantes
secundarios?, ¿todas las ONG?.. .Naturalmente, la respuesta remite a considerar que
"todos" es el universo de la población, que exigirá el diseño de una muestra, lo que
implica la selección de unidades concretas.
Como ya se dijo, dependerá de los objetivos de la investigación. Si la decisión es un
estudio de caso, como se planteará en apartados próximos, la muestra en cuestión, se
limita a la selección de aquellas personas, grupos, instituciones que serán constituidas
como "el caso", para lo cual se avanzará con un procedimiento diferenciado.
Mientras que si el interés es realizar una encuesta, es necesario una muestra, la cual
está determinada por un subconjunto del conjunto total que es el universo.
El propósito perseguido es establecer generalizaciones sobre lo que se está
investigando, los elementos que conforman la muestra y obtener conclusiones con un
mínimo de error. Se basa en la teoría estadística y fundamentalmente en el cálculo de
probabilidades, en los diferentes tipos de distribución de probabilidades y el de prueba
de hipótesis.
Para que una muestra sea representativa, se necesita:
• Determinar el tamaño de la muestra: implica calcular el número de personas a
entrevistar con base en criterios de fíabilidad de resultados y optimización de costos y
tiempo.
La forma de muestreo: elegir el tipo que se utilizará conforme la teoría estadística que
sea viable de aplicar (muestras probabilísticas, muestras no probabilísticas)
• Determinar las unidades muéstrales: establecida la muestra, obtener las unidades
(personas, instituciones, etc) sobre las que se aplicará.

-El Tamaño de la Muestra


Conforme la fuente citada cumple con el primer paso significa que se debe tener en
cuenta que las unidades seleccionadas sean representativas, conlleven el menor costo
y otorguen la mayor confianza. Ello implica tener en cuenta tres funciones:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

1. La varianza poblacional, que refiere a la heterogeneidad u homogeneidad de la


población. A mayor homogeneidad, menor será el número de elementos y,
contrariamente, a mayor heterogeneidad, o dispersión de la población, será exigida
mayor proporción, a fin de garantizar la representatividad.
2. El nivel de confianza, que se alcanza a través de la distribución de los elementos
sobre la base de la campana de Gauss. En el ejemplo anterior, distribuiríamos a la
población, si se pretende reconocer nivel de estudios alcanzados, conforme la
frecuencia de jóvenes con estudios de nivel básico, de nivel medio y de nivel superior.
De ello se obtendría que la mayor parte se ubica en el nivel básico y medio y una
minoría estaría en el nivel superior. El grado de confianza se alcanza teniendo en
cuenta que la población sea representativa de cada nivel de aprendizaje, de manera
que se puedan establecer intervalos de confianza siguiendo reglas estadísticas
preparadas para tal fin.
3. El máximo de error: Implica estimar hasta dónde es posible tener un sesgo de
error, que se define por algo que ya se apuntó: cuanto mayor es el tamaño de la
muestra, menor el error muestral y viceversa. Este último, generalmente ya está
establecido por el investigador, el cual oscila entre 2.5% al 2%.98

-Clases de muestras: La selección de una muestra se hace en función del


problema, objetivos, hipótesis, variables y tipos de estudio.
Una muestra debe satisface dos condiciones:
En ella debe ser posible poner a prueba las hipótesis, es decir, las relaciones
entre variables.
Debe ser posible la generalización, es decir, inferencias validas con un grado de
incertidumbre conocido.

-Tipos de muestreo:
- Probabilística: o al azar. Para que un muestreo sea Probabilístico se requiere que
todo y cada uno de los elementos de la población ténganla misma probabilidad de ser
seleccionados. Se divide en:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

- Aleatorio simple: todos los elementos tienen las mismas probabilidades de ser
seleccionados.
- Muestreo sistemático: tiene las mismas características del aleatorio simple, solo
difiere en el procedimiento de selección de las unidades de muestra.
- Estratificado: se utiliza cuando la población es demasiado heterogénea con respecto a
las características que se desean estudiar; en este caso se agrupan los elementos
dentro de grupos o estratos. Se puede estratificar por sexo, edad, nivel
socioeconómico, ubicación geográfica etc.
- Conglomerado: se divide a la población de acuerdo con características específicas, se
escogen los grupos que se requiere para el estudio y en cada uno de ellos se hace una
selección al azar conservando la misma proporciona en todos.
- No probabilístico: no sigue el proceso aleatorio o al azar no es representativa de una
población, se caracteriza porque el investigador selecciona su muestra siguiendo
algunos criterios identificados para los fines de la investigación que desea realizar.
Dentro de éste se encuentra el muestreo por conveniencia y el muestreo por cuotas.
La estadística inferencial se ocupa de este problema y determine si la muestra es o no
representativa; cuando ello sucede, se puede predecir el resto de la población también
cumple con la misma ley enunciada en la hipótesis.

Momento reflexivo: Por qué el problema de la cuantificación en la investigación


psicológica?

CAPÍTULO 3. TÉCNICAS Y ESCALAS DE ACTITUD.

Lección 1. La encuesta.
Una vez que se decide el tipo de muestreo a utilizar en la investigación, resulta
necesario armar el de recolección de información. Una definición técnica de la
encuesta es que es una técnica estandarizada que permite obtener información acerca
de una muestra de población total. Para Cecilia Blanco ( 2011) la encueta es ” un
método científico de recolección de datos de carácter cuantitativo que permite recopil ar
información sobre opiniones , creencias y/o actitudes de los sujetos estudiados e
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

indagar acerca de temas múltiples, tales como pautas de conducta, prejuicios,


tendencias políticas”: Esta técnica brinda información acerca de cómo se manifiestan
muchas propiedades ( categorías, variables, atributos) en innumerables individuos y se
aplican ámbitos diversos, comercial, político, académico.
En el mundo académico, la encuesta adquirió importancia en la década de los 40,
especialmente en áreas de sociología y comunicación, esta técnica se convirtió
prontamente en una de las más utilizadas en la investigación social empírica en los
Estados Unidos. La encueta resulto ser una de los más potente métodos cuantitativos
puesto que permite obtener datos validos en un plazo relativamente corto y así realizar
inferencias y estimaciones, ( Marradi, Archenti y Piovani, 2010).

La base estadística de la encuesta permite establecer predicciones representativas


respecto de las características de grandes poblaciones a partir del análisis de datos
obtenidos en estudios a pequeña escala de pequeñas muestras probabilísticas
adecuadamente seleccionadas. La encuesta permite describir como e manifiestan
determinadas propiedades de una población, a partir del análisis del comportamiento
de las variables de una muestra.

Lección 2. La entrevista.
La recolección de la información igualmente puede ser mediante otras técnicas,
especialmente para áreas de las ciencias sociales existe diversas formas de
aproximarse a las personas, entre ellas la entrevista, esta es una forma de tener un
encuentro cara a cara y utilizan una variedad de preguntas dese las cerradas hasta las
abiertas, y las diverso tipos, estructuradas o semiestructuradas, para el caso de la
investigación cuantitativa se den tratar que sea una entrevista lo más estructurada
posible, porque al no ser así, el análisis de respuestas es un proceso algo, complejo y
es de un orden más interpretativo. Al tener un interés en la cuantificación se deben
generar categorías que prioricen la información recolectada.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Los tipos de entrevista de acuerdo al texto de Hugh, C. (2005), son 5: no directiva,


informal, semi estructurada, estructurada abierta, completamente estructurada; a
continuación se presenta algunos aspecto relevante de cada una.
Entrevista no directiva: El entrevistado puede hablar de lo que quiera, se trata de que
se aumente los conocimientos acerca de si mismo y de manejar sus problemas
personales.
Entrevista Informal: El objetivo es reunir datos de investigación, bajo un atmosfera
cordial y más relajada, pero centrada en un tema específico, además no se ve limitada
por una respuesta fija.
Entrevista semiestructurada: Tiene en cuenta un ambiente informal, pero es guiada,
porque el entrevistador puede ofrecer respuesta que conlleven a nuevas preguntas o a
omitir otras, dado que ya ha dado la respuesta; este tipo de entrevista se emplea más
en la investigación cualitativa, o puede conllevar a análisis de contenido cuando la
información es relevante y amplia para la investigación.
Entrevista estructurada pero abierta: A fin de evitar la indefinición, se utiliza un
procedimiento estandarizado el cual consiste en hacer la pregunta un el orden
predeterminado y garantiza mayor consistencia en cuanto los datos que se reúnen.
Las preguntas son abiertas. Cuénteme, dígame…
Entrevista completamente estructurada: Las preguntas tienen un formato
preestablecido y las opciones de respuesta están establecidas, por ejemplo a veces,
casi nunca, brinda la opción de manejo de datos específicos, pero no es muy usada en
ciencias sociales dado que de alguna manera se distancia de una conversación, por
esta razón, este tipo de entrevista puede hacerse por teléfono y no necesariamente
cara a cara.

Lección 3. La observación.
Esta técnica va más allá del registro de datos observados, en cierto sentido, los datos
que proviene de las personas se obtienen por medio de alguien tipo de observación,
para ello puede tomarse datos en ambientes naturales o en ambientes artificiales, así
mismo donde puede darse un control total de las variables, por tanto la observación
como técnica de investigación implica un amplio significado, porque comprende toda
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

una preparación del ambiente y de elementos que permitan ese registro, un registro de
las conductas; por ello puede usarse en estudio de orden descriptivo y en estudios de
orden experimental y para estos últimos es donde representa ese proceso de medican
de variables, la variable independiente y la variable dependiente.
Por consiguiente se usa como técnica de recolección de datos, pero, cabe aclarar que
puede usarse como diseño general de la investigación. Como técnica, pretende medir
las variables o describir las conductas; como diseño busca contrastar los datos con
otras investigaciones en particular de orden experimental, pero en ambiente naturales,
es decir, no se manipula variables, que es lo que se hace en entornos de laboratorio o
artificiales.
Esta técnica igualmente tiene formas de realizar la observación, por un lado esta la
observación participante y no participante, la primera permita al investigador hacer
parte del grupo de sujetos observados, mientras que la no participante el investigador
debe observa a distancia. Cuando se emplea esta técnica, el investigador de acuerdo
al estudio puede informar o no las intencionalidades de la investigación, lo que permita
los comportamiento naturales de las personas y no afecte la recolección de datos.
De otro se encuentra la observación estructurada o sistemática, cuyas características
son; la definición de categorías conductuales a registrarse, el muestreo de la conducta,
de manera consistente y la capacidad del investigador en ese ejercicio observacional,
en especial orientadas por un sistema de codificación de los datos.

Esta técnica se apoya en instrumentos de recolección necesariamente, porque no se


puede dejar solo lo observado a percepción o recuerdo del investigador, por ello se
sugiere que se tenga una hoja de registro, que puede ser el diario de campo, como
otras hojas de codificación, así mismo se recomienda y resalta la importancia de hacer
uso de instrumentos como la grabación en vio que permitirá la totalidad de registro y las
ventajas para analizar varios factores luego de la situación observada.

Lección 4. Análisis de contenido.


Es la descripción objetiva, sistemática y cuantitativa del c ontenido manifiesto de la
comunicación cuya finalidad es interpretarla. Actualmente se lo entiende, como el
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

conjunto de procedimientos interpretativos y de técnicas de comprobación y verificación


de hipótesis aplicadas a productos comunicativos (mensajes, textos o discursos), o a
interacciones comunicativas que previamente registradas, constituyen un documento,
con el objeto de extraer y procesar datos.
En este apartado, diferenciaremos el Análisis de Contenido teniendo en cuenta la
"Semántica Cuantitativa" o de base no gramatical en la concepción de Duverger.
Para ello se tiene en cuenta:
• Constituir un universo (Un libro; un capitulo, un discurso, las editoriales publicadas en
una fecha determinada por un N° determinado de periódicos, etc) que exige, una clara
delimitación
• Establecer las Unidades de Análisis. La palabra, la unidad más sencilla, el tema,
conformado frecuentemente como una oración; el ítem, definido como la unidad de
análisis que es usada por los productores de material simbólico (pueden ser un libro,
una editorial, un programa); las medidas de espacio-tiempo (N° de páginas dedicadas a
la sección economía y a la sección; centímetros que ocupa una columna; etc.).
• Conformar las Categorías. Los niveles en los que se clasifican las unidades de
análisis en las que Duverger, (pp. 182) distingue: Categorías de materia que
comprende: Los temas tratados(los diferentes programas televisivos; las diferentes
materias del plan de estudios; los fenómenos políticos -propuestos por Lasswell- las
personas; los grupos y las comunidades; las organizaciones; la política; las ideologías-
los métodos o técnicas, son una variedad de las categorías basada en los temas;
Categorías de Forma. Como su nombre sugiere, se refiere al modo en que son tratados
los temas: De forma propiamente dicha. La distinción entre los hechos, las
declaraciones de preferencia y las declaraciones de identificación ("El Plan Económico
se pone en vigencia el próximo mes", es una declaración de hecho; las Políticas
sociales están bien instrumentadas -o no- es una declaración de preferencia; El Diario
País de España llega a la toda L.A, es una declaración de identificación. De Intensidad.
Es el efecto que provoca la comunicación. Requiere de la definición de conceptos
emocionales que midiendo su frecuencia intenta conocer la intensidad del hecho. Las
repercusiones de un hecho policial transmitido en la TV. Las estratagemas. El análisis
de un texto en el que se encubre otro mensaje, por ej. Una propaganda. Las
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Categorías de Apreciación. Se clasifican las U.A. según las estimaciones que hace el
autor: toma de posición (aprobación-desaprobación; afirmación - negación); los valores
(bien-mal; Justo-injusto; fuerte-débil); las autoridades, las personas, grupos, etc, en
cuyo nombre se hace la declaración. Las Categorías de Personas y de Actores. Se
separan los que responden a las personas, su características personales, de los que
refieren a los documentos.
Respecto del estatus personal y rasgos de carácter discierne sobre: sexo; edad;
educación; nivel de ingresos. Se pueden añadir otras condiciones: preferencias,
atractivo personal; o bien disponiéndose de información de las características
personales: por ej. ¿Cuántas veces se dice que el funcionario es leal para con sus
votantes y coherente en su conducta con las decisiones que toma? Un análisis de ese
tipo, lleva al investigador a contar las veces que tales términos se repiten en las
preguntas abiertas, en un cuestionario que busque información sobre el escaso éxito
de las políticas sociales, es frecuente la respuesta: "los políticos no hacen nada. Solo
vienen cuando hay que votar"
Esa respuesta el analista la puede connotaren una expresión que la identifique, junto
con otras expresiones parecidas y, categorizarla como "lealtad". En otras palabras el
investigador está codificando a través de una operación que le permite "contar" las
veces que el código en cuestión se repite. Respecto de los actores, indica las
personas, grupos, presentados en los documentos como protagonistas principales. Las
Categorías de Origen y Destino. Alude a la procedencia y a destinatarios del
documento. El trabajo consiste en analizar durante un tiempo determinado, el origen de
la noticia, por ejemplo, si es de una provincia, de un municipio, de otro país. El destino
es la categoría que procura determinara quien se dirige la noticia, el discurso, la
propaganda, etc. Analizar, por ej. ¿A quién está dirigido el discurso del Presidente?: a
los banqueros, a los empresarios, a los más necesitados, etc.; o la propaganda de una
marca de cigarrillos: a los más jóvenes, a las mujeres, etc.
El análisis de contenido en las categorías que han sido descritas, es el medio por el
cual se realiza luego la codificación de un documento, técnica a la que nos hemos
referido. Es decir que codificación y análisis de contenido se encuentran relacionados,
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

y a su vez, ambas están estrechamente vinculadas con el cuestionario y las escalas de


medición de opinión y actitudes.

Lección 5. Escalas de actitudes.

Las actitudes pueden considerarse como una relativamente duradera organización de


creencias, sentimientos y tendencias de conducta hacia objetos, grupos, eventos o
símbolos socialmente significativos; una predisposición adquirida, un sentimiento
general de evaluación (positiva o negativa), sobre personas, objetos o asuntos. De esta
definición, se desprende el “ABC” de los componentes de las actitudes:
AFECTIVOS: Respuesta emocional, positiva o negativa
DE CONDUCTA (“BEHAVIOURAL”). Intención de realizar una acción
COGNITIVOS: Creencias que moldean los componentes anteriores, estos
componentes siempre trabajan conjuntamente, jugando un papel importante en la
determinación de la conducta.
Este enfoque involucra la conversión de algo abstracto, como lo es la actitud, en alguna
clase de escala numérica, dando mayor facilidad al manejo de los datos y subsecuente
análisis estadístico. Algunas de las más utilizadas son:
-Escala de Likert: denominada así en honor de Rensis Likert, quien diseñó este método
en 1932. En general, se plantean una serie de afirmaciones, juicios o preguntas
(“proposiciones”), ante las cuales el individuo debe mostrar su “acuerdo” usando
palabras que implican grados crecientes (o decrecientes) del mismo; es pues, una
escala de tipo ordinal, que se desarrollará más ampliamente en este reporte.
-Diferencial semántico: método desarrollado por Osgood, Suci, y Tannenbaum en 1957,
se basa en usar un par de adjetivos opuestos, representando valores extremos en una
opción bipolar, como bueno/malo, útil/inútil, adecuado/inadecuado, s eguro/peligroso,
etc. Se asume que hay un espacio semántico hipotético, entre los cuales debería estar
situada la verdadera actitud del sujeto, que se evalúa de manera “gráfica”. Ejemplo:
¿qué le parece el contenido de esta guía?
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Obviamente, el investigador debe elegir, previamente, la forma de codificar cada


respuesta. Este tipo de escala permite la medición simple de las actitudes hacia
aspectos muy generales
- Escala o “escalograma” de Guttman: Planteada por Luis Guttman en 1944. Se
presentan una serie de planteamientos similares a los de la escala de Likert, pero
asumiéndose que cada escalograma está dirigido a estudiar un solo detalle de cada
aspecto en particular, siendo entonces “unidimensionales”.
En este tipo de escalas hay gradación interna y externa, la interna respecto al grado de
concordancia con el planteamiento propuesto y externa en el sentido de que hay
diversos planteamientos similares que varían en intensidad, por lo que se asume que el
aceptar el de mayor intensidad es equivalente a aceptar todos los demás y viceversa.
Los ítems deben construirse y validarse con especial cuidado, debiendo ser
presentados en orden creciente o decreciente de “intensidad”. Ejemplo: si una persona
responde que le gustan todas las frutas, entonces debería decir también que le gustan
las manzanas, ya que esta afirmación es de menor intensidad que la primera.
-Escala de Bogardus: es una escala acumulativa, como la de Guttman, en el sentido de
que hay diversos planteamientos similares que varían de grado, por lo que se asume
que el aceptar un determinado implica aceptar todos los que tengan un grado menor.
La diferencia con la de Guttman estriba en que se usa un escalamiento de intervalos.
-Escala de Thurstone y Chave: realizada con ítemes que valoran opiniones con valores
fluctuantes entre 0 y 11, los cuales, sin embargo, no se muestran a los participantes,
quienes sólo deben seleccionar la opinión con la que concuerden más. Los valores de
1 a 11 se obtienen promediando los valores o pesos que se asignan por un grupo de
expertos, implicando que esta escala tiende a representar una medición de intervalos.

Momento reflexivo: Cuál es la importancia de elegir la técnica adecuada para la


investigación?
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Autoevaluación de la Unidad:

Apreciado estudiante, luego de la lectura, análisis y comprensión de los temas de la


unidad 1, es importante el proceso de autoevaluación, entendida como una oportunidad
para hacer la revisión y reflexión autocrítica de procesos, aprendizaje y productos del
proyecto de formación que está desarrollando en su rol de estudiante.
Conteste las siguientes preguntas de acuerdo con la siguiente escala valorativa:

5: Totalmente de acuerdo.
4: De acuerdo
3: Nivel medio
2: Desacuerdo
1: Totalmente desacuerdo.

Competencia cognitiva 1 2 3 4 5
1-Comprende los conceptos y temas presentados en el módulo.
2-Identifica la importancia de los objetivos de aprendizaje.
3-Reconoce las características epistemológicas de investigación.
4- Reconoce las características metodológicas de investigación cuantitativa.
5- Reconoce los aspectos éticos de investigación en psicología.
Competencia metodológica 1 2 3 4 5
1-Organizó su tiempo para el desarrollo de lectura y ejercicios.
2-Demostró dominio en los ejercicios de cada capítulo
3-Desarroló habilidades en el proceso de diseño metodológico.
4-Consultó otras fuentes bibliográficas.
5-Generó estrategias para alcanzar las metas de aprendizaje.
Competencia contextual 1 2 3 4 5
1-Reconoce el impacto social de la investigación cuantitativa.
2-Relaciona el aprendizaje con situaciones reales del contexto.
3-Identifica los campos de acción en los que puede intervenir.
4-Genera aportes conceptuales ante los problemas del contexto.
5-Valora el desempeño profesional ante el servicio a la comunidad.
Competencia comunicativa 1 2 3 4 5
1-Generó dialogo claro y oportuno con el tutor y compañeros.
2-Comprendió las instrucciones para la elaboración de trabajos.
3-Expresó inquietudes sobre el tema o actividades del curso.
4- Intercambió ideas y opiniones sobre los temas del curso.
5-Establece pautas de interacción apropiadas a su rol.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Referencias bibliográficas.

Avila, J. (2008). ¿Los que explican pero no comprenden? Una reflexión en torno a las
críticas que hacen otras metodologías a los abordajes cuantitativos. Indago. Número 2.
Universidad Nacional de Colombia.
Blanco, C. (2011). Encuesta y estadística. Métodos de investigación cuantitativa en
ciencias sociales y comunicación. Editorial Brujas. Argentina.

Clark-Carter, David. (2002). Investigación cuantitativa en psicología, del diseño


experimental al reporte de la investigación. Universidad de Oxford.

Hugh, C. (2005). Métodos de investigación y estadística en psicología. 3a Ed. Manual


Moderno. México.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

UNIDAD DIDÁCTICA 2.
TRATAMIENTO Y ANÁLISIS DE DATOS EN EL PROCESO DE INVESTIGACIÓN
CUANTITATIVA.

Presentación:
La investigación cuantitativa parte de entidades teóricas de amplio reconocimiento por
parte de la comunidad científica, los estudios desde esta investigación generalmente
examinan los datos numéricos tomados de un fenómeno observado especialmente con
el apoyo de disciplinas como la estadística. A partir de la cual se hac en demostraciones
de los aspectos separados de su todo, a los que se asigna significado numérico y se
logran inferencias causales, por tanto en esta segunda unidad en la cual se tiene en
cuenta el proceso propio de la investigación cuantitativa se presentara de forma puntual
los aspectos de diseño de investigación cuantitativa, la recolección de información y el
tratamiento y análisis de datos desde esa misma perspectiva de la investigación
cuantitativa. Por tanto es importante en primer lugar reconocer que la investigación
cuantitativa no es de ninguna manera una investigación en contraposición de la
investigación cualitativa, solo se presenta como una forma diferente de abordar
estudios o problemáticas y que desde esa perspectiva brinda opciones especificas
tales como más rigurosidad, objetividad, generalidad y especialmente la deducción,
formas que se basan en métodos y estrategias de cuantificación de la información.

La invitación en este punto es que como profesionales de psicología se adquiera


igualmente un aprendizaje sobre las características de la investigación cuantitativa, sus
diseños y sus formas de recolección y tratamiento de datos, para lo cual es importante
realizar la lectura de cada uno de los temas, igualmente abordar las lecturas
complementarias sugeridas, así mismo el desarrollo de los ejercicios y actividades de
autoevaluación, con el fin de generar competencias metodológicas y contextuales que
contribuyan al conocimiento y especialmente la intervención en los contextos sociales,
a partir de una mirada del método lógico –deductivo que igualmente exigirá el dominio
de las teorías o enfoques psicológicos.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Objetivos específicos de la unidad:

- Presentar de forma organizada referentes conceptuales sobre diseños metodológicos,


formas de recolección y tratamiento de información a partir de la investigación
cuantitativa.

- Establecer actividades reflexivas que promuevan actitudes valorativas y competencias


contextuales en torno los procesos de gestión de conocimiento investigación y el
análisis de las realidades desde la investigación cuantitativa.

- Orientar un proceso de aprendizaje a partir de las respectivas fases de


reconocimiento, profundización y trasferencia basado en estrategias pedagógicas,
didácticas y evaluativas de cada capítulo.

Evaluación diagnóstica:
Señor estudiante, es importante tenga en cuenta que para realizar la lectura de los
ejes temáticos que integran la segunda unidad, se requiere que previamente haya
cumplido la lectura, ejercicios y trabajo colaborativo de la Unidad 1, es decir, se
requiere de bases conceptuales y dominio en los aspectos teóricos, metodológicos y
éticos de la investigación, por tanto es un momento para reconocer las fortalezas y
reforzar aquellas en las cuales se detectó dificultad dada la autoevaluación de la
Unidad 1. Responda las siguientes preguntas:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Preguntas:
1. Conozco la definición de estadística?.
Si____ Cuáles?: ______________________________________________
_________________________________________________________
_________________________________________________________
No____
Es importante conocerlos?
Si____ No______
Por qué ____________________________________________________
__________________________________________________________

2. Conozco el significado y la función de los datos en un proceso de investigación?


Si_____ Nómbralas:
________________________
________________________
________________________
________________________
No_____
Es importante investigar sobre ellas?
Si______ No________
Dónde o con quién puedo Investigar: _____________________________

3. Conozco en términos conceptuales los diferentes métodos estadísticos para organizar


datos?
Si_____
Cuáles?:
_________________________________________________________
__________________________________________________________
__________________________________________________________
No_____
Es importante conocerlos?.
Si______ No_______
Por qué?____________________________________________________
___________________________________________________________
4. Conozco en términos prácticos algunos métodos estadísticos para organizar datos?
Si______
Cuáles?:
___________________________________________________________
___________________________________________________________
No_____
Es importante revisarlo?
Si_______ No_______
Por qué:___________________________________________________
__________________________________________________________

5. Identifico el procedimiento para la construcción de unidades y categorías de análisis.


Si______ No_______
Por qué?____________________________________________________
___________________________________________________________
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

CAPÍTULO 1. RESUMEN Y DESCRIPCIÓN DE DATOS

Lección 1. Procedimiento para el análisis de datos y tipos de datos

Una vez concluidas las etapas de colección y procesamiento de datos se inicia con una
de las más importantes fases de una investigación: el análisis de datos. En esta etapa
se determina como analizar los datos y que herramientas de análisis estadístico son
adecuadas para éste propósito. El tipo de análisis de los datos depende al menos de
los siguientes factores.

a) El nivel de medición de las variables (los niveles de medición fueron explicados en la


sección 2.4 del capítulo II).

b) El tipo de hipótesis formulada (ver sección 2.2, capítulo II).

c) El diseño de investigación utilizado indica el tipo de análisis requerido para la


comprobación de hipótesis.

El análisis de datos es el precedente para la actividad de interpretación. La


interpretación se realiza en términos de los resultados de la investigación. Esta
actividad consiste en establecer inferencias sobre las relaciones entre las variables
estudiadas para extraer conclusiones y recomendaciones (Kerlinger, 1982). La
interpretación se realiza en dos etapas; la primera, la interpretación de las relaciones
entre las variables y los datos que las sustentan con fundamento en algún nivel de
significancia estadística. La segunda, establecer un significado más amplio de la
investigación, es decir, determinar el grado de generalización de los resultados de la
investigación.

Las dos anteriores etapas se sustentan en el grado de validez y confiabilidad de la


investigación. Ello implica la capacidad de generalización de los resultados obtenidos.

“Analizar significa establecer categorías, ordenar, manipular y resumir los datos,”


(Kerlinger, 1982, p. 96). En esta etapa del proceso de investigación se procede a
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

racionalizar los datos colectados a fin de explicar e interpretar las posibles relaciones
que expresan las variables estudiadas.

El diseño de tablas estadísticas permite aplicar técnicas de análisis complejas


facilitando este proceso. El análisis debe expresarse de manera clara y simple
utilizando lógica tanto inductiva como deductiva.

Los resultados de una investigación basados en datos muestrales requieren de una


aproximación al verdadero valor de la población (Zorrilla, 1994). Para lograr lo anterior
se requiere de una serie de técnicas estadísticas. Estas técnicas se derivan tanto de la
estadística paramétrica como de la estadística no paramétrica. La primera tiene como
supuestos que la población estudiada posee una distribución normal y que los datos
obtenidos se midieron en una escala de intervalo y de razón. La segunda no establece
supuestos acerca de la distribución de la población sin embargo requiere que las
variables estudiadas se midan a nivel nominal u ordinal (ver Weiers, 1993).

Las tablas diseñadas para el análisis de datos se incluyen en el reporte final y pueden
ser útiles para analizar una o más variables. En virtud de éste último criterio el análisis
de datos puede ser univariado, bivariado o multivariado

Tipos de datos
En una investigación estadística, se manejan diversas características, a las que se
denomina variables. Los datos son los resultados que se observan para estas
variables. Básicamente existen dos tipos de variables, que producen dos tipos de
datos: cualitativos y cuantitativos. Las primeras variables producen respuestas
categóricas, en tanto que las segundas producen respuestas numéricas. Por otra parte,
los datos cuantitativos pueden ser discretos o continuos.

Los datos cuantitativos discretos son respuestas numéricas que surgen de un proceso
de conteo, mientras que los continuos son los que surgen de un proceso de medición,
en este aspecto deben tener en cuenta las escalas de medición presentadas en la
primera unidad, capitulo 2, lección 4.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Lección 2. Codificación y matriz de datos:


Realizado el trabajo de campo, es tiempo de proceder al tratamiento y análisis de la
información obtenida. Recordemos que aludirá la información está ligada a tener del
problema en estudio una base de "datos brutos", los cuales reclaman su clasificación y
ordenamiento para orientarse a las etapas finales de la investigación.
Tomada la decisión respecto de lo que se hará con la información, el investigador
procede a preparar la matriz de datos o la base de datos de su investigación.
Con el avance tecnológico que sobre el tema existe, desde el punto de vista del
sistema informático, no seremos nosotros los que daremos aportes en tal sentido. No
obstante cabe reconocer que es necesaria la elaboración y ejecución de un programa
para su aplicación por computadora. Esto, desde ya, en el entendimiento de que el
análisis de los datos ya nadie los hace en forma manual.
Sin embargo el conjunto de pasos a seguir, independientemente del procedimiento
informático, serán por lo menos someramente descritos, ya que el sistema recibe los
insumos que deben ser preparados y cuidadosamente controlados por el investigador.
La Matriz de datos es el espacio en el que converge la información que se recolecta y
la que nos da la oportunidad de construir los datos, considerados estos últimos como la
conjunción de tres elementos: Unidad de Análisis; Variable; Valor, los cuales son partes
constitutivas de aquella, tal como será observado.
Por lo tanto para comprender el proceso de tratamiento de los datos, los criterios que a
continuación serán expuestos son los seguidos según la técnica del cuestionario
semiestructurado, haciendo para esta ocasión un breve punteado de los pasos
principales.
• Recolectar la información conforme la técnica ya mencionada.
• Proceder a la codificación de las preguntas cerradas, si es que no se hizo antes de la
salida a campo.
• Realizar el trabajo de "limpieza" de los cuestionarios. Esto significa: su numeración;
revisión dejas respuestas, a fin de corregir los errores de toma, por ejemplo si no se ha
pasado de una pregunta a otra, o aquellas que en las que se debe registrar una sola
opción y aparecen marcadas dos o más; los casos en que no correspondía preguntar y
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

por el contrario así ocurrió; etc. En otras palabras, proceder a la edición de los
cuestionarios, tarea inevitable porque de ella dependen los pasos posteriores.

Proceder a la codificación de las variables y/o preguntas cerradas.


• Preparar la muestra para la codificación de las preguntas abiertas.
• Codificar las preguntas abiertas, según la muestra seleccionada.
• Preparar el libro de códigos
• Completar la codificación.
Resueltas estas instancias cabe completar la matriz, ya sea en forma manual o
informática. Precisamente el trabajo de codificación contribuye a identificar con un
número o símbolo cada respuesta, a fin de que la misma se traspase a la matriz.
El trabajo con los datos. Hacia la contrastación de las hipótesis.
a). Procurar que las celdas estén cubiertas. Es decir, cumplir con el principio de
integridad. Si se ha realizado bien el trabajo de campo, el cuestionario no ha tenido
dificultad en su implementación y si las tareas posteriores como la edición, ha sido
bien realizada, es de suponer que cada pregunta ha tenido una respuesta. En otras
palabras: cada variable del cuestionario, alcanzó un valor, conforme las dimensiones o
la categorización otorgada a la misma en el instrumento. Ello motivó la utilización del
código que reemplaza el valor de la variable, para ser volcado en la matriz. Los
espacios vacíos del ejemplo, están colocados en las variables edad e ingresos. Para
estas, las recomendaciones que se realizan son: poner tal como ha sido dado el
número de años (32,15, o el que fuera), o bien trabajar la variable y, dado su carácter
cuantitativo, construir intervalos y luego a cada uno de ellos otorgar el valor del código
que corresponda, como lo proponemos en el ejemplo:
-10 años (1)
11 a 20 (2)
21 a 30 (3)
34 a 40 (4)
41 a 50 (5)
+ de 50 (6)

De igual forma, con la variable ingreso, la cual también puede ser ordenada en
intervalos, según lo valores que se hayan registrado.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

b) La matriz sirve para clasificar. Por lo tanto a cada Unidad de Análisis le corresponde
una variable y un valor de la misma, Es decir se tiene que producir una clasificación en
la que el par comprendido por la (JA 1V1, por ejemplo, muestre el carácter exclusivo
del valor y a la vez el carácter exhaustivo del mismo. Cada entrevistado debe registrar
una sola respuesta o categoría
c) Cada uno de las combinaciones que se realicen debe tener un sentido.
Si se alude a países, (como unidades de Análisis), estos no pueden tener valores que
respondan al sexo, o a lugar de residencia. Esta advertencia responde a la posibilidad
de comparación de las variables entre sí.
Lo expuesto corresponde a lo que se denomina "principios básicos", que como se
observa son los de integridad; clasificación y comparabilidad.

Tomado de Gloria E. Sobre Tesis y Tesistas. Lecciones de enseñanza – aprendizaje.


Editorial Espacio. Buenos Aires, Argentina, 2003.

Lección 3. Métodos gráficos

Existen diferentes formas de resumir gráficamente los datos, la ventaja es que


comunica al lector aspectos de los datos como tamaño relativo, de manera más
inmediata. Cabe indicar que presenta dos desventajas, la primera, a veces resulta
difícil obtener los valores exactos de una gráfica, segunda, generalmente quien las
elabora no tiene en cuenta que algunos lectores no estén acostumbrados a las
convenciones relacionadas con las gráficas.

La mayoría de la representación grafica de datos emplea dos dimensiones o ejes, una


para los valores de la variable independiente y otra para la dependiente. Por
convención el eje vertical representa la variable dependiente y el horizontal la
independiente. A menudo no hay variables dependiente o independientes obvias, en
ese caso, han de colocarse en los ejes de la manera en que tenga más sentido a la luz
de la convención.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

-Gráficas de barras:
Se utiliza cuando los niveles de la variable independiente se relacionan con categorías,
como en el ejemplo de personas fumadoras y no fumadoras.
Gráfica 1. Ejemplo Grafica de barras variable independiente

16
14
12
10
Series1
8
6
4
2
0
Fumadores No fumadores

Ahora, si integramos la variable dependiente como género, la gráfica corresponde:


Gráfica 2. Ejemplo Grafica de barras variable dependiente e independiente

-Histogramas:
Son similares a las gráficas de barra, solo que estas se tocan entre sí, y tienden a
usarse cuando los niveles de las variables independientes son cuantitativos, por
ejemplo la edad.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Gráfica 3. Ejemplo Histograma.

-Gráficas de pastel o de sectores:


Etas graficas difieren de la mayoría de las gráficas porque representan los subtotales
como área de un pastel correspondientes a una categoría.

Número de personas en cada grupo de edad:


Gráfica 4. Ejemplo 1 grafica de barras
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Porcentaje de personas en cada grupo de edad:


Gráfica 5. Ejemplo 2 grafica de barras

Rango especifico 20 a 29 años:


Gráfica 6. Ejemplo 3 grafica de barras

También resulta factible mostrar más de un conjunto de datos en graficas de pastel


separadas, de modo que el lector pueda compararlas.
Porcentaje de fumadores y no fumadores entre hombre y mujeres:
Gráfica 7. Ejemplo 4 grafica de barras
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Lección 4. Probabilidad.
En este tema es importante tener en cuenta que más allá de la descripción de datos,
los resultados resultan útiles para explicar y probar las hipótesis, mas desde un marco
de la probabilidad, porque nunca se puede probar que una hipótesis es verdadera.
Para recordar, la hipótesis se trata de una afirmación que postula el posible resultado
ante un fenómeno, evento, acontecimiento o situación.
La expresión formal de una hipótesis de investigación siempre se realiza en términos
de dos hipótesis relacionadas. Una es la experimental o alternativa o de investigación
(a menudo se muestra como H1 o HA). Se trata de una afirmación que postula el
resultado del estudio o en términos de la psicología, la predicción de que un evento
ocurra o no. La segunda hipótesis es la nula (H0), por lo general es una afirmación de
que una variable independiente no tiene efecto sobre una variable dependiente o de
que no hay relación de variables.
Afirmaciones en términos probabilísticos hacen parte de nuestro lenguaje diario:
chance, riesgo, probable, posible, pueda que ocurra o no, casi cierto y otras más.
Todas estas son utilizadas para comunicar un cierto grado de incertidumbre aunque su
uso no técnico no permite establecer una clara diferencia entre probable y verosímil o
entre improbable e imposible. Uno de los objetivos de este capítulo es introducir una
medida numérica de incertidumbre.
Los primeros estudios de probabilidad fueron motivados por la posibilidad de acierto o
fracaso en los juegos de azar. La probabilidad es un mecanismo por medio del cual
pueden estudiarse sucesos aleatorios, es decir, operaciones cuyo resultado no puede
ser predicho de antemano con seguridad. Por ejemplo, el lanzamiento de una moneda.
Se asigna entre 0 (absolutamente improbable) y 100 (muy probable).
A partir de este ejemplo de la moneda, y en el contexto de que una amiga dice que
puede influir en el resultado del lanzamiento haciendo que caiga cara, puede
plantearse lo siguiente:
HA: nuestra amiga puede hacer que la moneda caiga en cara.
H0: nuestra amiga no puede influir en la caída de la moneda.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Se sabe que la posibilidad de que una moneda caiga cara por azar es de 0.5: Por tanto,
si la lanzamos y cae cara, sabríamos que era muy PROBABLE que esto sucediera por
azar y no se tendrían pruebas suficientes para rechazar la hipótesis nula. En realidad,
esta no constituye una prueba justa de nuestras hipótesis, pues ningún resultado del
estudio en particular es suficientemente IMPROBABLE por azar para servir de
evidencia contra la hipótesis nula. Para que la prueba de la hipótesis resultara más
justa se requiere una situación en la que fuera improbable que algunos resultados
ocurrieran por azar. Si la situación se complica, se puede ver que puede tener
probabilidades distintas; por ejemplo no una moneda, sino 5 monedas a la vez, esto
aumenta el número de resultados posibles. Las posibilidades van desde que todas
caigan cara hasta que todas caigan sello, pasando por toda la gama de combinaciones
cara y otras sello, con un total 32 combinaciones posibles.

Cuadro 9. Probabilidades de diferentes resultados cuando se lanzan 5 monedas


Número de caras Numero de Probabilidad
combinaciones que
se obtiene
5 1 0.031
4 5 0.156
3 10 0.313
2 10 0.313
1 5 0.156
0 1 0.031

Por tanto, los resultados menos probables son que todas las monedas caigan cara o
sello, y las opciones más probables son las de 3 caras y 2 sellos, y 3 sellos y 2 caras.
Ante el planteamiento de un estudio para probar si nuestra amiga puede influir en las
monedas de modo que caigan solo caras, obtener ese resultado en el primer intento
pudo ocurrir por azar, pero es importante preguntarnos ¿es sufrientemente improbable
que ocurra por azar para arriesgarnos a decir que pensamos que puede rechazarse la
hipótesis nula y sustentar la hipótesis alternativa.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Antes de probar una hipótesis, los investigadores establecen un nivel de probabilidad


crítico, de modo que el resultado de su trabajo debe tener una probabilidad igual o
menor que el nivel crítico antes de rechazar la hipótesis nula de que el resultado ocurrió
por azar. Estos investigadores o expertos dicen que el rango de resultados tan
probable o menos probable que la probabilidad critica se encuentra en la región de
rechazo en otras palabras, es suficientemente improbable que estos resultados ocurran
al azar para rechazar la hipótesis nula.

Si el resultado del estudio se encentra en la región de rechazo, se dice que el resultado


es estadísticamente significativo, si su probabilidad se halla fuera de la región de
rechazo, no se considera estadísticamente significativo. Por convención, en
investigación, la probabilidad crítica suele fijarse en 0.05. En general, se utiliza el
símbolo α (letra griega alfa) para denotar la probabilidad crítica. Por tanto, α=0.05, este
valor se ha elegido como un compromiso ente dos tipos de error que los investigadores
llegan a cometer cuando deciden si rechazan la hipótesis nula. Si la probabilidad de
que nuestro resultado haya ocurrido por azar es igual o menor que α, no resulta
estadísticamente significativa y no podemos rechazar la H0.

Como la probabilidad de obtener 5 caras por azar es de 0.031, p=0.031, es menor que
α =0.05, entonces, se rechaza la hipótesis nula y se acepta la hipótesis alternativa,
concluyendo que nuestra amiga puede hacer que las monedas caigan cara.

Lección 5. Significación estadística

En estadística, un resultado se denomina estadísticamente significativo cuando no es


probable que haya sido debido al azar. Una "diferencia estadísticamente significativa"
solamente significa que hay evidencias estadísticas de que hay una diferencia entre las
variables estudiadas. No significa que la diferencia sea grande, importante, o
significativa en el sentido estricto de la palabra, sólo indica que hay diferencias.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Una de las aplicaciones de la estadística es hacer inferencias a poblaciones, a partir de


muestras. En la realización de este proceso, siempre existe el riesgo de error o
imprecisión ya sea por el azar o la variabilidad del fenómeno a estudiar.

Cualquier resultado puede ser un evento al azar, aun cuando sea muy improbable.
Pero debemos decidir si deseamos arriesgarnos a rechazar la hipótesis nula, pese a la
posibilidad. Como no se puede saber con seguridad que nuestra hipótesis es correcta,
hay cuatro resultados posibles dl proceso de decisión y se basan en las opciones y la
naturaleza de la realidad. Ante este tema, se conocen dos tipos de error, error tipo I,
elegir rechazar la hipótesis nula cuando es verdadera; error tipo II, elegir no rechazar
la hipótesis nula cuando es falsa.

Este aspecto de elegir rechazar o elegir no rechazar la hipótesis nula, conlleva


establecer unos pasos para la prueba de significancia, en su orden son:
1. Expresar una hipótesis nula apropiada para ponerla a prueba.
2. Calcular la probabilidad de que el efecto estadístico ocurra según la hipótesis
nula.
3. Si esta probabilidad es menor o igual a 0.05 se rechaza la hipótesis nula.

Momento reflexivo: Cómo proceder al tratamiento de datos?

CAPÍTULO 2. ANÁLISIS ESTADÍSTICO

Lección 1. Concepto básico de estadística.


El origen de la Estadística se remonta a dos tipos de actividades humanas: los juegos
de azar y las necesidades de los Estados: necesidades de describir numéricamente
ciudades, provincias, etc. Los juegos de azar llevaron al estudio de la probabilidad, y
éste condujo al tratamiento matemático de los errores de las mediciones y a la teoría
que hoy constituye la base de la estadística, mientras que la segunda actividad condujo
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

a la estadística descriptiva: presentación de datos en tablas y gráficos, aunque en


nuestros días incluye también la síntesis de ellos mediante descripciones numéricas.
El método estadístico moderno se refiere a la Inferencia estadística: ésta se relaciona
con el desarrollo de métodos y técnicas para obtener, analizar e interpretar datos
cuantitativos de tal manera que la confiabilidad de las conclusiones bas adas en los
datos pueda ser evaluada objetivamente por medio del uso de la probabilidad. La teoría
de la probabilidad permite pasar de datos específicos a conclusiones generales, por
eso desempeña un papel fundamental en la teoría y aplicación de la estadística.
En épocas recientes la inferencia estadística ha adquirido la importancia que antes
tenía la estadística descriptiva. La inferencia estadística trata de generalizaciones
basadas en muestras de datos: se aplica a problemas como estimar, mediante
pruebas, la emisión promedio de contaminantes en una turbina, verificar las
especificaciones de un fabricante a partir de mediciones efectuadas sobre muestras de
un producto, etc.
Cuando se hace una inferencia estadística, debe procederse con cautela: debe
decidirse hasta qué punto pueden hacerse generalizaciones a partir de un conjunto de
datos disponibles, si las generalizaciones son razonables, o si sería preferible disponer
de otro conjunto de datos...
Algunos de los problemas importantes de la inferencia estadística se refieren
precisamente a la evaluación de los riesgos y las consecuencias al hacer
generalizaciones. Esto incluye una estimación de la probabilidad de tomar decisiones
erróneas, las posibilidades de hacer decisiones incorrectas y de obtener estimaciones
no comprendidas dentro de los límites permitidos. Todos estos problemas los aborda
en los últimos años la teoría de la decisión.

Para clarificar esta definición, se requieren ten claridad de algunas definiciones:


Población (o universo): es la totalidad de elementos que se consideran.
Muestra: es un subconjunto de una población que se selecciona para su estudio.
Parámetro: es una medida que se calcula para describir una característica poblacional.
Estadística: es una medida utilizada para describir una característica muestral.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Lección 2. Análisis Univariado:


Es un análisis básico, primario, en el cual, las características o propiedades de las
personas o cosas han de medirse una a una, de modo univariado. Los tipos de
medidas que se utilizan en los análisis univariados son, medidas de tendencia central,
medidas de dispersión y distribución de frecuencias.

-Medidas de tendencia central:


Consiste en el retomar un listado de los datos brutos, es decir tal como se presentan,
pero para mayor eficacia el investigador utiliza una forma de despliegue que los
presente de forma organizada.

El tipo más común es el que trata de presentar alguna especie de valor central de los
datos, el cual se conoce como promedio, existen tres conocidos en este tema
estadístico, la media, la mediana y la moda.

La media, es el valor que se encuentra al sumar las puntuaciones de las respuestas y


dividir entre el número total de éstas. Por ejemplo, si al sumar valores de un grupo de
participantes, (n=15), la suma total de esas respuestas da 91, ese valor se divide en 15,
lo cual significa que el valor de la media corresponde a 6.066. El símbolo más común
para representar la media de una muestra es Los expertos en estadística emplean
letras minúsculas del alfabeto latina para simbolizar estadísticas calculadas a partir de
una muestra.

La mediana, es el valor r que se encuentra en el centro de todos los valores, por tanto,
para encontrarla deben ordenarse los datos de mayor a menor, cuando la muestra es
impar la median es el valor que queda en el medio de eso muestra por ejemplo una
muestra de 15 sujetos, y sus datos son
3, 4, 4, 4, 5, 5, 6, 6, 7, 7, 7, 8, 8, 8, 9. El valor en este caso de la median es 6. Si la
muestra es par, corresponde sumar los dos valores centrales y se divide en 2.
3, 3, 4, 4, 5, 5, 5 , 6, 7, 7, 7, 7, 8, 8, 9, 9 = 15/2= 6.5
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

La moda, es el valor que más se presenta entre los participantes, tomando el ejemplo
exactamente anterior, el número que más se presenta es el 7, al ordenar los datos por
magnitud, permite identificar de forma más sencilla ese valor.

El texto Investigación cuantitativa en psicología de (Clark-Carter 2002) se expone que


la media es la medida de tendencia central que los psicólogos emplean más,
probablemente por tres razones. Su cálculo tiene en cuanta todos los valores de los
datos. Se utiliza en muchas pruebas estadísticas. Puede utilizarse junto con otras
medidas para dar una idea del rango de puntuaciones de la mayoría.

Ante este mimo uso de la media, es importante indicar que tiene dos desventajas, la
primera, que representa a todo el grupo, pero así mismo el dato obtenido podría
representar a nadie, por ejemplo cuando ante la variable de número de hijos, el valor
obtenido es de 2.4, que es un dato matemáticamente valido, pero en el caos de la
variable no es posible. La segunda desventaja, radica en que puede afectarse por una
sola puntuación muy diferente del resto de la muestra, por ejemplo capacidad de
recordar unas palabras, el promedio es 6 palabras, pero puede haber personas que
recuerdan el mínimo 1 palabra o el máximo 30 palabras, que aunque son los extremos
y pueden ser la excepción, para la investigación resulta dejar de lado datos qu e
pueden ser útiles.

Una sola medida de tendencia central no es suficiente para analizar los datos de la
muestra, por ello resulta útil reportar alguna medición de esta dispersión de
puntuaciones, a fin de poner la medida de tendencia central en contexto. Veamos
entonces el tema de medidas de dispersión.

-Medidas de dispersión:
Las medidas de dispersión permiten conocer la variabilidad de un conjunto de datos,
analicemos los siguientes factores:
Máximo y mínimos, precisamente son los valore extremos que representa el menor
valor obtenido y al mayor alcanzado por los sujetos de la muestra. Retomando
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

nuevamente el último ejemplo de datos que ha ilustrado estos métodos, el máximo es 9


y el mínimo 3.

Rango, otra forma de hallar el máximo y el mínimo, consiste en restar el mínimo del
máximo para dar el rango de valores. Esta cifra permite que diferentes muestras
tengan rangos similares aun que el valor de los máximos y mínimos difieran. Por
ejemplo, una muestra puede tener un recuerdo máximo de 9 y un mínimo de 9, en tanto
que otra muestra puede tener un máximo de 11 y un mínimo de 3, al reportar el rango
puede notarse claramente que ambas tienen las misma dispersión de 8.

Tanto el rango, como el máximo y el mínimo aún tienen problemas para resumir de
manera suficiente al grupo, pues tratan solo con valores extremos; la falla se encuentra
en que no considera si esos extremos son comunes. Por ende, una muestra de 15
personas podría incluir una con una puntuación de 3, otra de 11 y todo el resto con
puntuación de 7. En algunos casos, se emplea el rango intercuartilar porque emplea el
valor de puntuación más alto del 25% inferior y el valor de puntuación más alto del
75% y se anota su diferencia. Tomando como referencia el ejemplo de datos anterior,
3, 3, 4, 4, 5, 5, 5 , 6, 7, 7, 7, 7, 8, 8, 9, 9

25% = 4
75% = 8

La varianza, tiene en cuenta la diferencia entre el valor de cada persona y la media del
grupo, para calcularla se anota cuanto difiere (o se desvía) cada puntuación de la
media. Pero, como es fácil de comprobar, la suma de los desvíos de cada valor
respecto a la media es siempre cero, es decir
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Una manera de sorterar tal dificultad consiste en elevar al cuadrado las desviasiones
antes de sumarlas, ya que eso elimina los signos negativo. Para complicar el team , los
expertos en estadistica han observado que si tratan de estimar , a apartir de los datos
reunidos, la varianza d ela poblacion de que provienen los aprticipantes , obtiene un
estimado màs exacto si dividen la suma de los cuadrados de las desviaciones entre el
numero de lementos d ela muestra , menos 1. Esta version de la varianza es la que
suelen dar los programas de computo y la que se utiliza en pruebas estadísticas.

La desviación estándar (s o DE) se vincula directamente con la varianza porque es la


raíz cuadrada de esta: por tanto, suele representarse como

S= √ s²

Ante el tema de las medidas de dispersión se prefiere emplear la desviación estándar


en el resumen de datos por 3 razones. En primer lugar, es igual que la varianza una
medida de dispersión relacionada con la media; por consiguiente cuando se reporta la
media es apropiado notificar la desviación estándar. En segundo lugar, las unidades
en que se expresa la desviación estándar es la misma que la medición original. En
tercer lugar, la desviación estándar se usa en ciertas circunstancias para indicar la
proporción de personas de la población que se inscriben en un rango determinado de
valores.

En este mismo tema de métodos numéricos, se encuentra el tratamiento de datos


nominales, lo cual significa la oportunidad de trabajar con variables que tiene niveles en
forma de categorías. Por ejemplo, para reportar el número de sujetos que fuman
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

(digamos 10) y los no fumadores (digamos 15); estos datos se pueden expresar en
cifras como fracciones, proporciones o porcentajes.

Fracciones, para encontrar una fracción buscamos el número total de personas


(Fumadores y no fumadores 25) y se expresa el de fumadores como una fracción de
ese total 10/25, y el de no fumadores 15/25, esta fracción puede simplificarse más,
dado que 10, 15 y 25 Son divisibles entre 5, así que 2/5 eran fumadores y 3/5 no
fumadores.

Proporciones, se pueden encontrar convirtiendo las facciones en decimales, por tanto


al dividir 10/25 o 2/5, el resultado es 0.4, indicando que esa proporción de la muestra
corresponde a los fumadores, mientras que los no fumadores revelan el valor de 0.6.
Los valores deben someterse a comprobación, por tanto los valores de los subgrupos
deben sumar 1.

Porcentajes, para encontrar este valor se debe multiplicar una proporción por 100,
como resultado siguiendo el ejemplo, un 40% de la muestra corresponde a fumadores y
el 60% corresponde a no fumadores, ese porcentaje debe sumar 100.

De otro lado, otro método conocido para el resumen de datos corresponde a las
distribuciones e frecuencia, a continuación se presenta una descripción y ejemplos.

-Distribuciones de frecuencia:
Es una ordenación tabulada de los datos recopilados en una investigación o estudio, de
acuerdo a la clase o intervalo a que pertenece y con el número de veces que se repite.
Una distribución de frecuencias se represente por medio de tablas de frecuencia y
gráficas.

Esta forma de organización de datos procede a un agrupamiento desde categorías o


rangos, por ejemplo ante una muestra de 120 personas, se pretende identificar a que
grupo de edad pertenece, para ello se debe presentar una tabla simple:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Edad 20-29 30-39 40-49 50-59 60-69


# personas 15 45 30 20 10

-Clases de frecuencias:
La frecuencia absoluta de una variable estadística, es el número de veces que aparece
en la muestra dicho valor de la variable, la representaremos por fi.
La frecuencia relativa es una medida útil para poder comparar. La frecuencia relativa es
el cociente entre la frecuencia absoluta y el tamaño de la muestra. Generalmente se
expresa en porcentaje. Se denota por f r.

La frecuencia absoluta acumulada Para poder calcular este tipo de frecuencias hay que
tener en cuenta que la variable estadística ha de ser cuantitativa. La frecuencia
absoluta acumulada de un valor de la variable, es el número de veces que ha
aparecido en la muestra un valor menor o igual que el de la variable y lo
representaremos por Fi.

La frecuencia relativa acumulada es la frecuencia absoluta acumulada dividida por el


tamaño de la muestra, y la denotaremos por Fr.

Cuadro 8: Ejemplo de frecuencias


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Pasos para elaborar una distribución de frecuencias:

1. Ordenar los datos u observaciones, desde el menor hasta el mayor o viceversa


2. Se determina el rango o amplitud de la serie de datos, que es la diferencia entre
el valor mayor y el valor menor.
3. Se determina el número de intervalos o clases (K) que se utilizan para agrupar
los datos.
4. En general se recomienda tener, hasta donde sea posible, tener entre 5 y 20
intervalos o clases. Sin embargo, si no se tiene seguridad del número de
intervalos a utilizar, se puede aplicar la regla de Sturges, con la cual se obtiene
una aproximación aceptable sobre el número de intervalos necesarios para
agruparlos.
5. Una vez escogido el número de intervalos se determina la amplitud de cada
clase o intervalo (C). Esta amplitud es igual al rango de los datos dividida en el
número de intervalos. El primer intervalo debe contener el menor valor de los
datos y el último intervalo debe contener el mayor valor de los datos.
6. Se calcula la marca de clase (Xi), que es el valor medio o promedio de cada
intervalo. el cual sirve para facilitar el cálculo de algunas medidas de posición y
de dispersión.

Lección 3. Análisis Bivariado:


En las ciencias sociales a menudo se desea determinar la existencia o no de relación entre
dos variables, para lo cual se realizan diferentes pruebas de significación estadística. La
forma en que se relacionan dos variables se denomina asociación entre dos variables. El
interés de este tipo de análisis se centra principalmente en la forma en que se distribuye la
variable dependiente en función de las diferentes categorías o valores de la variable
independiente. Es decir, la variable que atrae primordialmente la atención del investigador,
y cuya variación trata de explicar, se llama variable dependiente, porque se supone que los
valores que toma dicha variable dependen de los valores que presentan otras variables.
Estas variables que se suponen influyen en los valores que toma la variable dependiente
son las variables independientes (explicativas o causales), ya que permiten conocer por
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

qué varía la variable dependiente de la forma que lo hace en una determinada población
(usualmente una muestra).
Sin embargo, los resultados que aparecen al establecer relaciones significativas entre dos
variables son de naturaleza descriptiva y tales resultados no explican por qué ocurre dicha
relación. Esto es, una correlación entre dos variables no implica necesariamente una
relación causal entre ellas puesto que en cualquier correlación podría existir una tercera
variable que explique la asociación entre las dos variables que han sido medidas (relación
espuria). A su vez, se debe verificar que la variable independiente (causa) anteceda
temporalmente a la variable dependiente (efecto). Del mismo modo, se hace necesaria la
existencia de una teoría que nos permita discriminar entre las simples relaciones
estadísticas y las relaciones causales propiamente tales.
El estudio de la relación entre dos variables se puede caracterizar mediante: i) la existencia
o no de asociación; ii) la fuerza de dicha asociación y iii) la dirección de ésta. 2 Ciertamente
solamente tiene sentido ii) y iii) si se verifica en i) la existencia de relación entre las
variables. Para ello se utilizan un conjunto de pruebas de significación estadística, las
cuales dependerán del nivel de medición de las variables.
A la base de dicho análisis se encuentra la “teoría” y las “hipótesis” que se puedan
desprender de ésta. En otras palabras, en el estudio de relaciones entre variables
intentamos testear empíricamente hipótesis que nos resultan plausibles a la luz de un cierto
marco teórico-analítico. Una hipótesis no es otra cosa que una respuesta tentativa a la
pregunta de investigación (problema). Es una predicción respecto del posible resultado que
se espera encontrar. Y, en el estudio de relaciones entre variables, ésta guarda relación
con el hecho de determinar si las variaciones en los valores de la variable independiente se
encuentran o no asociados a las variaciones en los valores de la variable dependiente.
Puesto que una hipótesis requiere de verificación empírica, se hace necesario realizar una
prueba de significación estadística para determinar si la hipótesis planteada se verifica o
no.

-Coeficiente de correlacion

La fuerza de asociación entre las dos variables puede obtenerse descriptivamente por
medio del coeficiente de correlación muestral, denotado por R, esta medida es
calculada por la expresión
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Los valores de r oscilan entre -1 y 1. Entre más cercano sea el valor a 1 o -1 mejor es
el ajuste de la recta de regresión. Un valor de r = 0 indica que no existe relación lineal
entre las dos variables pero puede existir otro tipo de relación (curvilínea). Un valor
positivo de r indica que la recta sube hacia la derecha; un valor negativo, que la recta
baja hacia la derecha. En la figura 2 se presentan algunas situaciones relacionados con
el tipo de relación entre dos variables y el coeficiente de correlación.

-Diagrama de dispersión:

La forma simple de un diagrama consiste de un gráfico en el plano cartesiano para


mostrar la relación entre dos variables. Cuando se analizan proceso, la relación entre
una variable controlable y una característica de calidad es de frecuente importancia.
Conociendo esta relación se puede llegar a decidir cómo controlar un conjunto de
variable para llegar a obtener una característica de calidad deseada.

Grafica 8. Ejemplo diagrama de dispersión


UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

-Tablas de contingencia:

En ciertas ocasiones, los elementos de una muestra tomada de una población pueden
clasificarse de acuerdo con dos criterios diferentes. Por tanto, es importante conocer si
estadísticamente los dos métodos de clasificación son estadísticamente
independientes. Ejemplo: Una compañía opera cuatro máquinas tres turnos al día. De
los registros de producción, se obtienen los siguientes datos sobre el número de fallas

Máquinas

Turno A B C D

1 4 2 1 1

2 3 1 1 1

3 2 3 2 4

El número de fallas es independiente del turno?

El interés en una tabla de contingencia es probar la hipótesis de que los métodos de


clasificación renglón-columna son independientes. Si se rechaza la hipótesis entonces
se concluye que existe alguna interacción entre los dos criterios de clasificación. En
algunos casos, para propósitos comparativos se diagrama en grafica de barras.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Cuadro 9: procedimiento en Excel para tablas de contingencia

Lección 4. Análisis multivariante

El análisis multivariante no es fácil de definir. En un sentido amplio, se refiere a todos


los métodos estadísticos que analizan simultáneamente medidas múltiples de cada
individuo u objeto sometido a investigación. Cualquier análisis simultáneo de más de
dos variables puede ser considerado aproximadamente como un análisis multivariante.
En sentido estricto, muchas técnicas multivariantes son extensiones del análisis
univariante (análisis de distribuciones de una sola variable) y del análisis bivariante
(clasificaciones cruzadas, correlación, análisis de la varianza y regresiones simples
utilizadas para analizar dos variables). Por ejemplo, una regresión simple (con una
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

variable predictor) se extiende al caso multivariante para incluir varias variables


predictor. De la misma foma, la variable dependiente que se encuentra en el análisis de
la varianza se extiende para incluir múltiples variables dependientes en el análisis
multivariante de la varianza, en muchas ocasiones las técnicas multivariantes son un
medio de representar en un análisis simple aquello que requirió varios análisis
utilizando técnicas univariantes. Otras técnicas multivariantes, sin embargo, están
diseñadas exclusivamente para tratar con problemas multivariantes, tales como el
análisis factorial que sirve para identificar la estructura subyacente de un conjunto de
variables o el análisis discriminante que sirve para diferenciar entre grupos basados en
un conjunto de variables.

Una de las razones de la dificultad de definir el análisis multivariante es que el término


multivariante no se usa de la misma forma en la literatura. Para algunos investigadores,
multivariante significa simplemente examinar relaciones entre más de dos variables.
Otros usan el término sólo para problemas en los que se supone que todas las
variables múltiples tienen una distribución normal multivariante. Sin embargo, para ser
considerado verdaderamente multivariante, todas las variables deben ser aleatorias y
estar interrelacionadas de tal forma que sus diferentes efectos no puedan ser
interpretados separadamente con algún sentido. Algunos autores afirman que el
propósito del análisis multivariante es medir, explicar y predecir el grado de relación de
los valores teóricos (combinaciones ponderadas de variables). Por tanto, el carácter
multivariante reside en los múltiples valores teóricos (combinaciones múltiples de
variables) y no sólo en el número de variables u observaciones.

El análisis multivariante es un conjunto de técnicas de análisis de datos en expansión.


Entre las técnicas más conocidas esta la regresión múltiple y correlación múltiple;
análisis discriminante múltiple; componentes principales y análisis factorial común;
análisis multivariante de varianza y covarianza; correlación canónica; análisis cluster;
análisis multidimensional y análisis conjunto. Entre las técnicas emergentes también
incluidas están análisis de correspondencias; modelos de probabilidad lineal como logit
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

y probit; y modelos de ecuaciones simultáneas/estructurales. En este apartado,


introduciremos cada una de las técnicas multivariantes.

-Componentes factoriales y análisis factorial común

El análisis factorial, que incluye variaciones tales como el análisis de component es y el


análisis factorial común, es una aproximación estadística que puede usarse para
analizar interrelaciones entre un gran número de variables y explicar estas variables en
términos de sus dimensiones subyacentes comunes (factores). El objetivo es encontrar
un modo de condensar la información contenida en un número de variables originales
en un conjunto más pequeño de variables (factores) con una pérdida mínima de
información.

Si se proporciona una estimación empírica de la estructura de las variables


consideradas, el análisis factorial se convierte en una base objetiva para crear escalas
aditivas.

-Regresión múltiple

La regresión múltiple es el método de análisis apropiado cuando el problema del


investigador incluye una única variable métrica dependiente que se supone está
relacionada con una o más variables métricas independientes. El objetivo del análisis
de la regresión múltiple es predecir los cambios en la variable dependiente en
respuesta a cambios en varias de las variables independientes. Este objetivo se
consigue muy a menudo a través de la regla estadística de los mínimos cuadrados.

La regresión múltiple es útil siempre que el investigador esté interesado en predecir la


cantidad o la magnitud de la variable dependiente. Por ejemplo, se puede hacer la
predicción de los gastos mensuales de cenar fuera de casa (variables dependientes)
con información referente a la renta familiar, su tamaño y la edad del cabeza de familia
(variables independientes). De la misma forma. el investigador puede intentar predecir
las ventas de una compañía a partir de información sobre sus gastos en publicidad, el
número de vendedores y el número de tiendas que distribuyen sus productos.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

-Análisis discrimante múltiple

Si la única variable dependiente es dicotómica (es decir, comprador-no comprador) o


multidicotómica (es decir, alto-medio-bajo) y por tanto no métrica, la técnica
multivariante apropiada es un análisis discriminante múltiple (MDA). Como con la
regresión múltiple, las variables independientes se supone que son métricas. El análisis
discriminante es útil en situaciones donde la muestra total puede dividirse en grupos
basándose en una variable dependiente caracterizada por varias clases conocidas. Los
objetivos primarios del análisis discriminante múltiple son entender las diferencias de
los grupos y predecir la verosimilitud de que una entidad (persona u objeto) pertenezca
a una clase o grupo particular basándose en varias variables métricas independientes.
Por ejemplo, el análisis discriminante puede usarse para distinguir innovadores de no
innovadores de acuerdo a sus perfiles demográficos y psicográficos. Otras aplicaciones
incluyen la distinción entre usuarios habituales u ocasionales de un producto,
compradores de marcas de ámbito nacional o restringido y el riesgo de crédito bueno
del riesgo de crédito malo. Incluso la Agencia Tributaria utiliza un análisis discriminante
para comparar las declaraciones seleccionadas con las devoluciones compuestas
hipotéticas del contribuyente normal (para distintos niveles de renta) con el fin de
identificar las devoluciones y áreas más prometedoras para la auditoria.

Análisis multivariante de la varianza y covarianza

El análisis nmltivariante de la varianza (MANOVA) es una técnica estadística que


puede ser usada simultáneamente para explorar las relaciones entre diversas
categorías de variables independientes (usualmente denominadas como tratamientos)
y dos o más variables métricas dependientes. Como tal, representa una extensión del
análisis univariante de la varianza (ANOVA). El análisis multivariante de la covarianza
{MANCOVA) puede usarse en conjunción con MANOVA para eliminar (después del
experimento) el efecto de cualquier variable independiente no controlada sobre las
variables dependientes. El procedimiento es similar al que se encuentra en la
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

correlación parcial bivariante. MANOVA es útil cuando el investigador diseña una


situación experimental (manipulación de varias variables de tratamiento no métricas)
para comprobar hipótesis concernientes a la varianza de respuestas de grupos sobre
dos o más variables métricas dependientes.

Análisis conjunto

El análisis conjunto es una técnica de dependencia emergente que ha introducido una


nueva sofisticación en la evaluación de objetos, sean nuevos productos, servicios o
ideas. La aplicación más directa está en productos nuevos o desarrollo de servicios,
permitiendo la evaluación de productos complejos mientras que mantiene un contexto
de decisión realista para el encuestado. El analista de mercado es capaz de evaluar la
importancia de atributos así como los niveles de cada atributo mientras que los
consumidores evalúan sólo los perfiles de unos pocos productos, que son com-
binaciones de niveles de producto. Por ejemplo, un concepto de un producto que tiene
tres atributos (precio, calidad y color), cada uno de los cuales a tres niveles (por
ejemplo, rojo, amarillo y azul). En lugar de tener que evaluar todas las 27
combinaciones posibles (3 X 3 X 3), se puede evaluar un subconjunto (9 o más) por su
atractivo para los consumidores: y el investigador sabe no sólo cuál es la importancia
de cada atributo sino también la importancia de cada nivel (el atractivo del rojo frente al
amarillo y frente al azul). Más aun, cuando se completan las evaluaciones del
consumidor, pueden usarse los resultados del análisis conjunto en simuladores del
diseño del producto, que mostrarán la aceptación del cliente para cualquier número de
formulaciones de producto y ayudar en el diseño del producto óptimo.

Correlacion canónica

El análisis de correlación canónica puede verse como una extensión lógica de un


análisis de regresión múltiple. Recordemos que el análisis de regresión múltiple implica
una única variable dependiente métrica y varias variables métricas independientes. Con
el análisis canónico el objetivo es correlacionar simultáneamente varias variables
dependientes métricas y varias variables métricas independientes. Mientras que la
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

regresión múltiple implica una única variable dependiente, la correlación canónica


implica múltiples variables dependientes. El principio subyacente es desarrollar una
combinación lineal de cada conjunto de variables (tanto independientes como
dependientes) para maximizar la correlación entre los dos conjuntos. O dicho de otra
forma, el procedimiento implica obtener un conjunto de ponderaciones para las
variables dependientes e independientes que proporcione la correlación única máxima
entre el conjunto de variables dependientes y el conjunto de variables independientes.

Análisis cluster

El análisis cluster es una técnica analítica para desarrollar subgrupos significativos de


individuo u objetos. De forma específica, el objetivo es clasificar una muestra de
entidades (personas u objetos) en un número pequeño de grupos mutuamente
excluyentes basados en similitudes entre las entidades. En el análisis cluster, a
diferencia del análisis discriminante, los grupos no están predefinidos. Por
consiguiente, se usa la técnica para identificar los grupos.

Habitualmente, el análisis cluster implica al menos dos etapas. La primera es la medida


de alguna forma de similitud o asociación entre las entidades para determinar cuántos
grupos existen en realidad en la muestra. La segunda etapa es describir las personas o
variables pata determinar su composición. Este paso puede llevarse a cabo aplicando
el análisis discriminante a los grupos identificados por la técnica cluster.

Análisis multidimensional

En el análisis multidimensional, el objetivo es transformar los juicios de los


consumidores de similitud o preferencia (por ejemplo, preferencias por tiendas o
marcas comerciales) en distancias representadas en un espacio multidimensional. Si
los objetos A y B son en opinión de los encuestados más similares que el resto de los
pares posibles de objetos, las técnicas de análisis multidimensional situarán a los
objetos A y B de tal forma que la distancia entre ellos en un espacio multidimensional
es menor que la distancia entre cualquier otro par de objetos. Los mapas per ceptuales
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

resultantes muestran el posicionamiento relativo entre los objetos, pero es necesario un


análisis adicional para evaluar qué atributos predicen la posición de cada objeto.

Análisis de correspondencias

Para finalizar, el análisis de correspondencias es una técnica de interdependencia


recientemente desarrollada que facilita tanto la reducción dimensional de una
clasificación de objetos (por ejemplo: productos, personas, etc.,) sobre un conjunto de
atributos y el mapa perceptual de objetos relativos a estos atributos. Los investigadores
se enfrentan constantemente a la necesidad de «cuantificar datos cualitativos» que
encuentran en variables nominales. El análisis de correspondencias difiere de otras
técnicas de interdependencia discutidas antes en su capacidad para acomodar tanto
datos no métricos como relaciones no lineales.

En su forma más básica, el análisis de correspondencias emplea una tabla de


contingencia, que es la tabulación cruzada de dos variables categóricas. A continuación
transforma los datos no métricos en un nivel métrico y realiza una reducción
dimensional (similar al análisis factorial) y un mapa perceptual (similar al análisis
multidimensional). A modo de ejemplo, las preferencias por una marca de los
encuestados pueden ser tabuladas de forma cruzada con variables demográficas (por
ejemplo, género, categorías de renta, ocupación) indicando cuánta gente que prefiere
cada una de las marcas entra dentro de cada categoría de las variables demográficas.
A través del análisis de correspondencias, la asociación o «correspondencia» de
marcas y las características distintivas de aquellos que prefieren cada marca se
muestran en un mapa bi o tridimensional, tanto de marcas como características de los
encuestados. Las marcas percibidas como similares están localizadas en una cercana
proximidad unas de otras. De la misma forma, las características más distintivas de los
encuestados que prefieren cada marca están determinadas también por la proximidad
de las categorías de las variables demográficas respecto de la posición de la marca. El
análisis de las correspondencias proporciona una representación multivariante de la
interdependencia de datos no métricos que no es posible realizar con otros métodos.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Modelos de probabilidad lineal

Los modelos de probabilidad lineal, a menudo llamados análisis logit, consisten en una
combinación de regresión múltiple y análisis de discriminante múltiple. Esta técnica es
similar al análisis de regresión múltiple en que una o más variables independientes se
usan para predecir una única variable dependiente. Lo que distingue un modelo de
probabilidad lineal de la regresión múltiple es que la variable dependiente es no
métrica, como en el análisis discriminante. La escala no métrica de la variable
dependiente requiere diferencias en el método de estimación y supuestos sobre el tipo
de distribución subyacente, siendo en la mayoría de sus otras facetas similar a la
regresión múltiple. Por tanto, una vez que la variable dependiente está especificada
correctamente y se emplea la técnica de estimación apropiada, se usan igualmente los
supuestos básicos considerados en la regresión múltiple. Los modelos de probabilidad
lineal se distinguen del análisis discriminante en que acomodan todos los tipos de
variables independientes (métricas y no métricas) y no requieren el supuesto de
normalidad multivariante. Sin embargo, en muchos casos, particularmente con más de
dos niveles de la variable dependiente, el análisis discriminante es la técnica más
apropiada.

Modelos de ecuaciones estructurales

El modelo de ecuaciones estructurales, a menudo denominado simplemente como


LISREL (el nombre de uno de los paquetes informáticos más populares), es una
técnica que permite separar las relaciones para cada conjunto de variables
dependientes. En su acepción más simple, el modelo de ecuaciones estructurales
proporciona la técnica de estimación más adecuada y eficiente para series de
estimaciones de ecuaciones simultáneas mediante regresiones múltiples. Se
caracteriza por dos componentes básicos: (1) el modelo estructural y (2) el modelo de
medida. El modelo estructural es el modelo «guía», que relaciona variables
independientes y variables dependientes. En tales situaciones, la teoría, antes que la
experiencia u otras directrices, permitirá al investigador distinguir qué variables
independientes predicen cada variable dependiente. Los modelos previamente
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

discutidos que incluyen múltiples variables dependientes -análisis multivariante de la


varianza y correlación canónica- no son apropiados en esta situación. dado que
permiten sólo una única relación entre variables dependientes e independientes.

El modelo de medida permite al investigador usar varias variables (indicadores), para


una única variable dependiente o independiente. Por ejemplo, la variable dependiente
puede ser un concepto representado por una escala aditiva, tal como el amor propio.
En el modelo de medida el investigador puede evaluar la contribución de cada ítem de
la escala así como incorporar cómo la escala mide el concepto (fiabilidad) en la
estimación de las variables dependientes e independientes. Este procedimiento es
similar al desarrollo del análisis factorial (discutido en una sección posterior) de los
ítems de la escala y utiliza las cargas factoriales en la regresión.

Otras técnicas multivariantes emergentes

El uso generalizado de las herramientas informáticas ayudó a iniciar la era del análisis
multivariante tal y como lo conocemos hoy, con un número de técnicas especializadas
que se pueden aplicar a una gama amplia de situaciones. No obstante, ahora nos
encontramos al principio de una era en la cual el análisis multivariante incorpora
nuevos enfoques para identificar y representar las relaciones multivariantes. Un área de
desarrollo en el análisis multivariante es la búsqueda de datos y las redes neuronales.
La búsqueda de datos es el intento de cuantificar las relaciones entre grandes
cantidades de información con una especificación previa mínima de la naturaleza de las
relaciones. Una técnica que se usa muchas veces junto con la búsqueda de datos son
las redes neuronales, una técnica de análisis flexible que es capaz de llevar a cabo una
identificación de relaciones (parecida a la regresión múltiple o al análisis discriminante)
o la reducción de datos y el análisis estructural (semejante al análisis factorial o
cluster). Las redes neuronales son diferentes a las técnicas multivariantes más
tradicionales citadas previamente tanto en la formulación del modelo como en los tipos
de relaciones más complejos que se pueden formular. Otra área que incluye un
distanciamiento de la teoría estadística inferencial tradicional es el desarrollo de la
técnica de la muestra repetida o «arranque». Esta técnica elimina la necesidad de
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

cumplir determinados supuestos estadísticos (como la normalidad), mediante el uso del


ordenador para replicar una «muestra repetida» de la muestra original, con el
reemplazo y la generación de una estimación empírica de la distribución muestral.

Lección 5. Software para el análisis estadístico de datos.

En la mayoría de las investigaciones cuantitativas se usan paquetes de programas


estadísticos los cuales son frecuentemente actualizados, con los que el tratamiento de
la información se hace más fácil, sobre todo cuando se trata de un numero amplio de
datos, ya que, como señala Briones (1997), salvo situaciones en las cuales la cantidad
de datos a analizar es pequeña y se usan calculadoras manuales, el manejo de la
información puede convertirse en un dilema para el investigador.

El manejo de dichos software requiere una preparación previa y, desde luego, un


conocimiento básico en estadística. Entre los paquetes estadísticos más usados en
investigaciones que manejan datos numéricos se encuentran el SAS, SPSS, BMDP,
MINITAB, entre otros, que ofrecen distintas posibilidades de tratamiento de la
información:

-Paquete estadístico para las ciencias sociales o SPSS, desarrollado en la Universidad


de Chicago, es uno de los más difundidos. Posee versiones para Windows, Macintosh
y Unix, en inglés y español, aunque debe usarse en computadores que posean la
capacidad necesaria para correr el programa. Contiene dos partes: “a) vista de
variables (para definiciones de las variables y consecuentemente, de los datos) y b)
vista de los datos (matriz de datos). La cual contiene comandos para operar en la parte
superior”. El programa SPSS trabaja de una manera sencilla y practica: el investigador
usuario ingresa los datos recolectados en la matriz de datos, tal como se hace en otros
programas, selecciona las opciones que considere necesarias, de acuerdo a los
propósitos de su investigación, ya sea correlacionar dos o más variables, realizar una
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

regresión, un análisis bivariado, etc. El programa posee además distintas herramientas


para elaborar los gráficos estadísticos básicos.

-El MINITAB es un paquete conocido por su relativamente bajo costo. Incluye


considerable número de pruebas estadísticas, y cuenta con un tutorial para aprender a
utilizarlo y practicar; además, es muy sencillo de manejar. Al igual que el SPSS, el
MINITAB posee una matriz u hoja de trabajo donde se ingresan los datos, se asignan
criterios para los componentes de las variables como nombre, formato (numérico, texto
o fecha), el tamaño de las celdas y se define el tipo de escala (nominal, ordinal, de
intervalo o de razón). Los análisis realizados aparecen en la parte superior de la
pantalla, mientras que -los gráficos se reproducen en recuadros-.

-El SAS o sistema de análisis estadístico, es otro programa frecuentemente usado en el


tratamiento de la información recogida en investigaciones cuantitativas. Diseñado en la
Universidad de Carolina del Norte, es un paquete muy completo que posee una amplia
variedad de pruebas estadísticas, incluye además ejercicios para que el usuario pueda
practicar y comprender las pruebas básicas.

-R es un paquete de software de código interpretado, esto es, tienes que ingresar el


código y en la misma ventana el programa emite los resultados. En ello reside también
su fortaleza, porque puedes construir tu propio código para análisis con base en
funciones de análisis contruidas por la comunidad que soporta R. Para los que no
pueden vivir sin apretar botones, siempre está la posibilidad de usar R Commander,
una librería extra que permite tener una interfaz de análisis más amigable. El poder de
R está en su versatilidad y en que posee una enorme cantidad de rutinas que pueden
ser agregadas a su “módulo base”. Lla mayor desventaja es que requiere de mucho
estudio, la curva de aprendizaje es muy larga.

Momento reflexivo: Cuales son las dificultades y ventajas que ofrece la estadística ante
el análisis de datos?.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

CAPÍTULO 3. META ANÁLISIS


Lección 1. Definición de meta análisis
El término meta análisis fue introducido por primera vez en 1976 dentro del campo de
las ciencias de la educación3, para designar “todo análisis estadístico de un gran
colección de resultados de la literatura individual, con el propósito de integrar los
resultados”. Puesto que el método utiliza usualmente como “datos” los estadísticos
resumen derivados de informes publicados de estudios individuales, es un análisis de
un análisis estadístico.

El meta análisis es el equivalente cuantitativo de la descripción de artículos publicados,


pero con tres ventajas. En primer lugar, permite cuantificar las tendencias presentadas
en las publicaciones, combinando los tamaños de los efectos y las probabilidades
encontradas en varios estudios. En segundo, permite combinar los diferentes
resultados de estudios y se incrementa el poder de la prueba estadística, en cuyo caso
es posible que, tras combinarse, varios hallazgos no significativos y con la misma
tendencia se tornen significativos. En tercer lugar, el proceso de preparar los
resultados de trabajos anteriores para realizar el meta análisis obliga a leer los
estudios con mayor detenimiento que si se realizara una reseña narrativa.

Lección 2. Etapas del meta análisis


-Elección del tema e identificación de la investigación
Como todo estudio, el psicólogo debe decidir en qué área concreta centrarse; además
necesita una hipótesis específica que comprobará con el meta análisis; sin embargo, la
naturaleza exacta de la hipótesis podría no ser especifica en un principio y delimitarse
posteriormente, tras establecer el alcance de la investigación.
Subsiguiente a la elección del tema, se procede a la identificación de las
investigaciones relevantes, pueden hacer mediante sistemas estándar de resúmenes;
por ejemplo: PsychLit, Psychological Abstrac y Social Science Citation Index. Así
mismo, pueden recolectarse más artículos en sus listas de referencias. Otra forma, es
retomar el autor que ha trabajado en el área y que el investigador sabe que es
conocido ante ese campo de investigación.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Esta fase demuestra la complejidad de este ejercicio, porque puede encontrarse una
múltiple gama de estudios, o grupos; así mismo permite identificar las medidas que se
han tomado; es decir, las variables dependientes utilizadas.

-Elección de hipótesis por comprobar


Tras distinguir la amplitud de diseños y medidas, cabe identificar la o las hipótesis
relevantes por comprobar en el meta análisis. El meta análisis ofrece la opción de
realizar, a su vez, meta análisis de cada variable dependiente o de elegir una definición
más global de la variable dependiente que permitirá incluir más estudios en cada meta
análisis. Por ejemplo el tema de consumo de SPA en niños, consumo de SPA en
adulto, puede combinarse con el título Consumo de Experiencia a cualquier edad.
En cada meta análisis debe haber una hipótesis direccional por comprobar ; si no se
tuviera en cuenta la dirección del efecto en cada estudio, los resultados que apuntan
hacia un sentido se combinarían con otros que apuntaran en el contrario , lo cual
sugeriría que el hallazgo es más significativo de lo real. De hecho, los efectos positivos
y los negativos tienden a anularse entre sí. El termino dirección del hallazgo no implica
que los resultados apoyen la hipótesis general a prueba porque son estadísticamente
significativos, sino si tales resultados han ido en la dirección de la hipótesis o en la
opuesta.
Es irrelevante si los investigadores originales tuvieron hipótesis direccionales o no, peor
en el meta análisis es totalmente relevante la hipótesis determina la dirección.

-Clasificación de estudios
Tras recolectar los estudios puede decidirse a cera del meta análisis por efectuar: Ello
puede realizarse con base en los grupos de comparación y en las variables
dependientes utilizados. Cuanto más estudios se incluyen en cierto análisis, tanto
mejor. Por ello se recomienda utilizar inicialmente un proceso de clasificación amplio e
identificar después subcategorías relevantes. Por ejemplo, en el caso de personas
que sufren depresión con cualquier otro grupo, en un caso compararse con pacientes
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

que sufren otro tipo de trastorno del estado del ánimo y otra comparación con
personas que no la sufren.
El meta análisis puede componerse de dos análisis: una de la probabilidad combinada
de todos los estudios y otro del tamaño combinado de su efecto: En cada uno de ellos
debe convertirse cada medición de probabilidad y del efecto a un valor estándar.
En algunos artículos de investigación se incluyen los resultados de varios sub grupos.
Por ejemplo; en estudios sobre diferencia de géneros en la aptitud para matemáticas,
los artículos comprenderían los resultados obtenidos en más de una escuela e inclus o
en más de un país.

El meta análisis permite elegir cómo tratar los resultados de tales artículos. Por otra
parte, los resultados de cada submuestra pueden incluirse como un elemento
separado en el meta análisis; no obstante, quizá se diga que ello significaría dar un
peso indebido a un artículo y a su método. En este caso, convendría más crear un solo
tamaño del efecto y de probabilidad para todas las sub muestras dela artículo. Para
estar más seguros, lo mejor será realizar dos meta análisis; uno c on cada sub estudio
considerado estudio en sí mismo y otro donde los artículos respectivos se utilicen una
sola vez en el meta análisis. Que ambos meta análisis se contradigan indicaría
claramente que los resultados son cuestionables.

-Combinación y análisis de estudios


Como se ha expresado el meta análisis puede componerse por el tamaño combinado
de su efecto, en este tema, el coeficiente de correlación se debe tener en cuenta que el
coeficiente de correlación r es una medición estándar útil del tamaño del efecto. Se
prefiere tal valor a otras medidas porque no lo afectan las diferencias del tamaño de
las submuestras en diseños entre sujetos. Ello se convierte en un problema solo si el
investigador no tiene la información necesaria sobre los tamaños de las muestras para
calcular los del efecto en los cuales se toman en cuenta submuestras desiguales. Es de
anotar que el uso de r como medida del tamaño del efecto debe convertirse en
transformación Z de Fischer. Como existe el riesgo de confundir con el valor z estándar
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

utilizada en la ecuación para combinar la probabilidad, en este caso se utiliza el


símbolo r’, en la tabla Z de Fischer.

-Cálculo de un tamaño del efecto combinado


Una vez que se calculó r’ para cada estudio, los valores correspondientes pueden
usarse a fin de producir una r’ combinada, la cual puede transformarse de nuevo en r
para obtener el tamaño combinado del efecto.

-Producción de una medida estándar de probabilidad


La medida estándar para calcular la probabilidad es la puntuación z; tras calcular esta
puntuación y el tamaño de la muestra de cada estudio, es factible calcular una
puntuación z combinada que puede considerarse una puntuación z convencional y su
probabilidad se halla mediante la consulta de la tabla z estándar.

Lección 3. Limitaciones metodológicas del meta análisis.


Las técnicas meta-analíticas presentan ciertas limitaciones propias de su metodología.
Estas limitaciones deben conocerse y tenerse en cuenta a la hora de interpretar sus
resultados. En primer lugar, el meta-análisis puede originar resultados distorsionados
debido a posibles sesgos de selección y de publicación de los estudios. Por otro lado,
la validez de los resultados y las conclusiones del meta-análisis dependen de la calidad
de los estudios individuales de modo que la combinación de estudios sesgados puede
potenciar aún más el sesgo. Por último, la interpretación del meta-análisis en caso de
heterogeneidad o variabilidad entre los estudios es difícil y controvertida. La obligación
de quienes utilizan el meta-análisis es conocer estas limitaciones, así como explicitarlas
y discutirlas en cada caso concreto.
Antes de comentar las etapas en el proceso de un meta-análisis, se describen
brevemente algunos de sus principales problemas metodológicos.

-Heterogeneidad entre estudios.


Una primera crítica metodológica al meta-análisis consiste en intentar una combinación
estadística de resultados que provienen de estudios que exhiben una gran variabilidad
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

(heterogeneidad) entre ellos10. Esta no es una dificultad exclusiva del meta análisis,
ya que es compartida por toda investigación clínica (especialmente los estudios
multicéntricos), donde la amplia variedad de características inherentes a los sujetos de
estudio hace necesario diseñar un protocolo uniforme, realizar un riguroso proceso de
selección de los sujetos de estudio y posteriormente efectuar un análisis cuidadoso de
la influencia sobre los resultados de los casos extremos. Esto se hace particularmente
difícil al integrar evidencia derivada de numerosos estudios que fueron a su vez
realizados en distintos contextos, con diseños variados, incluyendo sujetos diferentes
en cuanto a características sociodemográficas o de gravedad de la enf ermedad,
comparando con grupos diferentes. También podemos observar heterogeneidad
midiendo resultados o efectos distintos; esto es, cuando los estimadores de efecto de
los diferentes estudios individuales van en direcciones opuestas, o que un estudio no
encuentre un efecto y otros encuentren un efecto de magnitud muy importante.

-Sesgo de publicación.
El sesgo de publicación, es decir, la publicación selectiva de estudios en base a sus
hallazgos, representa un riesgo para la validez de cualquier meta-análisis. Es bien
sabido que muchos trabajos de investigación terminados no llegan a publicarse. Esto
es más frecuente cuando el resultado del ensayo es "negativo", es decir, cuando no se
demuestran diferencias significativas entre los grupos comparados o bien cuando es
desfavorable a un nuevo fármaco. En estos casos, el investigador y el patrocinador del
ensayo (generalmente una compañía farmacéutica) suelen tener menos interés en
preparar un artículo para publicar. Por otra parte, los directores de revistas médicas
tienen más tendencia a rechazar su publicación, porque los resultados "negativos" no
suelen ser noticia. También se ha comprobado que los estudios en los que no se
hallan diferencias significativas tardan más tiempo en ser publicados. También puede
ocurrir que un mismo estudio haya sido publicado más de una vez, en formas
aparentemente diferentes; la publicación duplicada también puede introducir un sesgo,
que favorece la tendencia de los resultados de los estudios que han sido objeto de
publicación duplicada. Además, se ha comprobado que en una proporción importante
de meta-análisis se ignoran los trabajos publicados en idiomas distintos del inglés16, y
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

se ha visto que la proporción de estudios "negativos" es mayor en otras lenguas. Dada


su naturaleza, es muy difícil impedir el sesgo de publicación, o por lo menos hacerse
una idea de su magnitud.

Lección 4. Presentación de los resultados del meta análisis.


En esta fase, deben informarse los sistemas de categorización aplicados para
identificar los estudios y los años cubiertos: Se deben presentar de manera explícita
todas las decisiones tomadas sobre la clasificación de los estudios y las bases para
incluir o no ciertos estudios en un meta análisis. Así mimo, han de mencionarse en un
apéndice todos los artículos consultados. La mejor manera de presentar los resultados
del meta análisis quizá sea una tabla resumen que incluya los detalles siguientes:
-La variable dependiente.
-La naturaleza de los grupos experimental y control.
-El número de estudios.
-El total de participantes del meta análisis.
-El tamaño del efecto combinado y su intervalo de confianza.
-La probabilidad combinada, como valor z y como probabilidad.

Para realizar un meta análisis se identifican todos los estudios disponibles relacionados
con el área que se explora. Estos deben clasificarse de acuerdo con su diseño y con
las variables dependientes que se utilizan en ellos. Se deciden cuantos meta análisis
se necesitan para describir plenamente el área. Pueden calcularse un tamaño del
efecto y una probabilidad combinados para cada meta análisis. Además, debe
calcularse le heterogeneidad de cada una de las medidas. Cuando se identifica la
heterogeneidad del tamaño del efecto, se eliminan estudios del meta análisis hasta
identificar un conjunto homogéneo. Se presenta en el informe tanto las probabilidades
combinadas de todos los estudios y del conjunto homogéneo como el tamaño dl efecto
combinado del conjunto completo de estudios y del homogéneo. Todas las decisiones
sobre la inclusión y la exclusión de estudios de plantean de manera explícita en el
informe respectivo.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Lección 5. Utilidad de la aplicación del meta análisis.


En definitiva, los meta-análisis son, hoy por hoy, los tipos de revisión sistemática de
mayor rigor científico, y poseen una serie de particularidades que los hacen
especialmente atractivos. En primer lugar, el meta-análisis permite una mayor
generalización de sus resultados respecto de los estudios individuales, es decir,
presenta una mayor validez externa ya que las muestras de los distintos estudios no
provienen de la misma población. En segundo lugar, al aumentar la potencia
estadística, además de incrementar la capacidad de encontrar diferencias
estadísticamente significativas, también permite aumentar la precisión en la estimación
del efecto, a través de intervalos de confianza más estrechos. En tercer lugar, el meta-
análisis permite valorar las discrepancias entre los resultados de distintos estudios y
sugerir hipótesis explicativas de esta heterogeneidad. Finalmente, la realización de un
meta-análisis es menos costosa y plantea menores problemas logísticos que la
realización de otro tipo de estudios que requieren conocer los resultados desde
diferentes estudios, especialmente ene áreas de la psicología, la medicina, la
educación.

Las técnicas de meta-análisis se presentan como herramientas útiles:


1. Cuando los resultados individuales son inconsistentes y los tamaños muéstrales
de los estudios primarios son pequeños, puesto que la combinación de estudios
aumenta la potencia.
2. Al iniciar un nuevo estudio, para obtener información de trabajos de investigación
previos y así determinar si el nuevo estudio añadirá o no algo sustancial a lo que
ya se conoce sobre el tópico hasta la fecha.
3. Para detectar áreas con estudios de baja calidad y poco fiables, así como para
evaluar necesidades futuras de investigación.

Momento reflexivo: De qué manera el meta-análisis permite una mayor generalización


de sus resultados respecto de los estudios individuales?
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
Escuela de Ciencias Sociales, Artes y humanidades.
Programa de Psicología 2014

Autoevaluación de la unidad
Competencia 1 2 3 4 5
1-Comprende los conceptos y temas presentados en el modulo.
cognitiva
2-Identifica la importancia de los objetivos de aprendizaje.
3-. Reconoce los conceptos y características de la codificación y
matriz de datos.
4- Reconoce los conceptos y características de las
técnicas de análisis estadístico.
5- Reconoce los conceptos y características del meta
análisis.
Competencia metodológica 1 2 3 4 5
1-Organizó su tiempo para el desarrollo de lectura y ejercicios.
2-Demostró dominio en los ejercicios de cada capítulo
3-Desarroló habilidades en el proceso de investigación cuantitativa.
4-Consultó otras fuentes bibliográficas.
5-Generó estrategias para alcanzar las metas de aprendizaje.
Competencia contextual 1 2 3 4 5
1-Reconoce la aplicación de técnicas para tratamiento de datos
2-Relaciona el aprendizaje con situaciones reales del contexto.
3-Identifica los campos de acción en los que puede intervenir.
4-Genera aportes conceptuales ante los problemas del contexto.
5-Valora el desempeño profesional ante el servicio a la comunidad.
Competencia comunicativa 1 2 3 4 5
1-Generó dialogo claro y oportuno con el tutor y compañeros.
2-Comprendió las instrucciones para la elaboración de trabajos.
3-Expresó inquietudes sobre el tema o actividades del curso.
4- Intercambió ideas y opiniones sobre los temas del curso.
5-Establece pautas de interacción apropiadas a su rol.

Referencias bibliográficas.

Clark-Carter, David. (2002). Investigación cuantitativa en psicología, del diseño


experimental al reporte de la investigación. Universidad de Oxford.

Hugh, C. (2005). Métodos de investigación y estadística en psicología. 3a Ed. Manual


Moderno. México.
Mendoza, H, Bautista, G. (2002). Probabilidad y Estadística. Universidad Nacional de
Colombia, http://www.virtual.unal.edu.co/cursos/ciencias/2001065/. Licencia: Creative
Commons BY-NC-ND.

También podría gustarte