Está en la página 1de 91

TEMARIO DEL EXAMEN

METODOLOGÍA DE LA INVESTIGACIÓN

1. MÉTODOS CUANTITATIVOS, CUALITATIVOS Y MIXTOS

¿Qué es un método?

Es una aproximación sistemática a un segmento de investigación. Los métodos utilizados por


psicólogos podemos diferenciarles entre cuantitativos y cualitativos, es decir, los que incluyen
una descripción verbal o una medición numérica.

Sin un método, los planteamientos o ideas son equivalentes a especulaciones sin conocimiento.

La distinción entre los dos tipos de métodos se deriva en parte, de la validez ecológica. Las
investigaciones en laboratorio pueden ser demasiado artificiales y los resultados que se
obtenían en el laboratorio serán diferentes a los que se observarán en el contexto real, pues en
éste último existen variables que no podemos controlar.

La validez ecológica se refiere al estudio realizado con eventos reales. Por ello, el investigador
adoptará un método que maximice el control sin perder de vista el problema de la artificialidad
(común en el laboratorio).

METODOLOGÍA DE LA INVESTIGACIÓN

1. ENFOQUES DE INVESTIGACIÓN
Métodos cuantitativos y cualitativos

Durante varias décadas se ha considerado que los enfoques cualitativo y cuantitativo son
perspectivas opuestas, irreconocibles y que no deben mezclarse. Los crìticos del enfoque
cuantitativo lo acusan de ser “impersonal, frìo, reduccionista, limitativo, cerrado y rìgido”. Asì
mismo opinan que estudia a las personas como objetos y que las diferencias individuales y
culturales entre grupo no pueden promediarse ni agruparse estadísticamente. Por su parte los
crìticos del enfoque cualitativo lo califican de “vago, subjetivo, invàlido, meramente
especulativo, sin posibilidad de rèplica y sin datos sòlidos que poyen las conclusiones.
Argumentan que no se tiene control sobre las variables estudiadas y que se carece del poder de
entendimiento que generan las mediciones.

Clark-Carter (1997) plantea la posibilidad de que no se trate de dos métodos de investigación


distintos, sino de dos fases de una misma investigación. El método cualitativo arroja ideas que
pueden examinarse después con uno cuantitativo.
Además, en un método cuantitativo también se pueden encontrar datos cualitativos que
retroalimenten la investigación para enriquecerla y/o dar respuesta a preguntas o dificultades
de la investigación.

1.1 Métodos Cuantitativos

Estos métodos se realizan mediante la experimentación, planteamiento de preguntas y


observación. Cada etapa precede a la siguiente y no podemos brincar o eludir pasos. El orden
es riguroso auque si se puede redefinir alguna fase. Tienen las siguientes características:

1. El investigador realiza los siguientes pasos:


 Plantea un problema de estudio delimitado y concreto.
 Revisa lo que se ha investigado anteriormente (revisión de la literatura).
 Construye un marco teórico.
 De esta teoría, deriva hipótesis. Las hipótesis se generan antes de recolectar y analizar
datos.
 Se somete a prueba las hipótesis mediante el empleo de los diseños de investigación
apropiados.
 Para obtener tales resultados, el investigador recolecta datos numéricos de los objetos,
fenómenos o participantes, que estudia y analiza mediante procedimientos estadísticos.
La recolección de datos se fundamenta en la medición. Esta recolección o medición se
lleva a cabo al utilizar procedimientos estandarizados y aceptados por una comunidad
científica y debe demostrarse que se siguieron tales procedimientos. Los resultados
deben poder observarse o medirse en el mundo real.
 Las mediciones se transforman en valores numéricos (datos cuantificables) que se
analizan por medio de la estadística.
 Se busca el máximo control para excluir incertidumbre y minimizar el error.

2. Características de estudios cuantitativos:

 Estos estudios fragmentan los datos en partes para responder al planteamiento del
problema.
 Busca ser lo más objetivo posible. Los fenómenos que se observan y/o miden no deben
ser afectados de ninguna forma por el investigador. Se busca minimizar las preferencias
personales.
 Siguen un proceso predecible y estructurado. Las decisiones críticas son efectuadas
antes de recolectar los datos.
 Se pretende generalizar resultados obtenidos en una muestra (grupo) a un universo o
población (una colectividad mayor). También se busca que los estudios puedan
replicarse.
 Pretenden explicar y predecir los fenómenos investigados, buscando regularidades y
relaciones causales entre elementos. La meta principal es la construcción y
demostración de teorías.
 Los datos generados poseen los estándares de validez y confiabilidad, las conclusiones
derivadas contribuirán a la generación de conocimiento.
 Utiliza la lógica o razonamiento deductivo (de lo general a lo particular).
 Considera que el mundo social es intrínsecamente cognoscible y todos podemos estar
de acuerdo con la naturaleza de la realidad social.
 Busca acotar la información.
 En la muestra se involucra a muchos sujetos en la investigación con el fin de generalizar
los resultados.

Se pueden llevar a cabo mediante los siguientes métodos:

a) Experimental. Se tienen aspectos predeterminados que son manipulados por los


investigadores y miden los supuestos efectos de tales manipulaciones.
b) Métodos de pregunta y observación. Se realizan mediciones sin manipulación.
También debe tenerse predeterminado aquello que se observará y mide. Se pregunta a
la gente sobre su comportamiento, creencias y actitudes.
c) Cuasiesperimento. El investigador no crea los grupos, éstos ya están hechos pero los
divide con base en alguna característica, y mide los resultados en los diferentes grupos.
Por ejemplo: horas de sueño o referencia de insomnio que tiene un grupo consumidor
de café en comparación con otro grupo no consumidor.
d) Observación estructurada. Comprende un conjunto de clasificaciones de
comportamiento y el uso de una lista de puntos por revisar a fin de registrar éste. Una
versión inicial diseñada por Bales en 1950 es el “análisis de procesos de interacción”
(API). El comportamiento se clasifica en ciertas categorías. Los observadores registran
sus puntos por revisar con sólo marcar una casilla apropiada para cada vez que se dice
algo se observa la naturaleza del comportamiento (causa), o hacia quien va dirigido el
comportamiento. En el API se pierde gran parte de información original pero permite
registrarla con mayor facilidad.
e) Un sistema más complejo se vincula con símbolos para determinados tipos de
comportamientos, incluidos aquellos de tipo no verbal
f) La observación estructurada se puede usar también al escuchar una cinta o ver alguna
grabación, ayudando a sintetizar la información y prepararla para un análisis
cuantitativo. La dificultad de la cuantificación es que el registro de variables se asocia
con un juicio subjetivo. Debe buscarse que el registro sea homogéneo para todos los
observadores.
g) Análisis de Contenido. Tras su observación, se elijen las categorías a cuantificar. El
análisis de discurso será la cuantificación de aspectos de: discursos, textos o
representaciones visuales. P.e. La forma en que se representan hombres y mujeres en
anuncios de TV, definiendo antes las categorías referentes a las formas a registrar.
h) Estudio de caso. En este análisis realizado comúnmente en sujetos poco típicos, se
pueden utilizar también mediciones de los aspectos que se desee evaluar.

1.2 Métodos Cualitativos

También se refieren al mismo como investigación naturalista, fenomenológica, interpretativa o


etnográfica. El enfoque cualitativo riguroso es tan bueno como una investigación cuantitativa.
Muchos tipos de investigaciones cualitativas parten de la idea de que quienes realizan
investigación cuantitativa, obtendrán concepciones no podrán llegar a la esencia de lo humano.
Restringir aspectos de la psicología humana a números es adoptar un enfoque reduccionista y
positivista para entender a las personas en su forma más simple.

Puede definirse como un conjunto de prácticas interpretativas que hacen al mundo visible, lo
transforman y convierten en una serie de representaciones en forma de observaciones,
anotaciones, grabaciones y documentos. Es naturalista porque estudia a los objetos y seres
vivos en sus contextos o ambientes naturales; e interpretativo pues intenta encontrar sentido a
los fenómenos en términos de los significados que las personas le otorguen. El proceso es en
espiral o circular, las etapas a realizarse interactúan entre sí y no siguen una secuencia rigurosa.

El enfoque cualitativo busca entender el contexto más amplio de la experiencia en su


interacción con otros objetos. Considera cuales son los significados que tienen los eventos para
los distintos participantes o sujetos de estudio. A continuación enunciaremos sus
características:

1. El investigador realiza los siguientes pasos:

 Plantea un problema pero no sigue un proceso claramente definido.


 El investigador comienza examinando el mundo social y en este proceso desarrolla una
teoría (llamada teoría fundamentada) coherente con lo que observa que ocurre.
 Se fundamenta más en un proceso inductivo (particular a general, explorando,
describiendo y luego generando perspectivas teóricas).
 Generalmente no se prueban hipótesis, éstas se generan durante el proceso y van
refinándose conforme se recaban más datos o son un resultado del estudio.
 La recolección de datos consiste en obtener perspectivas y puntos de vista de los
participantes (sus emociones, experiencias, significados y otros aspectos subjetivos
como descripción detallada de situaciones, eventos, personas, interacciones, conductas
observadas y sus manifestaciones). También resultan de interés las interacciones entre
individuos, grupos y colectividades.
 Los datos recolectados se expresan a través de lenguaje escrito verbal y no verbal,
visual, los cuales se describen y analizan convirtiéndolos en temas. También produce
notas extensas, diagramas, mapas o cuadros humanos para generar descripciones
bastante detalladas.
 Conduce la indagación de manera subjetiva y reconoce sus tendencias personales.
 La principal preocupación del investigador se concentra en la vivencia de los
participantes tal como fueron o son sentidas y experimentadas.
 Utiliza técnicas como la observación no estructurada, entrevistas abiertas, revisión de
documentos, discusión en grupo, evaluación de experiencias personales, registro de
historias de vida, interacción e introspección con grupos o comunidades.
 Mantiene una doble perspectiva: analiza aspectos explícitos, conscientes y manifiestos y
también aquellos implícitos (inconscientes y subyacentes).
2. Características de la investigación cualitativa:

 El proceso de indagación es flexible. Su propósito consiste en reconstruir la realidad tal


como la observan los actores de un sistema social previamente definido.
 Evalúa el desarrollo natural de los sucesos, es decir, no hay manipulación ni
estimulación con respecto a la realidad.
 Se fundamenta en una perspectiva interpretativa centrada en el entendimiento del
significado de las acciones de seres vivos, humanos y sus instituciones.
 Postula que la realidad se define a través de las interpretaciones de los participantes en
la investigación respecto de sus propias realidades, las cuales van modificàndose
conforme transcurre el estudio. Estas realidades son las fuentes de los datos.
 El investigador siempre es consciente de que es parte del fenómeno estudiado.
 El centro de la investigación se sitúa en la diversidad de ideologías y cualidades únicas
de los individuos.
 No pretende generalizar resultados a poblaciones mas amplias ni busca que sus estudios
lleguen a replicarse.
 Busca la dispersión, expansión, riqueza interpretativa y profundidad de los datos.
También existe contextualización del ambiente o entorno, detalles y experiencias
únicas. Brinda un punto de vista natural, fresco y holístico, así como flexible.
 Se involucran pocos sujetos o casos individuales.
 Se emplea comúnmente en disciplinas humanísticas como la antropología, etnografía y
psicología social.

Puede realizarse este tipo de estudios mediante:

a) Métodos de observación. Al observar a una persona y a un grupo de individuos es difícil


anotarlo todo. Por lo cual existen 3 opciones según Clark-Carter (1997):
1. Depender de la memoria y anotar después lo observado. El problema de ello es
la selectividad de la memoria y la mala retención mnemotécnica.
2. Utilizar un aparato de grabación permanente como video o audio.
3. Decidir previo a la observación, el aspecto en el cual enfocarse. Pero en este
caso es común que se utilicen ya métodos de registro que permitirán una medición
del evento.
b) Estudio de caso. Son análisis profundos acerca de un individuo. Aunque se pueden
utilizar métodos de medición, también se pueden buscar todos los datos del caso.
c) Etnografía. Como su nombre lo indica (observación participante), es un método en el
cual el investigador efectúa observaciones mientras forma parte de un grupo u
organización. Se ha sugerido que si son parte de la organización resulta más probable
que los investigadores aprendan qué significan comportamientos específicos de los
participantes. Un observador externo podría estar limitado a describir el
comportamiento sin comprender cabalmente lo que significa para los participantes.
d) Etogénica. La etogénica combina formas de observación y entrevista para explorar los
significados y las intenciones que los individuos tienen acerca de su comportamiento.
e) Análisis de discurso. Es el equivalente cualitativo del análisis de contenido
(cuantitativo). El discurso puede ser escrito, oral o incluso una presentación visual,
digamos un anuncio. Parte del supuesto de que “ninguna expresión de un concepto
contiene hechos puros desprovistos de intentos de persuadir al lector, oyente o
espectador”. El uso de cada palabra o imagen es el resultado de una elección entre
opciones. El escritor o hablante elige términos y frases diseñados para convencer al
lector de la naturaleza valiosa de la investigación y los hallazgos.
El analista de discurso pretende identificar la función de una palabra o de cierta imagen
en una pieza discursiva. Busca también pautas en el discurso que un sujeto utiliza en
varias ocasiones y entre individuos.

1.3 Método mixto.

Este enfoque es un proceso que recolecta, analiza y vincula los datos cuantitativos y cualitativos
en un mismo estudio o una serie de investigaciones para responder a un planteamiento del
problema. Se usan métodos de los enfoques cuantitativo y cualitativo, y pueden involucrar la
conversión de datos cuantitativos en cualitativos y viceversa. Asimismo, el enfoque mixto
puede utilizar los dos enfoques para responder distintas preguntas de investigación de un
planteamiento de problema.

Es un nuevo enfoque que se fundamenta en la triangulación de métodos. El término


triangulación proviene de la ciencia naval militar como un proceso que los marineros utilizan y
consiste en tomar varios puntos de referencia para localizar la posición de un objeto en el mar.

Al método mixto también se le llama metodología interpretativa, cuali-cuantilogìa, modelo o


método o enfoque mixto o multimodal. Va más allá de la simple recolección de datos de
diferentes modos sobre el mismo fenómeno, implica desde el planteamiento del problema,
mezclar la lógica inductiva y la deductiva. Algunos autores consideran que un estudio mixto lo
es desde el planteamiento del problema, la recolección de datos, el análisis de los datos hasta
en el reporte del estudio.

En estos estudios, se exploran distintos niveles del problema de estudio, logrando obtener
mayor variedad de perspectivas del problema: frecuencia, amplitud y magnitud (cuantitativa) así
como profundidad y complejidad (cualitativa); generalización (cuantitativa) y comprensión
(cualitativa). Con lo cual le adjudican “mayor poder de entendimiento”.

Este enfoque genera retos para el investigador. El primero: poseer un considerable


entrenamiento en los enfoques cuantitativo y cualitativo.

Este tipo de investigación requiere de tiempo, maneja extensos volúmenes de datos y efectúa
análisis diversos. También se requiere la recolección de datos cuantitativos y cualitativos.

Este enfoque se puede dar en varios niveles, desde cuantificar lo cualitativo, cualificar lo
cuantitativo hasta incorporar ambos enfoques en un mismo estudio. Mencionemos sus
principales estilos:

1. Diseño de dos etapas. Se transforma un tipo de datos en otro (cuantitativos en


cualitativos o viceversa), y/o se genera de un tipo de datos (p.e.cualitativo) un análisis
con el otro enfoque (analizar datos cualitativos con enfoque cuantitativos y viceversa).
Se puede dividir en las siguientes acciones:

a) Cuantificar los datos cualitativos. Los datos cualitativos son codificados y se les
asigna códigos a las categorías. El número de veces que cada código aparece es
registrado como dato numérico.
b) Cualificar datos cuantitativos. Los datos cuantitativos de escalas de intervalo o
razón son sometidos a análisis de factores, y las dimensiones resultantes
(factores) se consideran temas emergentes “cualitativos”.
c) Formar datos categóricos. Situar características obtenidas en un estudio
cualitativo (p.e. diferentes grupos religiosos, estados de animo después del
parto o razones por las que un joven porta armas). Estas características se
convierten en una variable categórica que posteriormente se introduce como
una variable en un estudio correlacional-causal.
d) Validar un instrumento cuantitativo. Aplicar una prueba y después obtener
datos cualitativos sobre los elementos esenciales del instrumento, p.e. grupos
de enfoque y utilizar estos datos como información sobre validez de criterio
recurrente.

2. Aplicación de un diseño cuantitativo y un diseño cualitativo de manera secuencial. Esta


modalidad posee dos variantes principales:

a) Diseños de aplicación independiente pero cuyos resultados se complementan.


Consiste primero en aplicar un enfoque y luego el otro, de manera
relativamente independiente dentro del mismo estudio. Uno precede al otro y
los resultados se presentan de manera separada o en un solo reporte. En cada
etapa se respetan los métodos inherentes a cada enfoque.
b) Diseños vinculados o modelo de dos etapas por derivación. También se les
llama diseños exploratorios. En ellos, una de las etapas (cuantitativa o
cualitativa) se construye sobre la otra. P.e. construir un instrumento
estandarizado sobre la base de entrevistas abiertas.

3. Diseño de enfoque dominante o principal. El estudio se desarrolla bajo la perspectiva


de alguno de los enfoques la cual prevalece, y la investigación mantiene un componente
del otro enfoque.

4. Diseños en paralelo. Se conducen simultáneamente dos estudios: uno cuantitativo y


otro cualitativo. De los resultados de ambos se realizan las interpretaciones sobre el
problema investigado. Es muy parecido al diseño de dos etapas de aplicación
independiente cuyos resultados se complementan. Sólo que este último es secuencial y
los diseños en paralelo son aplicados a un mismo tiempo (relativamente). Se pueden
realizar del siguiente modo:

a) Combinar datos cuantitativos y cualitativos con análisis múltiples, y un solo


reporte.
b) Sin combinar datos cuantitativos con cualitativos, con reportes separados.
c) Sin combinar los datos cuantitativos con los cualitativos, análisis separados y
único reporte.
En este tipo de diseño se otorga la misma importancia a ambos datos; la recolección y el
análisis cuantitativo y cualitativo son simultáneos o casi simultáneos; combina las ventajas
de cada proceso; y su reto es que las bases de datos (información recabada) sean
comparables.

5. Diseños mixtos complejos. Representan el más alto grado de integración o


combinación entre los enfoques cualitativo y cuantitativo. También se les denomina
diseños de triangulación (término que también aplica a los diseños en paralelo). Este
enfoque, entremezcla lo cualitativo con lo cuantitativo en todo el proceso de
investigación o al menos en la mayorìa de sus etapas. Requiere de un manejo completo
de los dos enfoques y una mentalidad abierta.
La investigación oscila entre los esquemas de pensamiento inductivo y deductivo,
además de que por parte del investigador se necesita un enorme dinamismo en el
proceso. Esto lleva a un punto de vinculación de lo cualitativo a lo cuantitativo, que
suele resultar inaceptable para los puristas.

2. TIPOS DE INVESTIGACIÓN
2. 1 Exploratoria

Propósito: Se efectúan normalmente cuando el objetivo es examinar un tema o un problema de


investigación poco estudiado (al revisar la literatura solo hay guías no investigadas e ideas vagas
relacionadas con el problema de estudio) así como analizar un fenómeno desconocido o
novedoso.

No se plantea hipótesis. Es como una investigación cualitativa, en la cual la teoría (como aún no
es muy clara o no existe), tendrá que generarse o construirse poco a poco con las observaciones
de los investigadores. Se realiza en áreas poco estudiadas, cosas nuevas.

Valor: Sirven para familiarizarnos con fenómenos relativamente desconocidos, obtener


información para llevar a cabo una investigación más completa sobre un contexto particular,
investigar problemas del comportamiento humano que se consideren cruciales, investigar
conceptos o variables promisorias, establecer prioridades para investigaciones futuras o sugerir
afirmaciones y postulados ( se interesan fundamentalmente en describir y prefigurar).

En pocas ocasiones constituyen un fin en sí mismos, generalmente determinan tendencias,


identifican áreas, ambientes, contextos y situaciones de estudio, relaciones potenciales entre
variables; o establecen el “tono” de investigaciones posteriores más elaboradas y rigurosas.
Se caracterizan por que su metodología es más flexible, amplia y dispersa (vs los otros tipos de
investigación), así mismo implican mayor riesgo y requieren gran paciencia, serenidad y
receptividad por parte del investigador.
Las investigaciones cualitativas con frecuencia se asocian con los estudios exploratorios,
también tienen un alcance descriptivo, correlacional (en sentido no estadístico) y causal. Es
posible que los estudios cuantitativos y mixtos tengan cualquier clase de alcance en el continuo
exploratorio-causal.

2.2 Descriptiva

Propósito: Buscan especificar las propiedades, las características, los rasgos y los perfiles
importantes de personas, grupos, comunidades o cualquier otro fenómeno que se someta a
análisis (describir situaciones, eventos y hechos; decir como es y cómo se manifiesta
determinado fenómeno).

En un estudio descriptivo se selecciona una serie de cuestiones y se mide o recolecta


información sobre cada una de ellas, para así “describir lo que se investiga” (desde un punto de
vista científico, describir es recolectar datos; o sea para los investigadores cuantitativos es medir
conceptos y para los cualitativos es recolectar información), por lo tanto pretenden medir o
recoger información de manera independiente o conjunta sobre los conceptos o las variables a
los que se refieren; pueden integrar las mediciones o información de cada una de dichas
variables o conceptos para decir como es y cómo se manifiesta el fenómeno de interés; su
objetivo no es como se relacionan las variables medidas.

Mide en qué manera influye un factor.


Valor: Se centran en recolectar datos que muestren un evento, una comunidad, un fenómeno,
hecho, contexto o situación que ocurre (para los investigadores cuantitativos: medir con la
mayor precisión posible) este es su valor máximo.

En esta clase de estudio el investigador debe de ser capaz de definir o al menos visualizar, qué
se va a medir o sobre qué se habrán de recolectar los datos; en las investigaciones cualitativas
durante el trabajo de campo surgen nuevos tópicos o situaciones sobre los cuales es imperativo
recabar información. Es necesario especificar quienes deben de estar incluidos en la medición, o
recolección, o qué contexto, hecho, ambiente, o equivalente habrá de describirse.

La descripción puede ser más o menos profunda, aunque en cualquier caso se basa en la
medición de uno o más atributos del fenómeno descrito (si es cuantitativa) o en ambos aspectos
(si es mixta o multimodal). Estos estudios ofrecen la posibilidad de predicciones o relaciones
aunque sean poco elaboradas (predicciones incipientes).

Ejemplo: Un censo nacional de población es un estudio descriptivo, cuyo propósito es medir una
serie de conceptos en un país y momento específicos: aspectos de la vivienda, información
sobre los ocupantes y otras dimensiones que se juzguen relevantes para el censo. El
investigador elige una serie de conceptos a considerar que también se denominarán variables,
después los mide y los resultados le sirven para describir el fenómeno de interés (población).

2.3 Correlacional

A. Pretenden responder a preguntas de investigación.

Propósito: Evaluar la relación que exista entre dos o más conceptos, categorías o variables (en
un contexto en particular); así mismo cuantifica esta relación. Ofrece predicciones. En ocasiones
solo se analiza la relación entre dos variables, lo que podría representarse como X----Y, pero
frecuentemente se ubican en el estudio relaciones entre tres variables, lo cual se podría
representar así:

X----Y, otras veces se incluyen relaciones múltiples X----Y----W.


\ / \ /
Z Z ----F

En este último caso se plantean cinco correlaciones (se asocian cinco pares de correlaciones: X
con Y, X con Z, Y con Z, Y con W, y Z con F. Obsérvese que no se esta correlacionando X con F, X
con W, Y con F, Z con W, ni W con F).

Los estudios cuantitativos correlacionales miden el grado de relación ente esas dos o más
variables (cuantifican relaciones), es decir miden cada variable presuntamente relacionada y
después también miden y analizan la correlación.

Es importante recalcar que, en la mayoría de los casos las mediciones en las variables a
correlacionar provienen de los mismos sujetos, no es común que se correlacionen mediciones
de una variable hechas en personas o eventos, con mediciones de otras variables realizadas en
otras personas u otros eventos.

Asocia factores.
Utilidad: La utilidad y el propósito principal de los estudios correlacionales cuantitativos son
saber cómo se puede comportar un concepto una variable conociendo el comportamiento de
otras variables relacionadas; es decir intentar predecir el valor aproximado que tendrá un grupo
de individuos o fenómenos en una variable, a partir del valor que tienen en la(s) variable(s)
relacionada(s).

La correlación puede ser positiva o negativa. Si es positiva, significa que sujetos con altos valores
en una variable, tendrán a mostrar altos valores en la otra variable. Si es negativa, significa que
sujetos con altos valores en una variable, tendrán a mostrar bajos valores en la otra variable. Si
dos variables están correlacionadas y se conoce la correlación, se tienen bases para predecir,
con mayor o menor exactitud, el valor aproximado que tendrá un grupo de personas en una
variable, sabiendo qué valor tiene en la otra variable.

Los estudios correlaciónales cuantitativos se distinguen de los descriptivos (también


cuantitativos) principalmente en que, mientras estos se centran en medir con precisión las
variables individuales, los estudios correlaciónales evalúan el grado de relación entre dos
variables.

Valor: Tiene en alguna medida un valor explicativo, aunque parcial. Saber que dos conceptos o
variables se relacionan aporta cierta información explicativa. En términos cualitativos: cuantos
más conceptos se observen con profundidad, se agreguen al análisis y se asocien, habrá un
mejor sentido de entendimiento del fenómeno estudiado.

Ejemplo: En una investigación con 200 estudiantes de X carrera y del mismo semestre y
universidad, se encontrará una relación fuertemente positiva entre el tiempo aplicado para
estudiar para un examen de estadística y la calificación en dicho examen; si hubiera otros 85
estudiantes del mismo semestre y escuela; ¿entonces que predicciones podríamos hacer con
estos estudiantes? Sabríamos que quienes estudian más tiempo obtendrán las mejores
calificaciones, pero nunca podremos anticipar con absoluta certeza.

Riesgo: Llega a darse el caso de que dos variables estén aparentemente relacionadas, pero que
en realidad no sea así; eso se conoce en la investigación como correlación espuria. En ocasiones
no es tan sencillo detectar cuando una correlación carece de sentido.

2.4 Explicativa

Propósito: Van mas allá de la descripción de conceptos o fenómenos o del establecimiento de


relaciones entre conceptos. Están dirigidos a responder por las causas de los eventos y
fenómenos físicos y sociales. Su interés se centra en explicar por qué ocurre un fenómeno y en
qué condiciones se manifiesta, o porque se relacionan dos o más variables.

Son más estructuradas que las demás clases de estudios, y de hecho, implican los propósitos de
ellas (exploración, descripción y correlación o asociación); además que proporcionan un sentido
de entendimiento del fenómeno al que hacen referencia.

Determina factores como causa de algo.


Ejemplo: Dar a conocer las intenciones del electorado es una actividad descriptiva (indicar,
según una encuesta de opinión antes de que se lleve a cabo la elección, cuantas personas “van”
a votar por los candidatos contendientes, constituye un estudio descriptivo)y relacionar dichas
intenciones con conceptos como edad y género de los votantes o magnitud del esfuerzo
propagandístico en los medios de comunicación colectiva que realizan los partidos a los que
pertenecen los candidatos (estudio correlacional) es diferente de señalar por qué alguien habría
de votar por determinado candidato y otras personas por los otros (estudio explicativo).

Algunas veces una investigación puede caracterizarse como exploratoria, descriptiva,


correlacional o explicativa, pero no situarse únicamente como tal. Aunque un estudio sea en
esencia exploratorio contendrá elementos descriptivos y lo mismo ocurre en cada una de la
clase de estudios. Es posible que una investigación se inicie como exploratoria o descriptiva y
después llegar a ser correlacional y aún explicativa.

Los dos factores que influyen en que una investigación se inicie como exploratoria, descriptiva,
correlacional o explicativa, se basa en el conocimiento actual del tema de investigación que nos
revele la revisión de la literatura y el enfoque que el investigador pretenda dar a su estudio.

3. HIPOTESIS
Son guías para una investigación, indican lo que estamos buscando o tratando de probar y se
definen como explicaciones tentativas del fenómeno investigado, se formulan a manera de
proposiciones. La hipótesis, es una aseveración en forma de conjetura, una proposición
tentativa sobre la relación entre dos o más fenómenos variables.

Son el centro, la médula o el eje del método deductivo, cuantitativo. Plantear hipótesis depende
de dos factores, el enfoque del estudio y el alcance inicial del mismo (correlacional o explicativo)

3.1 Variables

Es una propiedad que puede variar y cuya variación es susceptible de medirse u observarse
(adquiere diferentes valores q son susceptibles de medirse u observarse). La variable se aplica a
un grupo de personas u objetos, los cuales adquieren diversos valores o manifestaciones
respecto a la variable. Las variables adquieren valor para la investigación científica cuando
llegan a relacionarse con otras.

Las variables también se clasifican según su tipo. Tenemos los siguientes tipos de variables:

INDEPENDIENTE O PREDICTORIA (X).-Es la causa supuesta del efecto sobre la VD.


 Antecede a la VD y es la que el investigador puede manipular en un diseño experimental.
Sin embargo, no siempre se puede manipular, y ello se observa en los estudios no
experimentales o cuasiexperimentales.
 En un experimento es la que está bajo el control del experimentador.
 En un no experimento tiene un efecto lógico sobre la VD.
 Se simboliza con X.
También se le conoce como variable predictoria (x), a partir de la cual se predice posible
comportamiento.

DEPENDIENTE O DE CRITERIO (Y).-Es el efecto o consecuencia del manejo de la VI.


 Es sobre la cual se hacen predicciones para dar explicación a ciertos hechos.
 Se simboliza con Y.

Es el efecto, la consecuencia, la medida, es predecible y es medible, depende de otra variable, es


decir, es el efecto de otra variable (la variable independiente). Con la variable dependiente, los
resultados son medidos, es la que busca instrumentos para medir, aplicar el instrumento al
sujeto y/o población. Y=f(x), donde Y depende de f(x). Es la variable que se va a estudiar.

INTERVINIENTE.-Se encuentre en medio de la relación VI-VD.


 No pueden ser vistas en algunas ocasiones, pero se infieren a partir de los efectos en la
VD.
 Son los factores que mediatizan las causas sobre las consecuencias.

VARIABLES EXPERIMENTALES Y CONTAMINADORAS O VARIABLES SECUNDARIAS: Son variables


independientes, también llamadas secundarias, en la variable experimental el investigador
manipula o interviene en la variable, en la variable contaminadora o extraña es la propia
variable la que confunde la relación entre la variable independiente y la variable dependiente.
Debe ser eliminada, es un obstáculo para la investigación.

ACTIVAS.-Se les conoce como variables manipuladas. Es una variable independiente pero se le
conoce de este modo a partir del grado de manipulación que el investigador tiene sobre la
misma. El experimentador tiene control sobre los cambios de valores. Manipula libremente los
valores de la variable (de la V.I.)

ATRIBUTIVAS.-Se les conoce como variables medibles y/o organísmicas. Nuevamente se trata
de la variable independiente, pero se le subclasifica de este modo por el grado de manipulación
que el investigador tiene sobre la misma, que en este caso es nulo, pues sólo tiene la opción de
seleccionar algunos valores tal como existen. Ya están establecidas y el investigador no incide
en ella. p.e. las características de la población como sexo, estatura, nivel SE, clase social, lugar
de origen, nivel académico, aptitudes, etc.

 Este tipo de variables no pueden ser manipuladas.


ESTIMULO.- Cualquier condición o manipulación del ambiente que evoque una respuesta por
parte del sujeto.
RESPUESTA.- Cualquier clase de comportamiento del sujeto.
CONTINUAS.- Aquellas que asumen un valor numérico y pueden variar en cualquier cantidad. Se
clasifica así con base a la estructura matemática inherente. Tienen valores intermedios entre los
dos puntos observados. Las variables tienen un número de intervalos, de valores intermedios.
Tienen tres características fundamentales:

a) Existe un orden jerárquico entre sus valores.


b) Asigna a cada individuo o momento sólo una puntuación.
c) Toma en cuenta la existencia de un número infinito de valor en el intervalo de variación.
Lo más importante de ello, es su propiedad de continuidad.

Siempre son aproximadas dependiendo del grado de refinamiento que se desee. Es posible
especificar un conjunto de números dentro de los cuales debe caber el valor real, al sumar y
restar al valor informado la mitad de la sensibilidad de la medida (la < unidad de la escala de #
que da el valor informado).

DISCRETOS.- Poseen un valor numérico entero que no puede cambiarse.


 refleja una categoría ordinal.
 El valor de una variable refleja al menos un orden categórico, que un valor de la variable
implica más de la propiedad en cuestión que un menor valor.
 Las medidas continuas se encuentran dentro de un mismo rango.

Con base a la estructura matemática inherente, esta variable se refiere a valores separados, NO
continuos. Asumen un número FINITO de valores. Proporciona medidas exactas. No hay valores
intermedios (puntos) entre los puntos observados.

CATEGÓRICAS.-Clase de mediciones nominales, que parte de categorías generales para la


creación de subcategorías.
 Se categoriza en razón de las características que definan a la población.
 No se busca la jerarquización.
DICOTÓMICAS.- Es una subclasificación de las variables categóricas en las cuales sólo es posible
clasificar dos valores. P.e. Ausencia-presencia; si-no.

OBSERVABLES.-Entidad observable que puede definirse operacionalmente.


LATENTES.-Entidad no observable que está sujeta a las variables observables.
VARIABLES CANÓNICAS. Variable artificial creada a partir de los datos obtenidos.

MANIPULACIÓN DE LA VI
 La manipulación de las VI puede realizarse en dos o más grados (modalidades).
 El nivel mínimo de manipulación es de dos grados.
 Cada nivel o grado de manipulación involucra un grupo en el experimento.
 PRESENCIA-AUSENCIA.- implica que un grupo se expone a la presencia de la VI y el otro no.
Posteriormente los grupos se comparan para conocer los efectos de la VI.
 MÁS DE DOS GRADOS.- se varía la manipulación de la VI en varios grados.

DEFINICIÓN CONCEPTUAL DE VARIABLES


 Trata a la variable con otros términos.
 Definiciones especializadas sobre los fenómenos o eventos estudiados.

DEFINICIÓN OPERACIONAL DE VARIABLES. Operacionalizar: Dar referentes empíricos a las


variables (dependiente o independiente).
 Conjunto de procedimientos que describe las actividades que un observador debe realizar
para recibir impresiones y registrar mediciones.

3.2 Características de las hipótesis

 Deben referirse a una situación social real


 Las variables de la hipótesis deben ser comprensibles, precisas y lo más concretas
posibles
 La relación entre variables propuestas por una hipótesis debe ser clara, lógica y
verosímil
 Los términos de la hipótesis y la relación planteada entre ellos deben ser observables y
medibles, es decir tener referentes en la realidad.
 Deben estar sujetas a comprobación, por lo cual deben prever técnicas disponibles para
probarlas
 Se realizan iniciando con la VD y después se enuncia la VI.
 Contienen unidad de análisis, dos variables, e indican una relación.

3.3 Objetivos (o funciones de las hipótesis)

 Guiar la investigación- en el enfoque cuantitativo pero puede ser también en el


cualitativo.

 Las hipótesis son directrices del proceso de investigación.


 Tienen una función descriptiva y explicativa: incrementa la información sobre el
fenómeno o se descubre algo sobre el fenómeno que no se sabía.
 Prueban teorías por medio de la deducción. Prueba y sugiere teorías o fortalece las
teorías existentes.
 A través de la formulación de hipótesis se pretende dar una explicación inicial a los
objetivos y finalidades del estudio, así como inducir al orden entre los fenómenos.
 Fungen como estímulos para la investigación.
 Considera fuentes metodológicas para la futura cuantificación de las variables.
 Permite hacer juicios críticos sobre procedimientos, técnicas y herramientas.

3.4 Tipos

Hipótesis de Investigación o de trabajo- proposiciones tentativas sobre las posibles relaciones


entre dos o más variables (Hi )

Las hipótesis de trabajo también se pueden subclasificar del siguiente modo:

 Las hipótesis direccionales o unidireccional o pruebas de una sola cola. Reflejan una
diferencia entre grupos y se específica la dirección de la diferencia. Ya está marcada la
dirección hacia la cual tiende la diferencia. P.e. Los niños de escuela privada tendrán
MAYOR desarrollo de habilidades de reflexión que los niños de escuela pública.
 Las hipótesis no direccionales o bidireccionales, o pruebas de dos colas. Reflejan una
diferencia entre grupos pero no se especifica la dirección de la misma. No está marcada
una sola dirección hacia la cual tiende la diferencia. P.e. Los niños de escuela privada
tendrán un desarrollo de habilidades de reflexión DIFERENTE que los niños de escuela
pública.
 las hipótesis descriptivas intentan predecir un valor en una o más variables que se miden.
Se pueden considerar como afirmaciones univariadas, por la ausencia de relaciones entre
variables.
 Las hipótesis correlaciónales especifican la relación, y como es dicha unión entre dos o
más variables.
 Las hipótesis causales afirman sobre el tipo de relación y la forma de manifestación de la
misma de múltiples variables, estableciendo causa y efecto. A su vez se clasifican en:
a. Hipótesis causales bivariadas. Establecen una relación entre una variable
independiente y una dependiente.
b. Hipótesis causales multivariadas. Establecen una relación entre varias variables
independientes y una dependiente, o viceversa, o varias variables de ambas clases.
 Las hipótesis de la diferencia entre grupos tiene finalidad la comparación grupal entre dos
o más grupos.
 Hipótesis Nulas- son el reverso de las hipótesis de investigación, constituyen proposiciones
acerca de la relación entre variables, solo que sirven para refutar o negar lo que afirma la
hipótesis de investigación. (Ho)
 Hipótesis Alternativas- Son posibilidades alternas ante la hipótesis de investigación y nula:
ofrecen otra descripción o explicación distintas de las que proporcionan estos tipos de
hipótesis (Ha)
 Hipótesis Estadísticas- exclusivas del enfoque cuantitativo y representan la transformación
de las hipótesis de investigación, nulas y alternativas en símbolos estadísticos, se pueden
formular solo cuando los datos del estudio son cuantitativos. Estas hipótesis se pueden
subclasificar en:
a. La hipótesis estadística de estimación. Sirven para evaluar la suposición de un valor
o característica.
b. La hipótesis estadística de correlación. Se refiere a la relación entre variables.
c. La hipótesis estadística de la diferencia de medias. Compara un dato entre dos o
más grupos.
 Hipótesis Conceptual. Sirve para explicar desde el punto de vista teórico el fenómeno que
se intenta investigar.

HIPÓTESIS Y NÚMERO DE VARIABLES

 HIPÓTESIS DE UNA SOLA VARIABLE.- Cuando se utiliza una sola VI para explicar la VD.
 HIPÓTESIS QUE RELACIONAN DOS O MÁS VARIABLES EN FORMA DE COVARIANZA O
ASOCIACIÓN.- La variación de una o más VI está en relación directa o inversa con la VD.
 HIPÓTESIS QUE RELACIONAN DOS O MÁS VARIABLES EN FORMA DE DEPENDENCIA.- Son
hipótesis de relación causal y es necesario que exista una variación en la VD debido a la VI,
y que no sea efecto de VE. Además de que la VI debe de ocurrir antes de la VD.

HIPÓTESIS, PROPOSICIONES Y RELACIÓN ENTRE VARIABLES

REVERSIBLES.- Cuando existe una correlación mutua entre las variables: A mayor X, mayor Y.
IRREVERSIBLES.- Es cuando la existencia de la VI origina efectos en la VD, pero el que se dé la
VD, no la implica la existencia de la VI: Si X entonces Y; pero si Y no podemos afirmar X.
ESTOCÁSTICA.- Es cuando se habla de una probabilidad entre VI y la VD: Si X probablemente Y.
DETERMINISTA.- Implica la existencia de determinada condición siempre y cuando se dé la
otra: Sí X siempre Y.
CONTINGENTE.- La VD dependerá de la VI siempre y cuando se cumpla una condición
determinada.
NECESARIA.- Aparece explícitamente definida la relación entre las variables: Si X y solo X,
entonces Y.
SUFICIENTE.- La existencia de una variable es condición suficiente para que se produzcan
efectos en la VD.
SUSTITUIBLE.- La VD está relacionada con probabilidad parecida de dos VI parecidas:
 Si X entonces Y, pero Z entonces Y.
 El estudio de la clasificación de las hipótesis y sus proposiciones sirve para aclarar la
forma en que deben plantearse conceptualmente sin ser excluyentes.

4. DISEÑOS DE INVESTIGACIÓN
El diseño de investigación constituye el plan general del investigador para obtener respuestas a
sus interrogantes o comprobar la hipótesis de investigación. El diseño de investigación desglosa
las estrategias básicas que el investigador adopta para generar información exacta e
interpretable. Los diseños son estrategias con las que intentamos obtener respuestas a
preguntas como:

· Contar.
· Medir.
· Describir.

El diseño de investigación estipula la estructura fundamental y especifica la naturaleza global de


la intervención.

El investigador cuando se plantea realizar un estudio suele tratar de desarrollar algún tipo de
comparación. El diseño de investigación supone así, especificar la naturaleza de las
comparaciones que habrían de efectuarse, ésta pueden ser:

· Entre dos o más grupos.


· De un grupo en dos o más ocasiones.
· De un grupo en diferentes circunstancias.
· Con muestras de otros estudios.

El diseño también debe especificar los pasos que habrán de tomarse para controlar las variables
extrañas y señala cuándo, en relación con otros acontecimientos, se van a recabar los datos y
debe precisar el ambiente en que se realizará el estudio. Esto quiere decir que el investigador
debe decir dónde habrán de llevarse a cabo las intervenciones y la recolección de datos, esta
puede ser en un ambiente natural (como el hogar o el centro laboral de los sujetos) o en un
ambiente de laboratorio (con todas las variables controladas).

Al diseñar el estudio el investigador debe decir qué información se dará a los sujetos, es
recomendable revelar a los sujetos el propósito de la investigación y obtener su consentimiento.
Un buen diseño de investigación deber ser apropiado para la pregunta que se ha
planteado el investigador. Debe también llevar al mínimo o evitar los sesgos que puedan
distorsionar los resultados del estudio. Adicionalmente, un buen diseño trata de mejorar la
precisión de la investigación, lo cual denota la sensibilidad para detectar los efectos de la
variable independiente, en relación con los efectos de las variables extrañas. Finalmente, el
diseño debe contemplar de manera apropiada el aspecto del poder de la investigación, es decir,
la capacidad del diseño para crear el máximo contraste entre los grupos de comparación.

Para hacer estudios descriptivos hay que tener en cuenta dos elementos fundamentales:

1. – Muestra.
2. – Instrumento.

También considerar los sujetos sobre los que se mide y las medidas:
· Fiabilidad.
· Validez: (Sensibilidad y Especificidad).

Y el control en la investigación:

1. Validez Interna.
2. Validez externa.

Una vez definido el tipo de estudio, planteadas las hipótesis y definidas las variables, el
investigador debe concebir la manera práctica y concreta de responder a las preguntas de
investigación. Para ello, es necesario seleccionar o desarrollar un diseño de investigación y
aplicarlo al contexto particular del estudio

Diseño:

 Se refiere al plan o estrategia concebida para responder a las preguntas de investigación


 Señala al investigador lo que debe hacer para alcanzar sus objetivos y analizar con
certeza las hipótesis planteadas en un contexto particular

Existen tres tipos de diseños se investigación:

 No experimentales
 Experimentales
 Cuasiexperimentales

Esta clasificación se realiza tomando en cuenta lo siguiente:

 El control de las variables


 Las técnicas de recolección de información
 La forma de seleccionar a la población
4.1 DISEÑO EXPERIMENTAL

El investigador desea comprobar los efectos de una intervención específica, en este caso el
investigador tiene un papel activo, pues lleva a cabo una intervención.

Para llevar a cabo una investigación experimental es necesario contar con un diseño que
permita obtener los resultados de la mejor manera y con el menor sesgo posible. Para esto
Campbell y Stanley (1979) presentan una de las recopilaciones de diseños más completa que se
han hecho.

Los diseños experimentales a su vez se dividen en:

a) Preexperimentales
b) Experimentales propiamente dichos

4.1 Diseño Experimental a) pre-experimental

 No tienen asignación aleatoria


 Son los más básicos
 Cumplen con pocos criterios de validez (ni interna ni externa)
 Son los más fáciles y baratos
 No tienen control sobre las variables, por lo cual es difícil establecer una relación entre
la VI y la VD.
 La comparación entre dos o más observaciones es limitada y existe poco control sobre la
variable extraña (VE)

1. Estudio de caso con una sola medición

XO

Se estudia un sólo grupo después de someterlo a la acción de algún agente o tratamiento que se
crea puede producirle un cambio

 Adolece de control por lo que su valor científico es casi nulo


 Estadísticamente, los datos obtenidos no son válidos, por lo cual no es muy
recomendable usarlo
 Sin embargo es el diseño menos costoso y más fácil de llevar a la práctica
 Es muy utilizado en educación
 Por ejemplo cuando se evalúa una unidad mediante un examen.

2. Diseño pretest-postest de un solo grupo


O1 X O2
 Se realizan dos evaluaciones similares, una antes y otra después del tratamiento
 Se supone que las diferencias encontradas son debidas al tratamiento
 A pesar de que no se controlan muchas fuentes de invalidez, es un diseño más válido
que el anterior ya que permite la comparación entre resultados obtenidos antes y
después del tratamiento
 Es de bajo costo y de fácil implementación
 Es otro de los diseños utilizado en investigaciones educativas y en capacitación
 Por ejemplo: cuando se hace un examen exploratorio y luego se evalúa los contenidos
vistos mediante otro examen igual o equivalente.
3. Comparación con un grupo estático
XO
-------------
O
 Un grupo que ha experimentado tratamiento (grupo experimental) se compara con otro
que no lo ha hecho (grupo control), a fin de establecer el efecto del tratamiento
 Se espera que los del grupo experimental tengan mejores resultados que los del control
 Se asume que los dos grupos son iguales, pero dado que no hay aleatorización, no se
puede comprobar tal igualdad de grupos.
 Se restringe su uso a escuelas o lugares donde hay grupos formados

Por ejemplo: a un grupo de tercer semestre se le da capacitación sobre técnicas de manejo del
estrés y se le hace una evaluación al terminar esta. Al segundo grupo se le hace la misma
evaluación pero no recibe tratamiento. Se espera que el grupo experimental conozca más las
técnicas de manejo de estés que el grupo control.

A diferencia del cuasiexperimental, en el preexperimental utilizas métodos de recolección de


datos de los estudios experimentales (mhm…cuantitativos?).

4.1 Diseño Experimental b) experimental puro

Diseños Experimentales Verdaderos: Se tienen aspectos predeterminados que son manipulados


por los investigadores y miden los supuestos efectos de tales manipulaciones.

Su principal característica q lo diferencia de otros diseños: La aleatoriedad en la muestra (que


busca representatividad de la población para poderla generalizar) y el estricto control de
variables.

Este tipo de diseño se caracteriza por ejercer un estricto control sobre el experimento por
medio del establecimiento tanto de grupos de comparación a fin de manipular la variable
independiente como la equivalencia de los grupos por medio de la asignación aleatoria de las
unidades de análisis.

En los diseños experimentales es posible manipular la variable independientes y puede utilizar


sólo posprueba o la modalidad de preprueba-posprueba en la medición de las variables
estudiadas. La utilización de la posprueba tiene como propósito determinar la presencia o
ausencia de efectos experimentales.

Ventajas:

 La asignación aleatoria de las unidades de análisis a los grupos experimental y control


permite controlar la validez interna del experimento.
 Las posibles diferencias que manifiesten en los grupos son producto de la casualidad.
 La utilización de la preprueba permite cuantificar el cambio inducido por el tratamiento
experimental.
 La asignación por pareamiento aleatorio permite controlar las diferencias entre las
unidades de análisis.

Desventajas:

 La validez interna pudiera ser afectada por la preprueba.


 El pareamiento aleatorio es útil cuando se trabaja un experimento en el que los grupos
estan integrados por 12 o 14 unidades de análisis, es decir, es aplicable en grupos
pequeños.

Esquemáticamente los diseños experimentales tienen la siguiente estructura:

1.1) Diseño experimental con posprueba y grupo control:

A GE X O2 (Diseño 3.1)
A GC - O2
*Nota: A= aleatorio, GE= Grupo Experimental, GC= Grupo control, O = medición u observación. La O puede estar
acompañada de un número O1, O2, etc. dependiendo del número de medición/observación que se trate (la 1ª, 2ª, etc).

1.2) Diseño experimental con preprueba-posprueba y grupo control:

A O1 X O2 (Diseño 3.2)
A O1 - O2

En las anteriores estructuras de diseños experimentales la asignación aleatoria (A) de las


unidades de análisis sirve como medio de control de las diferencias entre los grupos. En lugar de
utilizar A es posible asignar las unidades de análisis por pareamiento aleatorio (P) para lograr el
mismo objetivo.

1.3) Diseños de Solomon: Por medio de la mezcla de los dos anteriores tipos de diseños
experimentales Solomon propone diseños con tres y cuatro grupos. Éstos son una extensión de
los diseños experimentales de dos grupos. Es posible verificar los posibles efectos de la
preprueba sobre la posprueba y controlar las fuentes de invalidación interna. Los diseños de
Solomon tienen la siguiente estructura:

a) Diseño de tres grupos de Solomon:

A GE O1 X O2 (Diseño 3.3)
A GC O1 - O2
A GC - X O2

b) Diseño de cuatro grupos de Solomon:

A GE O1 X O2
A GC O1 - O2
A GC - X O2
A GC - - O2

Este último diseño, también lo podemos expresar así:

ROXO
ROO
RXO
RO

Explicación simbología y posteriormente, explicación de diseños para entender el diseño de


Solomon:

A = Asignación aleatoria de las unidades de análisis a los grupos testigo y experimental.


P = Pareamiento aleatorio.
G = Grupo.
GE = Grupo experimental.
GC = Grupo testigo o control.
X = Tratamiento experimental.
- = Ausencia de tratamiento experimental.
O1 = Preprueba o medición previa al tratamiento experimental.
O2 = Posprueba o medición posterior al tratamiento experimental.

En estos diseños el segundo grupo control se convierte automáticamente en un segundo grupo


experimental. El diseño de cuatro grupos de Solomon es difícil de aplicar, de controlar y de
medir estadísticamente. No obstante lo anterior, permite realizar una doble experimentación y
comparación de grupos.

Otro tipo de diseños de investigación más avanzados son los llamados diseños factoriales que
son considerados como una consecuencia del diseño de cuatro grupos de Solomon. R. A. Fisher
desarrollo los diseños factoriales al igual que los métodos estadísticos para su análisis (Van
Dalen y Meyer, 1986).

4.1 Diseño Experimental c) cuasi-experimental

La principal característica es que no puedes identificar todas las variables extrañas y no puedes
estar seguro que los cambios en la VD se deben a la única VI que se manipula.

El investigador no crea los grupos, éstos ya están hechos pero los divide con base en alguna
característica, y mide los resultados en los diferentes grupos. Por ejemplo: horas de sueño o
referencia de insomnio que tiene un grupo consumidor de café en comparación con otro grupo
no consumidor.

Busca mantener el mismo control de variables que se tiene en un diseño experimental pero la
recolección de datos se realiza mediante técnicas utilizadas en los diseños no experimentales:
entrevista, observación, etc.

Los sujetos no son asignados al azar, por lo cual se habla de grupos de comparación en lugar de
grupos control.

Es un diseño intermedio entre los experimentales y los no experimentales, por lo que en


ocasiones es tomado como parte de uno o del otro.

Trata de introducir parte del proceso experimental en la recopilación de datos, aunque se


carezca de control total acerca de la programación de estímulos experimentales
(Aleatorización).

En los diseños cuasiexperimentales se trabaja con grupos ya establecidos en donde los sujetos
no son asignados al azar, por lo que no se habla de grupo control sino de grupos de
comparación.

Ventajas
 A pesar de que no cumplen con todos los requerimientos rigurosos de un experimento,
son los que tienen más exactitud de los diseños no experimentales.
 Su objetivo es el estudio de problemas sociales.

Desventajas
 A pesar de que se puede concluir relación causal entre la variable dependiente y la
independiente, La variable independiente puede confundirse con variables extrañas, por
lo que no sabemos si un cambio en la variable dependiente se debe realmente a la
variable independiente.

Diferencias con diseños prexperimentales:

 Forma de evaluación. En los preexperimentales se utilizan técnicas estandarizadas,


generalmente instrumentos, mientras que en los cuasiexperimentales se pueden utilizar
todas las técnicas mencionadas en los diseños no experimentales.
 Tipos de diseños cuasiexperimentales

Existen principalmente dos tipos:

1. Diseños de grupos de comparación no equivalentes. Es muy similar al diseño de grupo de


control con postest únicamente de los diseños experimentales. La diferencia radica que al no
existir grupo control pueden existir uno o más grupos de comparación con condiciones
experimentales diferentes, y con los que se asume que los cambios ocurridos en la variable
dependiente se deben a la independiente pero sin tener la completa certeza.

XO
-----------
O

Ejemplo: Los psicólogos de un reclusorio realizaron una investigación en la que querían probar si
el tiempo que habían recibido asesoría psicológica mientras se encontraban en prisión, influía
en que los reclusos violaran o no la libertad condicional bajo palabra. Se utilizaron 5 grupos de
comparación en la que se variaba el tiempo de asesoría.

X12 O Habían recibido 12 meses de asesoría


X9 O Habían recibido 9 meses de asesoría
X6 O Habían recibido 6 meses de asesoría
X3 O Habían recibido 3 meses de asesoría
X0 O No habían recibido asesoría

Se encontró que entre más prolongado fuese el periodo de asesoría, los sujetos violaban con
menor frecuencia su libertad condicional bajo palabra. Sin embargo, puede ser que l asignación
a los grupos haya influido en los resultados, por ejemplo:

 Puede ser que las personas que recibieron más asesoría de antemano estaban más
dispuestos a la rehabilitación y a no volver a prisión que los que no recibieron asesoría o
los que asistieron durante menos meses.
 Es importante notar que la mayoría de estos datos se obtienen de archivos o ya
ocurrieron.
 Puede ser que se haya seleccionado para recibir asesoría a los sujetos que tenían menos
posibilidades de regresar a prisión, por lo que no puede generalizarse a todos los presos.

2. Diseños de series de tiempo interrumpidas. Se realizan mediciones periódicas sobre un grupo


o individuo con el objetivo de establecer una línea base, posteriormente se hace algún tipo de
cambio durante la serie de tiempo en marcha, y el investigador intenta determinar si ocurre un
cambio en la variable dependiente. De ser así intenta saber si el cambio se relaciona
sistemáticamente con el tratamiento.

O1 O2 O3 O4 O5 X O6 O7 O8 O9 O10

Ejemplo: En una empresa se quería saber si después de implementar un programa de control en


la forma de consumir alcohol, la frecuencia con que los obreros faltaban a trabajar disminuía.
Se realizó una gráfica con el número de personas que faltaban cada semana durante un periodo
determinado antes de la capacitación. Posteriormente se realizó una gráfica con el mismo
número de semanas pero después de la capacitación. Se observó que se reducían en mucho las
ausencias de los trabajadores.
Sin embargo, esto podía deberse también a:

 La motivación que tenían los trabajadores al ser capacitados.


 Al mes del año en que se realizará la investigación, esto es, que la línea base no
estuviera bien elaborada.

De esta misma manera también se han realizado investigaciones con programas públicos como
los que se realizan para disminuir la frecuencia de accidentes de tránsito debidos al consumo de
alcohol, o con cualquier campaña publicitaria. Según Quirk (1983), para tomar la decisión de qué
diseño emplear, se pueden hacer las siguientes preguntas:

¿Cuántos grupos experimentales?


¿Se empleará un grupo control? ¿Con qué propósito?
¿Qué es lo que harán los sujetos mientras participan en el estudio?
¿Cómo diferirán entre sí los grupos experimentales?
¿Qué hará el grupo control?
¿Cómo se medirán las respuestas de los sujetos en el experimento?

Para la elección de alguno de los diseños anteriores, es necesario tomar en cuenta varios
factores entre los que se encuentran:

Los objetivos de estudio. Para que el diseño elegido responda a las necesidades planteadas en
ellos.
 El número de sujetos que van a conformar la muestra. Para elegir un diseño factible de
utilizar con ese número de sujetos, ya que si se tienen muy pocos sujetos no sería viable
utilizar un diseño de muchos grupos por que tendríamos grupos muy chicos.
 El presupuesto disponible para esta parte de la investigación. Se debe tomar en cuenta
que entre más complejo va siendo el diseño de investigación más costoso será su
implementación. Este es un tópico al que la mayoría de los investigadores no le dan
mucha importancia al momento de la planeación, sin embargo es el principal factor del
que va a depender que esa planeación se lleve a cabo tal cual o haya que hacerle
modificaciones sobre la marcha.

4.2 Diseño No experimental


En ellos el investigador observa los fenómenos tal y como ocurren naturalmente, sin intervenir
en su desarrollo. En múltiples ocasiones, la investigación busca elucidar las relaciones causa-
efecto. Los estudios no experimentales emplean, para este propósito, diseños retrospectivos o
prospectivos. En los DISEÑOS RETROSPECTIVOS, el investigador observa la manifestación de
algún fenómeno (v. dependiente) e intenta identificar retrospectivamente sus antecedentes o
causas (v. independiente). Los ESTUDIOS PROSPECTIVOS se inician con la observación de ciertas
causas presumibles y avanzan longitudinalmente en el tiempo a fin de observar sus
consecuencias. La investigación prospectiva se inicia, por lo común, después de que la
investigación retrospectiva ha producido evidencia importante respecto a determinadas
relaciones causales.

En los diseños no experimentales el investigador no manipula la situación ni las variables, esta


limitado a reportar sólo lo que sucede. Son los más usados en ciencias sociales, principalmente
en investigación cualitativa, por que permiten observar la realidad de las personas en su ámbito
natural, además son menos costosos y más prácticos que los experimentales.

La mayor crítica que se les ha hecho es que se dice que son poco confiables y válidos por la
manera en que recolectan la información. Algunos de estos métodos son:

a) Clínico, también llamado estudio de caso.


b) Observación directa
c) Documental
d) Entrevista
e) Encuestas

a) Método clínico. Un Psicólogo busca mediante este método ayudar a un cliente a resolver sus
problemas personales, vocacionales, etc. Se recaba la información mediante técnicas tales
como: Entrevista intensiva, estudio de antecedentes, pruebas psicológicas, interrogatorio a
otros, etc. Con base en los resultados de estas técnicas el psicólogo formula una hipótesis
informal sobre la causa del problema y propondrá algún tratamiento.

Su objetivo es resolver un problema práctico y no busca contribuir al avance de la ciencia, a


menos que publique lo encontrado o lo presente en un congreso. Se utiliza principalmente en la
investigación cualitativa.

b) Observación directa
 Es la más antigua y básica de todas.
 El investigador acude al lugar de la evaluación y observa los acontecimientos y las
conductas que le interesan conforme va ocurriendo naturalmente.
 No trata de producir ni controlar la conducta como en experimentación (ej, observar las
acciones de un grupo en la toma de decisiones).
 Se recaban datos en grupos conformados naturalmente como familias, escuelas, cursos,
etc.
 Generalmente sirve para medir o evaluar conductas.
 Se utiliza principalmente en la investigación cualitativa.

Existen diferentes tipos:


1. Observación no participante. El investigador observa al grupo desde una esquina del
lugar o desde una cámara de Gessell, sin intervenir en las actividades. Las observaciones
se hacen de manera discreta para mantener las formas naturales de conducta.
2. Observación participante. El investigador observa al grupo siendo parte de él y
participando en las actividades que se llevan a cabo.
3. Grupos focales. Son una técnica cualitativa moderna muy utilizada. Sirve para conocer
nuevos temas que no existen en la bibliografía, para evaluar materiales con población
destinada a utilizarlos, para conocer integración grupal o normas sociales en grupos
determinados.

Ventajas
 El observador tiene la experiencia de los acontecimientos de primera mano.
 Es la única manera de conocer directamente las conductas.
 Se observa la realidad tal y como existe en su ámbito natural.
 Es aplicable en ámbitos educativos, clínicos y áreas sociales (Jardín de niños, A.A., etc.).
 Es útil para conocer las costumbres de grupos determinados.

Desventajas
 Tiene potencial limitado fuera del grupo de estudio. No es generalizable.
 Se pueden observar pocas áreas de la vida de las personas (p.e. es difícil investigar sobre
sexualidad o interacción familiar)
 Se tienen serios problemas de planeación y análisis (¿Beben cerveza más hombres que
mujeres?)
 Existe poca confiabilidad en las medidas ya que pueden cambiar de observador a
observador o de una situación a otra. Los observadores pueden ser afectados por los
conocimientos, ideas, creencias y valores. Por lo que es recomendable en algunas
situaciones que los que realicen las observaciones estén fuera de la investigación y no
contaminen los resultados.
 Algunos tipos de observación son costosos y llevan mucho tiempo y sesiones.
 Depende de los registros, generalmente no se cuenta con información cuantitativa, lo
cual no es una desventaja propiamente.

c) Investigación documental. Se recaban datos de escritos, archivos, etc. que permitan dar una
explicación al problema de estudio. Existen básicamente 2 tipos:

1. Teórico. Es la que se lleva a cabo con el propósito de explicar teóricamente un


fenómeno. Se da básicamente en libros, revistas, periódicos, etc. Ejemplo: Merco
teórico de la investigación, tesinas, artículos de revisión teórica. Sirve como base para
otras investigaciones.
2. Causal. Busca las causas asociadas a la ocurrencia de un fenómeno. Para esta se
utilizan búsquedas en registros públicos, archivos oficiales, etc. que permitan conocer la
ocurrencia del fenómeno. Es un buen método para recabar datos sobre suicidios y
homicidios (mediante las actas de defunción).

Desventajas
 Los datos de los archivos no siempre son confiables o no se tienen los registros
completos.
 No permite comprobación científica.

d) Entrevista
 Se interrogan personalmente y una a una a las personas objeto de estudio.
 Se utilizan en estudios exploratorios, ya que permite captar información abundante y
básica sobre el problema.
 Se utiliza principalmente con informantes clave, llamados así porque se encuentran en
una posición (económica, social o cultural) dentro del grupo social o comunidad que les
permite proporcionar información que otras personas desconocen o darían incompleta.
 La selección de los informantes clave se realiza con base al tipo de información que se
necesita.
 Ejemplos de informantes clave son: Autoridades, profesores, médicos, curanderos,
parteras, sacerdotes, etc.
 Generalmente es cualitativo, aunque puede también ser cuantitativo.

Se necesita
 Contar con una guía de entrevista con preguntas abiertas o temas a tratar derivados de
las variables del estudio.
 La información se recopila por escrito o mediante una grabadora de audio.
 Establecer una situación de confianza con el entrevistado.

Ventajas
 Permiten conocer el fenómeno con mayor profundidad
 Obtiene información que no sería posible obtener por otros medios.
 Como la guía de entrevista no es rígida, se puede obtener más información que la
buscada originalmente.
 Evita errores en las respuestas de los sujetos

Desventajas
 Depende de la investigación en ocasiones es difícil localizar a los informantes clave.
 Es muy largo y caro, por lo que puede abarcar pocos sujetos.
 Si no se tiene una guía estructurada puede no recabar la misma información en
diferentes entrevistas.

e) Encuesta
 Es la más utilizada
 Tiene como fin un análisis cuantitativo
 Es el método más generalizable de todos los diseños no experimentales.
 Recopila información entre una muestra de la población
 Se realiza mediante preguntas previamente elaboradas (cuestionario o cédula de
entrevista)
 Es más rápido, menos costoso y abarca más población que la entrevista y la observación.

Se necesita
 Elaborar un cuestionario que cumpla con los criterios de valides y confiabilidad
estadística.
 Conocer el tipo de población a quienes van dirigidos para que el cuestionario sea
adaptado a ellos.

Ventajas
 Puede aplicarse a grandes poblaciones.
 Se necesita poca capacitación para aplicar los cuestionarios.
 No influye el criterio del investigador.

Desventajas
 No detecta lenguaje corporal, emociones, ni dudas al momento de contestarlo.
 No miden conductas.

4.2 No experimental a) longitudinal

Por periodos largos de tiempo. Reúnen datos en dos o más momentos. La aplicación de un
diseño longitudinal es recomendable para el tratamiento de problemas de investigación que
involucran tendencias, cambios o desarrollos a través del tiempo, o bien, en los casos en que se
busque demostrar la secuencia temporal de los fenómenos.

Los estudios LONGITUDINALES en los cuales se interroga dos o más veces a una misma muestra
de sujetos se conocen como ESTUDIOS DE SEGMENTOS. De similar modo, los ESTUDIOS DE
SEGUIMIENTO estudian en dos o más momentos a los mismos sujetos, quienes por lo general
han recibido un tratamiento o comparten una particular característica de interés; el seguimiento
persigue, así, estudiar su desarrollo subsecuente. Los estudios longitudinales suelen ser
costosos, requieren una mayor inversión de tiempo y conllevan numerosas dificultades como la
atricción (pérdida de sujetos con el tiempo); sin embargo, frecuentemente resultan de gran
valor, en virtud de la información que arrojan.

4.2 No experimental b) transeccional o transversal.

Implican la recolección de datos en un solo corte en el tiempo

5 VALIDEZ DE LA INVESTIGACIÓN
Existen muchos tipos de validez dependiendo del autor que las clasifique, sin embargo entre las
más importantes se encuentran: validez interna y validez externa.

5.1 Validez Interna

La validez interna formula la siguiente pregunta: ¿Tuvo en realidad X (V.I.) la manipulación


experimental, una diferencia significativa? Cualquier cosa que afecte los controles de un diseño,
se convierte en un problema de validez interna. Si el diseño es tal que uno pueda tener poca o
ninguna confianza en las relaciones, se trata de un problema de validez interna.
Te debes asegurar que si observas que una o mas variables independientes hacen variar a las
dependientes, estas variantes se deban a la manipulación y no a otras causas. Cualquier cosa
que afecte los controles de un diseño se convierte en un problema de validez interna.
Es la exigencia mínima de control experimental que debe reunir todo experimento y se
refiere a la posibilidad de inferir la relación causal entre dos variables, o a que la ausencia
de relación implica ausencia de causa. Sin ésta no se podría interpretar los resultados.

Fuentes de Invalidación interna

1. Historia. Son los hechos o acontecimientos externos ocurridos entre la primera y la segunda
evaluación, diferentes a la variable independiente de experimentación. Un acontecimiento que
ocurre durante el desarrollo del experimento.
2. Maduración. Cambios en los procesos internos de los sujetos debidos al paso del tiempo. Se
producen como consecuencia del crecimiento biológico, psicológico, de la adaptación, fatiga,
etc. Procesos internos de los participantes; hambre, cansancio, aumento de la edad.
3. Administración de pruebas. Se da cuando las respuestas de los sujetos son medidas varias
veces. Ocurre que los resultados de una segunda aplicación pueden verse afectados por la
familiaridad con la prueba y no por el tratamiento. efecto de una prueba sobre las subsecuentes
4. Instrumentación. Cambio de precisión de los instrumentos o de los observadores que pueden
producir variaciones en las medidas obtenidas. Cambios en los instrumentos de medición o en
los observadores.
5. Regresión estadística. Es la tendencia que presentan los datos extremos a desplazarse hacia
la media de la distribución cuando se vuelve a aplicar el mismo sistema de medida. Esto es
aplicable cuando se trabaja con grupos seleccionados con puntajes extremos.
6. Selección. Es una diferencia sistemática entre grupos basada en la selección o asignación de
los sujetos a los grupos experimentales. Pueden elegirse grupos no equiparables.
7. Mortalidad experimental. Es cuando los sujetos desisten o se retiran de la situación de
investigación.
8. Inestabilidad: fluctuaciones en las personas seleccionadas o componentes del experimento.
9. Interacciones entre la selección y la maduración. La interacción entre estas variables se
puede confundir en algunos diseños cuasiexperimentales con el efecto de la variable
experimental.

Formas de control de la validez interna

1. Historia. Se controla teniendo diseños de más de un grupo y encontrando los mismos


resultados históricos en todos los grupos. Esto lo que hace es eliminar el efecto de la historia al
tenerlo como constante en los grupos manejados.
2. Maduración. De la misma manera que la historia, la maduración se controla debido a que se
presenta por igual tanto en los grupos experimentales como en los grupos control.
3. Administración de pruebas. Se controla bajo la misma hipótesis que la maduración.
4. Instrumentación. Existen diversas maneras de controlar ésta fuente de invalidez. La forma
más óptima sería evaluar a todos los sujetos y obtener todas las evaluaciones durante una
misma sesión, esto es, que la aplicación de ambas evaluaciones se lleven a cabo el mismo día, de
manera que no se preste a un cambio en la precisión. Otra manera sería obteniendo
instrumentos fijos e impresos que no permitieran el cambio de una evaluación a otra. Sin
embargo, si se necesita que las evaluaciones las lleven a cabo observadores es más difícil el
control, en éstos casos se podrían hacer dos cosas: cuando hay muchos observadores, éstos se
eligen aleatoriamente para la evaluación de los individuos; si se tienen pocos observadores,
todos ellos tendrán que observar tanto a los sujetos del grupo experimental como a los del
grupo control, además de que no deberán conocer qué sujetos pertenecen a que tipo de
tratamiento, de ésta manera se evitará que sus conocimientos sobre esto sesguen la
información.
5. Regresión estadística. Se controla con la asignación al azar de los sujetos tanto al grupo
control como al experimental, tomando a los sujetos del mismo conjunto extremo.
6. Selección. Se asume que ésta fuente se controla al momento de hacer la aleatorización de los
sujetos.
7. Mortalidad experimental. Cuando los sujetos dejan de asistir a las sesiones de tratamiento,
no se pueden eliminar del grupo experimental debido a que éste se descompensaría con
relación al grupo control, por lo tanto, la mejor manera de intentar un tipo de control es
tomando en cuenta a todos aquellos individuos que terminaron tanto el pretest como el postest
sin importar que no hayan recibido el tratamiento o todo el tratamiento.
8. Interacciones entre la selección y la maduración. Lógicamente se controla al estar
controlados cada uno de los factores independientes inmiscuidos en la interacción.

5.2 Validez Externa

Significa la representatividad o generalización. Para éste caso, no sólo debe cuestionarse la


generalización de la muestra. Es necesario formular preguntas acerca de su representatividad
ecológica y variable de los estudios. A menos que se tomen precauciones particulares y se
hagan esfuerzos especiales, a menudo los resultados de investigación no son generalizables.
Significa representatividad o generalización.

Tiene por objeto trascender la relación de causalidad fuera de los estrechos límites de la
situación experimental. En la medida que se pueda inferir que la relación de causalidad hallada
puede extenderse a otros contextos, u otros sujetos y a momentos distintos, se tiene el grado
de universalidad de la relación establecida (generalización de resultados).

Debes preguntar si tiene representatividad ecológica y variable de los estudios. A menudo los
resultados de las investigaciones no son generalizables.

Validez ecológica. Se relaciona de cerca con la validez externa y cubre la pregunta a qué grado
su espejo experimental de los resultados qué usted puede observar en el del mundo real
(ciencia del ecology= de la interacción entre el organismo y su ambiente). La validez ecológica es
si los resultados se pueden aplicar a las situaciones de la vida real. Típicamente en ciencia, usted
tiene dos dominios de la investigación: Pasivo-de observación y activo-experimental. El
propósito de diseños experimentales es probar causalidad, de modo que usted pueda deducir
las causas B de A o B cause el A. Pero a veces, las restricciones éticas y/o methological evitan
que usted conduzca un experimento (e.g. cómo hace influencia del aislamiento el
funcionamiento cognoscitivo de un niño?)
Fuentes de Invalidación Externa

 Efecto reactivo o de interacción de pruebas: la preprueba aumenta o disminuye la


sensibilidad o calidad de reacción de los sujetos. Es cuando la aplicación inicial de una
prueba puede aumentar o disminuir la sensibilidad o modificar la reacción a la variable
experimental. Esto es, la influencia de la preprueba en el tratamiento.
 Efecto de interacción entre errores de selección y tratamiento experimental: personas
con características que hagan que el tratamiento produzca un efecto. Características de
los sujetos.
 Efectos reactivos de los tratamientos experimentales: artificialidad produce que se
atípico. Estos impiden hacer extensivo el efecto de la variable experimental a las
personas expuestas a ella en una situación no experimental. Esto es, situaciones fuera
del contexto cotidiano.
 Interferencia de los tratamientos múltiples: solo son extensivas a las personas que
recibieron la misma secuencia de tratamiento. Cuando los sujetos han sido expuestos a
diferentes situaciones experimentales, en muchas ocasiones los efectos anteriores no se
borran, por el contrario se suman a los del último tratamiento. Hay que considerar la
suma de los efectos de los tratamientos.
 Imposibilidad de replicar los tratamientos: De preferencia debe poder aplicarse a
diferentes grupos, procurar que el sujeto no sienta que está en una situación
experimental. Cuando los tratamientos son complejos y no pueden realizarse en
situaciones no experimentales.

Formas de control de la validez externa

1. Efecto reactivo o de interacción de las pruebas. Se controla al eliminar el pretest.


2. Efectos de interacción entre la selección y el tratamiento. La única manera de controlar ésta
fuente es que la representatividad de la muestra sea perfecta, lo cual es difícil, pero debe
acercarse lo más posible a ésta.
3. Efectos reactivos de los tratamientos. La manera en que se podría controlar es que los sujetos
no supieran que están en situación experimental, sin embargo, esto no es muy factible.
6. MUESTREO
6.1 Selección de la muestra

La muestra, a la que llamaremos n, es en esencia un subgrupo de la población, es decir, un


subconjunto de elementos que pertenecen a ese conjunto definido en sus características al que
llamamos población. Las medidas obtenidas a través de una muestra reciben el nombre de
estadísticos (ej media, mediana, D.E. varianza, etc).

La población, a la que llamaremos N, es la totalidad de los elementos que poseen las principales
características objeto de análisis y sus valores son conocidos como parámetros. Una población es el
conjunto de todos los casos que concuerdan con una serie de especificaciones. Es la totalidad de los
elementos o sujetos que comparten la característica de interés para el investigador. “Es un conjunto
de diversos elementos de la realidad (sujetos, objetos, fenómenos) que cuando menos comparten
una característica en común”.

Entre las ventajas de estudiar solo una parte de la población esta el que se reducen los problemas
mencionados sin que ellos reduzcan la validez del estudio. Pero ¿cómo seleccionar una muestra?
Para ello, debemos seguir los siguientes pasos:

1. Definir la unidad de análisis a estudiar

Se refiere a quiénes van a ser medidos. La mayoría de las veces se trata de personas, pero puede ser
que también se evalúen servicios, periódicos, organizaciones, etc. Por ejemplo: Se evalúa un
producto que va a salir al mercado. Es fácil delimitarla cuando los objetivos y el problema de
investigación están bien planteados.

2. Delimitar la población

Se refiere a definir las características de los sujetos que se van a estudiar y sobre los que se
generalizarán los resultados. Para ello, debemos identificar las características de la población que
deseamos analizar.

Es necesario definir lo más posible las características de la población a estudiar. La población debe
situarse en torno a sus características de contenido, lugar y tiempo. Por ejemplo estudiantes ¿de
qué?, ¿De donde? ¿Con qué características?

Con excepción de los censos, por cuestiones de tiempo, dinero y posibilidades humanas es
imposible evaluar o incluir en nuestra investigación a toda la población con las características que
requerimos, por lo que tenemos que seleccionar una muestra de dicha población.

El diseñar una muestra implica definir lo siguiente:

 Características de las personas a entrevistar


 Número de sujetos
 Lugar donde se entrevistarán
 Estrategia para sustituir a los sujetos que se nieguen a contestar
El diseño de la muestra se basa en:

 Los objetivos del estudio


 La disponibilidad de recursos financieros, humanos y materiales
 El tipo de preguntas que se incluyen en el cuestionario o forma de evaluación
 El número de preguntas del cuestionario (esto está sujeto al número de variables de la
investigación)
 El plan de análisis estadístico

¿De qué tamaño va a ser la muestra? Ello se delimita a partir de:

1. La literatura. Estudios e investigaciones anteriores del mismo tema, pueden indicarnos


el tamaño adecuado de la muestra.
2. La variabilidad de los datos. Cuando no existe mucha variabilidad en los datos (n=500),
sólo utilizar ésta población. No es necesario ir a buscar más para el fenómeno q
estudiamos en ese grupo específico.
3. Análisis estadístico. Si se va a hacer uno pequeño o grande.
4. Fórmula. Existe una fórmula que se utiliza para conformar una muestra que asegure un
error estándar menor de .01:

n’ = S2 varianza de la muestra
V2 varianza de la población

Lo cual se ajusta si se conoce el tamaño de la población N

n’ = ___n´____
1 – n´/ n
* Nota: Para que sea representativa debe ser entre el 2 y 10% de la población

¿Quiénes van a ser medidos? Errores y soluciones.

Pregunta de investigación Unidad de análisis errónea Unidad de análisis correcta

¿Discriminar a las mujeres en los anuncios de Mujeres que aparecen en los anuncios de tv. Mujeres y hombres que aparecen en los
la tv. Error: no hay grupo de comparación anuncios de tv para comparar si categorías
de análisis difieren entre los dos grupos

¿Hay problemas de comunicación entre Grupo de adolescentes, aplicarles Grupo de padres e hijos. A ambas partes se
padres e hijos? cuestionario. Error: se procedería a describir les aplicará el cuestionario-
únicamente cómo perciben los adolescentes
la relación con sus padres.
¿Cómo se delimita una población?

• Una vez definida nuestra unidad de análisis, se procede a delimitar la población que va a
ser estudiada y sobre la cual se pretende generalizar los resultados.
• Para la selección de la muestra deben delimitarse las características de la población.
• Es importante establecer claramente las características de la población, a fin de
delimitar cuáles serán los parámetros muestrales. Ejem: Limite de población: Todos los niños del
área metropolitana que cursen 4°, 5° y 6° de primaria en escuelas privadas y públicas del turno
matutino

POBLACIÓN NIÑOS

• La delimitación de las características de la población no sólo depende de los objetivos del estudio, sino de
otras razones prácticas. No será un mejor estudio, por tener una población más grande, sino la calidad de un
trabajo.
• Las poblaciones deben situarse claramente en torno a sus características de contenido, lugar y en el tiempo.

6.2 Tipos de muestra

Existen básicamente dos tipos principales de muestreo:

Probabilístico. Las unidades de análisis u observación (personas, viviendas, etc.) son seleccionadas
en forma aleatoria, esto es, cada elemento tiene la misma probabilidad de ser elegido. Permite
conocer el error de muestreo, esto es, la diferencia entre las medidas de la muestra y los valores
poblacionales.

No probabilístico. Es el más usado en investigaciones en donde se tiene poco presupuesto por la


economía que representa. Tiene el inconveniente de que sus resultados no pueden generalizarse a
la población.
6.3 Muestreo probabilístico

Las muestras probabilísticas son esenciales en los diseños de investigación en donde se pretende
hacer estimaciones de variables en la población. En estas muestras, todos los elementos de la
población tienen una misma probabilidad de ser elegidos. A su vez, en las muestras probabilísticas,
los datos de la muestra pueden generalizarse a la población”.

Para controlar las variables extrañas en la selección de la muestra, con el fin de predecir resultados
en ambientes naturales nos valemos de las siguientes técnicas de control de variables extrañas:
Eliminación. Se quita la variable extraña.

Balancear. P.e. cuando los hombres y mujeres son diferentes y tienen diferentes habilidades, poner
en condiciones iguales el mismo número de hombres y de mujeres, y con habilidades homogéneas.
O colocar el mismo número de ricos que de pobres, de niños que de niñas, etc.

Aleatorización simple. Su proceso es un sorteo. Todos los miembros de la población tienen igual
oportunidad de formar parte de la muestra, de ser seleccionados. El aleatorio simple puede hacerse
dividiendo el total de la población, entre el número de sujetos q conforman la muestra (n).
Supongamos q el resultado fue 5 (300/60 = 5). Después se toma un número al azar, como en una
tómbola. Supongamos q se saco el número 17. Se va a la lista y se toma al sujeto 17 como el
primero seleccionado, después a 17 se suman 5, y obtenemos 22. Se selecciona al sujeto 22 y a 22
se suman 5 y se continúa con éste procedimiento para obtener el total de sujetos en esta muestra.
La selección de los elementos es completamente al azar, por lo que las preferencias y deseos del
sujeto no influyen en el proceso. Para utilizarlo es indispensable disponer de un marco de muestreo
o muestral que son listas o mapas de las viviendas o población de donde se realizará la
investigación, depende de la unidad de análisis. Ejemplo: Población: Escuela A. Lista de todos los
niños de la escuela.

Existen 4 tipos de muestreo probabilístico:

Estratificado. En las poblaciones naturales, se forman estratos creados o estratos naturales. Se


divide a la población en estratos con el fin de obtener representatividad de los distintos estratos que
componen la población y hacer comparaciones entre ellos. En cada uno de los estratos se selecciona
una muestra, cuya suma representa la muestra total. P.e. Estudiantes de Iztacala: psicología,
medicina, odontología, biología, enfermería y optometría. Después, se toma un pedacito de cada
estrato para conformar la muestra total de estudiantes.

Para hacer la estratificación hay que observar las mayores diferencias posibles entre los estratos y
dentro de los mismos la menor diferencia. Ejemplo: Estudio en diferentes carreras, en donde la
bibliografía marca la diferencia entre las características de los alumnos.

No basta que cada uno de los elementos muestrales tenga la misma probabilidad de ser escogidos,
sino que además es necesario estratificar la muestra en relación a estratos o categorías que se
presentan en la población y que a parte son relevantes para los objetivos del estudio, se diseña una
muestra probabilística estratificada.

Muestreo Multietípico. Se utiliza cuando los estudios son de gran escala. Se trata de dividir la
población en etapas de selección. Ejemplo: en estados, regiones, etc. en la primera etapa, en la
segunda en zonas, en la tercera en colonias, en la cuarta viviendas, etc.

Muestreo por Racimos, Cluster o Conglomerados. En este tipo de muestreo se reducen costos,
tiempo y energía al considerar que muchas veces nuestras unidades de análisis se encuentran
encapsuladas o encerradas en determinados lugares físicos o geográficos a los que denominamos
racimos.

El muestreo por racimos implica diferenciar entre la unidad de análisis y la unidad muestral. Pero
debido a que la población se encuentra bien ubicada, también es común que la población total no
sea muy grande. Por ello, se consideran grupos completos en la selección, por ejemplo: el grupo A
de primero de secundaria ó el grupo de neurólogos expertos se encuentra en la Asoc Mex de Neuro.

Muestreo sistemático. Se utiliza cuando la población es muy grande y es difícil elaborar un marco de
muestreo. Algunas aplicaciones son:

a) Investigación sobre vivienda. La ciudad se divide en zonas escogidas de acuerdo con un


objetivo. Cada zona se divide en manzanas o calles. Se seleccionan las viviendas de acuerdo con
un intervalo. La primera vivienda se selecciona al azar y de ahí de 9 en 9 de acuerdo con el
intervalo.

b) Selección de cuestionarios aplicados en grandes poblaciones (25% o sea 1 de cada 4).


Ejemplo: los exámenes de ingreso a la universidad.

c) Directorio telefónico.

6.4 Muestreo no probabilístico o no dirigido

En las muestras no probabilísticas, la elección de los elementos no depende de la probabilidad,


sino de causas relacionadas con las características del investigador o del que hace la muestra. El
procedimiento de selección es informal y un poco arbitrario.

Se utiliza principalmente por economía. También se llaman muestras dirigidas, por que se
buscan intencionalmente los sujetos. La forma de seleccionar a los sujetos no permite que los
resultados se generalicen a la población.

Aquí el procedimiento no es mecánico, ni en base a formulas de probabilidad, sino que depende


del proceso de toma de decisiones de una persona o grupo de personas y desde luego, las
muestras seleccionadas por decisiones subjetivas tienden a estar sesgadas. “En las muestras no
probabilísticas, los resultados sólo aplican a la muestra, no a la población. P.e. los casos de Freud
o de Piaget”.

Estas se subdividen en:

d. Cuotas. Se parece al estratificado pues se ven los estratos naturales, y se toma un


fragmento de esa población para formar la muestra total. Se hace un cálculo y depende
de la disponibilidad de participar de la población. A veces se dan premios a quienes
participan.
Se divide a la población en subgrupos de acuerdo a ciertas características: sexo, edad,
escolaridad, etc. Por ejemplo; mujeres mayores de 20 años de edad, hombres solteros,
etc. Posteriormente se eligen a los sujetos de acuerdo al criterio del investigador.
Generalmente los de más fácil acceso hasta completar la muestra. Intenta tener
representatividad del universo estudiado, pero la información sólo es válida para la
muestra estudiada.
Este tipo de muestra se utiliza mucho en estudios de opinión y de mercadotecnia. La
elección de sujetos depende de la disponibilidad de éstos. A veces se les dan premios. En
este muestreo, separas a los grupos. P.e. grupo de hombres y grupo de mujeres.
e. Intencional o selectivo. Se utiliza cuando se requiere tener casos que puedan ser
representativos de la población estudiada. La selección se hace de acuerdo al esquema de
trabajo. Por ejemplo: Aplicación de entrevistas estructuradas a informantes clave. No es
probabilístico pero permite la obtención de datos relevantes para el estudio.
f. Sujetos voluntarios. Son frecuentes en ciencias sociales y ciencias de la conducta. Se trata
de muestras fortuitas en donde el investigador elabora conclusiones sobre especímenes
que llegan a sus manos de manera casual.
Son cuando los sujetos llegan por convocatoria o de manera casual a la investigación. Se
utiliza generalmente en investigaciones sociales o conductuales. Por ejemplo: medicina,
sueño, sujetos para pruebas proyectivas
g. Muestra de expertos. Estas muestras son frecuentes en estudios cualitativos y
exploratorios que para generar hipótesis más precisas o para generar materia prima para
diseño de cuestionarios. Se utilizan cuando se requiere que sean personas especializadas a
quienes se deben ir a buscar.
Deliberadamente eliges a las personas quienes tienen más información de la población o
del fenómeno, que estudias. P.e. En un pueblito quien te contará los problemas más
comunes de la comunidad son: el padre de la iglesia, el tendero de la farmacia, etc. A
éstos sujetos los escoges.
h. Sujetos tipo. Se utiliza en estudios exploratorios y en investigaciones de tipo cualitativo,
donde el objetivo es la riqueza, profundidad y calidad de la información, y no la cantidad y
estandarización.
i. Bola de nieve. Sujetos que van recomendando a otros sujetos que cumplen con las
características requeridas por los investigadores.

MEDICIÓN

7. NIVELES DE MEDICIÓN
Existen diferentes tipos de escalas que se distinguen de acuerdo a la rigurosidad con que han
sido construidas y al propio comportamiento de las variables que miden.
7.1 Nominal

Es aquella forma de medición de las variables cualitativas cuyas categorías no pueden ser
ordenadas respecto a alguna característica; sólo se manifiesta una equivalencia de categorías
entre los diferentes puntos que asume la variable. Es como una simple lista de las diferentes
posiciones que pueda adoptar la variable, pero sin que en ella se defina ningún tipo de orden o
de relación. Agrupa objetos en subconjuntos o clases de acuerdo con la característica en
común. A todos los miembros de una clase se les asigna el mismo número. El número se
emplea para designar la característica diferente. Estos números no son susceptibles de análisis
por medio de manipulaciones u operaciones, por no ser comparables con la estructura
aritmética. Las escalas nominales nos indican la frecuencia total de una característica:
a) Reflexiva: x1= x1 El sujeto x es igual a si mismo en la característica medida.
b) Simétrica: Si x1 = x2, luego x2 = x1.
c) Transitiva: Si x1 = x2 , y x2 = x3, entonces x3=x1 Ya que los tres comparten la misma
característica.

*Ejemplos: color de ojos, estado civil, sexo, etc.

Si es una investigación sobre producción agrícola queremos determinar los cereales que se
cultivan en una cierta región, tendremos una variable que se designará como "cereal cultivado".
Los distintos valores que esa variable reconoce serán, concretamente: trigo, maíz, centeno, etc.
Entre estos valores no cabe obviamente ninguna jerarquía, no se puede trazar ningún
ordenamiento. Sin embargo, a la enunciación explícita de todas estas posibilidades la
consideramos como una escala, pues de algún modo es útil para medir el comportamiento de la
variable, indicándonos en qué posición se halla en cada caso.

7.2 Ordinal

Es aquella forma de medición de las variables cualitativas cuyas categorías admiten una
ordenación; distinguen los diferentes valores de la variable jerarquizándolos simplemente de
acuerdo a un rango. Establecen que existe una gradación entre uno y otro valor de la escala, de
tal modo que cualquiera de ellos es mayor que el precedente y menor que el que le sigue a
continuación. Sin embargo la distancia entre un valor y otro no queda definida sino que es
indeterminada. En otras palabras, tales escalas nos esclarecen solamente el rango que las
distintas posiciones guardan entre sí.

Se utiliza cuando se observan diferentes grados de una característica del objeto que ha de
medirse. Exige que los objetos de un conjunto se ordenen por rangos según una característica.
Se pueden asignar a los subconjuntos números ascendentes o descendentes. Estos números no
indican cantidades absolutas ni tampoco que los intervalos entre números asignados a cada
clase sean iguales. Solo señalan el orden por rangos. Cumplen relaciones de > ó <.

a) Irreflexiva. X1 (no mayor que) X1. No se puede cumplir para ninguna x que X>X
b) Asimétrica. Si X1>X2; luego X2 es (no mayor que) X1.
c) Transitiva. Si X3 > X6; y X6>X5, luego X3>X5

* Ejemplo: Nivel socioeconómico (Alto, Medio, Bajo)

Otro ejemplo de escala ordinal es el que suele usarse para medir la variable "grado de
escolaridad": podemos decir que una persona que ha tenido 2 años de instrucción escolar ha
recibido más instrucción que quien solo tiene un año y menos que quien posee tres. Sin
embargo no puede afirmarse válidamente que la diferencia entre quien posee 2 años de
instrucción y quien ha recibido un año es igual a la diferencia entre quienes han recibido 16 y
17años de educación formal. Por tanto, como no podemos determinar la equivalencia entre las
distancias que separan un valor de otro, debemos concluir que la escala pertenece a la categoría
ordinal.
7.3 Intervalo

Escala de intervalos iguales, es propia de las variables cuantitativas, donde las mediciones
poseen un cero relativo; además de poseer la equivalencia de categorías y el ordenamiento
interno entre ellas, como en el caso de las ordinales, tienen las características de que la
distancia entre sus intervalos está claramente determinada y que estos son iguales entre sí. “Si
da información sobre la distancia y la diferencia entre el dato mayor y el dato menor”
 Coinciden más con el sistema numérico y las operaciones sí son admisibles. Se puede
multiplicar o sumar con una constante, p.e. f(x) = a+b(x)
 Indican un orden creciente o decreciente en la magnitud.
 Indican diferencias en la magnitud de la característica medida.
 Diferencia igual a intervalos que hay entre los números dados a características.
 La magnitud de la propia medida coincide con los intervalos que existen entre los
números asignados a dicha propiedad.

*Ejemplo: Tº medida en grados ºF, coeficiente intelectual, etc.

Un ejemplo típico de las escalas de intervalos iguales esta dado por las escalas termométricas.
Entre 23 y 24 grados centígrados, por ejemplo, existe la misma diferencia que hay entre 45 y 46
grados. Muchas otras escalas, como las que se utilizan en los test psicológicos y de rendimiento,
pertenecen a este tipo. La limitación que poseen es que no definen un cero absoluto, un valor
límite que exprese realmente la ausencia completa de la cualidad medida. Por ello no se pueden
establecer equivalencias matemáticas como las de la proporcionalidad: no puede afirmarse que
24° C es el doble de temperatura que 12° C, porque el cero de la escala es un valor arbitrario y
no se corresponde con la ausencia absoluta de la variable que se mide.

7.4 Razón

Escala de cociente o de razón, posee un cero absoluto y es propia de las variables cuantitativas,
en ellas se conservan todas las propiedades de los casos anteriores pero además se añade la
existencia de un valor cero real, con lo que se hacen posibles ciertas operaciones matemáticas,
tales como la obtención de proporciones y cocientes.

Posee todas las propiedades de una escala intervalar (clasifica, ordena, si da información sobre
la distancia y la diferencia entre el dato mayor y el dato menor) pero además el cero es real. La
proporción de un punto a otro cualquiera de la escala es igual e independiente de la unidad de
medida (metro, estatura, peso, etc). Pueden realizarse:

a) Relaciones de equivalencia.
b) Relaciones de > o <
c) Proporción conocida de intervalos.
d) La proporción se mantiene entre dos valores conocidos de la escala.
Ejemplo: Esto quiete decir que un valor de 20 en una escala de este tipo es el doble de un valor
de 10, o de las dos terceras partes de un valor de 30. Son escalas de cocientes las que miden la
longitud, la masa, la intensidad de corriente eléctrica y otras variables del mundo físico.
Difícilmente las variables que intervienen en las ciencias sociales son medidas con escalas de
razones, pues son contados los casos en que dichas variables pueden ser definidas con la
exactitud y precisión necesarias. La economía y la demografía son, entre estas disciplinas, las
que más utilizan escalas de razones.
Resumen

*Permite operaciones ma- * Permite operaciones mate


máticas. máticas.
* Es posible realizar equivalen
Cias de proporciones. ½, ¼ ó
Juan es el doble de alto que Pedro.

8. CONFIABILIDAD
Este es uno de los requisitos que debe reunir toda medición. El otro requisito es la validez. La
confiabilidad es el grado en que la aplicación de un instrumento repetido al mismo sujeto u
objeto produce el mismo resultado. P.e. Un termómetro que dice que en ese momento estamos
a 20 grados C. en 5 minutos dice que está a 40 grados y 2 minutos después indica 3 grados.
Este es un ejemplo de un instrumento NO confiable.

Conocer la confiabilidad y la validez permiten conocer el grado de error. La confiabilidad sirve


para conocer la estabilidad temporal, homogeneidad o equivalencia y la consistencia interna de
un instrumento, brindando así datos sobre la consistencia de las puntuaciones obtenidas por las
mismas personas cuando se les examina en distintas ocasiones con el mismo instrumento, con
conjuntos equivalentes de reactivos o en otras condiciones de examinación.
La confiabilidad de una prueba indica la medida en que las diferencias individuales en los
resultados pueden atribuirse a verdaderas diferencias en las características consideradas y el
grado en que pueden deberse a errores fortuitos. En términos técnicos, permite estimar qué
proporción de la varianza total de las puntuaciones se debe a la varianza de error.
Los Coeficientes de confiabilidad son el resultado de procedimientos matemáticos. Los
coeficientes oscilan entre cero y uno. Cero significa nula confiabilidad y uno representa el
máximo de confiabilidad (total). La confiabilidad de un instrumento de acuerdo al número de
ítems incluidos en el mismo. Todas las categorías de confiabilidad pueden expresarse en
términos de un coeficiente de correlación (r) porque a todas les atañe el grado de consistencia o
acuerdo entre dos conjuntos de puntuaciones obtenidas independientemente.

Cuando se obtiene una correlación negativa entre dos de las variables, por lo general se debe a
la forma de expresar los resultados.

Debido a que muchos coeficientes de confiabilidad y validez se basan en correlaciones, los


reactivos muy difíciles tenderán a carecer de confiabilidad y validez debido a su rango
restringido. Lo mismo ocurre con los reactivos muy fáciles.

0 de confiabilidad en la medición es porque la confiabilidad está contaminada por el error. Y


1.00 significa que no hay error en la medición.

Los niveles de significancia (0 a 1.00) han sido la forma tradicional de evaluar las correlaciones,
pero cada vez existe mayor conciencia de la insuficiencia y defectos de éste procedimiento. Ni
siquiera una correlación elevada logra pasar la prueba de significancia cuando se obtiene de una
muestra pequeña. Una posible alternativa consiste en tomar en cuenta la magnitud real de la
correlación obtenida y estimar el intervalo de confianza dentro del cual es probable que caiga la
correlación de la población.

La confiabilidad se refiere a la precisión con la que se está midiendo el objeto. La confiabilidad


comprueba 4 aspectos en una investigación.

 Congruencia. Las variables y sus indicadores deben medir la misma cosa.


 Precisión. Es posible reproducir la misma investigación con los mismos resultados
 Objetividad. Usando el instrumento, diversos investigadores llevan a la misma
conclusión.
 Constancia. La forma de medición del objeto no debe alterar los resultados. Esto es, el
instrumento debe arrojar los mismos resultados al aplicarlo dos o más veces. 55

Existen diferentes métodos para verificar la confiabilidad de un instrumento.

8.1 Estabilidad o test-retest

Antes - después (test-retest). Se aplica la misma prueba a los mismos sujetos en dos ocasiones
distintas, esto es, se aplica la prueba y después de transcurrido un tiempo se vuelve a aplicar.
Formas paralelas. Se elaboran dos pruebas distintas que midan lo mismo y se aplican a los
mismos sujetos 2 en distintos tiempos. Lo complicado es elaborar 2 pruebas que midan lo
mismo.

La medida de estabilidad por test-retest consiste en aplicar un mismo instrumento de medición


(o ítems indicadores) dos o más veces a un mismo grupo de personas después de cierto periodo.
Si la correlación entre los resultados de las diferentes aplicaciones es altamente positiva, el

r
instrumento se considera confiable. En este caso, la confiabilidad ( n) es simplemente la
relación entre los resultados de las mismas personas en dos aplicaciones de la prueba.

El periodo de tiempo entre las mediciones es un factor a considerar. Si el periodo es largo y la


variable susceptible de cambios, puede tenerse una interpretación confusa del coeficiente de
correlación obtenido en tal investigación. Las correlaciones entre los resultados generalmente
son menores cuando aumenta el intervalo de tiempo entre la aplicación de la prueba en los dos
momentos distintos. El coeficiente de confiabilidad debe ser acompañada de la indicación del
tiempo de intervalo entre las dos aplicaciones y de una descripción de las experiencias
intermedias relevantes.

Por otra parte, si el periodo de aplicación y reaplicación es corto, las personas pueden recordar
cómo contestaron en la primera aplicación del instrumento para que sus respuestas aparezcan
más consistentes de lo que realmente fueron.

La varianza de error en este tipo de aplicaciones se deberá a las fluctuaciones aleatorias que se
presentan en una ejecución de una sesión a otra, que pueden provenir de condiciones no
controladas de la aplicación, p.e. cambios climáticos, externos, ruidos repentinos, fatiga o
enfermedad del examinado, etc. Entre mayor sea la confiabilidad, menos susceptibles serán los
resultados a los cambios fortuitos antes mencionados o al entorno en que se aplica la prueba.

Este tipo de técnica sólo debe utilizarse en pruebas adecuadas para pruebas que no se vean
afectadas por este tipo de aplicaciones. Entre éste tipo de pruebas podemos considerar
aquellas que son motoras o de discriminación sensorial. Sin embargo en la mayor parte de los
casos no es apropiado repetir el examen con el mismo instrumento para encontrar el coeficiente
de confiabilidad.
8.2 Formas Paralelas

En el método de formas alternativas o paralelas, no se administra el mismo instrumento de


medición sino dos o más versiones equivalentes de éste. Las versiones son similares en
contenido, instrucciones, duración y otras características.

Las versiones (generalmente dos) son administradas a un mismo grupo de personas dentro de
un periodo de tiempo relativamente corto. El instrumento es confiable si la correlación entre
los resultados de ambas administraciones es significativamente positiva. Los patrones de
respuesta deben variar poco entre las aplicaciones.

Esta técnica permite conocer la estabilidad temporal y también la consistencia de las respuestas
a diferentes muestras de reactivos (o formas del a prueba), lo que permite combinar dos tipos
de confiabilidad.
Este coeficiente también debe informar la duración del intervalo entre las aplicaciones de las
pruebas, y de una descripción de las experiencias intermedias relevantes.

En este tipo de aplicación (*1) al igual que la técnica de división por mitades que explicaremos
en el siguiente paréntesis (c), debe tomarse las precauciones necesarias para asegurar que en
realidad las pruebas a aplicar son paralelas o equivalentes. En principio deben hacerse
independientemente y diseñarse de modo que cumplan las mismas especificaciones. Han de
contener el mismo número de reactivos y éstos tienen que expresarse de la misma forma,
cubriendo el mismo contenido y ser de igual alcance y nivel de dificultad. Será necesario
también supervisar la equivalencia de instrucciones, límite de tiempo, ejemplos ilustrativos,
formato y todos los otros aspectos de la prueba. También se puede pensar en utilizar varias
formas alternas, lo cual brinda un medio para reducir la posibilidad de preparación o de fraudes.
División por mitades. Se correlaciona la mitad de los reactivos con la otra mitad y si la
correlación es alta indicaría que existe una alta confiabilidad. Generalmente se toman los pares
contra los nones.

8.3 División por mitades

El método de mitades partidas (split-halves) sólo requiere una aplicación de la medición. El


conjunto total de ítems o componentes es dividido en dos mitades y las puntuaciones o
resultados de ambas son comparados. Si el instrumento es confiable, las puntuaciones de
ambas mitades deben estar fuertemente correlacionadas, es decir, un individuo con una baja
puntuación en una mitad tenderá a mostrar también una baja puntuación en la otra mitad.

Sin embargo es importante señalar que al dividir los ítems del instrumento en dos grupos, los
ítems se deben encontrar emparejados en contenido y dificultad. Debemos asegurar que sean
equivalentes, como se indica también en la técnica de formas paralelas ( *1). Pues de lo
contrario es posible que las mitades no sean equivalentes por diferencias en la naturaleza y el
nivel de dificultad de los reactivos por los efectos acumulativos de calentamiento, prácticas,
fatiga, aburrimiento y por cualquier otro factor que varie progresivamente desde el inicio hasta
el final de la prueba.

Un procedimiento adecuado para ésta técnica es separar las puntuaciones de los reactivos
nones y pares. Si los reactivos están dispuestos en un orden aproximado de dificultad, la
división producirá calificaciones casi equivalentes en ambas mitades.

Esta técnica brinda una medida de consistencia del contenido muestreado, por lo cual también
se conoce como coeficiente de consistencia interna pues requiere una sola aplicación en una
sola forma. Sin embargo, esta medición no ofrece una medida de la estabilidad temporal de las
puntuaciones porque el procedimiento consiste en una única sesión de prueba.

Método de Kuder - Richardson. Se utiliza cuando se desea saber si la varianza de un reactivo


afecta los resultados de la prueba.
8.4 Consistencia Interna

D= Índice de discriminación. Se refiere a la relación del reactivo con la prueba total. “D” altos
significa alta consistencia interna, es decir, las correlaciones entre reactivos son muy positivas.
Una alta consistencia interna no significa que exista una alta correlación con el criterio externo.
El índice de discriminación (D) es lo que nos indica la consistencia interna del instrumento.

Modelo Alpha. Está basado en el coeficiente alpha de Cronbach que mide la consistencia interna
del instrumento, esto es, que tanto los reactivos al interior de la prueba se relacionan entre sí.
Es el más utilizado, ya que se realiza generalmente en la computadora y es muy rápido de
elaborar.

Alpha Estandarizado. Es un procedimiento similar al anterior solo que los resultados se obtienen
mediante las desviaciones estándar de los reactivos.

d) Alfa de Cronbach. Coeficiente desarrollado por J.L. Cronbach. Requiere solamente


una administración del instrumento de medición y produce valores que oscilan de cero a
uno. No es necesario dividir en dos mitades el instrumento de medición.
 Evalua la consistencia interna del instrumento: qué tanto los reactivos al interior de la
prueba se relacionan entre sí.

El alfa estandarizado es diferente al alfa de chronbach. El alfa estandarizado se obtiene a partir


de la Desviación Estandar.

e)Coeficiente KR-20 .

 Evalúa consistencia de los reactivos: si la varianza de un reactivo afecta los resultados de la


prueba.
 Generalmente son dicotómicos.

Desarrollado por Kuder y Richardson en 1937. Permite estimar la confiabilidad de una medición.
Su interpretación es la misma que la del alfa de Cronbach. Se basa en la consistencia de las
puntuaciones a todos los reactivos de la prueba. La consistencia interna entre los reactivos
puede disminuir su confiabilidad por dos fuentes de varianza de error: 1 muestreo de contenido
–que sean equivalentes los reactivos a correlacionar— y 2, la heterogeneidad del área de la
conducta muestreada –cuando el área que se desea evaluar es muy heterogénea, es posible que
los reactivos no evalúen la totalidad de dicha área—.

El procedimiento más común para encontrar la consistencia entre reactivos fue creado por
Kuder y richardson (1937). Como en el método de división por mitades, la consistencia entre los
reactivos se encuentra en una sola aplicación de una uúnica prueba, sin embargo en lugar de
requerir las puntuaciones de las dos mitades, la técnica se basa en el examen de desempeño de
cada reactivo. Kuder y Richardson desarrollaron diferentes fórmulas para éste cálculo, sin
embargo la más conocida y denominada fórmula 20 (KR-20) es la siguiente:

La fórmula de Kuder-Richardson puede aplicarse a pruebas cuyos reactivos se califiquen como


aciertos o errores, o de acuerdo con algún sistema de todo o nada.
Otros tipos de confiabilidad

Coeficiente de correlación de producto –momento de Pearson— . Toma en consideración la


posición de la persona en el grupo y también la cantidad de su desviación por encima o debajo
de la media del grupo. Hay calificaciones estándares, quienes caen por encima del promedio
reciben calificaciones positivas y quienes caen por debajo obtendrán calificaciones negativas. Si
multiplicamos la calificación estándar de cada individuo en la variable 1 por su calificación
estàndar en la variable 2, todos los productos seràn positivos si cada cual cae del mismo lado de
la media en ambas variables.

El coeficiente de correlación de Pearson es simplemente la media de esos productos; será alta y


positiva cuando las calificaciones estàndares correspondientes sean de igual signo y
aproximadamente iguales en ambas variables. Cuando los sujetos estèn por encima del
promedio en una variable y por debajo de la otra, los productos cruzados correspondientes
serán negativos. Cuando algunos productos son positivos y otros negativos, la correlación será
cercana a cero, es decir, sin confiabilidad.

Confiabilidad entre calificadores. La mayor parte de las pruebas proporciona procedimientos


tan estandarizados para la administración y calificación, que la varianza de error atribuible a
estos factores es insignificante. Sin embargo una forma sencilla de verificar que esta diferencia
entre la codificación entre calificadores es mínima, ser realiza mediante verificar la varianza de
error del calificador calculando la confiabilidad entre calificadores.

Algunas categorías de las pruebas –especialmente en aquellas que son proyectivas, de


personalidad o de creatividad— dejan mucho la calificación al juicio del calificador. La
confiabilidad del calificador se consigue con una muestra de pruebas calificadas
independientemente por dos o ma´s examinadores. Los dos resultados se correlacionan de
acuerdo con la forma común y el coeficiente de correlación es la media de la confiabilidad del
calificador. Esta clase de confiabilidad suele calcularse cuando se emplean instrumentos de
calificación subjetiva.

A continuación presentamos las pruebas en un cuadro a manera de resumen. Y abajo del


mismo, algunos datos que permitirán la comprensión del mismo:

*Muestreo de tiempo: El tiempo puede influir en los cambios en la respuesta del sujeto en dos pruebas
aplicadas en tiempos distintos.
*Muestreo de contenido. Las dos pruebas utilizadas no son equivalentes en contenido.
*Heterogeneidad de contenido. El área a evaluar cuenta con diferentes categorías a considerar, y es
demasiado heterogénea. Evaluar tal área podría implicar que no tomemos en cuenta algunas de sus
categorías y con ello la prueba perdería confiabilidad.

9. VALIDEZ (PSICOMÉTRICA)
La validez se refiere al grado en que una prueba mide la variable que supone medir y por lo
tanto lo apropiado de la inferencias que pueden realizarse con base en los resultados de la
prueba. La validación en un proceso continuo nunca acabado. Una validación ideal incluye varios
tipos de evidencia ideales (contenido, constructo y criterio).

La validez es la correspondencia entre las definiciones y las variables. Intenta contestar a la


pregunta ¿Es representativo nuestro estudio? Una investigación, por su validez puede ser:

 Mala. Mide todo menos lo que quiere medir.


 Regular. Mide algo muy bien pero no lo que pretende medir (autoestima, locus de
control).
 Buena. Mide con precisión lo que pretende medir.

Una investigación puede ser confiable pero no válida pero no medir lo que se pretende sin
precisión. Esto es, La confiabilidad es requisito indispensable para la validez.

La validez se clasifica en:

a) Subjetiva o aparente: el grado aparente hasta el cual el examen parece medir lo que está
midiendo. (inspección)
b) Validez Objetiva. Se subclasifica en validez de contenido, de constructor (o concepto) y de
criterio.

9.1 Validez de contenido o interjueces

 Denota la representatividad del muestreo del contenido de una prueba.


 Un contenido es igual a áreas, items, subtemas, reactivos.
 Consiste en comprobar que las preguntas de un instrumento tengan que ver con lo que
se está midiendo de acuerdo con un juicio
 Se trata de que unos jueces competentes o expertos en la materia juzguen el
cuestionario.

Considera los siguientes puntos:

 Si los reactivos de la prueba son representativos del campo que la prueba pretende medir.
 Que la prueba contenga los ítems que concuerden con los objetivos de la misma.
 Contiene suficiente información para cubrir lo que supone que mide?
Cual es el nivel de destreza en el que evalúa el contenido?
9.2 Validez de Constructo o de concepto

Este tipo de validez es el concepto unificador de validez que integra consideraciones de


contenido y de criterio, en un marco general para probar hipótesis racionales a cerca de
relaciones teóricamente relevantes. Es la relación de la variable medida operacionalmente con
la variable definida conceptualmente (teóricamente). Debe explicar el modelo teórico-empírico
que subyace a la variable de interés. (tiene que ver con la teoría). Es qué tan exitosamente un
instrumento mide un constructo (concepto).

Cuando deseamos medir una característica psicológica de los sujetos, en primer lugar se define
ésta y a continuación se establecen operaciones diseñadas para proporcionar descripciones
cuantitativas del grado en que un individuo la posee o manifiesta. Debemos plantearnos el
GRADO en que las propiedades medidas por dicho conjunto de operaciones corresponden de
hecho a la característica DEFINIDA. Antes de aceptar un conjunto de operaciones es necesario
saber si mide lo que pretende medir y cuales son las consecuencias potenciales de la
interpretación de las puntuaciones.

*Todos los datos provenientes de la TEORIA son útiles para la validez de constructor.

Se utiliza cuando no existe un criterio externo. Es una validación indirecta. Busca características
en los sujetos que influyan en el desempeño en una prueba Se obtiene a través de las siguientes
técnicas:

a) Diferencias entre grupos. Busca diferencias consistentes mediante:

 Pruebas t
 Análisis de varianza

Por ejemplo: Perfiles de calificación diferentes para hombres y mujeres

b) Matrices de correlación y análisis factorial. Establece una serie de variables o factores que
podrían afectar la puntuación. Se correlaciona el puntaje de cada ítem con el total del área a la
que corresponde, cada área con el total del cuestionario, y finalmente cada área con las demás.
Para calcularla se utiliza el coeficiente de determinación que es el coeficiente de correlación al
cuadrado. Indica el porcentaje de variabilidad.

c) Selección del criterio ¿Cómo sabemos que seleccionamos el criterio adecuado?


La bondad de un criterio en muchas ocasiones se modifica con el tiempo. Ejemplo:
Originalmente las escalas de inteligencia como Binet se consideraban válidas por concordar con
los juicios que emitían los profesores de los niños. Actualmente sí un niño obtiene en una
prueba como WISC un CI alto, pero sus profesores opinan que es un niño tonto, no pensamos
que la prueba no sirve, se lo atribuimos a otras características.

El peligro de seleccionar un criterio es que quizá no este operacionalizado de forma similar, que
esté influido por otros fenómenos o que no sea suficiente para establecer una interpretación.
Se subdivide en validez de constructor convergente y divergente.
Utilizamos el análisis factorial. Al diseñar cualquier instrumento, el universo de conductas, entre
categorías, podemos ver cuántos factores (V.I) se miden en un instrumento a partir de un
análisis factorial. P.e. Violencia. Vemos 3 tipos de violencia : física, psicológica y sexual. En ello
vemos cuántos (y cuales) factores se están midiendo en la prueba que realizo. Si el resultado
identifica 4 factores, entonces nuestra prueba está muy cerca de diferenciarse. Cuando llegue a
3 (violencia física, psicológica y sexual), entonces el instrumento exactamente lo q queremos
medir.

Se establece al validar un instrumento de medición al compararlo con otro instrumento que


pretende medir lo mismo.

9.2 Validez de constructo o concepto a) convergente

Convergencia significa que todos los datos recabados de distintas fuentes y con métodos
diferentes revelan que las construcciones tienen un significado igual o similar. Los diversos
métodos de medición han de convergir en la construcción. Los datos que se obtienen al aplicar
el instrumento de medición a grupos distintos en lugares también diversos deben producir
resultados parecidos o, en caso contrario, explicar las diferencias. P.e. Una medición del
concepto del yo en niños ha de ser susceptible de una interpretación semejante en varias partes
del país. Si en alguna localidad no sucede así, la teoría deberá explicar porqué no, de hecho ha
de predecir esta diferencia.

9.2 Validez de constructor o concepto b)divergente o de discriminación.

Significa que empíricamente se puede distinguir la construcción hipotética de otras similares y


que se puede identificar lo que no guarda relación con ella. Es decir, indicamos cuales son las
variables que se correlaciones con esa construcción y la manera en que lo hacen, pero también
indicamos cuales no deben estar correlacionadas con ella.

9.3 Validez de criterio

El grado hasta el cual la prueba mide lo mismo que miden otras pruebas psicológicas ya existentes
(como q la de criterio critica a otras). Se mide computando un coeficiente de correlación entre los
resultados de ambas administraciones. (coeficiente de validez) Periodo de administraciones corto y
se subdivide en validez de de criterio concurrente y predictiva. Ejemplo: Fernando trata de medir si
es aceptado por laura. Para asegurarlo, le toma la mano para ver si ella no quita la mano. El segundo
criterio para “volver a comprobar” será ver a Laura fijamente. Si ella no quita la mirada, entonces es
un segundo criterio para valorar la aceptación de Laura.

9.3 Validez de criterio a) concurrente

Si el criterio se fija en el presente de manera paralela, se habla de validez concurente. Pero no todas
las pruebas se fijan en el presente. Está orientada por criterios:

 La correlación entre el puntaje arrojado por el instrumento y un criterio externo


 El criterio externo debe ser otro instrumento o forma de evaluación que mida la misma
característica
 Debe ser aplicado casi al mismo tiempo. No pasar más de 5 días.
 Debe aplicarse un coeficiente de correlación de Pearson
 La correlación debe ser positiva significativamente y mayor a .80

9.3 Validez de criterio b) predictiva

En el caso de una prueba que busca identificar el criterio en el futuro. Grado hasta el cual la
ejecución de una prueba sirve para predecir eficientemente la conducta futura de las personas
que se han examinado. El periodo de administraciones largo y puede aplicarse una prueba
semejante. Si queremos predecir la variable en el futuro, entonces hablamos de validez
predictiva.

 Está orientada por criterios


 Correlación entre el puntaje del instrumento y un criterio externo
 El criterio externo no es aplicado al mismo tiempo
 Se recomienda que el criterio predictivo no sea anterior ni posterior a 6 meses de
aplicación del instrumento a validar
 Se calcula el coeficiente de correlación de Pearson

Problemas
 El tiempo hace que otros factores intervengan en el resultado
 Debe tenerse cuidado de no confundir la validez predictiva del instrumento con las
relaciones entre fenómenos
 La correlación puede ser significativamente positiva o negativa dependiendo de la
relación buscada

Otro tipo de validez

Validez Facia o aparente. La prueba es aplicada por dos sujetos que no son expertos.

ESTADÍSTICA

10. ESTADISTICA DESCRIPTIVA

Es una técnica para describir mejor el mundo y el conocimiento. Para representarla usamos
gráficas, tablas, medidas de tendencia central, medidas de variabilidad. Estas tienen la función
de organizar y sistematizar la información. Permiten resumir la información. Podemos ver así la
magnitud y cantidad de las variables. También vemos relaciones entre variables. La estadística
descriptiva considera las medidas de tendencia central, medidas de dispersión y las tablas y
gráficas. Las imágenes se entienden más fácil que las tablas:

 Pastel
 Barras
 Campana de Gauss o curva Normal
 Lineales (ojiva, dirección o tendencia)

 Tridimencionales (x, y, z). Cuando se tienen dos variables independientes y se quiere


observar los efectos sobre la V.D.

Los datos se pueden dividir en categóricos (nominal) y numéricos (ordinal, intervalo o razón)

10.1 Medidas de tendencia central

Son los valores medios o centrales de una distribución que sirven para ubicarla dentro de la
escala de medición. Permiten resumir una serie de valores en uno solo. Son índices estadísticos
numéricos descriptivos. Sirven para resumir un conjunto de observaciones o datos a través de
un solo valor numérico entorno al cual es posible analizar (un conjunto) cómo se distribuyen
entorno a un valor central.

Moda- categoría o puntuación que ocurre con mayor frecuencia o que se repite mayor número
de veces. Pueden existir datos bimodales o multimodales.

Mediana- valor que divide la distribución por la mitad, la mitad de los casos caen por debajo de
la mediana y la otra mitad se ubica por encima de la mediana. Es el valor que divide en dos
partes iguales la distribución de acuerdo a su magnitud, de tal forma que la mitad de las
puntuaciones son mayores que la mediana y la otra mitad, menores. Refleja la posición
intermedia de la distribución, se aplica en niveles de medición ordinal, por intervalos y de razón.
La formula nos proporciona el número de caso en donde se encuentra la mitad.
N+1
2
Media- X Es el promedio aritmético de una distribución, es la suma de todos los valores dividida
entre el número de casos, se aplica solo a mediciones por intervalo o de razón. Sus propiedades
son:
a) Es el punto de un conjunto de datos en el cual la suma de las desviaciones es igual a
cero. Es decir, la suma de la desviación de cada puntuación, respecto a la media es
exactamente cero.
b) La media hace la suma de los cuadrados de las desviaciones de las puntuaciones
respecto a la media menor que la suma de los cuadrados de las desviaciones a cualquier
otro puto que no sea la media.

10.2 Medidas de variabilidad o dispersión

Las dos características más importantes de cualquier conjunto de datos son:

j. Su tendencia Central
k. Su variabilidad o dispersión

Estos conceptos nos sirven para resumir las características principales de un conjunto de datos.
Ambos son requisito indispensable para poder interpretar una observación.

Las medidas de tendencia central están relacionadas con el promedio o valor típico o
representativo de la distribución. Mientras que la variabilidad entre los valores, se refiere a qué
tan grandes son las diferencias entre ellos. Así, las medidas de variabilidad cuantifican el grado
de dispersión o la extensión de las diferencias individuales en la distribución. El concepto
dispersión se refiere a la variabilidad entre un conjunto de observaciones.

Indican la dispersión de los datos en la escala de medición, responden a la pregunta de ¿donde


están diseminadas las puntuaciones o los valores obtenidos?, son intervalos que designan
distancias o un número de unidades en la escala de medición. “El propósito de la ciencia es
encontrar la variabilidad de sus fenómenos, sus regularidades (poca variabilidad). Las medidas
de variabilidad permiten conocer que tan homogéneo o heterogéneo es el grupo”.

Así, encontramos tipos de variabilidad acorde a la escala de medición que estemos utilizando:

 Variabilidad en el conteo. Se cuenta cuántas variables hay dentro de una categoría.


Aplica para escalas nominales. P.e. ¿Qué actividad haces en tiempo libre? 5 leen, 4 ven
TV, 2 juegan.
 Variabilidad en escala ordinal: Muy frecuente, frecuente, normal, poco, muy poco.
 Variabilidad en intervalo: La variabilidad será el rango (el número de datos que hay
desde el menor dato hasta el mayor dato).
Y las medidas de dispersión que existen son:

a) Valor mínimo y máximo


b) Rango
c) Varianza
d) Desviación Estándar o típica

a) Valores mínimo y máximo. Estos valores sirven para describir a la población y funcionan
como indicadores para determinar dónde se encuentran los sujetos con respecto a la
variable evaluada. Asimismo, van a utilizarse para obtener el rango de la distribución.
b) Rango o amplitud o recorrido. Mide la extensión total de un conjunto de datos y se
calcula utilizando únicamente dos números. Para encontrar el rango se restan los dos
extremos de la medición: la medición más grande menos la medición más pequeña.

El rango sirve para describir la distribución de datos y se interpreta como el valor que
indica la cantidad de unidades que se encuentran comprendidas entre el valor mínimo y el
valor máximo de la distribución. Se interpreta como el valor que indica la amplitud de la
base de la curva de distribución. Cuanto más grande sea el rango, mayor será la dispersión
de los datos de una distribución.

El rango de la muestra aún cuando es fácil de calcular, a menudo es calificado de


ineficiente porque ignora toda la información disponible en los valores intermedios de la
muestra. Sin embargo, para muestras pequeñas, la eficiencia es suficientemente alta. As el
rango de la muestra goza de una aceptación favorable y uso amplio, debido a la facilidad
para calcularlo en aplicaciones estadísticas como control de calidad, donde las muestras
son pequeñas.
c) VARIANZA. Es una medida de dispersión que se abrevia s² e indica qué tanto se alejan
los datos con relación a la media. La varianza se basa en el cuadro de la diferencia entre
cada uno de los valores del conjunto de datos y la media del grupo.

La varianza toma en cuenta la distancia de cada medida con respecto a la media; esta
distancia se llama desviación. Si una sola medición cae a la izquierda de la media sobre
una gráfica de datos, se dice que la medida tiene una desviación negativa con respecto a
la media; si cae a la derecha de la media, se dice que tiene una desviación positiva. Si
tratamos de calcular la distancia promedio de cada medida con respecto a la media, la
suma de desviaciones positivas invalida la suma de las desviaciones negativas. El
resultado de la suma numérica es cero, es decir, representa una medida inútil de
variabilidad. Para evitar este problema, se elevan las desviaciones al cuadrado (de este
modo se eliminan los signos negativos) y entonces, se promedia la suma de los
cuadrados. Este cálculo produce la varianza que indica la desviación con respecto a la
media de cada medida de la muestra.
La varianza para datos agrupados se obtiene restando el punto medio del intervalo
mayor del punto medio del intervalo más pequeño, obteniendo así los valores de x.
La fórmula de la varianza es la siguiente:
Así, la varianza considera las desviaciones de las puntuaciones respecto a la media, pero
cada una de ellas elevada al cuadrado con la finalidad de evitar el obstáculo de que su
suma sea igual a cero (Es el promedio de la D.E. cuadrática). Está en función del total de
datos en el conjunto.

 Cociente de variabilidad. Otra forma alterna de expresar la varianza es mediante el


cociente de variabilidad. Éste expresa la variación como porcentaje por medio de la
transformación de la desviación típica/estándar como porcentaje de la media. Este
índice estadístico permite transformar medidas de dispersión absolutas en relativas

La forma en la cual se puede expresar la varianza en símbolos es la siguiente:

V = Es decir la varianza de la población con respecto a determinadas variables


S₂ = Varianza de la muestra, la cual podrá determinarse en términos de probabilidad

Varianza de error o varianza verdadera

Cualquier condición que sea irrelevante para el propósito de la prueba responde a lo


que se conoce como varianza de error. La forma en la cual los examinadores tratan de
reducir ésta varianza y por ende, de hacer más confiables las puntuaciones de la prueba,
es manteniendo uniformes las condiciones de aplicación mediante el control del
entorno, las instrucciones, los límites de tiempo, el rapport y otros factores similares.
Sin embargo, aún cuando se cuente con condiciones óptimas para la aplicación de un
instrumento, ninguno es perfectamente confiable.

(se)₂ = el error estándar al cuadrado, es la formula que nos servirá para calcular la
varianza (V) de la población (N). Y la varianza de la muestra (n) será la expresión S ₂

d) Desviación estándar/típica- σ o s. Qué tanto se desvían los datos con respecto a la


media. Es el promedio de desviación de las puntuaciones con respecto a la media que se
expresa en las unidades originales de medición de la distribución.

Se encuentra estrechamente relacionada con la varianza. Cuando se desea expresar la


dispersión en término de las unidades originales en las que se encuentran los datos, es
necesario obtener la raíz cuadrada positiva de la varianza para tener una estimación de
la variabilidad de los datos en sus unidades originales. Cuanto mayor sea la dispersión
de los datos alrededor de la media, mayor será la σ o s. La fórmula para calcularla es:

s=√ (X- X
͞ )²
N

√ = raíz cuadrada
Para calcularla, se ordenan las puntuaciones, se calcula la media, se determina la
desviación de cada puntuación con respecto a la media, se eleva al cuadrado cada
desviación, se suman estas desviaciones elevadas al cuadrado, el total se divide entre el
total de los datos y por último se saca raíz cuadrada

“Se” ó s ó z= es la desviación estándar de la distribución muestral y representa la


fluctuación de la VD (y). Por su parte, σ se refiere a la D.E. de todo el universo.

10.3 Simetría y Curtosis

Son el análisis de probabilidad y la visualización del grado de dispersión de la curva.

10.3 a) Simetría

La simetría es una estadística para conocer cuánto se parece la distribución a una distribución
llamada curva normal y constituye un indicador del lado de la curva donde se agrupan las
frecuencias.

Asimetría 0 = curva o distribución simétrica


Asimetría + = más valores agrupados hacia la izquierda de la curva. (por debajo de la media)
Asimetría - = más valores agrupados hacia la derecha de la curva (por encima de la media)

10.4 b) Curtosis

Es un indicador de lo plana o picuda que es una curva. Cuando es cero (curtosis = 0), significa
que puede tratarse de una curva normal. Si es positiva, quiere decir que la curva, la distribución
o el polígono es más picudo o elevado. Si la curtosis es negativa, indica que es más plana que
curva. La asimetría y la curtosis requieren mínimo de un nivel de medición por intervalos.

Curtosis 0 = curva normal. También se le conoce como mesocúrtica o semiaguda.


Curtosis + = curva picuda o levantada. También se le conoce como leptocúrtica o aguda
Curtosis - = curva plana. También se le conoce como platocúrtica.

Magnitud de la Tendencia
b = 0 No hay tendencia
b > 0 Tendencia positiva
b < 0 Tendencia negativa
11. ESTADÍSTICA INFERENCIAL
11.1 Prueba de hipótesis

Las hipótesis cuantitativas se someten a prueba o escrutinio empírico, para ver si son apoyadas
o refutadas, de acuerdo con lo que el investigador observa. Cuantas más investigaciones
apoyen una hipótesis, más credibilidad tendrá y por supuesto será válida para el contexto (lugar,
tiempo y sujetos u objetos).

Pasos a seguir en prueba de hipótesis:

1. Datos: especificar la naturaleza de los datos (variable dependiente) de qué estamos hablando
o midiendo?
2. Formularemos hipótesis:
• Hipótesis Alterna: Operacionalización de la hipótesis de investigación.
Hip. Inv

Ha. Transforma H.I en num o simb.

Ho En contra de Ha y tiende a ser rechazada.


• Hipótesis Nula (Ho): Se formulan con el propósito de ser rechazadas porque siempre le
lleva la contraria a Ha.

3. Elección de la prueba estadística: Paramétricas o No paramétricas


4. Nivel de Significación(alfa): Se refiere al margen de error que estamos dispuestos a correr en
la investigación los valores mas usuales son: .05 (95%), .01(99%) y .001(99.9%). El investigador
decide cuál va a usar.
5. Región de rechazo: subconjunto de valores extremos de la distribución muestral q tiene una
probabilidad de ocurrencia muy baja.
6 Decisión estadística: Si se acepta o rechaza Ho.
7. Conclusión: a partir de lo anterior se concluye en función de la hipótesis de investigación.

Hipótesis bilateral o de dos colas. Sólo se establece que existen diferencias, pero no se indica
en qué sentido (mayor ni menor). P.e. los niños de escuelas privadas tienen diferentes
habilidades de reflexión a los niños de escuelas públicas.

Pensemos q los niños de escuelas públicas son F1 y los de privada son F2

Nuestra hipótesis nula sería Ho: F1 = F2


Nuestra hipótesis de investigación sería Hi: F1 F2

Hipótesis unilateral o de una cola. Se establece cual será el sentido de la diferencia (mayor o
igual; menor o igual). P.e. Los niños de escuelas privadas tienen mayores habilidades de
reflexión de los niños de escuelas públicas. En éste ejemplo, si las habilidades son menores o
iguales, se acepta la hipótesis nula y se rechaza la hipótesis de investigación. Veamos como
sería:
Nuestra hipótesis nula sería Ho: F1 (igual o menor) F2
Nuestra hipótesis de investigación sería Hi: F1 > F2

11.2 Distribución muestral

Es un conjunto de valores sobre una estadística calculada de todas las muestras posibles de
determinado tamaño de una población. La distribución muestral es un conjunto de valores
sobre una estadística calculada de todas las muestras posibles de determinado tamaño de la
población. Las distribuciones muestrales de medias son las más conocidas.

Un ejemplo podría ser el de una muestra de 512 automovilistas. En esta muestra podríamos
obtener submuestras, es decir, dividir la población en diferentes muestras que conformen el
total de la muestra de 512 automovilistas.

De cada una de las submuestras, obtendríamos datos. Por ejemplo, podríamos obtener la
media de cada submuestra, de modo que tendríamos un número de medias (X1, X2, X3, etc) igual
al número de submuestras que conforman la muestra total. La representación de la distribución
muestral podrá observarse en una gráfica donde señalemos la media de cada grupo. Veamos la
siguiente gráfica:
* En este ejemplo mostramos la distribución muestral de una gran muestra conformada por 9
submuestras.

Y también se podría obtener la mediana, la moda o algún otro dato de cada muestra. La
distribución muestral consistirá en representar en una gráfica con el valor obtenido en cada
submuestra.

Ahora, no todas las distribuciones muestrales formarán una curva tan simétrica como la que
acabamos de representar. Este tipo de representaciones se observarían en poblaciones cuyos
datos son normales.
Campana Gauss
Ahora sí veremos a qué nos referimos con una distribución muestral normal. Cabe considerar
que muy rara vez se obtiene la distribución muestral (distribución de las medias de todas las
muestras posibles). Ello es más utilizado como un concepto teórico definido por la estadística
para los investigadores. Lo que generalmente se hace es extraer los datos de una sola muestra.
La media de la muestra total debe ser muy cercana a la media de la distribución muestral.
Considerando que se tomaría toda la muestra sin dividirla, encontramos que los datos que se
observarían en una curva normal (o de distribución normal) serían los siguientes:

a. Unimodal. Todos los datos obtenidos (la muestra total, no las submuestras) tienen una
sola moda.
b. Asimetría cero. La mitad de la curva es exactamente igual a la otra mitad.
c. Mesocúrtica. Es decir, la curtosis es igual a cero. Lo cual significa que la curva no es ni
muy picuda ni muy plana.
d. La media, mediana y moda coinciden en el mismo punto. El valor de la media,
mediana y moda será el mismo.
Para el análisis paramétrico de datos, debemos contar con una muestra cuyos resultados nos
den una distribución normal, es decir, bajo los criterios que acabamos de listar.

11.3 Nivel de significancia

El nivel de significancia significa qué tanto podemos equivocarnos al presentar una hipótesis.
Por ejemplo, si tenemos 95 de 100 boletos de una rifa, tendremos 95% de probabilidades de
ganar y un 5% de probabilidad de perder. Este último porcentaje podría ser el equivalente al
nivel de significancia(s).

Al comprobar o descartar hipótesis, debemos considerar qué nivel de significancia utilizaremos,


es decir, indicar cuál es el porcentaje de que falle nuestra hipótesis. Y el máximo nivel de
significancia que se permite es de 0.05, es decir, el 5% de probabilidad de equivocarnos. Otro de
los niveles de significancia utilizados en psicología es del 0.01 que equivaldría al 1% de
probabilidad de error.

La probabilidad de que un evento ocurra oscila entre 0 y 1 donde cero es la imposibilidad de


ocurrencia y 1 la certeza de que ocurra. Es un valor de certeza que el investigador fija a priori
respecto a no equivocarse.

Los niveles de significancia más comunes son 0.05 (p<0.05), 0.01 (p<0.01) ó 0.001 (p<0.001) para
investigaciones más precisas. Se simboliza con la letra alfa.
Modelo probabilístico: En vez de considerar los datos en términos porcentuales, se consideran
en términos de proporciones. Así, el dato proporcional con el cual se indica el error
probabilístico, puede entenderse en las siguientes gráficas.

11.4 Intervalo de confianza

Se hablo de la distribución muestral por lo q respecta a la prueba de hipótesis, pero otro


procedimiento de la estad. Inferencia. Es el intervalo donde se localiza un parámetro. El nivel de
confianza es al intervalo de confianza lo que el nivel de significancia a la prueba de hipótesis. Los
niveles más comunes 0.95 que refiere al 95% a favor de que el parámetro se localice en el
intervalo estimado, contra 5% de elegir un intervalo equivocado. Y el de 0.99. Tales niveles se
expresan en unidades de desviación estándar.

El intervalo de confianza se expresa en porcentajes, mientras que el nivel de confianza se


expresa en decimales, igual que el nivel de significancia se expresa en decimales (0.05).

11.5 Tipos de error

• Aceptar una hipótesis verdadera (decisión correcta)


• Rechazar una hip. Falsa (decisión correcta)
• Aceptar una hip. Falsa (error tipo II o error beta) Esto es cuando se acepta la hipótesis nula
cuando ésta es falsa.
• Rechazar una hipótesis verdadera (error tipo I o error alfa). Esto es cuando se rechaza la
hipótesis nula cuando ésta es verdadera.

Se pueden reducir los errores:

• Muestras representativas probabilísticas


• Inspección cuidadosa de los datos
• Selección de las pruebas estadísticas apropiadas.
• Mayor conocimiento de la población.

12. ESTADÍSTICA PARAMÉTRICA

El análisis mediante estadística paramétrica permite aceptar o rechazar hipótesis de datos


nominales o de razón muy exactos que deben cubrir ciertas características. Para empezar
deben tener una distribución muestral. ¿Qué es una distribución muestral normal? Para
entenderlo, primero explicaremos qué es una distribución muestral.

Pruebas Paramétricas: hacen una serie de suposiciones acerca de la población de la cual se


extrajo la muestra. Se utilizan cuando se tengan variables cuantitativas o variables numéricas (t
de student, F o análisis de varianza). Se pueden generalizar a la población. Y tienen una
distribución normal.
12.1 Supuestos

Para realizar análisis paramétricos debe partirse de los siguientes supuestos:

1. La distribución poblacional de la variable dependiente es normal: el universo tiene una


distribución normal.
2. El nivel de medición de la variable dependiente es por intervalos o razón.
3. Cuando dos o más poblaciones son estudiadas, tienen una varianza homogénea: las
poblaciones en cuestión poseen una dispersión similar en sus distribuciones.

12.2 Correlación de Pearson

Debemos considerar que para realizar éste análisis, debemos contar con una distribución
poblacional (muestral) normal, es decir, que puedan distribuirse en una curva normal, y
también debemos recordar los niveles de significancia. El coeficiente de correlación de pearson,
permitirá probar o rechazar hipótesis. Ahora sí enumeraremos los supuestos para realizar
estadística paramétrica:

a. La distribución poblacional de la variable dependiente es normal: el universo tiene una


distribución norma.
b. El nivel de medición de la variable dependiente es por intervalos o de razón.
c. Cuando dos o más poblaciones son estudiadas, tienen una varianza homogénea: las
poblaciones en cuestión poseen una dispersión similar en sus distribuciones.

¿Para qué sirve?


Prueba estadística para analizar la relación entre dos variables medidas en un nivel por
intervalos o de razón. Se simboliza con la letra r
Nivel de medición: Intervalo o razón.
Tipo de hipótesis a probar con el coeficiente de Pearson: Correlacional, directa o
indirectamente proporcional:

 “A mayor X, mayor Y”,


 “A mayor X, menor Y”,
 “Altos valores en X están asociados con altos valores en Y”,
 “Altos valores en X se asocian con bajos valores de Y”.

Tipos de variables.
Dado que no evalúa causalidad, no pide establecer una variable como dependiente y otra como
independiente. Lo que se hace es relacionar las puntuaciones obtenidas de una variable con las
obtenidas en la otra variable, en los mismos participantes o casos. La noción de causa-efecto (VI
– VD) no se establece en éste coeficiente, pero es posible establecerlo teóricamente.

Interpretación.
Puede variar de -1.00 a +1.00. Donde + es correlación positiva y – correlación negativa.

Varianza de factores comunes.


Este es otro valor que nos ayuda a saber el porcentaje en que la manipulación de una variable
modifica la segunda variable. Se obtiene elevando al cuadrado la r de pearson. Ese valor dará
un resultado que puede ir de cero a uno, donde 1 es igual a 100% y cero al 0%.

Para indicar que existe influencia entre variables, debemos obtener una varianza de factores
comunes que se encuentre entre valores de 0.66 hasta 0.85, es decir, que existe una
probabilidad del 66% al 85% de que si se modifica una variable, habrá cambios en la otra.
Resultados mayores al 85% podrían implicar el riesgo de que en realidad se esté midiendo la
misma variable, en vez de dos distintas.

12.3 Regresión lineal

Pariente de la r de Pearson. Este análisis tampoco establece causalidad, sólo da información de


cómo se relacionan las variables. También permite pronosticar uno de los valores. P. ejemplo,
si tiene un nivel de felicidad de 8, ¿cuántos besos al día corresponde? O viceversa.
La fórmula es: Y= a + b(x)

Dicha fórmula, nos permite predecir el valor de Y, en caso de sólo contar con el valor de X. Ello
se realiza con base a los otros datos obtenidos para hacer PREDICCIONES. Sin embargo, aquí
aunque pongamos en un extremo X y en otro Y, no aseguremos que uno causa al otro. Para
identificar cuál es la VI y cual es la V.D., necesitamos aplicar otras fórmulas.

Existe otro tipo de regresión curvilínea, la cual tiene otra fórmula.

12.4 Prueba T

T student para grupos independientes. (prueba T)

Prueba estadística para evaluar si dos grupos difieren entre sí de manera significativa respecto a
sus medias. Se utiliza:
 Con dos grupos independientes.
 Cuando la V.D. sea de intervalo o razón
 Cuando existe una distribución simétrica de la media, con una curtosis = 0
 Las muestras son grandes. Pero…¿Cada grupo tiene el mismo número de sujetos?
 Se busca en las medias de la distribución de la T de Student el grado de libertad. Si el
valor calculado es igual o mayor al que aparece en la tabla, se acepta la hipótesis de
investigación, de lo contrario (si es menor) se acepta la Ho.

T student para grupos relacionados


Prueba estadística para evaluar si los resultados de un mismo grupo en diferentes momentos o
tras diferentes tratamientos, difieren entre sí de manera significativa respecto a sus medias.
Ho: Hi:
Se utiliza:
 Cuando la V.D. sea de intervalo o razón
 Un solo grupo medido antes y después. Es el diseño pre-test/post-test
 Las muestras son grandes, pero … ¿Cada grupo tiene el mismo número de sujetos?
 Se busca en las medias de la distribución de la T de Student el grado de libertad. Si el
valor calculado es igual o mayor al que aparece en la tabla, se acepta la hipótesis de
investigación, de lo contrario (si es menor) se acepta la Ho.

T para grupos independientes de diferente tamaño.

* Nota: para saber cómo calcular la T student y otras pruebas, recurrir a los manuales de
estadística del rincón de paco.

12.5 Anova de un factor (one way-una dirección) Prueba F para 3 grupos

Prueba Razón F Análisis de Varianza unidireccional.

Se utiliza para tres o más condiciones experimentales (K grupos). El análisis de varianza


descompone la variabilidad total en variabilidad al tratamiento. (Entre) V.I. o variable debida al
error (dentro). Lo importante de estas pruebas es conocer diferencias.

La variable independiente (aplicada a cada grupo o bien, la característica que distingue a cada
grupo) debe ser categórica. La V.D. es por intervalos o razón.

El valor que produce éste análisis, se conoce como razón F, el cual se basa en una distribución
muestral conocida como “distribución F”. Este valor compara las variaciones en las
puntuaciones debidas a dos diferentes fuentes: variaciones entre los grupos que se comparan y
variaciones dentro de los grupos. Un ejemplo sería: tenemos tres familias, los Pérez, los Ramírez
y los López. Se compara si son diferentes las familias, y también si existen muchas diferencias
entre los miembros de cada familia.

Las diferencias se miden en términos de varianza, en consecuencia la razón F, es una relación de


varianzas. La razón F se puede presentar en dos facetas:

a) Prueba Razón F ANOVA para grupos independientes. De un factor o una dirección


(one way)

 Se utiliza si se tiene una V.I. con tres o más niveles(VD) con sujetos independientes.
 Los datos de la V.D. son de intervalo o razón.
 Ho: Psic = Médicos = Optometristas
 Hi: Psic Médicos Optometristas
b) Prueba Razón F ANOVA para K grupos relacionados. De un factor o una dirección (one
way).

 Se utiliza cuando la variable independiente cuenta con tres o más niveles

 Sujetos relacionados. ( )y medidas relacionales repetidas. Puede


aplicarse un tratamiento entre cada medición o bien, solamente dejar pasar el
tiempo.

12.6 Análisis de Varianza de más de un factor (two or more way o más de una dirección)

Al tener más de un factor o más de una dirección (way), significa que hay más de una variable
independiente (VI) actuando sobre la Variable Dependiente (VD). Lo que busca explicar es el
efecto de dos o más VI sobre la VD

ANCOVA: ANOVA de DOS entradas no relacionado.

Se tiene más de una


Se utiliza mínimo para 4 grupos independientes.
Con dos variables independientes mínimo con dos niveles en cada variable.

12.7 Análisis multivariados (Manova)

El análisis multivariado de varianza analiza la relación entre una o más variables independientes
(VI) y dos o más variables dependientes (VD).

Evalúa diferencias entre grupos a partir de múltiples variables independientes (VI ó X). A su vez,
las VI deben ser categóricas. Además, este estudio nos permite evaluar las diferencias totales y
diferencias entre las combinaciones de las dependientes (Y).

Se utiliza comúnmente en situaciones no experimentales. En los experimentos se utiliza para


discriminar diferencias de los grupos en un espacio multidimensional. Y considera las diferencias
entre las variables canónicas (variable artificial creada a partir de los datos obtenidos).
Representa constructos y se compone de variables reales.

El MANOVA postula que las medias de los grupos o categorías (niveles) de la VI, son diferentes a
las medias de las variables canónicas. La Hipótesis nula diría que las medias de las Variables
Independientes es igual a las medias de las Variables canónicas. Por ejemplo:

1. Una VI es innovación
2. Se crea una variable canónica
3. Se calcula la correlación entre la variable canónica y el resultado de la medición a
“innovación”.
4. Si hay correlación, entonces se dice que la variable canónica creada involucra el
concepto de innovación.

*Nota: El número de variables canónicas debe ser menor o igual que el número de variables dependientes (VD). Por
lo tanto sí podemos tener más variables dependientes (VD) que variables canónicas.
12.8 Análisis de factores

El Análisis de Factores es un método para determinar el número de constructos (conceptos, o


atributos para explicar un fenómeno) subyacentes y la naturaleza de constructos subyacentes
en un conjunto de mediciones.

Se crean variables artificiales que representan a los constructos (atributos para explicar un
fenómeno o conceptos). Es una técnica para explicar un fenómeno complejo en unas cuantas
variables. Las variables deben estar medidas en intervalo o razón. Se utiliza para evaluar la
validez de constructor.
ANÁLISIS DE DOS FACTORES

El análisis de varianza con dos factores, indica que tenemos dos V.I. actuando sobre la V.D. Para
poder realizarlo, la V.D. debe estar en escala intervalar o de razón. Las V.I. pueden ser ordinales
o nominales. En el ejemplo la V.I. “nivel de escolaridad”, aquí es categórica con tres niveles:
Medio, superior y bajo, pero podría ser… “gusto por la escuela”, con dos, tres o más niveles:
ninguno, poco, normal, alto y muy alto.

La otra V.I. es el género, y se divide solo en dos niveles: mujeres y hombres.


Y finalmente, la V.D. es el resultado del test de felicidad, el cual está en escala intervalar y se
expresa en datos numéricos.

Otro ejemplo pero con un anova de 3 factores es el siguiente: Se aplica a n sujetos un


instrumento para medir violencia. El mismo está dividido compuesto por diferentes áreas que
conforman la violencia y a su vez, cada área es evaluada con 5 ítems teniendo un total de 15
ítems. El análisis de factores te va a identificar cuántos “factores” o cuántas variables se están
evaluando en dicho instrumento. En el siguiente ejemplo, el análisis factorial sólo debe
identificar tres factores, y cada factor debe agrupar 5 de los 15 ítems:
ANÁLISIS DE TRES FACTORES

12.9 Análisis de Covarianza

Grupo 1 Grupo 2 Grupo 3


Psicólogos Médicos Dentistas

VD 2 VD 2 VD 2
VD 1 Desempeño VD 1 Desempeño VD 1 Desempeño
Felicidad escolar Felicidad escolar Felicidad escolar

El análisis de covarianza o ANCOVA, acrónimo del inglés analysis of covariance, es un modelo


lineal general con una variable cuantitativa y uno o más factores. El ANCOVA es una fusión del
ANOVA y de la regresión lineal múltiple. Es un procedimiento estadístico que permite eliminar la
heterogeneidad causada en la variable de interés (variable dependiente) por la influencia de una
o más variables cuantitativas (covariables). Básicamente, el fundamento del ANCOVA es un
ANOVA al que a la variable dependiente se le ha eliminado el efecto predicho por una o más
covariables por regresión lineal múltiple. La inclusión de covariables puede aumentar la potencia
estadística porque a menudo reduce la variabilidad.

El análisis de la covarianza es una técnica estadística que, utilizando un modelo de regresión


lineal múltiple, busca comparar los resultados obtenidos en diferentes grupos de una variable
cuantitativa, pero "corrigiendo" las posibles diferencias existentes entre los grupos en otras
variables que puedieran afectar también al resultado (covariantes).

Supongamos que se está comparando la presión arterial sistólica de un grupo de mujeres


diabéticas según su nivel de estudios, para lo que efectuamos un análisis de la varianza cuyos
resultados se resumen a continuación:

Estadísita Descriptiva PAS

Sin estudios 1º grado 2º y 3º grado


Media 141,16 140,93 131,27

Desv.Típ. 13,67 16,23 18,03

Tamaño 215 202 60

Análisis de la varianza

Fuente var. Suma cuadrados gl Varianza F p Nivel signif.

Factor 5020,04 2 2510,02 10,61 0,0000310 p < 0.001

Residual 112119,55 474 236,54

Total 117139,59 476 246,09

Vemos que hay diferencias estadísticamente significativas en cuanto a la media de la PAS entre
los diferentes niveles de estudios, siendo inferior la media de PAS en el grupo de mujeres con
estudios de 2º o 3º grado (del orden de 10 mmHg inferior). Ahora bien, sabemos que uno de los
principales factores de riesgo en la hipertensión es la edad, por lo que nos podemos plantear
que al tratarse de un estudio observacional, en el que las pacientes han sido seleccionadas de
forma aleatoria entre las que acuden a la consulta, si éstas fueran representativas de la
población, es de sospechar que las mujeres con mayor nivel de estudios sean en promedio más
jóvenes, debido a que en el pasado las mujeres solían a menudo recibir como mucho una
formación elemental.

Si para comprobarlo efectuamos un análisis de la varianza para la edad según el nivel de


estudios, los resultados que obtenemos son

Edad

Sin estudios 1º grado 2º y 3º grado

Media 69,75 64,80 54,25

Desv.Típ. 8,26 10,57 18,33

Tamaño 215 202 60

Análisis de la varianza

Fuente var. Suma cuadrados gl Varianza F p Nivel signif.

Factor 11563,46 2 5781,73 48,19 0,0000 p < 0.001

Residual 56869,86 474 119,98

Total 68433,32 476 143,77


Donde, como nos temíamos, la edad media de las mujeres con estudios de 2º o 3º grado es
inferior a la de los otros grupos, lo que por sí solo podría explicar las diferencias encontradas en
cuanto a la media de PAS.

Utilizando el análisis de la covarianza nos planteamos la posiblidad de "corregir" o "ajustar" esa


diferencia de edad, con el fin de hacer comparables los grupos.

ANCOVA de un factor

El análisis de un factor es apropiado cuando se dispone de tres o más grupos; k grupos. El factor
(variable categórica) tiene k niveles. En los diseños equilibrados, cada grupo tiene el mismo
número de datos (individuos), los cuales idealmente han sido asignados al azar a cada grupo a
partir de una muestra original preferiblemente homogénea.

Calculando la suma de las desviaciones al cuadrado para la variable independiente X y la


variable dependiente Y

Resumen
13. ESTADÍSTICA NO PARAMÉTRICA
Son más utilizadas en psicología por el tipo de datos que se utilizan. Se ocupan cuando hay
variables categóricas; nominal, ordinal (X2, Kruskall Wallis, U de Mann Whitney, Friedman). Sólo
aplican a la muestra. Este tipo de pruebas no hacen suposiciones con respecto a la población
desde la cual se extrajo la muestra. Su distribución es libre (no normal).

13.1 Supuestos

 La mayoría de estos análisis no requiere presupuestos acerca de la forma de la


distribución poblacional. Se puede utilizar en distribuciones NO normales, es decir, no
requiere una curva normal (distribución muestral normal).
 Sus distribuciones se les conoce como libres, o libres de curva.
 Las variables no necesariamente tienen que estar medidas en un nivel por intervalos o
de razón; pueden analizar datos nominales u ordinales. De hecho cuando los datos son
de intervalo o razón, éstos deben resumirse en categorías discretas (unas cuantas), pues
las variables deben ser categóricas.

13.2 Ji cuadrada

Chi cuadrada para grupos independientes


 Para dos grupos independientes.
 La V.D. está en escala nominal (variables categóricas).
 Se rechaza la Ho si la probabilidad de (p) es igual o < al nivel de significancia (alfa).

Es una prueba estadística para evaluar hipótesis acerca de la relación entre dos variables
categóricas. Se simboliza y prueba hipótesis correlacionales (no establece causalidad).
Involucra dos variables las cuales deben estar en datos nominales u ordinales. En caso de ser de
razón o intervalo, deberán convertirse a nominales u ordinales. La Ji cuadrada parte del
supuesto de que no hay correlación.

Se calcula mediante una tabla de contingencia o tabulación cruzada, que es un cuadro de dos
dimensiones. Cada dimensión contiene una variable. A su vez, cada variable se subdivide en
dos o más categorías.

Frecuencias observadas en dos variables divididas en diferentes categorías


La fórmula para realizar el cálculo de la Ji cuadrada es:

En el primer cuadro presentado, encontramos las frecuencias observadas, es decir, según los
datos recabados 180 personas que viven en el norte, votan por el partido de derecha, y así
sucesivamente con los otros datos. La población total (n) es igual a 1040.

El siguiente paso sería calcular la frecuencia esperada (fe) de cada cuadrante. La fórmula para
dicho cálculo es:

Realizando el cálculo para cada celda, sustituiríamos la fórmula con los siguientes valores:

Cálculo de frecuencias esperadas


Tras realizar las fórmulas, obtendríamos los siguientes resultados de frecuencias esperadas (fe).

Resultado: Frecuencias esperadas

El siguiente paso es para calcular la Ji cuadrada. Recordemos la fórmula:

Para realizar tal operación, es de gran ayuda realizar el cálculo colocando los valores en la
siguiente tabla:

Procedimiento para calcular Ji cuadrada


* La Ji cuadrada se obtiene realizando la sumatoria de todos los valores que se encuentran en la última
columna.

Debido a que esta prueba parte del supuesto de que no existe correlación, el resultado obtenido
deberá contrastarse con un valor predeterminado en las tablas de la Ji cuadrada. Para saber con
qué valor de la tabla debemos comparar nuestro resultado, debemos calcular los grados de
libertad:

Si recordamos nuestro cuadro, tenemos dos columnas (norte y sur), y tres filas (derecha, centro
e izquierda). De modo que sustituiríamos la formula del siguiente modo:

Ahora veamos los datos que se obtienen con una Ji cuadrada con dos grados de libertad tanto a
un nivel de significancia del 0.05 (5% de error) como del 0.01 (1% de error):
El resultado que obtuvimos debe ser mayor al que observamos en las tablas de la Ji cuadrada. A
nivel de significancia del 0.05 obtenemos un valor de 5.991, y a nivel del 0.01 el valor es de
9.210. En ambos casos el resultado que obtuvimos de Ji cuadrada (47.33) es muy superior a
cualquiera de los dos valores mencionados. Por lo cual podemos decir que se acepta la
hipótesis de investigación: si existen diferencias entre la zona electoral y la preferencia política.
Recordemos que para aceptar una hipótesis, el resultado de la Ji cuadrada que calculemos
deberá ser igual o mayor al valor obtenido en tablas.

13.3 Coeficiente de correlación e independencia para tabulaciones

Coeficiente fi Coeficiente C de contingencia

Igual q la Chi cuadrada, 2x2 pero el coeficiente fi , además de ser para datos nominales,
indica si la relación que existe entre variables es alta o baja. No indica la dirección de la relación
(ni positiva ni negativa). Los datos van de cero a uno. Cero es ausencia de correlación, uno es
probable que estemos midiendo la misma variable como Independiente y como dependiente.

13.4 Coeficientes de correlación por rangos ordenados de Spearman y Kendall

Los coeficientes de correlación indican el grado, nivel y fuerza de la relación entre variables. Son
medidas de correlación para variables en un nivel de medición ordinal (tanto V.I. como V.D.), de
modo que los individuos u objetos de la muestra, puedan ordenarse por rangos (jerarquías).

Rho de Spearman ( ).
Coeficiente ordinal.

Cuando al mismo sujeto, le medimos dos variables. Utilizamos al Rho de Spearman ( ). La


correlación puede ser positiva o negativa. Los datos van de menos1 a más uno, pasando por
cero. Cero es la ausencia de relación, y los valores de uno (positivo o negativo) también deben
considerarse con cuidado, pues es posible que estemos midiendo la misma variable aunque la
estemos dividiendo en dependiente e independiente.

Tau de Kendall
Coeficiente ordinal.

La correlación puede ser positiva o negativa. Los datos van de menos1 a más uno, pasando por
cero. Cero es la ausencia de relación, y los valores de uno (positivo o negativo) también deben
considerarse con cuidado, pues es posible que estemos midiendo la misma variable aunque la
estemos dividiendo en dependiente e independiente.
MÉTODOS CUALITATIVOS

14. METODO NARRATIVO


 Se recolectan datos sobre las historias de vida y experiencias de las personas para
describirlas y analizarlas.
 Se usa frecuentemente cuando el objetivo es evaluar una sucesión de acontecimientos
sociales.
 Los datos se obtiene de autobiografías, biografías, entrevistas, materiales personales y
testimonios.
 Estos diseños pueden referirse a historias de vida de una persona, grupo; también
pueden referirse a un pasaje de dicha historia o varios episodios.
 El investigador reconstruye la historia del individuo o la cadena de eventos de manera
cronológica.
 Posteriormente la narra bajo su óptica y describe sobre la base de evidencia posible,
identificando categorías y temas emergentes en los datos narrativos.

El investigador recolecta datos sobre las historias de vida y experiencias de ciertas personas para
describirlas y analizarlas. Resultan de interés los individuos en sí mismos y en su entorno,
incluyendo desde luego, a otras personas.

Creswell (2005) señala que es un esquema de investigación, pero también una forma de
intervención, ya que el contar una historia ayuda a procesar cuestiones que no estaban claras o
conscientes. Se usa frecuentemente cuando el objetivo es evaluar una sucesión de
acontecimientos. Así mismo provee de un cuadro microanalítico.

Los datos se obtienen de autobiografías, biografías, entrevistas, documentos, artefactos y


materiales personales y testimonios (que se encuentran en cartas, diarios, artículos en la prensa,
grabaciones radiofónicas y televisivas, etc.)

Los diseños narrativos pueden referirse a:


a) toda la historia de vida de un sujeto o grupo, b) un pasaje o época de dicha historia de vida, o
c) uno o varios episodios.

En estos diseños más que un marco teórico, se utiliza una perspectiva que provee de estructura
para entender al individuo o grupo y escribir la narrativa (se contextualiza la época y el lugar
donde vivieron las personas o grupo, o bien, donde ocurrieron los eventos o experiencias).
Asimismo, los textos y narraciones orales proveen datos “en bruto” para ser analizado s por el
investigador y vueltos a narrar en un reporte de investigación.

Mertens(2005) divide los estudios en:

a) de tópicos (enfocados en una temática sucesos o fenómenos),


b) biográficos (de una persona, grupo comunidad; sin incluir la narración de los participantes
“en vivo”, ya sea porque fallecieron o no recuerdan, o son inaccesibles),
c) autobiográficos (de una persona, grupo o comunidad incluyendo testimonios orales “en vivo”
de los actores participantes).
No existe un proceso predeterminado para implementar un estudio narrativo, pero algunas de
las actividades que se efectúan son:

 Planteamiento orientado a entender y representar experiencias por medio de las historias


de vida
 Elegir a los participantes
 Inmersión en el campo
 Recolectar datos sobre las historias de vida y sus contextos
 Elaborar el reporte de estudio
 Analizar la narración de la historia (la los actores y la del investigador)
 Volver a narrar la historia del investigador (cruzar fuentes, verificar hechos, conjuntar
historias y perspectivas de distintos actores o participantes)
 Explorar el significado de las experiencias narradas y documentadas
 Revisar el reporte con los participantes y otros investigadores o expertos en la historia de
vida analizada
 Elaborar la versión final del reporte (narración definitiva)

Asimismo, algunas consideraciones para este proceso son:

 El elemento clave de los datos narrativos lo constituyen las experiencias (cada participante
debe contar su historia)
 La narración debe incluir una cronología de experiencia y hechos (si es el caso evolución del
acontecimiento hasta el presente y perspectivas a futuro)
 El contexto se ubica de acuerdo con el planteamiento del problema
 Las historias de vida cuando se obtienen por entrevista, son narradas en primera persona
 El investigador revisa memorias registradas en documentos y grabaciones; además,
entrevista a los actores.
 Para revisar los sucesos es importante contar con varias fuentes de datos.

Principales acciones para llevar a cabo un estudio narrativo.

 Planteamiento orientado a entender y representar experiencias por medio de las historias


de vida de los individuos.
 Elegir a los participantes
 Inmersión en el campo
 Recolectar datos sobre las historias de vida y sus contextos
 Explorar el significado de las experiencias narradas y documentadas
 Volver a narrar la historia, narración del investigador
 Analizar la narración de la historia (de los actores y del investigador)
 Elaborar el reporte del estudio
 Revisar el reporte con los participantes y otros investigadores o expertos en la historia de
vida analizada
 Elaborar la versión final del reporte (narración definitiva)
Ejemplo: Un caso de violencia extrema, en una institución educativa de EU, como lo fue la
matanza de de siete personas acontecida en marzo del 2005, en Red Lake, Minesota. A cargo de
un adolescente de 16 años, JW.

El hecho: JW mató a su abuelo y a una mujer que vivía con este último en la reserva india de Red
Lake, también a un policía veterano local, con las armas y el coche que le robo al policía, se
encamino a su escuela donde abrió fuego sobre sus compañeros, asesino a una profesora, a un
vigilante y a cinco estudiantes, hirió gravemente a otros 13 y finalmente se suicidó. Su padre se
había suicidado cuatro años antes.

Entre las películas favoritas de JW, estaban: El amanecer de los muertos (2004) la cual es una
conocida película de terror de muertos vivientes; Thunderheart (1992) y Elefante (2003) que
narra un incidente violento en una escuela. JW se llamaba a sí mismo, “ángel de la muerte y se
definía como “nazi-indígena” en los foros de internet.

Entrevista a testigos
sobrevivientes.
Datos de primera
mano (actores
directos)

Entrevista de
agentes policiacos
Revisión de registros
que revisaron las
de antecedentes
escenas del crimen y
escolares.
condujeron la
investigación.

Hecho violento
provocado por
JW en Red
Lake
Revisión de Entrevista a sus
materiales y familiares, ex
documentos profesores, vecinos,
producidos por JW ex compañeros de la
(cartas, diario, escuela primaria,
escritos en papeles , amigos fuera y
información que dentro de la escuela,
subió a internet. Revisión de archivos etc.
policiacos para
conocer si JW tenía
antecedentes
penales, denuncias
ciudadanas e
informes de
incidentes previos.

Cuando se vuelve a narrar la historia por parte del investigador, debe de eliminar lo trivial.

Creswell (2005) sugiere dos esquemas para volver a contar la historia.

1ro. Estructura problema-solución, la secuencia narrativa seria:

Contexto Caracterizaciones Acciones


- Lugar - Participantes de la Movimientos de los participantes en la historia
- Tiempo historia o suceso o suceso, para ilustrar sus caracterizaciones,
- Características - Descripción de los pensamientos y conductas.
participantes

Problema
Resolución Preguntas a ser respondidas
- Respuestas a las preguntas
o fenómeno central a
- Explicaciones
describir y explicar.
2do. Estructura tridimensional. No es una secuencia sino que se relacionan tres dimensiones
narrativas.

Las fuentes de invalidación más importantes de la historia son: datos falsos, sucesos
deformados, exageraciones y olvidos provocados por traumas o la edad. De nuevo la solución
rside en la triangulación de fuente de datos.

Continuidad
- Pasado
- Presente
- Futuro
Recuerdos, la relación de los
participantes, secuelas a
través del tiempo y
expectativas del futuro.

Narrativa
Interacciones del o de los
participante (s). Situación
- Personal “consigo mismo”: -Ambiente físico
condiciones internas,
sentimientos emociones, -Ambiente Sociocultural
deseos, expectativas, (político, religioso, etc.)
valores. -Percepción de la situación
-Con otros

15. METODO ETNOGRÁFICO

Como su nombre lo indica (etnografía=observación participante), es un método en el cual el


investigador efectúa observaciones mientras forma parte de un grupo u organización. Se ha
sugerido que si son parte de la organización, resulta más probable que los investigadores
aprendan qué significan comportamientos específicos de los participantes. Un observador
externo podría ser limitado a describir el comportamiento sin comprender cabalmente lo que
significa para los participantes.

En las investigaciones bajo este método, los investigadores van al lugar, observan y escuchan lo
que dice la gente, observan el ambiente físico. Se hace un estudio de campo tanto de la(s)
persona(s), terreno, ascendencia familiar, ¿qué comen? ¿dónde viven? Etc. El investigador
puede ser parte del grupo o un miembro que se incorpora al mismo --come lo mismo que ellos,
vive en casas de la misma comunidad, etc.---. El que sea parte del grupo es de gran ayuda pues
así los sujetos no se sienten observados.

 Implica la descripción e interpretación profunda de un grupo o sistema social o cultural.


 Su propósito es describir y analizar lo que las personas de un sitio o contexto determinado
hacen usualmente, así como los significados que le dan a ese comportamiento.
 Pretende describir y analizar ideas, creencias, significados, conocimientos y prácticas de
grupos.
 Pueden ser muy amplios y abarcar la historia, geografía y los subsistemas
socioeconómicos, educativos, políticos y culturales de un sistema social determinado.

16. METODO DE ANÁLISIS DE DISCURSO


Análisis del discurso (o Estudios del discurso) es una transdisciplina de las ciencias humanas y
sociales que estudia sistemáticamente el discurso escrito y hablado como una forma del uso de
la lengua, como evento de comunicación y como interacción, en sus contextos cognitivos,
sociales, políticos, históricos y culturales.

Historia

El Análisis del Discurso (AD) surgió en los años 1960 y 1970 en varias disciplinas y en varios
países al mismo tiempo: la antropología, la linguística, la filosofía, la poética, la sociología, la
psicología cognitiva y social, la historia y las ciencias de la comunicación. El desarrollo del AD fue
paralelo y relacionado con la emergencia de otras transdisciplinas, como la semiótica o
semiología, la pragmática, la sociolinguística, la psicolinguística y la etnografía de la
comunicación. En los últimos años el AD se ha hecho muy importante como aproximación
cualitativa en las ciencias humanas y sociales.

Enfoques

Según el enfoque sobre el discurso (como texto, estructura verbal, proceso mental, acción,
interacción o conversación) hay muchas líneas en el AD, como la gramática del texto, el análisis
de la conversación, la psicología del procesamiento del texto, la psicología discursiva (una
dirección inglesa en la psicología social), la estilística, la retórica, el análisis de la argumentación,
el análisis de la narración, la teoría de géneros, y mucho más. El análisis crítico del discurso es un
enfoque especial que toma posición política y analiza el papel del discurso en la reproducción de
la dominación (como abuso de poder), así como en la resistencia contra la dominación.

Métodos

Los métodos del AD son en general cualitativos: descripción detallada de las estructuras y
estrategias de los discursos escritos o hablados, en varios niveles: sonidos y estructuras visuales
y multimedia, la sintaxis (estructuras formales de las oraciones), la semántica (las estructuras del
sentido y de la referencia), la pragmática (los actos de habla, la cortesía, etc.), la interacción y la
conversación, los procesos y representaciones mentales de la producción y de la comprensión
del discurso, y las relaciones de todas esas estructuras con los contextos sociales, políticas,
históricas y culturales.

En ese sentido el AD se distingue del análisis de contenido que es un método más bien
cuantitativo de las ciencias sociales que se aplica a grandes cantidades de textos, por ejemplo
con una codificación de propiedades observables de los textos. El análisis de contenido por lo
tanto no tiene acceso a los sentidos o funciones (no observables) del discurso, y en general es
mucho menos detallado que el AD.

Tipos o estilos de estudios del discurso


Dentro y entre las disciplinas hay muchos tipos o estilos de hacer análisis del discurso:

Analítico lingüístico
Una aproximación, que se podría llamar analítica, tiene su inspiración principal de la linguística,
y es más explícita, sistemática y de escritura en general más accesible que el enfoque filosófico.
Aquí se estudia sistemáticamente y en muchos detalles las estructuras del discurso como objeto
verbal (texto, argumentación, narración), como los temas, la coherencia local y global, los
pronombres, el estilo, etc. Los nombres más destacados en esta línea muy diversa (y de origen
sobre todo europeo) son: János Peta¶fi, Wolfgang Dressler, Robert de Beaugrande, Teun A. van
Dijk, Ruth Wodak, Talmy Givón, Sandra Thompson, Robert Longacre, Michael Halliday, Jim
Martin, John Sinclair, Malcolm Coulthard, Petr Sgall, Frans van Eemeren, y Wallace Chafe.

Análisis de la conversación
Otra línea más bien analítica, que surgió de la microsociología y la etnometodología, sobre todo
en EEUU, enfoca sobre el discurso como interacción, primero en el análisis detallado de las
estructuras y estrategias de la conversación cotidiana, y después también las interacciones
verbales en las instituciones y organizaciones. Esta línea, que se conoce sobre todo como
análisis de la conversación tiene muchas relaciones con la pragmática, la sociolinguística
interactiva, en psicología discursiva (dentro de la psicología social) y la línea de la etnografía de
la comunicación en antropología. Analistas prominentes de la conversación son, entre otros,
Erving Goffman, Harvey Sacks, Emmanuel Schegloff, Gail Jefferson, John Heritage, Paul Drew,
Paul ten Have, Charles y Marjorie Goodwin, y Douglas Maynard.

En etnografía y antropología se destacan sobre todo: Dell Hymes, John Gumperz, Elinor Ochs y
Sandro Duranti. Y en la pragmática del discurso y de la conversación, Jef Verschueren, Jan
Blommaert, y Stephen Levinson. De otra perspectiva también: Deborah Tannen y Deborah
Schiffrin. En psicología discursiva: Michael Billig, Jonathan Potter, y Derek Edwards.

Psicología cognitiva-experimental
En la psicología cognitiva, el estudio del discurso es en general experimental (de laboratorio) y
enfoca sobre las estrategias y representaciones mentales de la producción, la comprensión, la
memorización y la recuperación del discurso o de su información. Explica, por ejemplo, lo que
normalmente memorizamos y olvidamos después de leer un texto — o lo que hace la
producción o la comprensión más fácil o más difícil. Este enfoque relaciona los procesos de
producción o de comprensión con un análisis explício del rol crucial del conocimiento
sociocultural compartido en la comunicación y la interacción. Una de las nociones que se han
usado con mucho éxito en esta línea es la noción de modelo mental — una representación en la
memoria a largo plazo, sobre la situación o los eventos a que se refiere un discurso. En ese
sentido, comprender un discurso quiere decir poder construir un modelo mental del referente
del discurso: un fragmento del mundo real o ficcional.

Las figuras más prominentes en esta área son: Walter Kintsch, Teun A. van Dijk, Art Graesser,
Mary Ann Gernsbacher, y Tom Trabasso.
Inteligencia artificial-informática

Relacionadas con la psicología cognitiva y las ciencias cognitivas en general, pero también con la
gramática formal y la lógica, encontramos las líneas de la informática del discurso, como
Inteligencia artificial. Aquí se escriben programas que simulan la producción, la comprensión, la
traducción, etc. del discurso, y se representan los conocimientos (generales o especializados)
que el programa necesita para esos procesos. Unos científicos importantes en esta área son:
Bonnie Lynn Webber, Barbara Grosz y Roger Schank.

Análisis crítico del discurso

El Análisis crítico del discurso (ACD) se ubica en cualquier otra aproximación mencionada, pero
lo hace desde una perspectiva social, política y crítica, enfocando sobre la manera que el
discurso se usa y abusa para establecer, legitimar o ejercer — y resistir — el poder y la
dominación. Se interesa sobre todo por el análisis del racismo, del sexismo, el clasismo, y la
pobreza, y se relaciona con movimientos sociales, como el feminismo, el pacifismo, el
ecologismo, la antiglobalización, etc. El ACD no tiene métodos fijos, sino usa los mejores
métodos adecuados en el planteamiento y análisis de los problemas sociales, que son su
objetivo principal. Los nombres más conocidos en ACD son: Roger Fowler, Michel Paªcheux,
Norman Fairclough, Ruth Wodak, Luisa Martín Rojo, Teun A. van Dijk, Theo van Leeuwen,
Gunther Kress y Paul Chilton.

Análisis de contenido.

Es una técnica para estudiar y analizar la comunicación de una manera objetiva, sistemática y
cuantitativa. Es un método de investigación para hacer inferencias válidas y confiables de datos
con respecto a su contexto. Es muy útil para analizar los procesos de comunicación en muy
diversos contextos. El análisis de contenido puede aplicarse virtualmente a cualquier forma de
comunicación (programas televisivos, radiofónicos, artículos en prensa, libros, poemas,
conversaciones, pinturas, discursos, cartas, melodías, leyes y reglamentos, etc.) Es conveniente
para analizar la personalidad de alguien, evaluar sus escritos, conocer las actitudes de un grupo
de personas mediante la evaluación de sus expresiones verbales o escritas; indagar sobre las
preocupaciones de un pintor o un músico al estudiar su trabajo o material; compenetrarse con
los valores de una cultura ; o averiguar las intenciones de un publicista o propagandista.

Algunos usos del análisis de contenido:

a) Describir tendencias de la comunicación.


b) Develar diferencias en el contenido de la comunicación (entre personas, grupos,
instituciones, países, etcétera).
c) Coparar mensajes, niveles y medios de comunicación.
d) Auditar el contenido de la comunicación y compararlo contra estándares u
objetivos.
e) Construir y aplicar estándares de comunicación (políticas, normas, etcétera).
f) Exponer técnicas publicitarias y de propaganda.
g) Medir la claridad de los mensajes.
h) Descubrir estilos de comunicación.
i) Identificar intenciones, apelaciones y características de comunicadores.
j) Descifrar mensajes ocultos y otras aplicaciones a la inteligencia militar y a la
seguridad política.
k) Develar centros de interés y atención para una persona, un grupo o una
comunidad.
l) Determinar el estado psicológico de personas o grupos.
m) Obtener indicios de desarrollo verbal
n) Anticipar respuestas a comunicaciones
o) Reflejar actitudes, valores y creencias de personas, grupos o comunidades.
p) Cerrar preguntas abiertas.
q) Comparar estilos entre escritores de una misma corriente literiaria, etc.

Se efectúa por medio de la codificación, es decir, el proceso en virtud del cual las características
relevantes del contenido de un mensaje se transforman a unidades que permitan su descripción
y análisis precisos. Lo importante del mensaje se convierte en algo susceptible de describir y
analizar. Para codificar es necesario definir el universo, las unidades de análisis y las categorías
de análisis.

Universo. Conjunto de elementos, sujetos o fenómenos que comparten una característica de


interés para el investigador. Puede ser la obra completa de Franz Kafka. El universo en estos
casos se refiere también a la unidad, al cuerpo más largo del contenido que puede examinarse al
caracterizar una o más unidades de registro.

Unidades de análisis o registro.


Constituyen segmentos del contenido de los mensajes que son caracterizados para ubicarlos
dentro de las categorías. El cuerpo del contenido más pequeño en que se cuenta la aparición de
una referencia, ya sean palabras o afirmaciones que nos interesa localizar. Bergson menciona 5
unidades importantes de análisis:

1. Palabra
2. Tema
3. Item
4. Personaje
5. Medidas de espacio-tiempo

A su vez, las unidades se insertan, colocan o caracterizan en categorías y subcategorías:


 En un solo estudio es posible utilizar más de una unidad de análisis.
 Los cálculos de palabras y las unidades amplias como el ítem, y las medidas de
espacio-tiempo, son más adecuados en los análisis que dan mayor importancia a los
asuntos definidos.
 Las unidades amplias y las más definidas son válidad para la aceptación o el rechazo
en una categoría.
 Las unidades amplias generalmente requieren de menos tiempo para su codificación
que las unidades pequeñas, referidas a las mismas categorías y materias.
 Debido a que los temas o las oraciones agregan otra dimensión al asunto, la mayoría
de las veces son más difíciles de analizar que las palabras y las unidades amplias.
 El tema es adecuado para el análisis de significados y las relaciones entre éstos.

Aplicaciones
Todas esas líneas o estilos de AD tienen una dimensión más bien teórica, una dimensión
descriptiva e analítica y una dimensión aplicada. Las aplicaciones del AD se encuentran en todas
las áreas de la sociedad, como los medios de comunicación (estudio de los efectos), la educación
(como los textos escolares, la interacción en el aula, aprendizaje de las lenguas), la publicidad y
la propaganda, la política, y la salud (para el análisis de trastornos del lenguaje y de la
comunicación).

 Es un enfoque que analiza el papel del discurso de la persona.


 Es la descripción detallada de las estructuras y estrategias de los discursos escritos y
hablados en diferentes niveles.
 Sonidos, estructuras visuales, multimedia, sintaxis, semántica, pragmática, interacción,
conversación, representaciones mentales de la producción y comprensión del discurso,
relacionándolo siempre con el contexto histórico-social y cultural del momento.

Recomendaciones escritas después del examen:


Agregar más info del ANOVA, ANALISIS DE FACTORES; COVARIANZA y temas de más de una
Variable independiente.

Establecer la diferencia entre los conceptos con mayor claridad. Pe. Diferencia entre diseño
experimental y preexperimental; Diferencia entre coeficientes de correlación, etc. Y aprenderse
cuales son las diferencias.

Leer con atención. El examen además de evaluar conocimiento, parece un examen de lectura de
comprensión porque te escriben los términos de manera confusa. P.e. las reglas de decisión son
para rechazar la hipótesis nula. El examen te dirá cosas como: El investigador al no rechazar la
hipótesis de investigación ¿qué tipo de error puede estar cometiendo? No rechazar la hipótesis
de investigación es igual a aceptar la hipótesis de investigación y por ende, a rechazar la nula.
Así que si se rechaza la hipótesis nula puedes estar realizando un rechazo correcto o un error
tipo 1 o alfa.

También es un examen en el cual te cansas porque requiere mucho análisis de las pregutas y te
estresas mucho cuando vez que el tiempo se acaba. Así que comienza con las preguntas más
fáciles y deja al final las más difíciles para que no llegues cansado a las primeras preguntas.
Otro punto es aprenderte las fórmulas, al menos la de la Regresión lineal, para poder sustituir.
Este año aparecieron muchas fórmulas en el examen. Así que apóyate en los manuales de
estadística que aparecen en www.elrincondepaco.com.mx

Haz ejercicios matemáticos para calcular pruebas paramétricas y no paramétricas. Ello con el fin
de adquirir destreza y rapidez. Así a la hora del examen podrás aplicarlos rápidamente. Además
te preguntan cómo realizar varianza cuando tienes valores cuya diferencia es igual a cero, te
piden calcular Desviación estándar. También existen algunas preguntas sobre coeficientes como
R de spearman y Tau Kendall en las cuales debes elegir cuál coeficiente usar a partir de ciertos
datos que te dan. Si bien no debes calcular el coeficiente, la forma en la cual puedes saber cual
es el coeficiente adecuado es viendo cuantos pares empatados hay. Para ello, debes conocer
cómo se realiza el procedimiento de obtener cada dato. Así sabrás cuál es la prueba más
adecuada.

También realiza preguntas confusas para que te acostumbres a analizar la información. Utiliza
los conceptos de ésta guía para elaborar tales preguntas y busca hacer difícil la redacción o
confusa. Así podrás practicar para el examen y estar acostumbrad@ a analizar las preguntas.
Porque en el examen debes leer casi con lupa.

Otro punto es conocer los sinónimos de los conceptos. No te van a preguntar por la
confiabilidad test-retest sino por la confiabilidad de estabilidad. Tampoco te preguntarán por la
validez divergente sino discriminatoria. Aprende el nombre del concepto y las otras formas de
llamarlos, para q no te confundas.

Y respecto a esta guía, falta enriquecerla con datos como covarianza, las anovas, regresión
lineal. Así que apoyate en los manuales de estadística inferencial y descriptiva que aparecen en
el blog del rincón de paco.

Vete desayunad@ desde temprano, descansa un día antes, despéjate para q no estés pensando
en el trabajo, en pendientes, ni en nada de eso. Si puedes ve acompañado con algún amigo q
haga el examen para disminuir el estrés y previo al examen, no hables más del tema para no
estresarte. El estrés no te deja leer bien y puedes equivocarte en preguntas muy fáciles. Así que
relájate.

También toma coca antes de entrar. Así tendrás azúcar en el cerebro. No te dejan ir al baño o
bien, el tiempo es de 3 horas e ir al baño te quita el tiempo. Si tienes q ir, pues ve. Pero trata de
ir al baño antes de entrar para que las ganas de ir al baño y la pérdida de tiempo no te estresen.
Anexos: Tablas resumen PRUEBAS PARAMÉTRICAS Y NO PARAMÉTRICAS
HIPÓTESIS CON PROBLEMA DE COMPARACIÓN

ANALISIS UNIVARIABLES PORQUE SOLO CONSIDERAN UNA V.I. PERO CON


DIVERSOS NIVELES (2 ó K niveles)
INDEPENDIENTES RELACIONADOS
2 GPOS K GPOS 2 GPOS K GPOS
Nominales Chi Chi
cuadrada cuadrada Mc Nemar
Ordinales U de Mann Kruskal * Signos
Whitney Wallis * T de Wilcoxon Friedman
Int/Razón Anova T Student gpos Razón F gpos
T student Razon F relacionados relacionados
Ho: No relación
Hi: Si relación .
HIPÓTESIS QUE PLANTEAN CORRELACIÓN /ASOCIACIÓN