Está en la página 1de 45

TEMA 1

CIENCIA Y MÉTODO. PARADIGMAS Y METODOLOGÍAS. INVESTIGACIÓN CIENTÍFICA Y EMPÍRICA. MÉTODOS


CUANTITATIVOS Y CUALITATIVOS

Ni la actitud de rigor inquisitivo ni el proceder indagador son la clave de la investigación científica, aunque son
necesarias. Lo que es preciso es que ambos se pongan al servicio de objetivos científicos.
Bunge: “…por medio de la investigación científica, el hombre ha alcanzado una reconstrucción conceptual del
mundo que es cada vez más amplia, profunda y exacta…”

LA EDUCACIÓN
EL MÉTODO GENERAL
Todo campo del saber que pretenda ser denominado ciencia debe ser capaz de aplicar el método general:
hipotético-deductivo-experimental. En el que se plantea la hipótesis, se sacan consecuencias de las mismas y
se las contrasta de modo riguroso.

Para Bunge, el método científico es la conditio sine qua non para alcanzar el conocimiento científico. La única
regla de oro del trabajo científico: “audacia en el conjeturar, rigurosa prudencia en el someter a contrastación
las conjeturas”. Estaremos en el marco de la ciencia siempre que la finalidad sea científica (conocimientos
científico del mundo) y actuemos con rigor metodológico al servicio del mismo, esto es, sometiendo a contraste
las conjeturas que nos hayamos planteado (hipótesis).
Aunque las ciencias Sociales y Humanas no están de acuerdo con este planteamiento.

LA EDUCACIÓN COMO OBJETO DE CONOCIMIENTO


1. ¿La educación debe ser estudiada del mismo modo que los saberes sobre las cosas?
2. ¿La educación es un ámbito disciplinar homogéneo o no?

 Ciencias Naturales: el modo de conocer se orientaba a la explicación. El investigador centra su


atención en lo que ocurre “ahí fuera”, una realidad objetiva, estática, dócil al investigador. Existe una
distancia entre el investigador y el objeto de conocimiento, lo que permite el conocimiento objetivo

 Ciencias Humanas o Sociales: el modo de conocer lo buscaban en la comprensión. Se abordan


fenómenos intencionales, dinámicos, en continuo cambio, para cuyo conocimiento se debe acudir a la
“experiencia interior”. Se produce una interacción entre la realidad estudiada y el investigador, que se
acerca a ella con unas ideas y posicionamientos previos, con una teoría

 La educación:
 El acto de educar es un arte, que puede verse beneficiado de la utilización de saber, de conocimiento
obtenido por la vía rigurosa del método científico. Por tanto debe constituirse como ciencia
 Los conocimientos científicos se orientan a la mejora de los educandos
 La educación es un ámbito del saber no constituye una disciplina unitaria ni homogénea en sus
planteamientos, sino que se beneficia de las aportaciones de otras disciplinas, que se constituyen en ciencias
básicas de este campo de naturaleza aplicada

De Miguel hace referencia a la conveniencia de que la investigación no represente una realidad apartada de la
vida diaria de las instituciones educativas, lugar donde se llevan a cabo los procesos educativos. Parece
aconsejable intentar una conexión entre teoría y práctica, y esto puede conseguirse en una investigación en la
que participen los profesores.
Hoyle, distingue entre dos profesionales:
 El restringido: alto nivel de competencia en el aula, sabe comprender y tratar al niño, evalúa de acuerdo
con sus percepciones y asiste a cursillos de índole práctica
 El amplio: capacidad para un autodesarrollo profesional autónomo mediante un sistemático autoanálisis, el
estudio de su labor con otros profesores y la comprobación de ideas mediante procedimientos de investigación
en el aula.
EL PROBLEMA DE LOS PARADIGMAS

Paradigma = modelos, pautas o esquemas. No son teorías, son más bien maneras de pensar o pautas para la
investigación que, cuando se aplican, pueden conducir al desarrollo de la teoría.

Opciones en la investigación en las ciencias sociales, denominadas paradigmas:


 El positivista, cuantitativo (Ciencias Naturales)
 El naturalista, interpretativo, fenomenológico o cualitativo (Ciencias Sociales)
 Crítico o del cambio: se diferencia de los anteriores en su finalidad, lo importante es que el conocimiento
haga posible la transformación de la sociedad y la emancipación y liberación del ser humano.

Cook y Reichardt
Paradigma CUALITATIVO Paradigma CUANTITATIVO
Métodos cualitativos. Métodos cuantitativos.

Fenomenologismo y verstehen (comprensión) “interesado en Positivismo lógico: “busca los hechos o causas de los
comprender la conducta humana desde el propio marco de fenómenos sociales, prestando escasa atención a los estados
referencia de quien actúa” subjetivos de los individuos”

Observación naturalista y sin control. Medición penetrante y controlada.

Subjetivo Objetivo

Próximo a los datos; perspectiva “desde dentro” Al margen de los datos: perspectiva “desde fuera”.

Fundamentado en la realidad, orientado a los No fundamentado en la realidad, orientado a la


descubrimientos, exploratorio, expansionista, descriptivo e comprobación, confirmatorio, reduccionista, inferencial e
inductivo. hipotético-deductivo.

Orientado al proceso. Orientado al resultado

Válido: datos “reales”, “ricos” y “profundos” Fiable: datos “sólidos” y repetibles

No generalizable: estudios de casos aislados Generalizable: estudios de casos múltiples

Holista Particularista

Asume una realidad dinámica Asume una realidad estable

¿Se puede hablar de compatibilidad y de complementariedad de metodología y métodos?


Supuestos irreconciliables, según Guba:
1. Supuesto ontológico:
 Cuantitativa: realismo, existe una realidad independiente del observador, la verdad es su representación fiel
 Cualitativa: relativismo, existen realidades diferentes socialmente construidas, la verdad es una realidad
construida de forma consensuada

2. Supuesto epistemológico
 Cuantitativo: objetivismo, se puede conocer la realidad con independencia del observador
 Cualitativo: subjetivismo, el resultado de la investigación no es sino una creación debida a la relación entre
el observador y la realidad observada

3. Supuesto metodológico
 Cuantitativo: intervencionismo, control, manipulación de variables y la medición
 Cualitativo: hermenéutica, el investigador es el principal instrumento en la comprensión de la realidad
estudiada

Para Perez Juste, lo único irreconciliable es la posición de partida, si la realidad exterior puede ser conocida tal
como es, es su estricta objetividad o las cosas no existen como tales sino como son percibidas por el hombre.
El investigador que se situé en uno de estos polos, elige un paradigma y, según algunos, se adhiere a un
conjunto de métodos y técnicas.
El resto de diferencias no implican incompatibilidad ni mucho menos adscripción necesaria a un paradigma, con
rechazo subsiguiente del otro.

Para Cook y Reichardt, los métodos cuantitativos han sido desarrollados para verificar o confirmar teorías y los
métodos cualitativos para descubrir o generar teorías. Los paradigmas no constituyen el determinante único de la
elección de los métodos. Esa elección dependerá también de las exigencias de la situación de investigación de
que se trate.
Existió, anteriormente, enfrentamiento y descalificación entre paradigmas. En la actualidad la posición predominante
es de la compatibilidad y cooperación, la elección de uno de ellos depende de la adecuación a los objetivos de
la investigación. Aunque reconocen la existencia de obstáculos para la aplicación de ambos métodos, como los
recursos y el tiempo, además de exigir una suficiente capacitación del investigador en ambas metodologías.

NUESTRA POSICIÓN SOBRE EL TEMA

La educación consiste en un proceso intencional, sistemático y permanente de mejora o perfeccionamiento del ser
humano, de la persona.

El acto educativo es un acto radical y profundamente humano. Constituyen la esencia del acto educativo: la
indeterminación del ser humano, el libre albedrío y la necesidad de cooperación (esfuerzo, voluntad) para
alcanzar las metas que le propone la sociedad a través de los educadores.

La relación educativa ocurre en unos contextos determinados con un conjunto amplio de relaciones humanas, que
se constituye en el componente fundamental de un ambiente. Que a su vez se desarrolla en marcos de
contextos más amplios, donde el ambiente social y cultural se convierte en condicionante de la acción educativa

Así, una investigación orientada a la producción y descubrimiento de leyes o enunciados generales es imposible.
 Los fenómenos educativos son únicos, aunque eso no impide que se desarrollen dentro de unas pautas
 La reiteración de estudios en profundidad permite alcanzar una cierta acumulación de experiencias que
conduce al descubrimiento de tales pautas

“No hay razón alguna para que no aprendamos de generalizaciones sobre la naturaleza humana. Pero debemos
tener en cuenta los conceptos y los métodos que nos capacitan para comprender la individualidad configurada”

Nos manifestamos defensores del principio de complementariedad metodológica, que puede ser en ocasiones
sucesiva (una lleva a la otra) y en otras simultánea (en investigaciones evaluativas) donde la cualitativa
aprecia el proceso y la cuantitativa los productos o resultados.
TEMA 2
LA INVESTIGACIÓN CIENTÍFICO-EMPÍRICA EN EDUCACIÓN. EL PROCESO Y LA LÓGICA

El hombre desea controlar y dominar la realidad objeto de estudio de tal manera que le permita saber por
adelantado lo que puede ocurrir. Las funciones predictivas y de control son metas deseables que pueden ser
alcanzadas con diferentes grados de precisión, profundidad y seguridad.

Características del conocimiento científico:


 Su precisión: aspira a la exactitud, se domina un objeto sin confundirlo con los próximos en características.
 El objeto de atención científica frente al objeto de preocupaciones del saber vulgar. Las causas, el porqué.
Ésta búsqueda necesita de métodos propios: observar, medir y experimentar.
 Su objetividad: lo que hace posible el acuerdo entre personas, la comprobabilidad de las afirmaciones y la
repetibilidad de los procesos para llegar a los mismos resultados
 Seguridad: derivado de la objetividad, la replicación es más fiable que el que no ha podido ser comprobado.
La mayor seguridad nunca se traduce en certeza.

En su explicación de la realidad, la ciencia persigue un conocimiento capaz de llegar a explicarla por completo
y no aspectos parciales. Por lo que la ciencia pretende ser un sistema ordenado y coherente, un conocimiento
relacionado y sistemático.

El método:
Lo que caracteriza a la ciencia es el modo como opera, el método que utiliza para alcanzar algún objetivo.
Donde no hay método científico, no hay ciencia (Bunge)
El método hipotético-deductivo-experimental: es una síntesis de observación y razonamiento, de deducción e
inducción, de análisis y síntesis. Fases según J.Dewey:
1. Percepción de un problema, del que no se dispone de conocimiento suficiente para resolverlo
2. Identificación y definición precisa del problema a resolver
3. Planteamiento de la hipótesis (la posible solución al problema)
4. Fase deductiva. De ser ciertas las hipótesis deberían darse ciertas consecuencias
5. Validación de la hipótesis mediante prueba de contraste

La investigación científica:
Investigar es la actividad encaminada a la consecución de metas científicas, de tipo teórico o práctico. Esta
actividad, que es la puesta en práctica del método científico, ha de ser sistemática, organizada, disciplinada y
rigurosa

EL PROCESO Y LA LÓGICA DE LA INVESTIGACIÓN CINETÍFICA

 PROBLEMA
El científico se caracteriza por su capacidad para problematizar, para ver problemas donde otros no ven nada. Y
el problema es el arranque de toda investigación.
Un problema es cualquier situación para la que no se dispone de una respuesta adecuada, pero los que
interesan a la ciencia reúnen ciertas cualidades:
 Requiere una teoría de fondo en donde incorporarlo, sin esto será imprecisa su definición y difícil su
resolución
 Suelen integrarse en un sistema problemático o un conjunto parcialmente ordenado de problemas
 Formulación correcta y precisa, que se da cuando el investigador es capaz de plantear preguntas
concretas donde aparecen relacionadas las variables implicadas, de forma que se constituyan en guía para la
formulación posterior de hipótesis, a la vez que orienten sobre el tipo de datos a recoger y las respuestas
que serán precisas
 La resolubilidad, que a veces es cuestión de tiempo. Sin esto el problema no sería científico. Un
problema es resoluble si puede proponerse una hipótesis relevante y es posible comprobarla determinando un
grado de probabilidad
 Relevante, aunque es una característica difícil de precisar

 HIPÓTESIS
Formular hipótesis es realizar conjeturas sobre la posible relación entre las variables integrantes del problema.
Una vez formuladas guían el proceso para conseguir la resolución del problema. Si se hace al revés, si se
recogen primero los datos y luego se les busca explicación se está violando el juego científico.
Características:
 Deben estar bien fundamentadas
 Deben ser contrastables por procedimientos empíricos. La experiencia es la base de toda contrastabilidad.
Se trata de traducir la hipótesis a términos operacionales que permitan decidir acerca de su contrastación,
para lo que se deduce de la hipótesis las consecuencias que deberían seguirse de ser cierta, formuladas en
términos contrastables, y admitir que la hipótesis ha salido indemne de tal contrastación en los casos en que
los resultados empíricos concuerdan con ellas. Así queda validada por la evidencia empírica
 Se puede añadir: sencillez, generalidad y potencia deductiva.
 Es conveniente escoger las que permiten una mayor y mejor información, es decir, un número superior de
consecuencias

 VALIDACIÓN de la hipótesis (no verificación)


A las hipótesis se las contrasta con los datos para ver si se mantienen o se rechazan. Pero las mejores
hipótesis científicas no son directamente contrastables.
Bunge: “…para contrastar una hipótesis tenemos que hacer la suposición de que, si es verdadera, serán
perceptibles ciertos hechos, los cuales se considerarán manifestaciones de la situación a que se refiere la
hipótesis”

 Operativización: es traducir las variables (dependientes o independientes) a consecuencias observables,


cuantificables o medibles. La variable queda definida por las acciones y operaciones que deben llevarse a cabo
para medirlo. Esto facilita la prueba de la hipótesis y permite el acuerdo entre observadores (característica
científica)
Una vez operativizadas las variables es necesario traducir la hipótesis a formas estadísticas H 1: µA >µB
 Ninguna hipótesis es válida en general (la del ejemplo del libro se limita a ese caso en concreto), se
debe definir la población para la que se pretende validar la hipótesis, teniendo en cuenta todas las variables
que puedan resultar relevantes. La muestra he de ser representativa, esto es, de tamaño suficiente y extraídas
de forma aleatoria
 Elegir el diseño que permita responder a las preguntas formulas, de forma tal que el control de la variable
extraña sea la única causa de los efectos que se aprecien posteriormente en la variable dependiente.

Una vez operativizadas las variables y elegido el diseño, se valida la hipótesis en sentido estricto. Se trata de
recoger los datos que se consideran pertinentes y relevantes, se elige un diseño:
 Un experimento
 Un procedimiento ex-post-facto: se investiga un fenómeno que ya ha ocurrido
 Observación (técnica fundamental en investigación pedagógica).
Para Bunge: debe ser intencionada, con un objetivo determinado, e ilustrada ya que debe ser guiada por un
cuerpo de conocimiento
Para Selltiz: la observación se convierte en técnica científica si:
 Responde a un objetivo ya formulado
 Se planifica sistemáticamente
 Se controla sistemáticamente y se relaciones con proposiciones más generales
 Está sujeta a comprobación y control de validez y fiabilidad

 El control, junto con el rigor del proceso darán lugar a resultados fiables o contaminados, lo que
sirve para decidir sobre la aceptación o rechazo de las hipótesis
 Los datos por sí mismos no dan respuesta a las preguntas planteadas, deben ser analizados y
tratados adecuadamente. Operaciones a seguir con los datos:
 Depuración: necesario en situaciones de tratamiento mecanizado
 Organización: por ordenación, por categorización (tabla de frecuencias), distribuciones…todos estos sistemas
ofrecen una visión de conjunto, que permiten una simplificación y facilitan el tratamiento; en ocasiones se
transforman para facilitar el análisis posterior

 Análisis: antes el investigador debe decidir:


 El nivel de medición logrado: en el marco de las escalas de medidas Md, Mo, X, Q, S, S 2…
 El tipo de error que se desea evitar (I o II) y nivel de significación estadística α.:
 Tipo I: rechaza una hipótesis de nulidad verdadera aceptando su propia hipótesis siendo falsa
 Tipo II: decide en función de las circunstancias de su investigación y de su significación práctica

 La elección de la prueba estadística: se debe elegir la prueba más potente y más precisa, es decir, la que
permita rechazar más fácilmente Ho. A tener en cuenta:
 El tamaño de la muestra
 El tipo de contraste: unilaterales o bilaterales
 La forma de elección de los sujetos
 El nº de tratamientos y el de variables independientes y dependientes
Para Siegel: no paramétrica para escalas nominales u ordinales y paramétricos para escala de intervalos o
proporción

 Interpretación, teoría y replicación


La ciencia nunca llaga a resultados finales acabados, pueden modificarse cuando nuevos datos lo recomienden.
Las conclusiones, que se presentan al final de la investigación, pueden ser:
 Las que se limita a traducir los términos estadísticos en lenguaje verbal, y deducir nuevas conclusiones de
ellas
 Las que se elevan, por inducción, por encima de los hechos, y en función de la variable controlada
formular leyes de aplicación más o menor general (en estudios controlados de hechos). Lo que Popper llama
“la ruta de la ciencia”

 Inferencias deductivas: se puede tomar una conclusión como una premisa, de la que se derivan
nuevas predicciones, si estas se confirman, la hipótesis y teoría adquieren mayor firmeza, en
caso contrario se debe de reformular. La ventaja es el carácter de certeza que les corresponde
cuando las premisas también lo son.
Postura refutabilista: al no existir otro procedimiento que el deductivo, los datos resultan inútiles si son favorables
pero son decisivos en caso contrario (en hipótesis universales). Porque en las hipótesis singulares puede
llegarse por deducción a su establecimiento definitivo como verdaderas con un solo caso que cumpla el
enunciado
 Generalización: se extienden los resultados encontrados en la investigación a casos no estudiados
en ella. Sólo cuando la muestra es suficiente y representativa de la población estamos
capacitados para generalizar de la muestra a la población. Aunque hay que tener siempre
presente el marco de las condiciones integradas en la investigación, que puede influir en mayor
o menor medida al proceso. Por lo que la generalización está ligada a la replicación, que
llevada a cabo con el mismo grupo permite conceder mayor credibilidad, fortaleza y fiabilidad a
los resultados al hacer más improbable que se deben a la casualidad.
Replicación sistemática: las circunstancias, las variables y todo lo que sea relevante es sometido a contraste.
Hay un tipo especial de generalización: la interpolación y extrapolación de resultados a partir de los
empíricamente hallados que permitan formular leyes de aplicación general

 Inferencias inductivas: es el paso de unos enunciados particulares a otros universales o más


generales. Es un tema problemático, aunque necesarios y convenientes.
La ciencia puede avanzar en la medida en que sea factible elevarse por encima de los datos con nuevas
hipótesis de carácter explicativo, que no se limiten a afirmar lo que los datos dicen sino que procuran
explicarlos

CARACTERÍSTICAS DEL CONOCIMIENTO CIENTÍFICO-EXPERIMENTAL

El conocimiento experimental se funda en la observación y experimentación científica sobre la base de la


experiencia. La experiencia, lo empírico, es científico cuando hay posibilidad de medición, de control y de
verificabilidad intersubjetiva. A lo que se añade la necesidad de lograr leyes generales
Ya que no toda experiencia puede considerarse de carácter científico, para J. Simon:
 Pedagógica de ensayo: nueva forma de hacer o de estar
 Pedagógica experimental (experiencia sistemática o controlada): la que importa a lo científico. Término en
desuso, sustituido por el de Métodos de Investigación
En palabras de García Hoz, para diferenciar lo especulativo de lo experimental, propone 2 criterios:
1. la aplicación de la medida o la evaluación objetiva a los fenómenos estudiados
2. la posibilidad de comprobar la investigación por parte de personas ajenas a ellas.

LA APLICACIÓN DE LA METODOLOGÍA CIENTÍFICO-EXPERIMENTAL EN EDUCACIÓN

POSIBILIDAD DE LEYES GENERALES EN EDUCACIÓN


Las diferencias humanas hacen que generalizar en este campo sea complicado, aunque esto puede resolverse
incluyendo en la formulación suficientes variables: “el método A es mejor que el B cuando lo utiliza el profesor
C, en las circunstancias de tiempo D y de espacio E, con alumnos de tipo F, en ambientes G, con material
H…M. Sherwood señala que es la forma más débil de generalizar, pero no deja de ser generalización.

MEDICIÓN Y EVALUACIÓN. PRONCIPALES OBJECIONES


Bunge: la cuantificación de la realidad permite el afinamiento de conceptos, la descripción precisa de la realidad,
la precisa clasificación de los sujetos, la formulación de hipótesis y teorías exactas, “estableciendo una
interrelación precisa entre variables y fórmulas”, y la contrastación rigurosa de hipótesis.

Yela recoge las objeciones habituales a la medida y el control en el campo de las ciencias humanas
MEDICIÓN: Lo psíquico no puede medirse:
 porque es espiritual – pero siempre podremos hacerlo con manifestaciones externas de lo psíquico
 porque es cualitativo – puede medirse desde manifestaciones externas y del sustrato biológico de lo psíquico.
 por ser una totalidad indivisible – la personalidad total del sujeto no se romperá por medir uno de sus
aspectos
 por ser irrepetible y en continuo cambio – Yela: el que no se repita exactamente un fenómeno no quiere
decir que no pueda medirse, sino que no puede repetirse exactamente la misma medida. Consecuencia de ello
es el carácter estadístico y probabilística, que no exacto, de la medida. La irrepetibilidad pone en entredicho uno
de los supuestos básicos del método científico: “uniformidad de la naturaleza” o coherencia.

CONTROL: la interacción entre el observador y lo observado, “los fenómenos psicológicos se modifican incluso al
ser observados y medidos”

MEDIDAS Y ESCALAS
Stevens: medición es la asignación de numerales a objetos o hechos de acuerdo con reglas. Niveles de
medición:
 Nominal: indican que algo es igual o destinto de algo, no se pueden hacer operaciones matemáticas, se
trabaja con la frecuencia que aparecen en cada categoría
 Ordinal: + seriación en orden creciente o decreciente, y permiten aplicar pruebas estadísticas
 Intervalo: + diferencia entre intervalos consecutivos, sin 0 absoluto pero permite operaciones matemáticas
 Razón.: + 0 absoluto y todo tipo de operaciones matemáticas

En base a lo que le permitan sus datos, el investigador debe elegir como medirlos y esto le lleva a elegir
entre pruebas paramétricas y no paramétricas.

POSIBILIDAD DE CONTROL
En las ciencias físicas es relativamente fácil llevar los fenómenos a investigar al laboratorio (objetos de
estudio), lograr una situación común en circunstancias y variar una de ellas, utilizando en el intento sistemas de
control incluso de carácter manipulativo.
En el caso de las ciencias humanas las dificultades se multiplican, y es difícil controlar las variables. Además el
objeto de estudio es el mismo que el elaborador de esa investigación, el hombre.
Dificultades para el control:
 Qué controlar, que tipo de variables están asociadas y cuales son independientes
 Técnicas para controlar variables que no contaminen el experimento.
 Problemas éticos, que impiden realizar determinados experimentos
 Artificialidad de la situación, ya que de tanto controlar las variables se llega a situaciones tan idealizadas
que están muy lejos de la realidad.
 La falta de control en el trabajo de campo hace que los resultados no se tomen seriamente en cuenta. El
trabajo de campo permite poner a prueba, en situaciones más reales, los resultados del experimento de
laboratorio, y en caso de concordancia, una superior generalización de los logros. Y a la inversa, del campo al
control riguroso del laboratorio.
 La replicación (sistemática) de experimentos permite conferir una mayor credibilidad a los resultados aparte
de una superior generalización.
 De gran ayuda a las técnicas estadísticas están siendo el progreso tecnológico, que permite plantear
investigaciones con mayor realismo experimental en el marco del situaciones naturales (realismo mundano)

VERIFICABILIDAD INTERSUBJETIVA
Popper: “una experiencia subjetiva, o un sentimiento de convicción, nunca pueden justificar un enunciado
científico” “la unión de una conducta observable del hombre y lo que sucede en él debe establecerse por la
aplicación de definiciones operacionales, de un lado, y de constructos teoréticos del otro”
Bunge: “…hacemos hipótesis sobre hechos no percibidos y los contrastamos por medio de evidencia que consiste
en datos acerca de hechos directamente observables, partiendo de la suposición de que los últimos son efectos
de los primeros”

En educación, la relación entre la teoría y los datos no es obvia, la traducción operativa de un constructo
teórico es problemática y sólo se puede entender como un indicador, lo que provoca dificultad en la validación o
rechazo de teorías y el acuerdo entre observadores.
Si la verificabilidad se entiende como coherencia de resultados, con determinados niveles de probabilidad, y si
los resultados se refieren a los grupos, la posibilidad de verificación intersubjetiva parece clara. No se puede
corroborar los resultados de investigaciones anteriores si se pretende que los resultados se repitan exactamente
igual y por individuo, ya que tratamos con personas.

REPERCUSIONES METODOLÓGICAS

 La validez y fiabilidad permiten al investigador conocer con precisión el margen de error que afecta a sus
resultados. Las limitaciones en los instrumentos de medición nos llevan a utilizar no tanto el rasgo del
sujeto, sino el puesto relativo en el grupo.
 La muestra debe ser suficiente y representativa
 La probabilidad está implicada en el proceso de inferencia por el cual pueden generalizarse los valores de
las muestras a las poblaciones
 El error muestral permite estimar los límites entre los que cabe esperar los correspondientes parámetros
 El error típico de los estadísticos, la elección del estimador adecuado a la situación y la utilización de las
adecuadas distribuciones maestrales son elementos claves del proceso.
 Las limitaciones del control, en investigación educacional, dan gran trascendencia a la elección de un diseño
adecuado y que la prueba estadística obtenga el máximo partido de los datos.
 Para la verificabilidad intersubjetiva, las definiciones operativas deben poseer un lenguaje preciso e inequívoco
y utilizar instrumentos que sean la traducción de aquellos. Deben especificarse con claridad las características
relevantes de los sujetos que puedan influenciar en los resultados. Y por último, identificar y especificar
todas las circunstancias en que se alcanzan los resultados

TEMA 3
EL INFORME Y LA CALIDAD DE LA INVESTIGACIÓN

La investigación no llega a buen término si no se redacta un informe completo con la que difundirla.
El valor, y el sentido o utilidad del informe viene determinado por la propia investigación, el interés que
despierte, la utilidad de sus conclusiones, las aportaciones al conocimiento, y sobre todo, el sentido que el
investigador le otorgue en relación con la realidad, con la práctica profesional.

No existe un modelo único de informe, la diversidad es muy amplia, lo importante es que sea práctico, que
denote utilidad y efectividad en la comunidad a la que se destina, contribuya a aumentar el conocimiento del
tema tratado.
Sobre el estilo se dice que el investigador debe resaltar las siete características que identifican la cientificidad de
cualquier estudio: objetiva, precisa, verificable, explicativa, empírica, lógica y condicional.

Fox, triple finalidad del valor del informe:


1. Comunica la naturaleza del trabajo con rigor para que se pueda repetir por otro investigador
2. Comunica las características del resultado para clarificar las conclusiones
3. Comunica la visión del investigador, su interpretación de los datos, las conclusiones y recomendaciones
CONTENIDO DEL INFORME
Debe Dar cuenta del proceso de investigación, de los resultados y de las implicaciones que puedan establecerse

 IDENTIFICACIÓN: para facilitar su acceso a los contenidos, deben aparecer claramente:


 Título: breve y descriptivo, pero completo. Y a pie de página autor y contexto académico donde trabaja
 Resumen: idea general del trabajo en un texto breve que incluye: hipótesis, método,
muestra, instrumentalización, procedimientos en la recogida y tratamiento de datos, resultados
e interpretación. (inglés)
 Palabras clave: que faciliten la localización de la investigación en cualquier índice. (inglés)
Según la extensión del trabajo, a continuación de estas páginas irá el índice con números arábigos.

 MARCO CONCEPTUAL: familiariza al lector con el problema que se aborda y el contexto que lo motivo
 Introducción: informa de la relevancia teórica y práctica del tema elegido, justifica el tema
 Objetivos: precisa los límites y pretensiones, y el alcance que se espera del trabajo.
Deben expresarse como proposiciones constituidas por: verbo (en infinitivo), las variables,
las relaciones y el contexto. Y estarán orientadas a definir los logros que se esperan obtener
a partir de los resultados.
 Planteamiento teórico: revisión de aportaciones previas, estableciendo la línea de investigación
 Hipótesis: solución al problema planteado, que serán confirmadas o rechazadas en la investigación

 MARCO METODOLÓGICO: describe el estudio realizado, la metodología seguida


 Las variables: se identifican, se categorizar y se establece la relación que se pretende
probar. Se las define operativamente, y se describe el proceso de control sobre variables
extrañas
 El método: descriptiva, experimental, ex–post-facto, que justifica la confirmación o rechazo de la H
 La muestra: se describe la población y se explica luego el sistema de muestreo (criterio y procedimiento)
 La recogida de datos: momento clave caracterizado por el rigor y la metodicidad
 Las técnicas y los instrumentos empleados: se pueden usar los ya existentes o crearlos a medida (ad
hoc)
 El proceso: se expresa con claridad el nivel de participación e implicación del investigador…
Junto a los datos se acompaña la estrategia estadística que se haya seguido, y las pruebas aplicadas en el
análisis.
Para terminar habrá que enjuiciar, con sentido crítico la propia investigación, determinando la validez de los
resultados, las probabilidades de acierto y la pertinencia del tratamiento estadístico aplicado a los datos.

 RESULTADOS: aportaciones que el investigador puede dar al estudios. Modo sistemático


 Análisis: se determina si se han satisfecho los objetivos previstos, y se usa para su justificación los datos
obtenidos
 Conclusiones: refleja las aportaciones al conocimiento del tema abordado. Es su interpretación de los resultados
 Implicaciones: señala recomendaciones y líneas de desarrollo futuro del tema
 Limitaciones: con sencillez y humildad se reconocerán las limitaciones que pueda tener la investigación
Identificación
-Título Marco Conceptual Marco Metodológico Resultados
-Introducción -Variables -Análisis de resultados Bibliografía
-Resumen (abstract)
-Objetivos -Métodos -Conclusiones Anexos
-Palabra clave
(keywords) -Planteamiento teórico -Muestra -Implicaciones
-Agradecimientos -Hipótesis -Recogida de datos -Limitaciones

DISTINTOS TIPOS DE INFORMES, en educación


 Investigación cuantitativa: el marco metodológico es lo más importante del proceso. Destaca la cientificidad
de su carácter, su valoración crítica, la validez del diseño y el tratamiento estadístico aplicado a sus datos

 Investigación cualitativa: lo más importante es el marco teórico y la interpretación de resultados. También


lo será la documentación del proceso.

 Investigación evaluativa: centrado en el proceso metodológico, especialmente en la instrumentación y la


técnica de análisis de los datos, lo que determinará la toma de decisiones final

LA DIFUSIÓN DE UNA INVESTIGACIÓN


El informe debe ser sencillo, claro, preciso y completo. El objetivo del informe determina el proceso de
elaboración.
La difusión debe ser ágil y precisa, explicando los logros y los procesos seguidos.
Formas de llegar a la comunidad científica:
 Presentación oral: el más usado en algún foro científico (congreso, seminarios, jornadas…)
 Comunicación escrita: de gran alcance (libros, revistas, boletines, actas…)
 Centros de investigación: elaboran sumarios y boletines con los datos sobre los estudios desarrollados
 Redes informáticas: facilitan la difusión de los estudios y sus resultados

LA CALIDAD DE LA INVESTIGACIÓN
No se trata de determinar la calidad de la investigación, sino de valorar que métodos e instrumentos mejoren la
calidad de los resultados. La propia investigación también es evaluada mediante revisión de expertos (pares)

Beneficios de un buen control de calidad en todo proceso de investigación (Alonso):


 Proporcionar un marco general de acción para la investigación ganando tiempo para la creatividad
 Ofrecer garantías y dar confianza, a quienes utilizan el conocimiento generado
 Responder mejor a las demandas de socios y destinatarios
 Mejorar la eficacia económica en un entorno de competencia
 Capitalizar los resultados y mejorar la gestión del conocimiento
 Mejorar la competitividad científica
 Producir información y conocimiento científico fiables
 Facilitar el trabajo en red, los intercambios y el diálogo entre grupos

CRITERIOS DE CALIDAD
Determinar criterios le da funcionalidad a la investigación y favorece la reflexión del equipo.
Alonso, criterios de Calidad referidos a los:

 Objetivos iniciales: se valora la trazabilidad (posibilidad de identificar el origen y las diferentes etapas de un
proceso de producción y distribución) de los trabajos preparatorios de la investigación
Criterios Disposiciones Herramientas
Pertinencia y novedad Evaluar los objetivos de acuerdo a los Revisiones bibliográficas
conocimientos actuales Contactos y referencias académicas
Utilización de redes de expertos
Factibilidad Evaluar los recursos necesarios Planificación detallada del Proyecto
Analizar los riesgos asociados a la investigación
 Procesos: fase de realización de la investigación y en aplicación de la metodología general, se identifican:
Criterios Disposiciones Herramientas
Transparencia Asegurar la trazabilidad de los Descripción detallada del procedimiento de trabajo
resultados Informes de las diferentes fases de desarrollo
Validación de instrumentos empleados
Sistematización de sus Asegurar la trazabilidad de los Descripción de los criterios que determinan el
fases de desarrollo procedimientos procedimiento de recogida y tratamiento de datos.
Revisiones periódicas
Acciones correctivas y preventivas

 Resultados: fase de valoración de los resultados y en aplicación de la metodología general, se identifican:


Criterios Disposiciones Herramientas
Explotación de los Transferir los resultados Proceso de difusión académica
resultados Patentes y cesiones de licencia
Contrataciones
Maximizar el impacto Determinar al público concernido Envío de artículos a Revistas de alto impacto
científico de los e identificar los mejores vectores Planificar comunicación en medios de comunicación
trabajos de comunicación Difusión
TEMA 4
DISEÑO DE LA INVESTIGACIÓN

La calidad del diseño vendrá relacionada, entre otros, por su adecuación a la pregunta en que se concreta el
problema de investigación.
La investigación científica es la búsqueda intencionada de conocimiento o de soluciones a problemas de carácter
científico. La investigación se caracteriza por ser un proceso sistemático, planificado, organizado (porque
responde a un plan ordenado) y con pretensiones de resultados objetivos, conclusiones que deriven de los
datos rigurosamente obtenidos y no de interpretaciones.

Kerlinger: “diseño es el plan, estructura y estrategia de una investigación cuyo objetivo es dar respuesta a
ciertas preguntas y controlar la varianza”
 Plan: redactar hipótesis y sus consecuencias operacionales. Cómo se formarán las muestras, los subgrupos,
cómo se recogerán los datos y cómo se analizarán
 Estructura: el esquema, el paradigma de operación de las variables. Diagramas donde se describen las
variables, su relación y yuxtaposición.
 Estrategia: métodos mediante los cuales se reunirán y analizarán los datos. Cómo se conseguirán los objetivos
y cómo se abordarán los problemas.
 Objetivos:
 Responder a las preguntas del problema de investigación: dependiendo del tipo de pregunta se realizará
el esquema de acción, el diseño (variable independiente A, B, variables extrañas como sexo, grado,
asignatura…)
 Controlar la varianza, técnicamente se denomina validez interna del diseño y consiste en poder afirmar
que los efectos medidos en la variable dependiente se deben a, y solo a, la variable independiente y nunca
la extraña. Presenta 2 momentos claves:
1.Poder afirmar, antes de comenzar la investigación que los grupos a comparar son equivalentes
2. Una vez iniciada la investigación, las condiciones y circunstancias son las mismas en
ambos grupos

La varianza (la dispersión de las puntuaciones de una variable) puede ser sistemática, cuando la dispersión la
produce la variable dependiente, por lo que tiene un origen concreto y experimental o puede ser aleatoria,
cuando la dispersión la producen factores alejados de los intereses del investigador, su origen se encuentra en
las diferencias individuales de los sujetos y en los errores de medida. Los efectos de esta última se compensan
al afectar por igual a los dos grupos
Un buen diseño deberá responder al principio que Kerlinger denominó Max-Min-Con:
 Maximizar: hacer tan grande como sea necesario la varianza debida a la variable independiente o sistemática
 Minimizar: hacer tan pequeña como se pueda la varianza aleatoria
 Control: validez interna, control de toda hipótesis rival o alternativa
Max y min son importantes para conseguir que los resultados puedan llegar a ser estadísticamente significativos,
para que el investigador pueda decir con un elevado nivel de confianza que no se deben al azar sino al efecto
de la variable independiente. Y el control hace que esto sea real

TIPOS DE DISEÑO
PRE-EXPERIMENTAL: Carecen de control:
 Diseño de caso único, con una sola medición, donde las comparaciones no están justificadas,
puede haber distintas variable i. que pueden estar ocurriendo a la vez y las conclusiones derivadas no
son defendibles
1. X Y
 Diseño pretest-postest de un solo grupo: es una comparación formal, se dispone de información
previa al experimento, pero al igual que el anterior pueden estar actuando varias variables, no evita
riesgos
2. Y1 X Y2
 Diseño de comparación con un grupo no tratado experimentalmente: se compara un grupo que
ha recibido la variable i. del que no, pero no se sabe si los grupos son equivalentes, por lo que
pueden ser otros los motivos que expliquen las diferencias entre los grupos y no el haber recibido la
variable i
3. X Y1
Y2
EXPERIMENTAL: control de la varianza
 Diseño de dos grupos, inicialmente igualados por asignación al azar: y a uno se lo somete a la
variable i. y al otro no. Este diseño controla las hipótesis rivales
4. Azar Y1 X Y2
Azar Y3 Y4
 Diseño de cuatro grupos de Solomon: analiza la existencia o no de diferencias en situaciones
diferentes. Es difícil llevarlo a cabo y realizar el análisis estadístico. Reservado para experimentos de
gran trascendencia.
5. Azar Y1 X Y2
Azar Y3 Y4
Azar X Y5
Azar Y6
 Diseño de grupo de control con solo pretest: carece de pretest. Si el azar fuera posible este diseño es
preferible ya que nos ahorra el pretest y puede aplicarse un tratamiento estadístico más sencillo
6. Azar X Y1
Azar Y2

 Diseño factorial: a modo de ejemplo


Metodología Trabajo Trabajo Mixto C Puntuaciones 7.
Motivación individual A cooperativo B
Intrínseca X A/X B/X C/X
Extrínseca Y A/Y B/Y C/Y
Puntuaciones

Con este diseño podemos someter a contraste simultáneamente dos hipótesis, una en relación con cada una de
las dos v.i. (metodología y motivación). También nos permite apreciar si se da interacción., esto es, el hecho
de que los efectos de una de las v.i. estén condicionados por la otra v.i. El tratamiento estadístico de este
diseño es el análisis de la varianza (ANAVA O ANOVA), esto es, la prueba F de Fisher. F sólo indica si
alguna de las posibles diferencias entre medias es o no significativa

CUASI-EXPERIMENTAL: se diferencia del experimental en las posibilidades de control


 Diseño pretest/postest con grupo de control no equivalente: aunque ambos grupos tienen pretest no
asegura la inicial equivalencia antes de aplicar X. Los grupos son naturales, se encuentran constituidos
previamente al diseño de la investigación
8. Y1 X Y2
Y3 Y4
 Diseño de cuadrado latino (diseños compensados)
Rendimiento previo Alto Medio Bajo Puntuaciones 9.
Clase social
Alta A B C
Alto/alta Medio/alta Bajo/alta
Media B C A
Alto/media Medio/media Bajo/media
Baja C A B
Alto/baja Medio/baja Bajo/baja
Puntuaciones
La variable i. denominada tratamiento, tiene tantos niveles como grupos haya en el diseño, presentándose una
vez por fila y columna.
En cada celdilla se cruzan 2 variables independientes denominadas de bloqueo, porque su misión es
homogenizar los grupos en tales variables (bloques), las puntuaciones de cada celdilla son las de la variable
dependiente
La interacción que se produce en cada celdilla es un efecto beneficioso para los diseños factoriales pero no
para este, ya que no podríamos diferenciar el efecto debido a la variable tratamiento (metodología) del existente
por la interacción. El diseño estadístico es el análisis de varianza
 Series cronológicas: las medidas de Y previas a X buscan lo que se denomina línea de base, una
situación estable del sujeto o del grupo en la realidad medida. La interpretación de los resultados Y5 a 8
depende de los previos a X y de la forma que tomen después de Y
10. Y1Y2Y3Y4 X Y5Y6Y7Y8

CRITERIOS PARA SELECCIONAR EL DISEÑO


Se debe seleccionar el diseño que de respuesta a las preguntas en que se concreta el problema y acorde con
la hipótesis del investigador, y de entre las posibles, aquel que controle en mayor medida la varianza de las
variables extrañas, para evitar que se conviertan en hipótesis rivales.
Se añade un tercer criterio de generalización, validez externa que se suma a la validez interna (control)

TEMA 5
EL EXPERIMENTO COMO REFERENCIA

El experimento es la meta ideal del paradigma positivista. Cuando está bien planteado, se puede someter a
contraste de hipótesis causales, hipótesis conocidas como de “implicación general”: si…entonces…Así la variable
i. se convertiría en la causa de los resultados, de la variable dependiente.

El experimento ofrece resultados y conclusiones fiables y permite el establecimiento de relaciones causa efecto.
Sus características esenciales son:
 Cambio planificado o provocación del fenómeno
Producidos en el momento que el investigador considere. Esto permite poseer las mejores condiciones para
observar y registrar los datos y que su realización se produce en condiciones relevantes al problema
(circunstancias espacio-temporales, características personales y formales de las personas y relaciones
implicadas).
Poder repetirlo cuando se necesite cumple con una característica del conocimiento científico, la verificabilidad inter
e intra-subjetivas. También cumple con la validez externa, mediante la cual se pueden realizar generalización
con mayor fiabilidad, lo que permite la formulación de leyes y el establecimiento de teorías

 Control
Sin control, lo anterior no tendría sentido. Su misión es descartar hipótesis rivales para poder afirmar que los
efectos medidos en la variable d. son debido a y sólo a la variable i. El control debe considerar:
 Se deben controlar las condiciones en que se produce el experimento, ya que se modifican esas condiciones
para averiguar los efectos de sus variaciones. Manipulación de variables i.
 Se debe controlar el proceso, evitando la aparición de variables extrañas. Bunge dice que para lograrlo hace
falta una lista de sospechosos de la que no siempre disponemos. Una de las estrategias del control consiste
en el grupo de control o testigos…”hay que formar un grupo experimental y uno de control de tal modo que
la única diferencia apreciable entre ellos se deba a los estímulos situados bajo control del experimentador,
activos sobre el grupo experimental y no sobre el de control”
 Medición, hay experimentos cualitativos y cuantitativos.
o Los cualitativos toman en consideración la intervención y la aparición o no de determinadas variables, pero
no son valoradas cuantitativamente
o Los cuantitativos requieren mediciones objetivas de v.d. y en ocasiones para controlar diferencias iniciales
mediante pretest y v.i.

TIPOS Y CARACTERISTICAS
 Experimentos de laboratorio: es el marco ideal para la investigación pura y fundamental que permite
identificar variables relevantes, elaborar leyes, contrastar teorías
 Experimentos de campo: se caracteriza por el diseño (se planifica la v.i.), la situación o contexto (real y
natural) y el propósito (comprobar la aplicabilidad a situaciones de la vida real de leyes científicas conocidas
o de hipótesis específicamente desarrolladas en situaciones controladas de laboratorio)

LIMITACIONES DEL EXPERIMENTO


No se puede hacer de la artificialidad una acusación, en todo caso estaremos ante una limitación nacida de que
se ha primado el control, exigencia de validez interna, frente a la generalización. Las situaciones artificiales se
alejan de la realidad cotidiana a la que se pretende aplicar los resultados. Por lo que no puede el investigador
concluir que, como tal cosa ocurrió en experimentos, acontecerá necesariamente en la realidad educativa.

Cuál es el sentido del experimento entonces? Kerlinger lo expresa así:


1. Descubrir relaciones en condiciones puras y no contaminadas
2. Probar predicciones derivadas de la teoría o de otra investigación
3. Refinar teorías e hipótesis y ayudar a elaborar sistemas teóricos

Adecuar el estudio de la Educación dependerá de la posibilidad de control y de las dificultades existentes para
su logro, como el desconocimiento inicial de los factores que han de ser controlados por resultar relevantes, la
dificultad de medir las variables a controlar, la disponibilidad de sujetos que puedan ser atribuidas a los grupos
y la posibilidad de mantener el control inicialmente establecido.
Es más adecuado el experimento de campo por su mayor flexibilidad, aunque para ello tenga que superar las
dos grandes limitaciones a que se refiere Kerlinger, las de manipulación de las v.i. y de asignación al azar.

LA VALIDEZ DE LOS DISEÑOS

 Validez interna: es la mínima e imprescindible, sin la cual es imposible interpretar el modelo


 Validez externa: se plantea la posibilidad de generalizar los resultados de la investigación y su alcance.
El desiderátum será llegar a diseños que, cumpliendo con la validez interna, puedan alcanzar los más amplios
niveles de validez externa. Pero a mayor validez interna, se reducirá la generalización, ya que se limitan las
características, sexo, edad,…

INVALIDEZ INTERNA: son factores que se dan no permiten establecer relación causa-efecto entre la v.i. y la
v.d.
 Historia: los hechos que ocurren desde el inicio de la investigación, introducción de la v.i. y la medida de la
v.d. y que actúan diferencialmente sobre los grupos
 Maduración: este factor afecta directamente a loa sujetos participantes y es más probable que aparezca cuando
la duración del estudio es mayor y cuanto más jóvenes sean los sujetos (también entran aquí las
reacciones psicofisiológicas como el hambre, la ser, el cansancio)
 Administración de pruebas: someter a los sujetos a una prueba puede producir un efecto sobre la v.d. en
paralelo al atribuible a la v.i. Un pretest puede sensibilizar a los sujetos sobre un problema e influir en
cómo lo ven después de haberla realizado.
 Instrumentos de medida, se aprecian cambios con quienes se utilizan o con quienes puntúan
 Regresión estadística: es la tendencia existente en el caso de puntuaciones extremas de regresar hacia la
media del grupo
 Selección diferencial: cuando la selección de los sujetos no se realiza por un procedimiento de azar, puede
que los grupo tengan una composición inicial no comparable, con ventaja de uno sobre otro
 Mortalidad experimental: baja de algún integrante del grupo, dejando la comparabilidad inicial nula
 Interacción entre dos o más factores anteriores: que se den al mismo tiempo (historia y maduración…)

INVELIDEZ EXTERNA: factores que limitan la posibilidad de generalizar los resultados:


 Efecto reactivo de las pruebas: sólo se podría generalizar sobre sujetos que hayan experimentado una prueba,
un pretest
 Interacción entre selección de sujetos y variable i.: selección sesgada de sujetos en variables relacionadas con
la dependiente, que limitarían la generalización a situaciones similares
 Efectos reactivos de los dispositivos experimentales: artilugios y tecnologías que causen atracción por su
novedad
 Inferencias de los tratamientos múltiples: cuando son varios los métodos aplicados es inevitable que influyan el
orden en que se aplican porque unos pueden influir sobre otros. El ser humano no puede pasar de una
situación a otra sin dejar huellas.

LA INVESTIGACIÓN EX-POST-FACTO

En este tipo de investigación se plantea la hipótesis cuando los fenómenos han ocurrido ya, se actúa hacia
atrás, se carece de control sobre la v.i. Se hacen inferencias acerca de relaciones entre variables sin
intervención directa.
Su proceso es a la inversa del experimento: se mide la variable que se toma como dependiente y se toman
mediciones simultáneamente de otras que se consideran independientes, a partir de ahí se procurará inferir para
atrás, o sea, tratar de probar cuál es la verdadera v.i.

MODALIDADES
 Estudios de campo
Estudios útiles para descubrir variables significativas y relevantes (análisis factorial) y para averiguar las
relaciones existentes entre las variables ya identificadas (estudios correlacionales).
Ventajas: se trabaja en situaciones reales, observación continuada y directa, se pueden utilizar instrumentos
variados e independientes para la medición y registro de datos.

Estudios de tipo correlacional son aquéllos en que las correlaciones son utilizadas para determinar las
características técnicas de los instrumentos de evaluación y medida utilizados en la recogida de datos,
especialmente en los casos de validación de hipótesis. Se trata de proceder por medio de ellos aun
acercamiento a una realidad desconocida, como etapa previa a posteriores estudios predictivos y de control en
función de las relaciones descubiertas. En educación destacan los de predicción del rendimiento y los de
selección de test.
Estos estudios hacen posible controlar las variables, ya que para ello se establece previamente una lista de
sospechosos, y éstos salen del conocimiento previo de qué variables están relacionadas con aquellas que
aparecen en el marco de la hipótesis.

El caso más claro de estudio de campo llamado experimento natural, que se ha denominado de validación de
hipótesis, es aquella situación en la que sin manipular la v.i. se identifica alguna modificación o cambio, no
producido por el investigador, por lo que cabe pensar en varias variables dependientes.

 Estudios transversales y longitudinales


A través de los que se pretende obtener información valiosa sobre algo
 Transversales: se examina simultáneamente a sujetos de diferentes edades en características relevantes. Con
esos datos se posee una visión global del problema. Pero las características diferenciales así delimitadas no se
pueden considerar ligadas a los diferentes niveles de edad, porque las muestras no siempre son representativas,
por la diferente forma de selección de las muestras con el paso del tiempo y la no comparabilidad de las
experiencias con el paso de los años. Su ventaja es la forma rápida de conseguir los datos
 Longitudinales: a diferencia de los anteriores, en estos estudios se selecciona una muestra representativa de
sujetos a los que se sigue durante el período de tiempo que éste exige. Su ventaja es que permite delinear la
forma en que se configura la evolución del problema estudiado y es más el fiel reflejo de la realidad.
Limitaciones: representatividad de la muestra (mortalidad experimental) y utilidad de los resultados (desfasados).
Saberse observados puede ocasionar un comportamiento no natural, la influencia de la reiterada exposición a los
test…
 Conveniencia de la complementariedad: de una duración no muy prolongada. Este tipo de estudios ofrecen
tendencias de grupos, compatibles con desviaciones temporales, es decir, con oscilaciones de los momentos en
que las características aparecen y se desarrollan, y de intensidad. (ej. estadios evolutivos de Piaget)

 Estudios de casos
Se caracteriza por ser un estudio intensivo frente a los de carácter extensivo. Se da una creencia de falta de
adecuación de los estudios de laboratorio y de campo para conocer en profundidad a la persona, ser individual,
irrepetible, inabarcable e inaprehensible. Por lo que se requeriría para su estudio los métodos nomotíticos (leyes
generales) e idiográficos (centrado en las peculiaridades del individuo). Pueden tener dos perspectivas, una de
carácter científico y otra de tipo práctico; para ambos casos se reúne una documentación amplia, variada y
evaluativa para poder comprender la situación en su génesis y desarrollo. El estudio y análisis de las
interrelaciones y secuencias permiten llegar a un cuadro final en que los elementos dispersos cobran cierta
integración y estructura.
TEMA 6
PRINCIPALES DISEÑOS

El control permite el dominio del investigador sobre la v.i., lo que le permite su manipulación, permite la
asignación de los sujetos a los grupos y el control de v. extrañas.

El diseño de dos grupos presenta una estructura adecuada para lograr el control de los dos últimos puntos. El
diseño posibilita el control sobre el muestreo, asegurando que inicialmente no se dan diferencias significativas. Y
al disponer de dos grupos, cada uno puede ser considerado como control del otro, por lo que si el diseño es
adecuado, las posibles variables extrañas que afecten a un grupo afectarán al también al otro. Todo ello
asegura que las diferencias medidas en la v.d. se deben a la variación experimental, provocada y controlado por
el investigador.

Grupo de control: la investigación experimental en ciencias sociales requiere inexcusablemente la existencia de


control entendido como grupo de comparación o referencia, esto garantiza la validez interna, ya que se supone
que todas las variables implicadas actuarán con una misma fuerza y de igual modo en ambos grupos, con lo
que las diferencias finales, medidas en la v.d., no se deberían sino al tratamiento experimental o v.i.

Azar y control: cuando de una misma población de sujetos se obtienen dos muestras al azar, los subgrupos
tienden a ser semejantes, comparables, intercambiables, los valores estadísticos son similares. Y a mayor tamaño
de la muestra disminuyen las diferencias no significativas. Si las diferencias superan los niveles aceptados por el
investigador (0,05-0,01) serán diferencias significativas, no se las considerarán debidas al azar.
Para asegurarnos de que los dos grupos elegidos son inicialmente iguales podemos analizar los datos con la
covarianza o constituir los grupos mediante emparejamiento.
La aleatorización presente 3 momentos:
1. Se selecciona al azar el número de casos necesarios para una muestra representativa
2. De la muestra se asigna al azar los dos grupos
3. Se decide al azar que grupo recibirá el tratamiento y el que será de control. O que modalidad recibirá
c/uno

Emparejamiento y control: ante diferencias pequeñas el diseño al azar puede no ser sensible, no detectarlas, y
concluir que no hay diferencias significativas aunque, en realidad, las hayas. La técnica del bloqueo reduce la
variabilidad debida al azar. Esta técnica consiste en constituir los grupos de la forma más homogénea posible
desde la perspectiva de algún criterio relevante (variable del bloqueo), esto es, de una variable que mantiene
una relación sustancial con la v.d. Así cada bloque será más homogéneo que si se hubiese constituido al azar.
El caso más simple de bloqueo es el del emparejamiento, aunque se debe tener presente que con él no se
logra formar parejas homogéneas en todo sino en las variables consideradas por el investigador como relevantes,
pero se mantienen las diferencias individuales en las demás.

PRINCIPALES DISEÑOS DE 2 GRUPOS

En los diseños de 2 grupos se manipula una sola variable independiente, a través de dos condiciones, niveles
o tratamientos, uno para cada grupo, con la finalidad de contrastar las diferencias en la v.d. Se compara una
actuación pedagógica Grupo Selección y asignación Pretest V.I. Postest frente a otra, por lo
general la que viene Experimental Azar - X1 T1 siendo habitual en el
lugar de que se Control Azar - X2 T2 trate.

A la v.i. de la investigación experimental se la denomina activa o de estímulo , ya que pueden ser manipuladas
por el investigador. En la investigación ex–post-facto se trata con variables asignadas o atributivas, ya que no
pueden ser manipuladas sino medidas.

La v.d. es la que se aprecia por efecto de la manipulación de la v.i. Se trabaja con valores medidos que
pueden ir de la rapidez de las respuestas a su exactitud y corrección, pasando por la cantidad, frecuencia o
belleza.
La resolución estadística se traduce en la comparación de las diferencias entre los valores T1 y T2 con los
esperados como resultado del azar. Se pueden compara con los valores al azar las diferencias de x, de s, de
correlaciones…
La prueba t de Student compara las medias aritméticas de los grupos con los valores de azar entendidos como
error típico de tales diferencias. Si el valor de t tiene una probabilidad de azar menor o igual al margen de
error que se está dispuesto a aceptar (α) es porque las diferencias son reales y no aleatorias.

La prueba F (ANAVA) analiza la varianza, cociente entre varianzas, la descompone en dos partes:
1. Varianza experimental: a la que se le puede atribuir el efecto de la v.i.
2. Varianza de error: a la que las diferencias que se dan entre los sujetos no son atribuibles a la v.i.
F nos ofrece un valor que será significativo cuando su probabilidad de ocurrencia sea igual o mayor que el
nivel de confianza fijado.

Ambas pruebas son equivalentes para diseños de dos grupos, pero a t no es posible aplicarla cuando la v.i.
tiene 3 ó más niveles.

DISEÑOS CON POS-TEST


Se parte del supuesto de que, al haber sido formados ambos grupos al azar a partir de la misma población,
los mismos serán inicialmente equivalentes, razón por la cual se renuncia a su comprobación (sin pre-test)

DISEÑOS CON PRE-TEST


Hay ocasiones en que interesa comprobar que los grupos son homogéneos antes de empezar a recibir la v.i.
Estos diseños permiten análisis estadísticos más amplios y complejos que el anterior. Pero también el pretest
puede contaminar el experimento si se convierte en una variable extraña al interactuar con X, por lo que los
resultados sólo podrían generalizarse a grupos que hayan experimentado la misma pre-prueba. Conviene aclarar
que no todas las variables son igualmente reactivas ni siempre aparece dicho efecto, además cuando pasa
suficiente tiempo entre pretest y postest el efecto se reduce o desaparece.
Por todo ello, este diseño es apto para aplicarlo en investigación educativa.

DISEÑOS CON SUJETOS INDEPENDIENTES O EMPAREJADOS


Los sujetos que forman los grupos se pueden tomar de grupos naturales, sin alterarlos, al azar o mediante
emparejamiento. Los más normal es utilizar las propias instituciones y trabajar con grupos ya constituidos
(clases) a los que se asigna al azar los tratamientos.
El análisis estadístico es diferente según que estemos ante sujetos independientes o ante emparejados. Los
casos de grupos naturales parecen especialmente aptos para diseños pretest.

COMPARACIÓN ENTRE LAS DOS MODALIDADES BÁSICAS: azar y emparejamiento:


 El diseño de bloques o emparejamiento asegura en mayor grado la equivalencia inicial, permite constatar
diferencias que, por el sistema al azar, pueden quedar como explicables por casualidad
 El diseño de bloques puede contar con menos sujetos que el al azar, pero debe comenzar con el estudio y
medición de grupos elevados para poder seleccionar unas pocas parejas.
 Los modelos aleatorios son menos precisos y poseen inferior sensibilidad
 Se debe averiguar cuán grande debe ser la correlación entre sujetos para que, a la vez que disminuya el
denominador de t, compense la pérdida de grados de libertad (g.l.)

VALORACIÓN Grupo Selección y asignación Pretest V.I. Postest


Los diseños de dos Experimental Azar T1 X1 T2 grupos son indicados
para estudios de Control Azar T3 X2 T4 carácter exploratorio.
Para etapas más avanzadas resulta preferible utilizar diseños de una v.i. con más de dos grupos y más de dos
niveles, y también de diseños factoriales en que se pueda apreciar el influjo simultáneo de dos o más v.i.
sobre una misma v.d.
DISEÑO FACTORIAL

Se pretende comprobar el efecto de dos o más actuaciones. Además de contrastar dos hipótesis a la vez hacen
posible afrontar una tercera, conocida como de interacción, esto es aquella en que los efectos sobre la
dependiente proceden de la actuación conjunta de las dos independientes sometidas a contraste

EFECTOS A ESTUDIAR:
 Efectos simples: se analiza el efecto de cada v.i. para los diferentes niveles de la otra v.i.
 Efectos principales: se analiza el efecto global de cada v.i. de forma independiente, al margen del otro
factor o v.i. Se puede actuar de dos formas: promediando los efectos simples de cada v.i. o calculando la
diferencia de las medias para cada factor
 Efectos secundarios o de interacción: se trata de apreciar si los efectos de un determinado nivel de la
v.i. alcanza los mejores resultados sobre la v.d. en una concreta combinación con otro de los niveles de la
otra v.i.

También se habla de efectos fijos, aleatorios o mixtos en función del procedimiento que haya utilizado el
investigador para decidir en relación con los niveles de las v.i.
 Fijo: cuando el investigador decide los niveles concretos en que se toman cuerpo los factores, los fija
 Aleatorio: se seleccionan los niveles que se someterán a contraste por procedimientos aleatorios

DISEÑO DE CUADRADO LATINO

En este diseño se utilizan 3 v.i. aunque interesa una, la denominada v. tratamiento, las otras se utilizan para
controlar su posible efecto sobre la v.d., tratando de evitar que se conviertan en extrañas.

Variable M: curso 4º 2º 1º Total


V. N: asignatura Primaria ESO Bachiller
Ciencias A B C
Idioma B C A
Humanidades C A B
Total
En el ejemplo las variables tratamiento son las modalidades de motivación en el aula A, B y C. Pero el
investigador piensa que el curso y la asignatura pueden influir en los resultados, por lo que las v.i. M y N son
utilizadas para controlar su efecto sobre la v.d.
La varianza experimental se analiza en 4 partes:
1. Los tratamientos A, B y C
2. El bloque M, que nos permite ver si las diferencias entre los bloques son o no significativas.
3. El bloque N, idem
4. La interacción. A diferencia de los diseños factoriales, su existencia se considera un inconveniente

DISEÑO DE COVARIANZA

En los casos en los que los grupos se han constituido de forma natural, grupos intactos, se recomienda
controlar la igualdad o desigualdad inicial. La diferencia inicial es la co-variable que será tomada en
consideración al finalizar el experimento con la medida de la v.d.. En lugar de someter a contraste las medias
en la v.d., se contrastarán las medias ajustadas, esto es, las medias finales teniendo en cuenta las diferencias
iniciales

DISEÑOS DE UN SOLO GRUPO

Encontramos 2 situaciones propias de estos diseños: inadecuados por ser pre-experimentales


 Bondad de ajuste son diseños destinados a comprobar si los datos disponibles en una investigación
(empíricos) se acomodan o no, en términos estadísticos a un modelo ideal (campana de graus)
 Los diseños N=1, se trata de intentos de aplicar el rigor de la metodología experimental a un solo caso,
en formatos como los de medidas repetidas
TEMA 7
ESTADÍSTICA Y DISEÑO I: ESTIMACIÓN DE PARÁMETROS

“La estadística es la ciencia que se ocupa de la ordenación y análisis de datos procedentes de muestras, y de
la realización de inferencias acerca de las poblaciones de las que éstas proceden”

Población: conjunto de todos los elementos que cumplen una o varias características. Los índices numéricos que
la describen se denominan parámetros.
Muestra: subconjunto de los elementos de una población. Los índices numéricos que la describen se denominan
estadísticos. A partir de las muestras se estima el valor de los parámetros. La técnica para seleccionar a los
sujetos de la muestra se llama muestreo. A mayor tamaño de la muestra, mayores garantías de
representatividad.
Una vez elegida la muestra, el paso siguiente es la medición. Este proceso es complicado, ya que por lo
general lo que medimos son constructos (características que no son directamente observables), por lo tanto
medimos las manifestaciones observables que atribuimos a los constructos.
Se elaboran los instrumentos de medida, se aplican a la muestra, se recogen los datos y se elaborar la matriz
de datos. A partir de ahí se ordenan y categorizan, y se realiza un análisis descriptivo.

Inferencia estadística: extrapolar los resultados obtenidos en grupos o muestras concretos a las grandes
poblaciones a las que pertenecen, pero nunca se habla de certeza, sino de probabilidad de acierto y de error.
Las aplicaciones básicas de la inferencia son:
 La estimación de parámetros: un parámetro se estima siempre a partir de un estadístico calculado en una
muestra. Se habla de dos tipos de estimación:
 Estimación puntual: se hace coincidir el estadístico con parámetro, se escoge un solo punto
 Estimación por intervalos o intervalo de confianza: se ofrece un intervalo de puntuaciones en el cual es
más probable que se encuentre el valor del parámetro
 El contraste de hipótesis: probar mediante datos empíricos las hipótesis que se plantean en la investigación

Un estimador es un estadístico muestral que permitirá la estimación de un parámetro poblacional. Características:


 Carencia de sesgo: un estimador insesgado nos garantiza que las estimaciones se encuentran alrededor del
parámetro, de forma simétrica
 Eficiencia: un estimador es más eficiente cuanto menor es su desviación típica
 Consistencia: un estimador es consistente si a medida que aumenta el tamaño de la muestra, la
probabilidad de que el valor del estadístico se acerque al valor del parámetro va siendo mayor
 Suficiencia: cuando es capaz de sustraer de la muestra toda la información que ésta contenga acerca del
parámetro
DISTRIBUCIÓN MUESTRAL

Al igual que la distribución normal, existen otras distribuciones teóricas (modelos matemáticos de distribución)
como la binomial, la t de student, la multinomial, la F, etc., en las que se conoce la probabilidad de aparición
asociada a todos los posibles valores del estadístico.

La distribución muestral es la distribución de un estadístico en el muestreo, formada por los infinitos valores de
un estadístico obtenidos de infinitas muestras aleatorias del mismo tamaño extraída de la misma población.
Nivel de confianza: porcentaje de confianza al hacer la estimación, o probabilidad 1- α
Nivel de significación: probabilidad de error que estamos dispuestos a cometer en la estimación α (0,01 –
0,05)
Error muestral: diferencia más probable entre el estadístico y el parámetro
E.M. = Z(α/2) . Õx Z(α/2) es la puntuación típica correspondiente al nivel de significación que hemos
establecido

Intervalo confidencial I.C: serán los valores entre los cuales es más probable que se encuentre el verdadero
valor del parámetro. I.C. = X ± E.M.

A la desviación típica de la distribución muestral se la denomina error típico, es una medida de dispersión con
respecto al parámetro Õx = s/√N-1
El tamaño muestral es decisivo en la inferencia estadística, cuanto más grande N, más pequeño el cociente,
más pequeño el error típico y más precisión en la estimación del parámetro.

Cuando la muestra es pequeña N<30 y se desconoce Õ, la distribución muestral de la media sigue la


distribución t de student. Lo único que cambia con respecto a lo anterior es que al calcular el E.M. se utiliza
t(α/2) en lugar de z(α/2).
En la estimación del parámetro proporción (p) la media x oscila entre 0 y 1 (variables dicotómicas). La p
indica la proporción de 1 y la q de 0. Lo que varía es el cálculo del error típico Õ p=p.q/√N-1

CORRELACIÓN DE PEARSON

Es un índice descriptivo que describe la magnitud de la relación entre 2 variables. Para inferir los resultados de
la muestra a la población se calcula el intervalo de confianza para la correlación de Pearson.
La distribución muestral de dicha correlación se asemeja a la distribución normal con el siguiente error típico:
o Para muestras grandes N>100 Õr=1/√N-1
o Para muestras pequeñas Õr=1-r2/√N-1

Significatividad estadística: se utiliza cuando nos referimos al significado de la diferencia entre dos medidas. Por
ejemplo un coeficiente de correlación es estadísticamente significativo cuando es distinto de cero.
Cuando estimamos el intervalo de confianza, en el cual podría encontrarse la verdadera correlación en la
población, si contiene el 0 (ausencia de relación) diremos que dicha correlación no es estadísticamente
significativa.

No es lo mismo significatividad estadística (correlación ≠0) que magnitud de las diferencias. La magnitud de la
correlación se juzga según los criterios para interpretar un coeficiente de correlación, puede ser baja o alta.

DIFERENCIA DE MEDIAS

La estimación del parámetro diferencia de medias µ 1-µ2


Si establecemos el intervalo de confianza a partir del estadístico diferencia de medias, obtendremos los límites
confidenciales entre los cuales podría encontrarse la diferencia de medias en la población.
I.C.= (x1 – x2) ± E.M
E.M. = Z (α/2) . Õ(X1-X2)

INTERPRETACIÓN INTUITIVA

En el contraste de hipótesis todo se reduce al contraste de la hipótesis nula, que indica la no existencia de
diferencias estadísticamente significativas, o sea, que no hay efecto presente de la v.i. sobre la v.d.
Se establece una zona en la que es más probable que las diferencias entre medias se deba a los efectos del
azar: es la zona de aceptación o de no rechazo de la H 0. Y otra zona en la que las diferencias entre las
medias son de un tamaño tal que resultaría muy improbable que fueran aleatorias, por lo que se atribuye dicha
diferencia a la v.i.
H0 : µE - µC = 0 quiere decir que las diferencias entre las medias aritméticas de los grupos
experimental y control son estadísticamente igual a cero, es decir, que las diferencias se deben al azar y que
las dos muestras pertenecen a la misma población.

Desde el punto de vista pedagógico es importante la significatividad, pero lo es aún más el tamaño del efecto,
que se refiere a la relevancia práctica de los resultados. Los intervalos de confianza y el tamaño del efecto
proveen una lectura más práctica de los resultados. Por ello, en los informes de investigación actuales se
recomienda informar de las tres estimaciones: contraste de hipótesis, intervalos de confianza y tamaño del efecto.

TEMA 8
ESTADÍSTICA Y DISEÑO II: CONTRASTE DE HIPÓTESIS
LÓGICA DE LA PRUEBA DE SIGNIFICACIÓN DE LA HIPÓTESIS NULA (PSHN)
La H0 tiene dos propósitos básicos:
1. Sirve como punto de partida cuando no tenemos conocimiento o no hay razones para creer que existen
diferencias entre los grupos.
2. Es un punto de referencia para comparar los resultados obtenidos y deducir si las diferencias observadas
pueden ser atribuidas a algún factor distinto a la casualidad.

Una media muestral se puede usar para probar la hipótesis sobre un valor específico de una madia poblacional
desconocida a través del uso de la (PSHN). Pasos a seguir:
 El primer paso es hacer una conjetura sobre un valore específico de un parámetro para una población.
 Se selecciona una muestra aleatoria de la población
 Se comparará la media observada con la media hipotetizada y se preguntará: ¿el resultado de la madia
observada es probable o improbable? Los valores cuya probabilidad de aparición es igual o menor que α
(0,05=que aparecen 5 veces o menos de cada 100 sucesos) cuando la H 0 es verdadera, son considerados
improbables.
 Se evalúa la probabilidad asociada al valor empírico obtenido. La distancia entre la media observada y la
hipotetizada es llamada z o puntuación típica estandarizada z= X-µ/Õ. Con este resultado buscamos en la
tabla la puntuación en la distribución muestral. Así, nos preguntamos si z ¿puede considerarse probable o
improbable? ó ¿cuál es la probabilidad de obtener un valor como el obtenido si es cierta la H 0? Cuanto más
lejos esté el valor de M del valor hipotetizado, más grande será el valor de z y, en consecuencia, menor
será su probabilidad de aparición si H 0 es verdadera Se RECHAZA H0 si p (t, z, F…) ≤α

NIVEL DE SIGNIFICACIÓN Lo que sucede en la población


ESTADÍSTICA Decisión del investigador H0 es verdadera H0 es falsa
Rechazar H0 Error I α Sin error 1-β:
potencia estadística
No rechazar H0 Sin error 1-α Error II β

 Error I: es la probabilidad de rechazar la H 0 cuando ésta es verdadera, nivel de significación


 Error II: es la probabilidad de no rechazar la H 0 cuando es falsa. El riesgo de cometer este error
depende:
 Del tamaño de la muestra
 El verdadero tamaño de efecto en la población
 El valor de α
Cuanto más grande sean c/uno de estos 3 valores, manteniendo los otros constantes, más pequeño será el
error II. Estos mismos factores son los que permiten elevar la potencia estadística.
 La potencia estadística 1-β se define como la probabilidad de rechazar la H0 cuando es falsa. Decisión
correcta. Lo deseable es que la potencia de la prueba sea de 0,80, es decir β≤0,20.

CONTRASTE DE HIPÓTESIS

Una vez formulada la hipótesis, se la debe validar. En el paradigma cualitativo se utiliza para ello la Estadística
mediante el contraste estadístico de hipótesis.
Pasos a seguir:
1. Selección de una muestra aleatoria, para lo que antes se debe definir con claridad la población
2. Formulación de las hipótesis estadísticas: a partir de la hipótesis sustantiva o textual se formula:
 la hipótesis nula H0: en la que no hay efecto presente H 0: µexp- µcont=0 ó H0: µexp= µcont
 la hipótesis alternativa H 1: es la hipótesis del investigador, podrá ser:

 unilateral (de una cola), cuando se cree que con un método se obtendrán mejores resultados que con
otro
H0: µexp- µcont >0 ó H0: µexp> µcont si la diferencia esperada es positiva el contraste será unilateral derecho
y si es negativa será unilateral izquierda
 bilateral (de dos colas), cuando se esperan diferencias pero no se sabe a favor de que grupo
H0: µexp- µcont ≠0 ó H0: µexp≠ µcont este contraste exige repartir la probabilidad de error entre las 2
colas.

3. Elección del valor de alfa α o nivel de significación: es el investigador el que establece este valor (0,05-
0,01)

4. Determinación de la distribución muestral y la región de rechazo: la distribución muestral tiene una desviación
típica que se denomina error típico. Así el estadístico de contraste nos indica cuántos errores típicos se desvía
nuestra diferencia de medias de una diferencia de medias igual a cero. Cuando este valor es tan grande que
su probabilidad de ocurrencia = ó < que α, entonces diremos que dicha diferencia no es aleatoria, sino que se
debe a otros factores distintos del azar. Se rechaza H 0 si p (t,z,F-estadístico) ≤ α.
Otros autores comparan el valor del estadístico empírico de contraste con el valor crítico del estadístico (valor
correspondiente a α), que para un contraste bilateral α/2=0,0251,96, por tanto si el estadístico empírico es
mayor que z=1,96 se rechaza la H0

5. Utilización del valor exacto de p: p nos informa si el estadístico de contraste es mayor o menor que α y
además de la probabilidad exacta de obtener un valor igual o superior al observado si la H 0 es verdadera. Ello
nos permite juzgar si hubiéramos podido rechazar H0 en caso de que se hubiera elegido un α más exigente

ERRORES EN LA UTILIZACIÓN E INTERPRETACIÓN DE RESULTADOS DE PSHN

La PSHN se basa en la asunción de una serie de condiciones:


 Se ha realizado un muestreo aleatorio
 Las puntuaciones de la v.d. son cuantitativas y se mide en intervalos
 La distribución de la v.d. es normal, o se desea
 El investigador debería realizar solo un contraste con el mismo estudio

Pero en las investigaciones en educación no siempre es posible cumplir estos pasos. Para reducir estas
complicaciones en el ámbito de la educación se realizan diversas prácticas, como:
 Replicación del estudio: otros investigadores repiten el mismo estudio con nuevas muestras, para llegar a la
misma decisión estadística, reduciendo así la posibilidad de error tipo I
 Validación cruzada: se obtiene una submuestra de la muestra de estudio

En la interpretación de los resultados se habla de rechazar o no rechazar la H 0, pero no de aceptar o


rechazar. Esta distinción de matiz es importante porque puede haber muchas razones que expliquen que un
resultado ha sido estadísticamente no significativo, cuando en realidad sí lo es. Esto sucede a veces por el
tamaño de la muestra, en muchas ocasiones no rechazamos H 0, pero si la muestra hubiera sida mayor sí la
rechazaríamos. Otro motivo puede ser los niveles de la v.i., que no se hayan elegido o manipulado bien,
también podría ser que estemos midiendo inadecuadamente la v.d. o que sea insensible a los efectos de la v.i.
Por eso en Educación es tan importante la replicación de las investigaciones.
EL TAMAÑO DEL EFECTO

Una diferencia estadísticamente significativa no significa que sea importante, sólo que existen diferencias en la
población de referencia, aunque en la práctica sea irrelevante. Por tanto la significación estadística no nos dice
gran cosa por sí sola, ni permite compara resultados entre investigaciones cuando varía la unidad métrica.
Por ello es que se utiliza como complemento el tamaño del efecto, siendo la d de Cohen el más utilizado. d
muestra el tamaño del efecto como una diferencia tipificada (z), nos indica cuantas desviaciones típicas se
aparta una media aritmética de la otra d= x1-x2 / scombinada
En Ciencias Sociales los valores sugeridos para interpretar d son:
 d ≤ .20 efecto pequeño
 d ≈ .50 efecto moderado
 d ≥ .80 efecto grande
O puede interpretarse de un d=0.50 que la media mayor está media desviación típica por encima de la media
menor. O que el sujeto II supera al I en 19 percentiles, ya que a z=0,50 le corresponde un área de 0,1915
TEMA 9
LAS PRUEBAS PARAMÉTRICAS Y SU USO EN LOS DIFERENTES DISEÑOS. ANAVA Y T

Las pruebas estadísticas son modelos estadísticos de distribución de datos. En la medida en que unos datos empíricos sigan o se
acomoden a un modelo, es lógico poder aplicar las propiedades del modelo a los datos empíricos.
El tratamiento estadístico de los datos consiste en una serie de modelos teóricos (pruebas paramétricas y no paramétricas) que
permiten atribuir a los datos empíricos un determinado valor de probabilidad. Para elegirlo, a de tenerse en cuenta:
 La formación de grupos (aleatorio o emparejamiento)
 El tipo de diferencia entre los grupos
 El número de v.i., los niveles, condiciones o tratamiento de cada una de ellas
Supuestos en los que se basan las Pruebas paramétricas: muy concretos y restrictivos, acerca de los valores de la
población o parámetros. Estos supuestos son:
 La independencia en la selección. Aleatorización: selección del muestra al azar; asignación de los sujetos a los dos grupos al
azar y atribución del tratamiento a los grupos al azar
 La normalidad de la distribución: las variables referidas a capacidades y rendimiento suelen seguirlo
 La homogeneidad de las varianzas: las varianzas de los grupos deben ser estadísticamente iguales
 Nivel o escala de medida, al menos de intervalo
 Linealidad: (no es exigida para la prueba t, peri sí para la F)
Cuando alguno de estos supuestos no se cumple se debería recurrir a las pruebas no paramétricas que son menos exigentes. Aunque
hay autores que difieren de ello diciendo que “en la mayor parte de los casos de educación y psicología es más seguro y más eficaz,
usar pruebas paramétricas en vez de no paramétricas” (Kerlinger)

Paramétricas
Ventaja Inconveniente
*Mayor potencia para rechazar H0 falsas *Supuestos restrictivos, que limitan el uso de las
*Desarrollo estadístico superior, más complejo y más avanzado pruebas a su cumplimiento.
*En la estimación del parámetro se indica el margen de error, lo que supone mayor
precisión y riqueza
No paramétricas
Ventaja Inconveniente
*Cálculo más fácil *Menor potencia
*Menores supuestos, destaca su superior aplicabilidad con niveles de *Menor desarrollo estadístico
medida como el ordinal y nominal
*Adecuación a muestras pequeñas

PRUEBAS PARAMÉTRICAS EN LOS DISEÑOS DE DOS GRUPOS: SUJETOS INDEPENDIENTES

Dentro de las pruebas de diferencias de medias aritméticas hay dos modalidades:


1. Para muestras grandes n>30distribución normal o graus, donde los g.l son infinitos
2. Para muestras pequeñas n<30distribución t de student
Entre ambos no hay un salto, sino un progresivo alejamiento conforme el valor de los g.l. se reduce.

Deferencia de medias para grupos independientes: Ecuación 9.1-9.2-9.3-9.4


 Desviaciones típicas (S) conocidasmodelo normal
 S desconocidas, pero supuestas iguales entre sí y al parámetromodelo t
 S desconocidas, supuestas distintas, pero con n grandes para ambos gruposmodelo normal
 S desconocidas, supuestas distintas, pero con n pequeñas para ambos gruposmodelo t
ENFOQUES z Y t
El enfoque básico de estas pruebas consiste en la contrastación del valor empírico de la diferencia de medias aritméticas con el erro
típico (s de la distribución muestral) de dicha diferencia.
En una distribución normal los valores empíricos que se apartan x desviaciones típicas de la media tienen una probabilidad de
ocurrencia determinada: esta probabilidad es tanto menor cuanto más se aparte de la media.

La probabilidad conforme al azar a partir de la cual el investigador está dispuesto a pensar que ya no es éste el factor causante sino
que lo es el tratamiento experimental, se denomina nivel de significación α. Este nivel coincide con la probabilidad aceptada por el
investigador de tomar una decisión errónea (error tipo I), de rechazar H0 siendo verdadera y aceptar H1 siendo falsa, es decir
considerar que existen diferencias reales, atribuidas a la v.i cuando en realidad son explicables por el azar.

Ejemplos de pruebas z y t de la pag. 297 a 313 mirar en libro.

EL ANÁLISIS DE LA VARIANZA (ANAVA) COMO ALTERNATIVA: PRUEBA F


ANAVA se puede usar en diseños de dos grupos como alternativa a t, pero no añade nada nuevo. Pero es la única alternativa para
diseños de tres o más grupos para una misma v.i., F nos indica, de una sola vez, si entre todos los grupos se dan diferencias
significativas, aunque no precisa dónde se encuentran.

En esta prueba la variabilidad de las puntuaciones de los sujetos en la v.d. puede descomponerse en partes, juntas constituyen la
varianza total: S2t= s2E + s2D (varianza total = v. experimental + v. error)
1. Varianza experimental: parte que se debe al efecto de la v.i.
2. Varianza de error: una parte sustancial de está se conoce como diferencias individuales
Cálculo:
 Varianza experimental o entre grupos:
Se compara los grupos. Se entiende que incluye ambas fuentes de variación, v.i. y diferencias individuales. Como los grupos se
forman al azar, la varianza entre grupos debe ser aproximadamente igual a la varianza dentro de los grupos antes de la aplicación
del tratamiento. El valor de F (cociente entre ambas varianzas) será 1 o próximo a 1.
Después del tratamiento, si la v.i. ha sido eficaz, uno de los grupos aumentará o disminuirá sus puntuaciones con respecto al otro,
por tanto, la varianza entre grupos habrá aumentado con respecto a la varianza dentro de los grupos. El valor de F se elevará en
proporción al efecto de v.i.

 Varianza de error:
Se calcula sobre cada grupo por separado, variabilidad dentro de los grupos, que no se altera por los efectos de v.i. dado que todos
sus miembros han recibido el mismo tratamiento, por tanto la variabilidad se debe únicamente a factores aleatorios y errores de
medida. El valor de F será igual antes que después del tratamiento

¿Cúanto mayor debe ser la varianza entre grupos que la varianza dentro de los grupos para decidir que las diferencias son
significativas? Igual que en t: si F ≥ al valor crítico de las tablas, la probabilidad de que el hecho se deba al azar es demasiado
pequeña para considerar como algo razonable, por lo que se debe rechazar H0 y considerar H1. Si F es significativo se considera a
las dos varianzas de poblaciones diferentes, la que recibió el tratamiento y la que no, grupo experimental y de control

Cálculo de la varianza en ANAVA: no se calcula ∑x2/n, sino MC=S.C./g.l (media de cuadrados)


 Numerador: suma de los cuadrados (S.C.) que son aditivas, en cambio las varianzas no lo son.
 Denominador: n-1 o grados de libertad (g.l.), ya que las varianzas son estimaciones imparciales del parámetro.
Cálculo de los g.l.:
 Entre grupos = G – 1 (nº de grupos)
 Dentro de los grupos: N-G
 Total: N-1
Cálculo de F: MCE/MCD=F
Se divide la varianza experimental por la varianza de error, el resultado se compara con el valor de las tablas para los g.l. de las MC
entre y dentro de los grupos. F≥ valor crítico= se rechaza H0 por considerarse significativas las diferencias

Ejemplo de esta prueba en página 316

Cuadro resumen de F para muestras independientes: (F) 2,33 <7,82 (valor crítico) = no se rechaza H0, puesto que el resultado no
representa una diferencia significativa
Fuente de variación S.C. g.l. M.C. F
Entre grupos 66.76 1 66,76 2,33
Dentro de grupos 687,86 24 28,66
TOTAL 754,62 25

LA CORRELACIÓN COMO MINIMIZACIÓN DE LA VARIANZA DE ERROR

El enfoque estadístico consiste en no creer en los resultados empíricos, en considerarlos casuales, mientras no demuestren que no
lo son; la estrategia consiste en comparar los resultados obtenidos con los que podrían esperarse por azar.
Los diseños elegidos para constrastar las hipótesis pueden captar o no las diferencias reales. Por tanto, el investigador puede
intentar dos estrategias:
1. Procurar que los efectos de v.i. sean lo más fuertes posibles (maximizar la varianza experimental). Para conseguirlo se
puede utilizar valores de v.i. suficientemente diferentes o seleccionando valores óptimos,
2. Reducir el valor del denominador (minimización de la varianza de error cuanto sea posible). Una forma de reducirlo es
formar los grupos intencionalmente, con la técnica de bloqueo o emparejamiento

S2t= s2E + s2D (varianza total = v. experimental + v. error)


v.experimental= variaciones debidas a la v.i. (maximizar) F =MCE .
v.error= diferencias individuales e imperfección en los instrumentos de medida (minimizar) MCD

La formación de parejas permite identificar, y luego extraer, la variabilidad debida al emparejamiento, esto es, a la correlación;
como esa variabilidad no es sino una parte de la variabilidad total (varianza total) que no se altera, al igual que la variabilidad
producida por v.i., es la varianza de error la que queda reducida.

Así el emparejamiento reduce el v.error, ya que se puede explicar una parte de la misma como fruto del emparejamiento
(correlación)
Pero no todo son ventajas, la correlación implica pérdida de g.l., que lleva consigo la elevación de los valores críticos, por tanto los
valores empirícos de t y F deben ser más elevados que en la modalidad al azar si se desea rechazar H0.
Por tanto es necesario que el efecto de la correlación sea suficientemente elevado como para compensar los efectos negativos.
Cuando el índice de correlación es bajo (0,12) se puede considerar que la correlación no ha sido eficaz, y a la inversa, cuando el
índice es alto (0,97) se considera que la correlación ha sido eficaz

LAS PRUEBAS PARAMÉTRICAS PARA MUESTRAS RELACIONADAS

Disponemos de tres pruebas que, en realidad, son dos: t, z y F


 Las pruebas t y z se calcula diferente para muestras independientes y correlacionadas. En las emparejadas se agrega al
denominador la resta de la correlación.
Ejemplos en las páginas del libro 331 a 337
 En las pruebas F la diferencia radica en la obtención y extracción de varianza entre filas o debidas al emparejamiento. La
varianza de error recibe el nombre de varianza residual, es la varianza que queda cuando de la varianza total se extraen las
dos varianzas sistemáticas (identificable en su fuente), esto es, la varianza experimental o entre gruops o columnas y la
varianza de emparejamiento o entre filas.
Cálculo de los g.l.:
 Entre columnas o grupos: G – 1 (nº de grupos) igual que para grupos al azar
 Total: N-1 igual que para grupos al azar
 Entre filas o emparejamiento: P-1 (nº parejas)
 Residual: g.l. Total – las varianzas sistemáticas (filas y columnas) o g.l. filas x g.l. columna
Ejemplo en las páginas del libro 338 a 340

Cuadro resumen de F para muestras relacionadas

Fuente de variación S.C. g.l. M.C. F


Entre filas (emparejamiento) 2.239,25 9 248,81 58,24
Entre columnas (entre grupos) 76,05 1 76,05 17,80
Residual (error) 38,45 9 4,27
TOTAL 2353,75 19

En muestras relacionadas tenemos dos F, una en que se compara la MC entre filas y la residual y otra en que el cociente se da entre
la MC entre columnas y el residual. Por tanto, tendremos dos valores teóricos para F con α=0,05

F
(0.95) (9y9) = 3,18  <58,24 = el emparejamiento es eficaz. Esto también lo indica el índice de correlación 0,97
F
(0.95) (1y9) = 5,12  <17,80 = la v.i. ha dado lugar a diferencias significativas.

Ante un emparejamiento casi perfecto (0,97) la disminución del término de error es sustancial y, consecuentemente, se produce una
notoria elevación del F empírico.

A TENER EN CUENTA EN LA ELECCIÓN DE LA PRUEBA


 Elección de la muestra, emparejados o al azar
 Tamaño de la muestra (t o z)
 Hipótesis bilateral o unilateral
 Nivel de significación α
 Prueba paramétrica o no paramétrica. ¿qué supuestos se cumplen?
TEMA 10
ALGUNAS PRUEBAS NO PARAMÉTRICAS. SIGNOS. T, X2, U

Las pruebas no paramétricas se utilizan cuando el estudio no cumple con los supuestos exigidos por las pruebas paramétricas.
Entre las muchas que hay, se verán:
 Para dos grupos
 Independientes: prueba U de Mann-Whitney y Ji-cuadrado X2
 Relacionados: prueba de los signos y prueba T de Wilcoxon. Ambos para un nivel de medida ordinal
Las limitaciones de estas pruebas consisten en su menor potencial al compararla con una paramétrica. Para alcanzar la misma
potencia que éstas, cada caso requiere de un número de observaciones que deben ser recogidas cuando se va a aplicar una
prueba no paramétrica, a este concepto se lo denomina potencia-eficiencia.

JI-CUADRADO X2

Es una prueba apta para el nivel nominal, nivel que asigna a los sujetos a las categorías (nombres) en que se ha dividido el
conjunto, lo que permite calcular frecuencias, tantos por cientos o proporciones.
Los datos se recogen en tablas bidimensionales que permiten determinar o establecer asociaciones. El análisis y las pruebas
pueden ser aplicados a los números brutos que aparecen en las celdillas (frecuencias), pero cuando hay necesidad de comparar,
se traducen a valores como % o proporciones.

Las variables pueden ser de dos tipos:


1. Las auténticamente nominales: dicótomas o polítomas –sexo, raza, estado civil, nivel académico…
2. Las tratadas nominalmente, a las que Kerlinger denomina cuasinominales: son variables más o menos continuas que
artificialmente son dicotomizadas o politominzadas. Aunque hagan referencia a aspectos cuantitativos se tratan como
cualitativos
Neuroticismo
Sexo
SI NO
Masculino fo
(fe)
Femenino

Ji-cuadrado es una prueba para valorar estadísticamente discrepancias entre:


 La frecuencia observada (fo) las obtenidas empíricamente tras la recogida de los datos
 La frecuencia esperada (fe), de acuerdo con algún modelo teórico
Si ambas frecuencias fueran idénticas, el valor de X2 sería 0 y esto indicaría que lo empírico se corresponde con el modelo
teórico. Pero normalmente se dan diferencias, aunque pequeñas, y a X2 le corresponde evaluarlas, decidiendo:
 Sobre la compatibilidad de los datos empíricos con el modelo: Prueba de bondad de ajuste, de un solo grupo, que pueden
referirse a cualquier modelo, y por tanto el cálculo de fe seguirá sus propias normas.
 Sobre la independencia o asociación de dos variables, decidiendo si las diferencias son casuales o se deben al azar. En caso
de no existir relación, fo y fe se repartirían en forma similar por todas las celdillas de la tabla de contingencia; en caso
contrario, y cuanto mayor sea la asociación, mayores discrepancias se darán de unas a otras.

Calcular las frecuencias teóricas o esperadas (fe):


 Se determina sobre el supuesto de que los casos se reparten por igual en cada categoría
 En forma proporcional a las frecuencias marginales (suma de las frecuencias de las filas y de las columnas)
Aunque no siempre se ha de considerar que fe debería estar repartida por igual o de forma proporcional en cada celdilla
Para valorar las discrepancias existentes se compara el valor empírico obtenido con el correspondiente teórico. Previamente el
investigador decide sobre el nivel de confianza, que se expresa en % o probabilidad (p) y en consecuencia su complementario,
el nivel de significación estadística α, del que dependen los g.l.
Determinación de los g.l.
 Tabla de contingencia: Nº filas - 1 x Nº columnas – 1
 Única variable: Nº categorías -1 cuando los parámetros son conocidos. Y si los parámetros son desconocidos, se le restan el
nº de parámetros al valor anterior.

PRINCIPIOS DE LA PRUEBA X2: requisitos que se deben cumplir:


 Es preciso lograr la independencia de las observaciones, de manera que la aparición de unos sujetos o su inclusión en una
determinada celdilla no dependa, o esté condicionada o relacionada, con la inclusión o no de otros. Kerlinger: “si los
acontecimientos registrados no son independientes unos de otros, entonces la base de la prueba estadística y las inferencias
extraídas de ella están corrompidas”
 Los datos deben categorizarse de forma que cada observación se refiere exclusivamente a una categoría, así las categorías
deben ser exhaustivas y excluyentes.
 Las fe deben cumplir determinados requisitos en cuanto a su número. Cuanto menor sea, menor estabilidad y fidelidad
presentarán los resultados.

CÁLCULO E INTERPRETACIÓN
La resolución estadística de un diseño de 2 grupos mediante X2 pasa por las siguientes fases:
1. Recogida de datos y determinación de las fo para cada celdilla
2. Cálculo de las fe de acuerdo con la fórmula ff x fc/ftotal
3. Cálculo de X2 según la ecuación 10.2 (pág. 358). El valor de una discrepancia no es algo absoluto, sino que está en
relación con la magnitud en que se encuadra, por lo tanto el valor de X2 se hace relativo a la fe.
4. Comparación del X2 empírico con el teórico (el valor de las tablas) para el valor de α elegido y los g.l. correspondientes y
decisión sobre el rechazo o no de H0
5. Al interpretar los resultados ha de tenerse en cuenta que X2 sirve para contrastar hipótesis relativas a distribuciones de
frecuencias consideradas como una entidad total. Fox: “si hay otras hipótesis acerca de la posibilidad de que haya diferencias
en las proporciones en categorías concretas, hay que utilizar, después del método de X2 otros contrastes que sean adecuados
para analizar esas hipótesis…si X2 no revela diferencias estadísticamente significativas no se deben hacer más contrastes”

POTENCIA EFICIENCIA: es una prueba que no tiene alternativa cuando es obligada, pero Cochran indica que tiende a 1
cuando el valor de N es grande

PRUEBA DE U DE MANN-WHITNEY

Requiere una medición de nivel ordinal que permita establecer rangos de mayor a menor, o viceversa.
Es la prueba más potente dentro de las no paramétricas con sujetos independientes y es especialmente apta para contrastar
diferencias en posición o tendencia central.
Para muestras grandes los valores empíricos de U se contrastarán con la curva normal, para muestras pequeñas U tiene sus
propias tablas.

U indica las veces que una puntuación del grupo experimental precede, en una serie ordenada de menor a mayor, a una del
grupo de control, es decir, las veces que una puntuación teóricamente superior queda por debajo de otra teóricamente inferior.
Cuando U=0 significa que ninguna puntuación del grupo experimental precede a una del grupo de control
Cuando el grupo mayor tiene 9 o más sujetos se suele utilizar otro procedimiento en el que U se calcula a partir de la
transformación de Xi en rangos; el valor de U sigue siendo tanto más significativo cuanto menor sea.

Cómo se calcula:
 Para muestras pequeñas: cuando el grupo mayor (n2) ≤ 9
Ejemplo: se ordenan y mezclan las puntuaciones obtenidas por dos grupos A y B. La puntuación 4 de A es precedida por una B;
la 5,7 de A por dos de B y sucesivamente…
X 3,5 4 5 5,7 7 8 9 10 11
Grupo B A B A B A B A B
RANG 1 2 3 4 5 6 7 8 9
O

U = 1+2+3+4=10

La decisión sobre si el valor empírico representa o no una diferencia significativa se lleva a cabo mediante las tablas de U, y
teniendo en cuenta el tipo de hipótesis, uni o bilateral. En el caso de las bilaterales, se multiplicará por dos el valor encontrado
en la tabla. Se rechaza H0 si valor de la tabla es ≤ α
 Para muestras pequeñas (intermedia): muestras entre 9 y 20
a) Se ordenan las puntuaciones
b) Se transforman las puntuaciones en rangos, como si las puntuaciones de ambos grupos estuviera mezclada, 1º a la menor
y sigue, 2º, 3º. En el caso que se repita la misma puntuación (ligas), se saca la media de los rangos que le corresponderían
y esa media será el rango de la puntuación repetidas.
c) Se calcula U con la ecuación 10.4 y 10.5, o habiendo calculado una de estas dos, se utiliza la ecuación 10.6. En cada caso
hay dos valores de U, se utiliza el más pequeño, pues a él se refieren las tablas (valor de U empírico)
d) El valor empírico de U se compara con el valor teórico de las tablas. Se rechaza H0 si U empírico ≤ tabla, con un riesgo
de decisión errónea máximo igual a α.

 Para muestras grandes: n2 > 20


Las fases a, b y c, son idénticas, pero la d es diferente.
Normalmente la puntuación típica se calcula  z=xi-x/s. En este caso, el valor empírico es el de U o U´ y la media y la
desviación típica se obtiene mediante las ecuaciones 10.7 y 10.8.
Por tanto, zu = U – Xu /Su
Cuando zu empírico ≥ que la tabla para el nivel de confianza o el valor α, se puede rechazar H0.

POTENCIA-EFICIENCIA: alrededor del 95% y puede llegar al 95,5% cuando aumenta el valor de N.

PRUEBA DE LOS SIGNOS

Prueba para un nivel ordinal de medida, en su nivel más burdo. Es una prueba poco precisa ya que sirve para decir que algo es
mayor que algo, pero no describe diferencias dentro de cada uno de esos dos grandes bloques, el mayor y el menor. Se
contrastan los resultados de la v.d. de cada pareja y se asigna el signo + si el primer miembro de la pareja ha hecho más de
algo, lo haya hecho mejor o antes, y el signo - en caso contrario. No se tienen en cuenta los casos en que no se perciben
diferencias.
Exigencias: la continuidad de la variable, el nivel ordinal de medida y que los grupos sean correlacionados.

Cómo se calcula:
a) Se compara las puntuaciones de cada pareja y se le asigna el signo + ó – según la hipótesis formulada, cuando es
unilateral parece más adecuado dar el signo positivo al grupo que en tal H se prevé superior
b) Se determinan los valores de n (nº de parejas que han obtenido signo, de N se restan las que no presenten diferencia) y x
(nº de parejas con el signo menos frecuente)
c) Se compara el resultado con la distribución teórica:
 Muestras pequeñas (n≤25): la asignación de probabilidad es directa a través de la tabla de probabilidades binomiales,
en la que el resultado es propio de hipótesis unilaterales, si la H fuera bilateral se multiplica x2 dicho valor. Se rechaza
H0 si la probabilidad del modelo teórico es ≥ α, con un riesgo de error igual a α.

 Muestras grandes (n>25): la distribución tiende a la curva normal a partir de n=25, siendo la aproximación tanto más
correcta cuando se hace la corrección por continuidad. Esto es, reducir en el cálculo de z el numerador en 0,5 punto,
lo que se consigue sumando o restando al valor x±0,5, según que x sea menor o mayor que ½ n. Para el cálculo de z
en el modelo binomial se utiliza la ecuación 10.12 y se la compara con las tablas de la curva normal para el nivel de
confianza elegido por el investigador. Se rechaza H0 si zx ≥ valor teórico
Pareja 1ª 2ª 3ª 4ª 5ª 6ª 7ª 8ª 9ª
S M 4 3 4 3 2 4 2 5 2
e
F 4 2 5 2 2 3 3 5 1
x
o
Signo = + - + = + - = +

n= 6
x=2

POTENCIA-EFICIENCIA: con muestras pequeñas n=6 alcanza valores del 95%, y se reduce a 63% conforme aumenta n.

T DE WILCOXON

Prueba para un nivel ordinal de medida en su nivel más preciso y fino. En esta prueba, a las diferencias apreciadas en cada
pareja se les puede asignar rangos de mayor a menor, o viceversa.
El estadístico de esta prueba es T y se define como la menor suma de los rangos, + ó - , asignados a las diferencias entre las
puntuaciones de las parejas. Como las parejas son correlacionadas se espera que las diferencias de las puntuaciones se repartan
por igual entre los primeros y segundos miembros. Por tanto, la suma de los rangos positivos será la misma o tendrá un valor
muy próximo a la suma de los rangos negativos.
Esta prueba trata de decidir si el valor de T es significativo, si va más allá de las expectativas conforme al azar. Ese valor será
tanto más significativo cuanto menor sea.

Cómo se calcula:
a) Se establecen los valores de las diferencias entre las puntuaciones de los miembros de cada pareja y se atribuye el signo
de conformidad con la H. Las diferencias nulas no se toman en cuenta.
b) Se atribuyen los rangos, comenzando con el de menor valor absoluto con 1º, luego se asignan los signos a los rangos
c) Se calcula T o suma de los rangos de menor valor absoluto, sea cual fuere el signo
d) Se interpreta el valor empírico T
 Muestras pequeñas n<25: se contrasta directamente el valor empírico de T con los valores críticos de la tabla, para el
tipo de H y α. Se rechaza H0 cuando el valor empírico T ≤ que la tabla
 Muestras grandes n≥25: la distribución tiende a la normal, para lo que se calcula zT con las ecuaciones 10.13-10,14 y
10.15. Se rechaza H0 cuando zT ≥α

Pareja 1ª 2ª 3ª 4ª 5ª 6ª 7ª 8ª 9ª
Método A 90 70 65 83 64 97 54 63 68
Método B 86 75 61 74 59 82 79 63 62
Diferencia y signo +4 -5 +4 +9 +5 +15 -25 0 +6
RANGO +1,5 -2,5 +1,5 +6 +2,5 +7 -8 +5
T=10,5
TEMA 11
LAS PRUEBAS PARAMÉTRICAS EN DISEÑOS ESPECÍFICO

PRUEBA DE TUKEY

Cuando los niveles de la v.i. son más de dos se pueden resolver mediante ANAVA o prueba F, ya que la prueba t es para dos
grupos, y si se cumplen los supuestos para pruebas paramétricas.
Pero como F sólo indica que hay diferencias en general, conviene hacer pruebas a posteriori para ver entre qué pares de medias
se dan dichas diferencias. Para comparar grupos con el mismo número de miembros se puede utilizar la Prueba de Tukey =
media A – media B
√MCD/n

El resultado se compara con el valor q; este valor se compone del nº de grupos y de N-g que son los g.l., para el nivel de
significación que le corresponda. Tukey tiene una tabla especial. (pág. 595)
Ejemplo: con α de 0,01  0,99 q 3,78 g.l = x (para 3 grupos con N de 81)
Si el resultado de la prueba de Tukey es > que q, se interpreta que la diferencia es estadísticamente significativa.

ANÁLISIS DE COVARIANZA

Covariables: variables que covarían con la dependiente, con la que mantienen correlaciones significativas.
El análisis de covarianza nos aporta la posibilidad de contrastar si las diferencias finales van más allá del azar, ajustándolas a
las posibles diferencia iniciales no controladas. Es necesario contar con una covariable, debe tratarse de una variable que
correlaciones con la v.d., algo que se podría constatar aplicando el coeficiente de correlación adecuado.

Aquí los grupos a comparar son la v.d. y la covarianza, a los que se los puede denominar X e Y. Se deben calcular las SC, las
MC y las F tanto para el total como entre grupos y dentro de los grupos, para la variable X (v.d.), variable Y (covarianza) y
para su producto (XY). Si se tratara de un ANAVA simple solo se calcularía para Y.

Con estos datos se calculan las SC y MC ajustados con las ecuación 11.1. y el resultado que se obtiene (F) se lo compara con la
tabla, según los g.l. y el nivel de significación.

Fuente de variación SCXY g.l. MCXY F


Entre grupos
Dentro de grupos
TOTAL

Si las diferencias encontradas resulten significativas, y se quiere saber si también lo son para, por ejemplo, el grupo A y B, se
realiza un contraste específico. Para lo que se deben calcular las medias ajustadas de los grupos A y B, lo que exige el cálculo
del coeficiente de regresión dentro de los grupos para la ecuación 11.2. Y por último se calcula F, se lo compara con la tabla y
se decide sobre si la diferencia es significativa o no.

CUADRO LATINO

Este diseño trabaja con bloques, que se constituyen con sujetos tan homogéneos como sea posible en variables que, de no ser
controladas, bien podrían actuar como extrañas. Por tanto, estas variables no son tomadas como independientes, lo que importa
es poder controlar su posible efecto sobre la v.d. En el ejemplo, grado de extraversión y edad.
Los sujetos de los diferentes grupos pasarán por los distintos niveles de la variable tratamiento (v.i.) para equilibrar su efecto.
En el ejemplo, sistemas de disciplina M, N y O

Grado de Edad
extraversión 1 2 3
A M N O
B N O M
C O M N
Cuando hay más de un sujeto por celdilla, puede aparecer en la resolución estadística, una nueva fuente de variación, conocida
como residual entre celdas. Ya que en cada celda confluyen el cruce de dos niveles de las variables de bloqueo (edad y grado
de extraversión) con los datos del correspondiente nivel de la v.i. (M,N,O).

Por lo tanto, si la interacción fuera estadísticamente significativa, no se podría esclarecer si los resultados en la v.d. se deben a
la v.i. o dicha interacción. Es por ello que en este diseño se calcula la F residual entre celdas.
Fuente de variación S.C. g.l. M.C. F
Entre celdas 52,85 8 6,61
-Tratamiento v.i. 1,38 2 6,69 3,07
-Filas 13,92 2 6,96
-Columnas 6,18 2 3,9
-Residual entre celdas 19,37 2 9,69 4,44
Error (dentro celdas) 78,4 36 2,18
TOTAL 131,25 44

Si F tratamiento fuera estadísticamente significativo, y F residual también lo fuera, sería imposible hacer inferencias correctas
sobre la v.d., ya que no se podría separa lo que es efecto de la v.i. y lo que lo es de las interacciones.

A tener en cuenta:
 Cuanto más elevado es el nivel de confianza estadística, o sea, cuanto menor es el valor de significación α, más difícil
resulta rechazar H0.
 Si se trabaja con un bajo nivel de confianza, se debe analizar si los datos permiten atribuir los resultados a la v.i. o a su
interacción con las variables de bloqueo. Por ello se analiza la significación estadística residual entre celdas.

DISEÑO FACTORIAL

Este diseño, estudia dos o más v.i., denominadas factores, que actúan a la vez sobre una v.d., por tanto, ofrecen la posibilidad
de descubrir la existencia de interacción entre las variables.
Esto es importante, porque con frecuencia, la influencia de los niveles de una v.i. no siempre es uniforme, ocurre en ocasiones
que el influjo mayor se da por medio de una combinación de los efectos de un factor con los de otro. Por ejemplo, un método
de aprendizaje es más eficaz en un sistema de recompensa que en otro.

Modalidad de trabajo Sistemas de recompensas


A B
X 4 (puntuación media) 5
Y 6 8

Si se analiza la modalidad de trabajo por un lado y los sistemas de recompensa por otro, nos encontramos con efectos simples,
que se pueden analizar con ANAVA simple, para un solo factor. Pero el diseño factorial analiza los efectos secundarios o de
interacción entre ambas v.i.

No habrá interacción cuando la diferencia entre los efectos simples de un factor no sea significativa en términos estadísticos, es
decir, pueda explicarse como consecuencia del azar. Sí habrá interacción si tal diferencia va más allá, indicando en ese caso
que una determinada combinación de niveles de ambos factores ofrece mejores resultados que otra u otras. En el caso de no
interacción el efecto de un factor da resultados superiores, o inferiores, con cualquiera de los niveles del otro factor.

Para calcular el efecto de la interacción se acude a la diferencia entre las sumas de los promedio de las diagonales. En el
ejemplo: (6+5)-(4+8)=11-12=1
Al igual que en ANAVA simple, F indica si existen diferencias estadísticamente significativas, pero para localizar entre que
pares de medias se dan tales diferencias, es preciso proceder a contrastes específicos a posteriori, como lo son las pruebas de:

 Tukey: para n iguales. Se contrasta el valor empírico con el valor teórico de la tabla de q, para el valor de α
seleccionado, con g y (N-gAgB) g.l. Para la obtención del estadístico empírico la ecuación es:

Media A(1) – Media A(2)


√MCD/N: gA

Si se compara los niveles 1 y 2 del factor A, la diferencia será estadísticamente significativa si el resultado de la prueba de
Tukey es > gA y (N-gAgB) q 0,01

 Scheffé: es más general, para n desiguales. Se contrasta el valor empírico con el valor teórico de F, para el valor de α
seleccionado, con (g-1) y [N-(N-gAgB] g.l. Para la obtención del estadístico empírico la ecuación es:

Media A (1)-Media A(2)


√MCD(a21/n1+…..a2k/nk)

Si se comparan los niveles 1 y 2 del factor A, la diferencia será estadísticamente significativa si este cociente es >√ (gA-1)F, donde
F tiene (gA-1) y N-gAgB g.l.

Cuando el investigador estar interesado a priori por determinados contrastes y no por otros, se habla de comparaciones
planeadas
TEMA 12
PROCESO DE LA INVESTIGACIÓN CUALITATIVA

Lo que plantea la investigación cualitativa es que observadores competentes y cualificados pueden informar con objetividad,
claridad y precisión acerca de sus propias observaciones de mundo social, así como de las experiencias de los demás.

La metodología cualitativa no trata de estudiar cualidades que aparecen separadas independientes unas de otras, sino de aplicar el
análisis a un todo integrado que forma o constituye una unidad: una persona, una entidad social…También se podría estudiar una
cualidad específica, pero siempre teniendo en cuenta los nexos y relaciones que tiene con el todo, los cuales contribuyen a darle su
significación propia.

Lo cualitativo no se opone a lo cuantitativo, sino que lo integra, sirviéndose de la cuantificación para dotar de sentido y facilitar la
interpretación de las cualidades, en su afán por interpretar los hechos.

La principal característica de la investigación cualitativa, es que busca interpretar o valorar los acontecimientos, las acciones, los
hechos, desde la perspectiva que tienen los sujetos que las protagonizan. Sustentada en un planteamiento subjetivo del
conocimiento, pretende una comprensión del fenómeno social, confiriendo importancia y valor científico a lo personal, buscando
en lo particular una descripción o una comprensión de los hechos objeto de estudio. Pero como la realidad tiene un carácter
dinámico, ya que depende de quien la construya, se deben valorar la multiplicidad de visiones.

Por ello, es importante aceptar esa necesidad que se tiene de interpretar qué es lo que está pasando en términos de un entendimiento
de la sociedad como un todo y del significado que tienen los hechos para los participantes. Sólo podemos entender los
acontecimientos si son situados en un contexto social amplio. Lo que nos permite abordar una estrategia de investigación abierta y
no estructurada, evitando la formulación de teorías.

Características propias de la investigación cualitativa (Taylor y Bogdan):


 Carácter inductivo (básico): en lugar de partir de hipótesis, se parte de datos que permitan elaborar conceptos
 Enfoque holista: los objetos de investigación son estudiados como un todo, analizados en su contexto
 Actuación naturalista: se intenta no alterar la realidad objeto de observación y análisis
 Enfoque comprensivo: se trata de comprender a los sujetos investigados poniéndose en su lugar
 Trabajo sin posiciones apriorísticas: se trata de estudiar la realidad como si las cosas estuvieran ocurriendo por primera vez.
Nada es sobreentendido
 Apertura: cualquier enfoque o posición sobre la realidad estudiada ha de tenerse en cuenta
 Humanismo: dado que los métodos condicionan el modo en que se ve a los diferentes sujetos
 Primacía de la validez sobre la fiabilidad: lo fundamental es la concordancia, el ajuste, entre los datos y lo que las personas
realmente dicen o hacen
 Cualquier persona y escenario pueden ser objeto de estudio
 Naturaleza artística: el investigador es un creador de su propia metodología, porque aunque se cuenta con líneas básicas de
actuación, no puede hablarse de reglas.

Características de la investigación cualitativa en investigación educativa (García Llamas):


 Su objetivo último se dirige hacia el estudio de los hechos y fenómenos educativos, es su contexto general
 Se interesa por el significado más que por la mera descripción de los hechos
 Parte de concepciones abiertas sobre la realidad estudiada
 Procedimiento inductivo: mediante el análisis en profundidad de muchos casos particulares, pretende llegar a establecer
generalizaciones
 Suele trabajar con las muestras de sujetos en su escenario natural, por lo que no recurre a la selección aleatoria
 Se genera un contacto directo entre el investigador y el objeto de la investigación, lo que llega a producir interferencias e
implicaciones mutuas que pueden distorsionar la propia realidad
 Debe recurrir a la triangulación de métodos, en la recogida y análisis de datos, para evitar sesgos
 Prima el lenguaje expresivo, frente al estadístico. Lo que permite riqueza de matices sobre los fenómenos
 Por su carácter analítico y descriptivo, puede servir de base para generar hipótesis de trabajo.
Objetivos que presenta la investigación cualitativa (Colás)
 Descriptivos  Identificación de elementos y exploración de sus conexiones:
 Descripción de procesos, contextos, instituciones, sistemas y personas
 Interpretativos  Comprensión del significado del texto o acción y descubrimiento de patrones
 Desarrollar nuevos conceptos
 Reelaborar conceptos existentes
 Identificar problemas
 Refinar conocimientos
 Explicar y crear generalidades
 Clasificar y comprender la complejidad
 Contrastación teórica  Elaborar, contrastar o verificar postulados, generalidades y teorías
 Evaluativos  Evaluar políticas e innovaciones
Bartolomé, señala que detrás de estos objetivos, subyace la idea de transformación de la realidad, máxime cuando nos movemos en
el ámbito educativo, donde las ideas de conocimiento, intervención o investigación no tienen sentido si no aportan una vía de
transformación a esta sociedad.

Aportaciones según Pérez Juste:


1. Su razón de ser: comprensión en profundidad de la realidad objeto de estudio
2. Las percepciones de los protagonistas, expresadas por ellos mismos
3. Información básica para teorizar. A partir de los resultados de la investigación cualitativa es más fácil avanzar H.
En la investigación cuantitativa se habla de validez interna y externa de los diseños y de validez y fiabilidad de los instrumentos
utilizados en la recogida de datos. En la investigación cualitativa se habla de credibilidad o confianza

Limitaciones:
1. La influencia del investigador en los resultados de la investigación, para evitarlo, no se debe aportar información sobre los
propósitos de la investigación
2. Las dificultades para generalizar
EL PROCESO

Sigue las mismas fases que las cuantitativas, se define el problema, se diseña el proceso de trabajo, se recogen los datos, se los
analiza y valida y se realiza el informe; aunque con matices diferenciadores en cada etapa:

1. Propuesta inicial de partida: que termina con un documento escrito el Proyecto de investigación

 Marco teórico: fase reflexiva, se fundamenta la idea inicia con fuentes documentales, que será el eje de todo el trabajo.
Conocer distintas perspectivas, experiencias y opiniones, va a enriquecer el punto de vista que se tenga acerca del problema. Se
comienza seleccionando una serie de preguntas relevantes para la investigación, que no serán definitivas, podrán ser
reformuladas a medida que avanza el trabajo.

 Diseño: marca las pautas de actuación futura del investigador, que estarán abiertas, para ir delimitándose durante el
proceso. El método de trabajo a seguir, queda supeditado a la intención de la investigación (los interrogantes generados por el
marco teórico), pero igualmente se deben contemplar al menos:
 Hipótesis directivas u objetivos del estudio
 El escenario social
 Los recursos necesarios y disponibles para trabajar
Se debe contar con todas las garantías posibles sobre la eficacia de la propuesta, y esto lo aporta el desarrollar una buena
triangulación metodológica.

2. Trabajo de campo: que termina con un Documento-guía de planificación


 Acceso al campo: para recoger información y datos que se hará de forma real, presencial, insitu. Por tanto, el investigador
debe cuidar el acceso que tenga al grupo y el modo en que su incorporación sea lo más fácil y natural posible.
Con respecto a la muestra, no siempre es posible seleccionarla, sino, es más frecuente trabajar con sujetos que aporta el sistema,
por lo que el investigador ha de fijar los criterios de selección, detallando el perfil requerido, de modo que se garantice la
posibilidad de generalización de los resultados, o al menos, poder extrapolarlos a otros contextos.

 Selección de técnicas:
 La observación
 La entrevista, basada en un cuestionario (preguntar)
 Técnicas narrativas y documentales, que implican todo el tratamiento de datos informativos (leer)

 Proceso de recogida de datos: el diseño de esta fase implica una descripción bien detallada del modo en que se recogerán
los datos, el personal implicado y sus oportunas instrucciones y normas, tiempos y espacios concretos, momentos en que se
lleve a efecto y los instrumentos y recursos a emplear. La meticulosidad garantiza mayor riqueza y efectividad de los datos
obtenidos, que deben ser suficientes y adecuados.

Es también muy importante la salida del investigador del campo de estudio, una vez obtenidos los datos, es necesario que se retire
para evitar que su implicación contamine la sensibilidad de los datos, pudiendo llegar a convertirse en un nativo.

3. Análisis e interpretación de datos cualitativos: que termina con una Tabla de datos debidamente interpretada
Conviene proceder a realizar el análisis interpretativo de los datos, cuando éstos aún se están recogiendo, para poder reelaborar la
interpretación
 Análisis: el investigador tendrá que descifrar el mensaje de los datos, partiendo de la base de que no existe un
procedimiento general válido para todo tipo de análisis cualitativo.

 Interpretación: se debe valorar el sentido y la información obtenida de los datos, mediante:


 Una interpretación aproximativa de naturaleza descriptiva, en la que se analizan los datos tal como se han recogido
 Una interpretación significativa, que añade a la anterior la significación estadística de los valores que alcanzan los
diferentes estadísticos

4. Elaboración del informe y líneas de acción:


El informe nos permite alcanzar una mayor y mejor comprensión de los fenómenos estudiados, pero también difundirlos en la
comunidad científica. Puede presentarse en doble formato:
 Un informe de estilo descriptivo, donde se presentan los datos sistemáticamente, se redactará según al público que vaya
destinado y el contenido expresará el procedimiento seguido.
 Un informe divulgativo, refleja muy genéricamente el proceso, centrándose en las respuestas y soluciones que el estudio
aporta a los problemas educativos estudiados.

La investigación no concluye con el informe, conviene ofrecer una vía de desarrollo futuro que permita dar continuidad al
conocimiento obtenido, y marcar las pautas de retroalimentación que ofrezcan nuevas reformulaciones con las que completar y
enriquecer el estudio de los hechos educativos abordados.

EL MÉTODO CUALITATIVO EN EDUCACIÓN

Actualmente se acepta ya la consideración de que las técnicas cualitativas pueden aportar una contribución válida a la producción y
al análisis de evidencia empírica, facilitando la generación y el contraste de hipótesis.
Se mencionan algunas metodologías que conforman un recurso de gran interés para la escuela:

 La investigación etnográfica: aporta datos valiosos, de naturaleza descriptiva, sobre los contextos, las actividades y las
creencias que presentan los sujetos que protagonizan el escenario educativo.

 El estudio de casos: facilita el estudio en profundidad de determinados fenómenos educativos, ofreciendo soluciones a
problemas planteados a partir de la discusión y el análisis de un caso particular, en una situación real.
 El grupo de discusión: permite evidenciar dimensiones cognitivas y sociales propias de sus grupos sociales de referencia.
Es por ello que este método facilita la reconstrucción del sentido social en el seno de una situación grupal discursiva.

 La investigación-acción: se investiga desde la propia experiencia, de forma que repercuta luego en la calidad del
aprendizaje y en la propia enseñanza. Precisa de un constante procedimiento de retroalimentación

 La investigación evaluativa: investigación aplicada, centrada en la práctica, que a través de un proceso selectivo de
recogida de información, facilita la toma de decisiones de mejor. Su objetivo es medir la eficacia de los programas, aportando
propuestas para el enriquecimiento y la mejora.

TEMA 13
MÉTODOS Y TÉCNICA PARA LA RECOGIDA DE DATOS CUALITATIVOS

La utilidad y la validez de la información se sustentan en el procedimiento que siga su obtención, y no en la categorización de los
datos.
De un modo general, se considera que las técnicas cualitativas:
 Se centran en el sujeto, por lo que el investigador interacciona de forma directa con él
 Se obtienen los datos empíricos mediante la comunicación y el lenguaje
 Su interpretación establece una relación directa con el ser humano y su entorno
 Requieren datos referidos a creencias, opiniones, percepciones y preferencias de los sujetos
 Exigen del investigador una postura neutral
 Focalizan la atención en rasgos específicos, más que en aspectos normativos
 Explican la realidad con un sentido multidimensional, completo

LA OBSERVACIÓN PARTICIPANTE

Una técnica que le permite al observador conocer in situ la realidad que estudia, de un modo participativo

Proceso de desarrollo:
a) Selección de un problema: partiendo de una realidad más amplia conocida como foco o propósito de estudio, luego se acota
como consecuencia de reflexiones, experiencias, lecturas…
b)Diseño o plan de investigación: flexible, para poder incorporar las modificaciones que sean precisas en función del
desarrollo que vaya tomando el trabajo de campo
c) Selección y acceso al escenario: deben ser escenarios en los que el observador tenga fácil acceso y donde pueda establecer
una buena relación con los informantes.
d)Selección de los informantes: se utilizan criterios etnográficos, donde el grado de conocimiento de la cultura propia del
escenario se considera el elemento fundamental.
e) Negociación de roles: se deben establecer con claridad los roles de observador y observados
f) Actuar de forma pausada y prudente: porque es importante ganarse la confianza del personal antes de proceder a la recogida
de datos
g)Recogida de información: para distinguir la info correcta de la que no lo es, el investigador tiene que realizar un contraste de
la misma, mediante procedimientos de comparación y de triangulación
h)Registro de información: Pérez Juste recomienda:
 Registro de las notas de campo detallado y amplio
 Las notas deben referirse a las personas, circunstancias, sentimientos, escenario, secuencia, duración…
 Se deben diferenciar las notas descriptivas de los comentarios del observador
i) Elaboración y análisis de la información: es la fase más técnica del proceso, que busca llegar el informe final
j) Redacción del informe final: donde se describe el problema planteado y se detalla el proceso seguido

LA ENTREVISTA

Es una técnica de interacción directa con los sujetos a investigar. Su modalidad en profundidad, la distingue de otro tipo de
entrevistas utilizadas en la investigación cuantitativa. Se caracteriza por su flexibilidad, tanto en las preguntas como en las
respuestas. La única norma de referencia es alcanzar el objetivo del trabajo, de conseguir la comprensión de las posiciones y
perspectivas que tiene el sujeto en el tema objeto de estudio.

Procedimiento: sigue el desarrollo de la observación participante, salvo en estos puntos:


 Selección de un problema
 Diseño o plan de las entrevistas
a) Selección de los entrevistados: se determina el perfil del entrevistado y cuántos compondrán la muestra
b)Establecimiento del rapport, o nivel de confianza: se debe decidir sobre el número de sesiones, su duración y el contexto en
que se realizará la entrevista
c) Realización de las entrevistas: en un clima de confianza, donde es clave el saber escuchar y mostrar interés en lo que dicen.
Se comienza con preguntas de amplio espectro y se va hacia las más específicas
d)Registro de las entrevistas: se pueden grabar, con la previa autorización del entrevistado, y se aconseja contar con un diario,
algo equivalente a las notas del observador.
 Análisis de la información. Obtención de conclusiones
 Redacción del informe

LAS TÉCNICAS NARRATIVAS

Se trabaja con textos, orales o escritos, que registran las opiniones, sentimientos, valoraciones y apreciaciones, que los sujetos
tienen de la realidad que se pretende estudiar.

Estos documentos se generan independientemente de la acción del investigador, por lo que la información es no reactiva, es decir,
no se ve afectada por la interacción del investigador y por tanto, no sufre efectos de distorsión. Es un contenido cerrado, por tanto,
el investigador ha de trabajar con lo que hay, sea suficiente o no

Según la implicación del sujeto en el contenido documental se puede hablar de:


 Documentos personales: que a su vez se pueden dividir en:
 Los narrativos: testimonios en los que los sujetos han proyectado su personalidad, narrando hechos, y expresando sus
opiniones y sentimientos. Proceden de una experiencia interior del sujeto, y en su origen, se realizaron para uso particular. Es
el carácter biográfico de su contenido lo que le otorga valor. Ejemplo de ello son: (auto)biografías o diarios, relatos diarios (a
petición del investigador), cartas, historias de vida
 Los registros: los orales (doc. Sonoros) pretenden la perduración de una información particular, y los registros escritos, son
de carácter informativo (cuestionarios) y/o valorativo (DAFO)
 Documentos institucionales: son el prodcto de la vida institucionalizada de nuestra sociedad, por lo que abarcan todo tipo de
material escrito. Permanecen como huellas de nuestra cultura.
En la misma línea se encuentran los textos narrativos pedagógicos, que con un interés didáctico, reflejan la realidad social en
la que son contextualizados.
TEMA 14
EL TRATAMIENTO DE DATOS EN LA INVESTIGACIÓN CUALITATIVA

El análisis cualitativo de los datos puede llevarse a efecto de distintas formas:


 Procedimiento de generación teórica: la teorización es el objetivo último de todo investigador. Pasos a seguir:
exploración, descripción, interpretación y teorización.

 Procedimiento de expansión y contrastación de hipótesis y/o teorías: su objetivo es hacer evolucionar formulaciones
teóricas incipientes (que comienzan). Para ello, se la teoría, generalizándola o matizándola. Pasos a seguir: se seleccionan
casos negativos o discrepantes, ya que representan la excepción y por tanto, facilita la delimitación del objeto de estudio.

 Procedimiento analíticos manipulativos: el análisis opera sobre textos, que es la fuente principal de los datos. El
investigador debe saber interpretarlo y dotarlo de sentido, ya que cada persona, lugar o grupo presenta una forma diferente de
expresión e incluso de organización del lenguaje. Así, la interpretación que se haga de esos datos, vendrá determinada por los
objetivos que orientan la investigación, que pueden ser:

 Descriptivos: identificación de elementos y exploración de sus conexiones


 Interpretativos: comprensión del significado del texto y descubrimiento de patrones
 Contrastación teórica: elaborar, contrastar o verificar postulados, generalidades y teorías
 Evaluativos: evaluar políticas, prácticas e innovaciones.

El análisis de datos, en la investigación cualitativa, tiene una presencia continua a lo largo de todo el proceso, y en su
aplicación, se van dividiendo y segmentando sucesivamente en unidades significativas, de acuerdo con los objetivos
establecidos.

Pérez Juste concreta el proceso en tres tareas, con sus respectivas actividades:
1. Reducción de datos:
 Separación de unidades: que se realiza en base a unidades relevantes, que mantienen conexión con un objetivo más
global
 Identificación y clasificación: se categorizan de acuerdo a un sistema organizado
 Agrupamiento: en cada categoría

2. Disposición de datos:
 Transformación simbólica: una vez agrupada y reducida, la info debe ser presentada de modo que resulte manejable y
comprensible. Esto se consigue mediante el uso de tablas o de representaciones gráficas

3. Obtención y validación de conclusiones:


 Extracción de conclusiones: implica aportar info que resulte coherente, que respalde enunciados, que pueda ser
argumentada
 Validación: mediante triangulación, discusión con colegas, el contraste con la posición de los sujetos investigados, o la
búsqueda de la evidencia en contra.

DE LOS DATOS A LA TEORÍA


Encontramos dos posiciones ante este tipo de investigación, los que consideran que los estudios cuantitativos deben orientarse
a la generación y desarrollo de teorías y la de quienes optan por su verificación o validación.

APORTACIONES DE LA INFORMÁTICA
Debido a la gran cantidad de información que se maneja en la investigación cualitativa, son de gran ayuda los tratamientos
informáticos de datos, que facilitan la larga tarea de reducirlos. A saber:
 AQUAD: ideal para las fases de reducción, presentación y extracción de conclusiones (Alemania)
 NUD.IST: sirva para segmentar y organizar los datos, asignar categorías, establecer relaciones entre ellos, realizar
búsquedas textuales específicas y construir matrices y tablas de frecuencias (Australia)
 QSR NVIVO: es un producto asociado de actualización opcional del NUD.IST
 WIN MAX: codifica y recupera, utiliza procedimientos cuantitativos y cualitativos de forma combinada
 MAXQDA: versión modera de WinMAX, que optimiza el análisis cualitativo de texto
 ATLAS.TI: potente software para el análisis visual de datos cualitativos de textos, gráficos, audio y video. Ayuda a
descubrir los fenómenos complejos que se encuentran ocultos en los datos cualitativos
 ETHNOGRAPH: creado para el análisis descriptivo-interpretativo de textos. Secuencia: recopila datos, codificación,
memos y análisis
 DECISION: permite, a partir de la captura de fragmentos de los textos, explorar su contenido y obtener nueva
información, generando un mapa conceptual a partir de ellos (Inglaterra)

También podría gustarte