Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ni la actitud de rigor inquisitivo ni el proceder indagador son la clave de la investigación científica, aunque son
necesarias. Lo que es preciso es que ambos se pongan al servicio de objetivos científicos.
Bunge: “…por medio de la investigación científica, el hombre ha alcanzado una reconstrucción conceptual del
mundo que es cada vez más amplia, profunda y exacta…”
LA EDUCACIÓN
EL MÉTODO GENERAL
Todo campo del saber que pretenda ser denominado ciencia debe ser capaz de aplicar el método general:
hipotético-deductivo-experimental. En el que se plantea la hipótesis, se sacan consecuencias de las mismas y
se las contrasta de modo riguroso.
Para Bunge, el método científico es la conditio sine qua non para alcanzar el conocimiento científico. La única
regla de oro del trabajo científico: “audacia en el conjeturar, rigurosa prudencia en el someter a contrastación
las conjeturas”. Estaremos en el marco de la ciencia siempre que la finalidad sea científica (conocimientos
científico del mundo) y actuemos con rigor metodológico al servicio del mismo, esto es, sometiendo a contraste
las conjeturas que nos hayamos planteado (hipótesis).
Aunque las ciencias Sociales y Humanas no están de acuerdo con este planteamiento.
La educación:
El acto de educar es un arte, que puede verse beneficiado de la utilización de saber, de conocimiento
obtenido por la vía rigurosa del método científico. Por tanto debe constituirse como ciencia
Los conocimientos científicos se orientan a la mejora de los educandos
La educación es un ámbito del saber no constituye una disciplina unitaria ni homogénea en sus
planteamientos, sino que se beneficia de las aportaciones de otras disciplinas, que se constituyen en ciencias
básicas de este campo de naturaleza aplicada
De Miguel hace referencia a la conveniencia de que la investigación no represente una realidad apartada de la
vida diaria de las instituciones educativas, lugar donde se llevan a cabo los procesos educativos. Parece
aconsejable intentar una conexión entre teoría y práctica, y esto puede conseguirse en una investigación en la
que participen los profesores.
Hoyle, distingue entre dos profesionales:
El restringido: alto nivel de competencia en el aula, sabe comprender y tratar al niño, evalúa de acuerdo
con sus percepciones y asiste a cursillos de índole práctica
El amplio: capacidad para un autodesarrollo profesional autónomo mediante un sistemático autoanálisis, el
estudio de su labor con otros profesores y la comprobación de ideas mediante procedimientos de investigación
en el aula.
EL PROBLEMA DE LOS PARADIGMAS
Paradigma = modelos, pautas o esquemas. No son teorías, son más bien maneras de pensar o pautas para la
investigación que, cuando se aplican, pueden conducir al desarrollo de la teoría.
Cook y Reichardt
Paradigma CUALITATIVO Paradigma CUANTITATIVO
Métodos cualitativos. Métodos cuantitativos.
Fenomenologismo y verstehen (comprensión) “interesado en Positivismo lógico: “busca los hechos o causas de los
comprender la conducta humana desde el propio marco de fenómenos sociales, prestando escasa atención a los estados
referencia de quien actúa” subjetivos de los individuos”
Subjetivo Objetivo
Próximo a los datos; perspectiva “desde dentro” Al margen de los datos: perspectiva “desde fuera”.
Holista Particularista
2. Supuesto epistemológico
Cuantitativo: objetivismo, se puede conocer la realidad con independencia del observador
Cualitativo: subjetivismo, el resultado de la investigación no es sino una creación debida a la relación entre
el observador y la realidad observada
3. Supuesto metodológico
Cuantitativo: intervencionismo, control, manipulación de variables y la medición
Cualitativo: hermenéutica, el investigador es el principal instrumento en la comprensión de la realidad
estudiada
Para Perez Juste, lo único irreconciliable es la posición de partida, si la realidad exterior puede ser conocida tal
como es, es su estricta objetividad o las cosas no existen como tales sino como son percibidas por el hombre.
El investigador que se situé en uno de estos polos, elige un paradigma y, según algunos, se adhiere a un
conjunto de métodos y técnicas.
El resto de diferencias no implican incompatibilidad ni mucho menos adscripción necesaria a un paradigma, con
rechazo subsiguiente del otro.
Para Cook y Reichardt, los métodos cuantitativos han sido desarrollados para verificar o confirmar teorías y los
métodos cualitativos para descubrir o generar teorías. Los paradigmas no constituyen el determinante único de la
elección de los métodos. Esa elección dependerá también de las exigencias de la situación de investigación de
que se trate.
Existió, anteriormente, enfrentamiento y descalificación entre paradigmas. En la actualidad la posición predominante
es de la compatibilidad y cooperación, la elección de uno de ellos depende de la adecuación a los objetivos de
la investigación. Aunque reconocen la existencia de obstáculos para la aplicación de ambos métodos, como los
recursos y el tiempo, además de exigir una suficiente capacitación del investigador en ambas metodologías.
La educación consiste en un proceso intencional, sistemático y permanente de mejora o perfeccionamiento del ser
humano, de la persona.
El acto educativo es un acto radical y profundamente humano. Constituyen la esencia del acto educativo: la
indeterminación del ser humano, el libre albedrío y la necesidad de cooperación (esfuerzo, voluntad) para
alcanzar las metas que le propone la sociedad a través de los educadores.
La relación educativa ocurre en unos contextos determinados con un conjunto amplio de relaciones humanas, que
se constituye en el componente fundamental de un ambiente. Que a su vez se desarrolla en marcos de
contextos más amplios, donde el ambiente social y cultural se convierte en condicionante de la acción educativa
Así, una investigación orientada a la producción y descubrimiento de leyes o enunciados generales es imposible.
Los fenómenos educativos son únicos, aunque eso no impide que se desarrollen dentro de unas pautas
La reiteración de estudios en profundidad permite alcanzar una cierta acumulación de experiencias que
conduce al descubrimiento de tales pautas
“No hay razón alguna para que no aprendamos de generalizaciones sobre la naturaleza humana. Pero debemos
tener en cuenta los conceptos y los métodos que nos capacitan para comprender la individualidad configurada”
Nos manifestamos defensores del principio de complementariedad metodológica, que puede ser en ocasiones
sucesiva (una lleva a la otra) y en otras simultánea (en investigaciones evaluativas) donde la cualitativa
aprecia el proceso y la cuantitativa los productos o resultados.
TEMA 2
LA INVESTIGACIÓN CIENTÍFICO-EMPÍRICA EN EDUCACIÓN. EL PROCESO Y LA LÓGICA
El hombre desea controlar y dominar la realidad objeto de estudio de tal manera que le permita saber por
adelantado lo que puede ocurrir. Las funciones predictivas y de control son metas deseables que pueden ser
alcanzadas con diferentes grados de precisión, profundidad y seguridad.
En su explicación de la realidad, la ciencia persigue un conocimiento capaz de llegar a explicarla por completo
y no aspectos parciales. Por lo que la ciencia pretende ser un sistema ordenado y coherente, un conocimiento
relacionado y sistemático.
El método:
Lo que caracteriza a la ciencia es el modo como opera, el método que utiliza para alcanzar algún objetivo.
Donde no hay método científico, no hay ciencia (Bunge)
El método hipotético-deductivo-experimental: es una síntesis de observación y razonamiento, de deducción e
inducción, de análisis y síntesis. Fases según J.Dewey:
1. Percepción de un problema, del que no se dispone de conocimiento suficiente para resolverlo
2. Identificación y definición precisa del problema a resolver
3. Planteamiento de la hipótesis (la posible solución al problema)
4. Fase deductiva. De ser ciertas las hipótesis deberían darse ciertas consecuencias
5. Validación de la hipótesis mediante prueba de contraste
La investigación científica:
Investigar es la actividad encaminada a la consecución de metas científicas, de tipo teórico o práctico. Esta
actividad, que es la puesta en práctica del método científico, ha de ser sistemática, organizada, disciplinada y
rigurosa
PROBLEMA
El científico se caracteriza por su capacidad para problematizar, para ver problemas donde otros no ven nada. Y
el problema es el arranque de toda investigación.
Un problema es cualquier situación para la que no se dispone de una respuesta adecuada, pero los que
interesan a la ciencia reúnen ciertas cualidades:
Requiere una teoría de fondo en donde incorporarlo, sin esto será imprecisa su definición y difícil su
resolución
Suelen integrarse en un sistema problemático o un conjunto parcialmente ordenado de problemas
Formulación correcta y precisa, que se da cuando el investigador es capaz de plantear preguntas
concretas donde aparecen relacionadas las variables implicadas, de forma que se constituyan en guía para la
formulación posterior de hipótesis, a la vez que orienten sobre el tipo de datos a recoger y las respuestas
que serán precisas
La resolubilidad, que a veces es cuestión de tiempo. Sin esto el problema no sería científico. Un
problema es resoluble si puede proponerse una hipótesis relevante y es posible comprobarla determinando un
grado de probabilidad
Relevante, aunque es una característica difícil de precisar
HIPÓTESIS
Formular hipótesis es realizar conjeturas sobre la posible relación entre las variables integrantes del problema.
Una vez formuladas guían el proceso para conseguir la resolución del problema. Si se hace al revés, si se
recogen primero los datos y luego se les busca explicación se está violando el juego científico.
Características:
Deben estar bien fundamentadas
Deben ser contrastables por procedimientos empíricos. La experiencia es la base de toda contrastabilidad.
Se trata de traducir la hipótesis a términos operacionales que permitan decidir acerca de su contrastación,
para lo que se deduce de la hipótesis las consecuencias que deberían seguirse de ser cierta, formuladas en
términos contrastables, y admitir que la hipótesis ha salido indemne de tal contrastación en los casos en que
los resultados empíricos concuerdan con ellas. Así queda validada por la evidencia empírica
Se puede añadir: sencillez, generalidad y potencia deductiva.
Es conveniente escoger las que permiten una mayor y mejor información, es decir, un número superior de
consecuencias
Una vez operativizadas las variables y elegido el diseño, se valida la hipótesis en sentido estricto. Se trata de
recoger los datos que se consideran pertinentes y relevantes, se elige un diseño:
Un experimento
Un procedimiento ex-post-facto: se investiga un fenómeno que ya ha ocurrido
Observación (técnica fundamental en investigación pedagógica).
Para Bunge: debe ser intencionada, con un objetivo determinado, e ilustrada ya que debe ser guiada por un
cuerpo de conocimiento
Para Selltiz: la observación se convierte en técnica científica si:
Responde a un objetivo ya formulado
Se planifica sistemáticamente
Se controla sistemáticamente y se relaciones con proposiciones más generales
Está sujeta a comprobación y control de validez y fiabilidad
El control, junto con el rigor del proceso darán lugar a resultados fiables o contaminados, lo que
sirve para decidir sobre la aceptación o rechazo de las hipótesis
Los datos por sí mismos no dan respuesta a las preguntas planteadas, deben ser analizados y
tratados adecuadamente. Operaciones a seguir con los datos:
Depuración: necesario en situaciones de tratamiento mecanizado
Organización: por ordenación, por categorización (tabla de frecuencias), distribuciones…todos estos sistemas
ofrecen una visión de conjunto, que permiten una simplificación y facilitan el tratamiento; en ocasiones se
transforman para facilitar el análisis posterior
La elección de la prueba estadística: se debe elegir la prueba más potente y más precisa, es decir, la que
permita rechazar más fácilmente Ho. A tener en cuenta:
El tamaño de la muestra
El tipo de contraste: unilaterales o bilaterales
La forma de elección de los sujetos
El nº de tratamientos y el de variables independientes y dependientes
Para Siegel: no paramétrica para escalas nominales u ordinales y paramétricos para escala de intervalos o
proporción
Inferencias deductivas: se puede tomar una conclusión como una premisa, de la que se derivan
nuevas predicciones, si estas se confirman, la hipótesis y teoría adquieren mayor firmeza, en
caso contrario se debe de reformular. La ventaja es el carácter de certeza que les corresponde
cuando las premisas también lo son.
Postura refutabilista: al no existir otro procedimiento que el deductivo, los datos resultan inútiles si son favorables
pero son decisivos en caso contrario (en hipótesis universales). Porque en las hipótesis singulares puede
llegarse por deducción a su establecimiento definitivo como verdaderas con un solo caso que cumpla el
enunciado
Generalización: se extienden los resultados encontrados en la investigación a casos no estudiados
en ella. Sólo cuando la muestra es suficiente y representativa de la población estamos
capacitados para generalizar de la muestra a la población. Aunque hay que tener siempre
presente el marco de las condiciones integradas en la investigación, que puede influir en mayor
o menor medida al proceso. Por lo que la generalización está ligada a la replicación, que
llevada a cabo con el mismo grupo permite conceder mayor credibilidad, fortaleza y fiabilidad a
los resultados al hacer más improbable que se deben a la casualidad.
Replicación sistemática: las circunstancias, las variables y todo lo que sea relevante es sometido a contraste.
Hay un tipo especial de generalización: la interpolación y extrapolación de resultados a partir de los
empíricamente hallados que permitan formular leyes de aplicación general
Yela recoge las objeciones habituales a la medida y el control en el campo de las ciencias humanas
MEDICIÓN: Lo psíquico no puede medirse:
porque es espiritual – pero siempre podremos hacerlo con manifestaciones externas de lo psíquico
porque es cualitativo – puede medirse desde manifestaciones externas y del sustrato biológico de lo psíquico.
por ser una totalidad indivisible – la personalidad total del sujeto no se romperá por medir uno de sus
aspectos
por ser irrepetible y en continuo cambio – Yela: el que no se repita exactamente un fenómeno no quiere
decir que no pueda medirse, sino que no puede repetirse exactamente la misma medida. Consecuencia de ello
es el carácter estadístico y probabilística, que no exacto, de la medida. La irrepetibilidad pone en entredicho uno
de los supuestos básicos del método científico: “uniformidad de la naturaleza” o coherencia.
CONTROL: la interacción entre el observador y lo observado, “los fenómenos psicológicos se modifican incluso al
ser observados y medidos”
MEDIDAS Y ESCALAS
Stevens: medición es la asignación de numerales a objetos o hechos de acuerdo con reglas. Niveles de
medición:
Nominal: indican que algo es igual o destinto de algo, no se pueden hacer operaciones matemáticas, se
trabaja con la frecuencia que aparecen en cada categoría
Ordinal: + seriación en orden creciente o decreciente, y permiten aplicar pruebas estadísticas
Intervalo: + diferencia entre intervalos consecutivos, sin 0 absoluto pero permite operaciones matemáticas
Razón.: + 0 absoluto y todo tipo de operaciones matemáticas
En base a lo que le permitan sus datos, el investigador debe elegir como medirlos y esto le lleva a elegir
entre pruebas paramétricas y no paramétricas.
POSIBILIDAD DE CONTROL
En las ciencias físicas es relativamente fácil llevar los fenómenos a investigar al laboratorio (objetos de
estudio), lograr una situación común en circunstancias y variar una de ellas, utilizando en el intento sistemas de
control incluso de carácter manipulativo.
En el caso de las ciencias humanas las dificultades se multiplican, y es difícil controlar las variables. Además el
objeto de estudio es el mismo que el elaborador de esa investigación, el hombre.
Dificultades para el control:
Qué controlar, que tipo de variables están asociadas y cuales son independientes
Técnicas para controlar variables que no contaminen el experimento.
Problemas éticos, que impiden realizar determinados experimentos
Artificialidad de la situación, ya que de tanto controlar las variables se llega a situaciones tan idealizadas
que están muy lejos de la realidad.
La falta de control en el trabajo de campo hace que los resultados no se tomen seriamente en cuenta. El
trabajo de campo permite poner a prueba, en situaciones más reales, los resultados del experimento de
laboratorio, y en caso de concordancia, una superior generalización de los logros. Y a la inversa, del campo al
control riguroso del laboratorio.
La replicación (sistemática) de experimentos permite conferir una mayor credibilidad a los resultados aparte
de una superior generalización.
De gran ayuda a las técnicas estadísticas están siendo el progreso tecnológico, que permite plantear
investigaciones con mayor realismo experimental en el marco del situaciones naturales (realismo mundano)
VERIFICABILIDAD INTERSUBJETIVA
Popper: “una experiencia subjetiva, o un sentimiento de convicción, nunca pueden justificar un enunciado
científico” “la unión de una conducta observable del hombre y lo que sucede en él debe establecerse por la
aplicación de definiciones operacionales, de un lado, y de constructos teoréticos del otro”
Bunge: “…hacemos hipótesis sobre hechos no percibidos y los contrastamos por medio de evidencia que consiste
en datos acerca de hechos directamente observables, partiendo de la suposición de que los últimos son efectos
de los primeros”
En educación, la relación entre la teoría y los datos no es obvia, la traducción operativa de un constructo
teórico es problemática y sólo se puede entender como un indicador, lo que provoca dificultad en la validación o
rechazo de teorías y el acuerdo entre observadores.
Si la verificabilidad se entiende como coherencia de resultados, con determinados niveles de probabilidad, y si
los resultados se refieren a los grupos, la posibilidad de verificación intersubjetiva parece clara. No se puede
corroborar los resultados de investigaciones anteriores si se pretende que los resultados se repitan exactamente
igual y por individuo, ya que tratamos con personas.
REPERCUSIONES METODOLÓGICAS
La validez y fiabilidad permiten al investigador conocer con precisión el margen de error que afecta a sus
resultados. Las limitaciones en los instrumentos de medición nos llevan a utilizar no tanto el rasgo del
sujeto, sino el puesto relativo en el grupo.
La muestra debe ser suficiente y representativa
La probabilidad está implicada en el proceso de inferencia por el cual pueden generalizarse los valores de
las muestras a las poblaciones
El error muestral permite estimar los límites entre los que cabe esperar los correspondientes parámetros
El error típico de los estadísticos, la elección del estimador adecuado a la situación y la utilización de las
adecuadas distribuciones maestrales son elementos claves del proceso.
Las limitaciones del control, en investigación educacional, dan gran trascendencia a la elección de un diseño
adecuado y que la prueba estadística obtenga el máximo partido de los datos.
Para la verificabilidad intersubjetiva, las definiciones operativas deben poseer un lenguaje preciso e inequívoco
y utilizar instrumentos que sean la traducción de aquellos. Deben especificarse con claridad las características
relevantes de los sujetos que puedan influenciar en los resultados. Y por último, identificar y especificar
todas las circunstancias en que se alcanzan los resultados
TEMA 3
EL INFORME Y LA CALIDAD DE LA INVESTIGACIÓN
La investigación no llega a buen término si no se redacta un informe completo con la que difundirla.
El valor, y el sentido o utilidad del informe viene determinado por la propia investigación, el interés que
despierte, la utilidad de sus conclusiones, las aportaciones al conocimiento, y sobre todo, el sentido que el
investigador le otorgue en relación con la realidad, con la práctica profesional.
No existe un modelo único de informe, la diversidad es muy amplia, lo importante es que sea práctico, que
denote utilidad y efectividad en la comunidad a la que se destina, contribuya a aumentar el conocimiento del
tema tratado.
Sobre el estilo se dice que el investigador debe resaltar las siete características que identifican la cientificidad de
cualquier estudio: objetiva, precisa, verificable, explicativa, empírica, lógica y condicional.
MARCO CONCEPTUAL: familiariza al lector con el problema que se aborda y el contexto que lo motivo
Introducción: informa de la relevancia teórica y práctica del tema elegido, justifica el tema
Objetivos: precisa los límites y pretensiones, y el alcance que se espera del trabajo.
Deben expresarse como proposiciones constituidas por: verbo (en infinitivo), las variables,
las relaciones y el contexto. Y estarán orientadas a definir los logros que se esperan obtener
a partir de los resultados.
Planteamiento teórico: revisión de aportaciones previas, estableciendo la línea de investigación
Hipótesis: solución al problema planteado, que serán confirmadas o rechazadas en la investigación
LA CALIDAD DE LA INVESTIGACIÓN
No se trata de determinar la calidad de la investigación, sino de valorar que métodos e instrumentos mejoren la
calidad de los resultados. La propia investigación también es evaluada mediante revisión de expertos (pares)
CRITERIOS DE CALIDAD
Determinar criterios le da funcionalidad a la investigación y favorece la reflexión del equipo.
Alonso, criterios de Calidad referidos a los:
Objetivos iniciales: se valora la trazabilidad (posibilidad de identificar el origen y las diferentes etapas de un
proceso de producción y distribución) de los trabajos preparatorios de la investigación
Criterios Disposiciones Herramientas
Pertinencia y novedad Evaluar los objetivos de acuerdo a los Revisiones bibliográficas
conocimientos actuales Contactos y referencias académicas
Utilización de redes de expertos
Factibilidad Evaluar los recursos necesarios Planificación detallada del Proyecto
Analizar los riesgos asociados a la investigación
Procesos: fase de realización de la investigación y en aplicación de la metodología general, se identifican:
Criterios Disposiciones Herramientas
Transparencia Asegurar la trazabilidad de los Descripción detallada del procedimiento de trabajo
resultados Informes de las diferentes fases de desarrollo
Validación de instrumentos empleados
Sistematización de sus Asegurar la trazabilidad de los Descripción de los criterios que determinan el
fases de desarrollo procedimientos procedimiento de recogida y tratamiento de datos.
Revisiones periódicas
Acciones correctivas y preventivas
La calidad del diseño vendrá relacionada, entre otros, por su adecuación a la pregunta en que se concreta el
problema de investigación.
La investigación científica es la búsqueda intencionada de conocimiento o de soluciones a problemas de carácter
científico. La investigación se caracteriza por ser un proceso sistemático, planificado, organizado (porque
responde a un plan ordenado) y con pretensiones de resultados objetivos, conclusiones que deriven de los
datos rigurosamente obtenidos y no de interpretaciones.
Kerlinger: “diseño es el plan, estructura y estrategia de una investigación cuyo objetivo es dar respuesta a
ciertas preguntas y controlar la varianza”
Plan: redactar hipótesis y sus consecuencias operacionales. Cómo se formarán las muestras, los subgrupos,
cómo se recogerán los datos y cómo se analizarán
Estructura: el esquema, el paradigma de operación de las variables. Diagramas donde se describen las
variables, su relación y yuxtaposición.
Estrategia: métodos mediante los cuales se reunirán y analizarán los datos. Cómo se conseguirán los objetivos
y cómo se abordarán los problemas.
Objetivos:
Responder a las preguntas del problema de investigación: dependiendo del tipo de pregunta se realizará
el esquema de acción, el diseño (variable independiente A, B, variables extrañas como sexo, grado,
asignatura…)
Controlar la varianza, técnicamente se denomina validez interna del diseño y consiste en poder afirmar
que los efectos medidos en la variable dependiente se deben a, y solo a, la variable independiente y nunca
la extraña. Presenta 2 momentos claves:
1.Poder afirmar, antes de comenzar la investigación que los grupos a comparar son equivalentes
2. Una vez iniciada la investigación, las condiciones y circunstancias son las mismas en
ambos grupos
La varianza (la dispersión de las puntuaciones de una variable) puede ser sistemática, cuando la dispersión la
produce la variable dependiente, por lo que tiene un origen concreto y experimental o puede ser aleatoria,
cuando la dispersión la producen factores alejados de los intereses del investigador, su origen se encuentra en
las diferencias individuales de los sujetos y en los errores de medida. Los efectos de esta última se compensan
al afectar por igual a los dos grupos
Un buen diseño deberá responder al principio que Kerlinger denominó Max-Min-Con:
Maximizar: hacer tan grande como sea necesario la varianza debida a la variable independiente o sistemática
Minimizar: hacer tan pequeña como se pueda la varianza aleatoria
Control: validez interna, control de toda hipótesis rival o alternativa
Max y min son importantes para conseguir que los resultados puedan llegar a ser estadísticamente significativos,
para que el investigador pueda decir con un elevado nivel de confianza que no se deben al azar sino al efecto
de la variable independiente. Y el control hace que esto sea real
TIPOS DE DISEÑO
PRE-EXPERIMENTAL: Carecen de control:
Diseño de caso único, con una sola medición, donde las comparaciones no están justificadas,
puede haber distintas variable i. que pueden estar ocurriendo a la vez y las conclusiones derivadas no
son defendibles
1. X Y
Diseño pretest-postest de un solo grupo: es una comparación formal, se dispone de información
previa al experimento, pero al igual que el anterior pueden estar actuando varias variables, no evita
riesgos
2. Y1 X Y2
Diseño de comparación con un grupo no tratado experimentalmente: se compara un grupo que
ha recibido la variable i. del que no, pero no se sabe si los grupos son equivalentes, por lo que
pueden ser otros los motivos que expliquen las diferencias entre los grupos y no el haber recibido la
variable i
3. X Y1
Y2
EXPERIMENTAL: control de la varianza
Diseño de dos grupos, inicialmente igualados por asignación al azar: y a uno se lo somete a la
variable i. y al otro no. Este diseño controla las hipótesis rivales
4. Azar Y1 X Y2
Azar Y3 Y4
Diseño de cuatro grupos de Solomon: analiza la existencia o no de diferencias en situaciones
diferentes. Es difícil llevarlo a cabo y realizar el análisis estadístico. Reservado para experimentos de
gran trascendencia.
5. Azar Y1 X Y2
Azar Y3 Y4
Azar X Y5
Azar Y6
Diseño de grupo de control con solo pretest: carece de pretest. Si el azar fuera posible este diseño es
preferible ya que nos ahorra el pretest y puede aplicarse un tratamiento estadístico más sencillo
6. Azar X Y1
Azar Y2
Con este diseño podemos someter a contraste simultáneamente dos hipótesis, una en relación con cada una de
las dos v.i. (metodología y motivación). También nos permite apreciar si se da interacción., esto es, el hecho
de que los efectos de una de las v.i. estén condicionados por la otra v.i. El tratamiento estadístico de este
diseño es el análisis de la varianza (ANAVA O ANOVA), esto es, la prueba F de Fisher. F sólo indica si
alguna de las posibles diferencias entre medias es o no significativa
TEMA 5
EL EXPERIMENTO COMO REFERENCIA
El experimento es la meta ideal del paradigma positivista. Cuando está bien planteado, se puede someter a
contraste de hipótesis causales, hipótesis conocidas como de “implicación general”: si…entonces…Así la variable
i. se convertiría en la causa de los resultados, de la variable dependiente.
El experimento ofrece resultados y conclusiones fiables y permite el establecimiento de relaciones causa efecto.
Sus características esenciales son:
Cambio planificado o provocación del fenómeno
Producidos en el momento que el investigador considere. Esto permite poseer las mejores condiciones para
observar y registrar los datos y que su realización se produce en condiciones relevantes al problema
(circunstancias espacio-temporales, características personales y formales de las personas y relaciones
implicadas).
Poder repetirlo cuando se necesite cumple con una característica del conocimiento científico, la verificabilidad inter
e intra-subjetivas. También cumple con la validez externa, mediante la cual se pueden realizar generalización
con mayor fiabilidad, lo que permite la formulación de leyes y el establecimiento de teorías
Control
Sin control, lo anterior no tendría sentido. Su misión es descartar hipótesis rivales para poder afirmar que los
efectos medidos en la variable d. son debido a y sólo a la variable i. El control debe considerar:
Se deben controlar las condiciones en que se produce el experimento, ya que se modifican esas condiciones
para averiguar los efectos de sus variaciones. Manipulación de variables i.
Se debe controlar el proceso, evitando la aparición de variables extrañas. Bunge dice que para lograrlo hace
falta una lista de sospechosos de la que no siempre disponemos. Una de las estrategias del control consiste
en el grupo de control o testigos…”hay que formar un grupo experimental y uno de control de tal modo que
la única diferencia apreciable entre ellos se deba a los estímulos situados bajo control del experimentador,
activos sobre el grupo experimental y no sobre el de control”
Medición, hay experimentos cualitativos y cuantitativos.
o Los cualitativos toman en consideración la intervención y la aparición o no de determinadas variables, pero
no son valoradas cuantitativamente
o Los cuantitativos requieren mediciones objetivas de v.d. y en ocasiones para controlar diferencias iniciales
mediante pretest y v.i.
TIPOS Y CARACTERISTICAS
Experimentos de laboratorio: es el marco ideal para la investigación pura y fundamental que permite
identificar variables relevantes, elaborar leyes, contrastar teorías
Experimentos de campo: se caracteriza por el diseño (se planifica la v.i.), la situación o contexto (real y
natural) y el propósito (comprobar la aplicabilidad a situaciones de la vida real de leyes científicas conocidas
o de hipótesis específicamente desarrolladas en situaciones controladas de laboratorio)
Adecuar el estudio de la Educación dependerá de la posibilidad de control y de las dificultades existentes para
su logro, como el desconocimiento inicial de los factores que han de ser controlados por resultar relevantes, la
dificultad de medir las variables a controlar, la disponibilidad de sujetos que puedan ser atribuidas a los grupos
y la posibilidad de mantener el control inicialmente establecido.
Es más adecuado el experimento de campo por su mayor flexibilidad, aunque para ello tenga que superar las
dos grandes limitaciones a que se refiere Kerlinger, las de manipulación de las v.i. y de asignación al azar.
INVALIDEZ INTERNA: son factores que se dan no permiten establecer relación causa-efecto entre la v.i. y la
v.d.
Historia: los hechos que ocurren desde el inicio de la investigación, introducción de la v.i. y la medida de la
v.d. y que actúan diferencialmente sobre los grupos
Maduración: este factor afecta directamente a loa sujetos participantes y es más probable que aparezca cuando
la duración del estudio es mayor y cuanto más jóvenes sean los sujetos (también entran aquí las
reacciones psicofisiológicas como el hambre, la ser, el cansancio)
Administración de pruebas: someter a los sujetos a una prueba puede producir un efecto sobre la v.d. en
paralelo al atribuible a la v.i. Un pretest puede sensibilizar a los sujetos sobre un problema e influir en
cómo lo ven después de haberla realizado.
Instrumentos de medida, se aprecian cambios con quienes se utilizan o con quienes puntúan
Regresión estadística: es la tendencia existente en el caso de puntuaciones extremas de regresar hacia la
media del grupo
Selección diferencial: cuando la selección de los sujetos no se realiza por un procedimiento de azar, puede
que los grupo tengan una composición inicial no comparable, con ventaja de uno sobre otro
Mortalidad experimental: baja de algún integrante del grupo, dejando la comparabilidad inicial nula
Interacción entre dos o más factores anteriores: que se den al mismo tiempo (historia y maduración…)
LA INVESTIGACIÓN EX-POST-FACTO
En este tipo de investigación se plantea la hipótesis cuando los fenómenos han ocurrido ya, se actúa hacia
atrás, se carece de control sobre la v.i. Se hacen inferencias acerca de relaciones entre variables sin
intervención directa.
Su proceso es a la inversa del experimento: se mide la variable que se toma como dependiente y se toman
mediciones simultáneamente de otras que se consideran independientes, a partir de ahí se procurará inferir para
atrás, o sea, tratar de probar cuál es la verdadera v.i.
MODALIDADES
Estudios de campo
Estudios útiles para descubrir variables significativas y relevantes (análisis factorial) y para averiguar las
relaciones existentes entre las variables ya identificadas (estudios correlacionales).
Ventajas: se trabaja en situaciones reales, observación continuada y directa, se pueden utilizar instrumentos
variados e independientes para la medición y registro de datos.
Estudios de tipo correlacional son aquéllos en que las correlaciones son utilizadas para determinar las
características técnicas de los instrumentos de evaluación y medida utilizados en la recogida de datos,
especialmente en los casos de validación de hipótesis. Se trata de proceder por medio de ellos aun
acercamiento a una realidad desconocida, como etapa previa a posteriores estudios predictivos y de control en
función de las relaciones descubiertas. En educación destacan los de predicción del rendimiento y los de
selección de test.
Estos estudios hacen posible controlar las variables, ya que para ello se establece previamente una lista de
sospechosos, y éstos salen del conocimiento previo de qué variables están relacionadas con aquellas que
aparecen en el marco de la hipótesis.
El caso más claro de estudio de campo llamado experimento natural, que se ha denominado de validación de
hipótesis, es aquella situación en la que sin manipular la v.i. se identifica alguna modificación o cambio, no
producido por el investigador, por lo que cabe pensar en varias variables dependientes.
Estudios de casos
Se caracteriza por ser un estudio intensivo frente a los de carácter extensivo. Se da una creencia de falta de
adecuación de los estudios de laboratorio y de campo para conocer en profundidad a la persona, ser individual,
irrepetible, inabarcable e inaprehensible. Por lo que se requeriría para su estudio los métodos nomotíticos (leyes
generales) e idiográficos (centrado en las peculiaridades del individuo). Pueden tener dos perspectivas, una de
carácter científico y otra de tipo práctico; para ambos casos se reúne una documentación amplia, variada y
evaluativa para poder comprender la situación en su génesis y desarrollo. El estudio y análisis de las
interrelaciones y secuencias permiten llegar a un cuadro final en que los elementos dispersos cobran cierta
integración y estructura.
TEMA 6
PRINCIPALES DISEÑOS
El control permite el dominio del investigador sobre la v.i., lo que le permite su manipulación, permite la
asignación de los sujetos a los grupos y el control de v. extrañas.
El diseño de dos grupos presenta una estructura adecuada para lograr el control de los dos últimos puntos. El
diseño posibilita el control sobre el muestreo, asegurando que inicialmente no se dan diferencias significativas. Y
al disponer de dos grupos, cada uno puede ser considerado como control del otro, por lo que si el diseño es
adecuado, las posibles variables extrañas que afecten a un grupo afectarán al también al otro. Todo ello
asegura que las diferencias medidas en la v.d. se deben a la variación experimental, provocada y controlado por
el investigador.
Azar y control: cuando de una misma población de sujetos se obtienen dos muestras al azar, los subgrupos
tienden a ser semejantes, comparables, intercambiables, los valores estadísticos son similares. Y a mayor tamaño
de la muestra disminuyen las diferencias no significativas. Si las diferencias superan los niveles aceptados por el
investigador (0,05-0,01) serán diferencias significativas, no se las considerarán debidas al azar.
Para asegurarnos de que los dos grupos elegidos son inicialmente iguales podemos analizar los datos con la
covarianza o constituir los grupos mediante emparejamiento.
La aleatorización presente 3 momentos:
1. Se selecciona al azar el número de casos necesarios para una muestra representativa
2. De la muestra se asigna al azar los dos grupos
3. Se decide al azar que grupo recibirá el tratamiento y el que será de control. O que modalidad recibirá
c/uno
Emparejamiento y control: ante diferencias pequeñas el diseño al azar puede no ser sensible, no detectarlas, y
concluir que no hay diferencias significativas aunque, en realidad, las hayas. La técnica del bloqueo reduce la
variabilidad debida al azar. Esta técnica consiste en constituir los grupos de la forma más homogénea posible
desde la perspectiva de algún criterio relevante (variable del bloqueo), esto es, de una variable que mantiene
una relación sustancial con la v.d. Así cada bloque será más homogéneo que si se hubiese constituido al azar.
El caso más simple de bloqueo es el del emparejamiento, aunque se debe tener presente que con él no se
logra formar parejas homogéneas en todo sino en las variables consideradas por el investigador como relevantes,
pero se mantienen las diferencias individuales en las demás.
En los diseños de 2 grupos se manipula una sola variable independiente, a través de dos condiciones, niveles
o tratamientos, uno para cada grupo, con la finalidad de contrastar las diferencias en la v.d. Se compara una
actuación pedagógica Grupo Selección y asignación Pretest V.I. Postest frente a otra, por lo
general la que viene Experimental Azar - X1 T1 siendo habitual en el
lugar de que se Control Azar - X2 T2 trate.
A la v.i. de la investigación experimental se la denomina activa o de estímulo , ya que pueden ser manipuladas
por el investigador. En la investigación ex–post-facto se trata con variables asignadas o atributivas, ya que no
pueden ser manipuladas sino medidas.
La v.d. es la que se aprecia por efecto de la manipulación de la v.i. Se trabaja con valores medidos que
pueden ir de la rapidez de las respuestas a su exactitud y corrección, pasando por la cantidad, frecuencia o
belleza.
La resolución estadística se traduce en la comparación de las diferencias entre los valores T1 y T2 con los
esperados como resultado del azar. Se pueden compara con los valores al azar las diferencias de x, de s, de
correlaciones…
La prueba t de Student compara las medias aritméticas de los grupos con los valores de azar entendidos como
error típico de tales diferencias. Si el valor de t tiene una probabilidad de azar menor o igual al margen de
error que se está dispuesto a aceptar (α) es porque las diferencias son reales y no aleatorias.
La prueba F (ANAVA) analiza la varianza, cociente entre varianzas, la descompone en dos partes:
1. Varianza experimental: a la que se le puede atribuir el efecto de la v.i.
2. Varianza de error: a la que las diferencias que se dan entre los sujetos no son atribuibles a la v.i.
F nos ofrece un valor que será significativo cuando su probabilidad de ocurrencia sea igual o mayor que el
nivel de confianza fijado.
Ambas pruebas son equivalentes para diseños de dos grupos, pero a t no es posible aplicarla cuando la v.i.
tiene 3 ó más niveles.
Se pretende comprobar el efecto de dos o más actuaciones. Además de contrastar dos hipótesis a la vez hacen
posible afrontar una tercera, conocida como de interacción, esto es aquella en que los efectos sobre la
dependiente proceden de la actuación conjunta de las dos independientes sometidas a contraste
EFECTOS A ESTUDIAR:
Efectos simples: se analiza el efecto de cada v.i. para los diferentes niveles de la otra v.i.
Efectos principales: se analiza el efecto global de cada v.i. de forma independiente, al margen del otro
factor o v.i. Se puede actuar de dos formas: promediando los efectos simples de cada v.i. o calculando la
diferencia de las medias para cada factor
Efectos secundarios o de interacción: se trata de apreciar si los efectos de un determinado nivel de la
v.i. alcanza los mejores resultados sobre la v.d. en una concreta combinación con otro de los niveles de la
otra v.i.
También se habla de efectos fijos, aleatorios o mixtos en función del procedimiento que haya utilizado el
investigador para decidir en relación con los niveles de las v.i.
Fijo: cuando el investigador decide los niveles concretos en que se toman cuerpo los factores, los fija
Aleatorio: se seleccionan los niveles que se someterán a contraste por procedimientos aleatorios
En este diseño se utilizan 3 v.i. aunque interesa una, la denominada v. tratamiento, las otras se utilizan para
controlar su posible efecto sobre la v.d., tratando de evitar que se conviertan en extrañas.
DISEÑO DE COVARIANZA
En los casos en los que los grupos se han constituido de forma natural, grupos intactos, se recomienda
controlar la igualdad o desigualdad inicial. La diferencia inicial es la co-variable que será tomada en
consideración al finalizar el experimento con la medida de la v.d.. En lugar de someter a contraste las medias
en la v.d., se contrastarán las medias ajustadas, esto es, las medias finales teniendo en cuenta las diferencias
iniciales
“La estadística es la ciencia que se ocupa de la ordenación y análisis de datos procedentes de muestras, y de
la realización de inferencias acerca de las poblaciones de las que éstas proceden”
Población: conjunto de todos los elementos que cumplen una o varias características. Los índices numéricos que
la describen se denominan parámetros.
Muestra: subconjunto de los elementos de una población. Los índices numéricos que la describen se denominan
estadísticos. A partir de las muestras se estima el valor de los parámetros. La técnica para seleccionar a los
sujetos de la muestra se llama muestreo. A mayor tamaño de la muestra, mayores garantías de
representatividad.
Una vez elegida la muestra, el paso siguiente es la medición. Este proceso es complicado, ya que por lo
general lo que medimos son constructos (características que no son directamente observables), por lo tanto
medimos las manifestaciones observables que atribuimos a los constructos.
Se elaboran los instrumentos de medida, se aplican a la muestra, se recogen los datos y se elaborar la matriz
de datos. A partir de ahí se ordenan y categorizan, y se realiza un análisis descriptivo.
Inferencia estadística: extrapolar los resultados obtenidos en grupos o muestras concretos a las grandes
poblaciones a las que pertenecen, pero nunca se habla de certeza, sino de probabilidad de acierto y de error.
Las aplicaciones básicas de la inferencia son:
La estimación de parámetros: un parámetro se estima siempre a partir de un estadístico calculado en una
muestra. Se habla de dos tipos de estimación:
Estimación puntual: se hace coincidir el estadístico con parámetro, se escoge un solo punto
Estimación por intervalos o intervalo de confianza: se ofrece un intervalo de puntuaciones en el cual es
más probable que se encuentre el valor del parámetro
El contraste de hipótesis: probar mediante datos empíricos las hipótesis que se plantean en la investigación
Al igual que la distribución normal, existen otras distribuciones teóricas (modelos matemáticos de distribución)
como la binomial, la t de student, la multinomial, la F, etc., en las que se conoce la probabilidad de aparición
asociada a todos los posibles valores del estadístico.
La distribución muestral es la distribución de un estadístico en el muestreo, formada por los infinitos valores de
un estadístico obtenidos de infinitas muestras aleatorias del mismo tamaño extraída de la misma población.
Nivel de confianza: porcentaje de confianza al hacer la estimación, o probabilidad 1- α
Nivel de significación: probabilidad de error que estamos dispuestos a cometer en la estimación α (0,01 –
0,05)
Error muestral: diferencia más probable entre el estadístico y el parámetro
E.M. = Z(α/2) . Õx Z(α/2) es la puntuación típica correspondiente al nivel de significación que hemos
establecido
Intervalo confidencial I.C: serán los valores entre los cuales es más probable que se encuentre el verdadero
valor del parámetro. I.C. = X ± E.M.
A la desviación típica de la distribución muestral se la denomina error típico, es una medida de dispersión con
respecto al parámetro Õx = s/√N-1
El tamaño muestral es decisivo en la inferencia estadística, cuanto más grande N, más pequeño el cociente,
más pequeño el error típico y más precisión en la estimación del parámetro.
CORRELACIÓN DE PEARSON
Es un índice descriptivo que describe la magnitud de la relación entre 2 variables. Para inferir los resultados de
la muestra a la población se calcula el intervalo de confianza para la correlación de Pearson.
La distribución muestral de dicha correlación se asemeja a la distribución normal con el siguiente error típico:
o Para muestras grandes N>100 Õr=1/√N-1
o Para muestras pequeñas Õr=1-r2/√N-1
Significatividad estadística: se utiliza cuando nos referimos al significado de la diferencia entre dos medidas. Por
ejemplo un coeficiente de correlación es estadísticamente significativo cuando es distinto de cero.
Cuando estimamos el intervalo de confianza, en el cual podría encontrarse la verdadera correlación en la
población, si contiene el 0 (ausencia de relación) diremos que dicha correlación no es estadísticamente
significativa.
No es lo mismo significatividad estadística (correlación ≠0) que magnitud de las diferencias. La magnitud de la
correlación se juzga según los criterios para interpretar un coeficiente de correlación, puede ser baja o alta.
DIFERENCIA DE MEDIAS
INTERPRETACIÓN INTUITIVA
En el contraste de hipótesis todo se reduce al contraste de la hipótesis nula, que indica la no existencia de
diferencias estadísticamente significativas, o sea, que no hay efecto presente de la v.i. sobre la v.d.
Se establece una zona en la que es más probable que las diferencias entre medias se deba a los efectos del
azar: es la zona de aceptación o de no rechazo de la H 0. Y otra zona en la que las diferencias entre las
medias son de un tamaño tal que resultaría muy improbable que fueran aleatorias, por lo que se atribuye dicha
diferencia a la v.i.
H0 : µE - µC = 0 quiere decir que las diferencias entre las medias aritméticas de los grupos
experimental y control son estadísticamente igual a cero, es decir, que las diferencias se deben al azar y que
las dos muestras pertenecen a la misma población.
Desde el punto de vista pedagógico es importante la significatividad, pero lo es aún más el tamaño del efecto,
que se refiere a la relevancia práctica de los resultados. Los intervalos de confianza y el tamaño del efecto
proveen una lectura más práctica de los resultados. Por ello, en los informes de investigación actuales se
recomienda informar de las tres estimaciones: contraste de hipótesis, intervalos de confianza y tamaño del efecto.
TEMA 8
ESTADÍSTICA Y DISEÑO II: CONTRASTE DE HIPÓTESIS
LÓGICA DE LA PRUEBA DE SIGNIFICACIÓN DE LA HIPÓTESIS NULA (PSHN)
La H0 tiene dos propósitos básicos:
1. Sirve como punto de partida cuando no tenemos conocimiento o no hay razones para creer que existen
diferencias entre los grupos.
2. Es un punto de referencia para comparar los resultados obtenidos y deducir si las diferencias observadas
pueden ser atribuidas a algún factor distinto a la casualidad.
Una media muestral se puede usar para probar la hipótesis sobre un valor específico de una madia poblacional
desconocida a través del uso de la (PSHN). Pasos a seguir:
El primer paso es hacer una conjetura sobre un valore específico de un parámetro para una población.
Se selecciona una muestra aleatoria de la población
Se comparará la media observada con la media hipotetizada y se preguntará: ¿el resultado de la madia
observada es probable o improbable? Los valores cuya probabilidad de aparición es igual o menor que α
(0,05=que aparecen 5 veces o menos de cada 100 sucesos) cuando la H 0 es verdadera, son considerados
improbables.
Se evalúa la probabilidad asociada al valor empírico obtenido. La distancia entre la media observada y la
hipotetizada es llamada z o puntuación típica estandarizada z= X-µ/Õ. Con este resultado buscamos en la
tabla la puntuación en la distribución muestral. Así, nos preguntamos si z ¿puede considerarse probable o
improbable? ó ¿cuál es la probabilidad de obtener un valor como el obtenido si es cierta la H 0? Cuanto más
lejos esté el valor de M del valor hipotetizado, más grande será el valor de z y, en consecuencia, menor
será su probabilidad de aparición si H 0 es verdadera Se RECHAZA H0 si p (t, z, F…) ≤α
CONTRASTE DE HIPÓTESIS
Una vez formulada la hipótesis, se la debe validar. En el paradigma cualitativo se utiliza para ello la Estadística
mediante el contraste estadístico de hipótesis.
Pasos a seguir:
1. Selección de una muestra aleatoria, para lo que antes se debe definir con claridad la población
2. Formulación de las hipótesis estadísticas: a partir de la hipótesis sustantiva o textual se formula:
la hipótesis nula H0: en la que no hay efecto presente H 0: µexp- µcont=0 ó H0: µexp= µcont
la hipótesis alternativa H 1: es la hipótesis del investigador, podrá ser:
unilateral (de una cola), cuando se cree que con un método se obtendrán mejores resultados que con
otro
H0: µexp- µcont >0 ó H0: µexp> µcont si la diferencia esperada es positiva el contraste será unilateral derecho
y si es negativa será unilateral izquierda
bilateral (de dos colas), cuando se esperan diferencias pero no se sabe a favor de que grupo
H0: µexp- µcont ≠0 ó H0: µexp≠ µcont este contraste exige repartir la probabilidad de error entre las 2
colas.
3. Elección del valor de alfa α o nivel de significación: es el investigador el que establece este valor (0,05-
0,01)
4. Determinación de la distribución muestral y la región de rechazo: la distribución muestral tiene una desviación
típica que se denomina error típico. Así el estadístico de contraste nos indica cuántos errores típicos se desvía
nuestra diferencia de medias de una diferencia de medias igual a cero. Cuando este valor es tan grande que
su probabilidad de ocurrencia = ó < que α, entonces diremos que dicha diferencia no es aleatoria, sino que se
debe a otros factores distintos del azar. Se rechaza H 0 si p (t,z,F-estadístico) ≤ α.
Otros autores comparan el valor del estadístico empírico de contraste con el valor crítico del estadístico (valor
correspondiente a α), que para un contraste bilateral α/2=0,0251,96, por tanto si el estadístico empírico es
mayor que z=1,96 se rechaza la H0
5. Utilización del valor exacto de p: p nos informa si el estadístico de contraste es mayor o menor que α y
además de la probabilidad exacta de obtener un valor igual o superior al observado si la H 0 es verdadera. Ello
nos permite juzgar si hubiéramos podido rechazar H0 en caso de que se hubiera elegido un α más exigente
Pero en las investigaciones en educación no siempre es posible cumplir estos pasos. Para reducir estas
complicaciones en el ámbito de la educación se realizan diversas prácticas, como:
Replicación del estudio: otros investigadores repiten el mismo estudio con nuevas muestras, para llegar a la
misma decisión estadística, reduciendo así la posibilidad de error tipo I
Validación cruzada: se obtiene una submuestra de la muestra de estudio
Una diferencia estadísticamente significativa no significa que sea importante, sólo que existen diferencias en la
población de referencia, aunque en la práctica sea irrelevante. Por tanto la significación estadística no nos dice
gran cosa por sí sola, ni permite compara resultados entre investigaciones cuando varía la unidad métrica.
Por ello es que se utiliza como complemento el tamaño del efecto, siendo la d de Cohen el más utilizado. d
muestra el tamaño del efecto como una diferencia tipificada (z), nos indica cuantas desviaciones típicas se
aparta una media aritmética de la otra d= x1-x2 / scombinada
En Ciencias Sociales los valores sugeridos para interpretar d son:
d ≤ .20 efecto pequeño
d ≈ .50 efecto moderado
d ≥ .80 efecto grande
O puede interpretarse de un d=0.50 que la media mayor está media desviación típica por encima de la media
menor. O que el sujeto II supera al I en 19 percentiles, ya que a z=0,50 le corresponde un área de 0,1915
TEMA 9
LAS PRUEBAS PARAMÉTRICAS Y SU USO EN LOS DIFERENTES DISEÑOS. ANAVA Y T
Las pruebas estadísticas son modelos estadísticos de distribución de datos. En la medida en que unos datos empíricos sigan o se
acomoden a un modelo, es lógico poder aplicar las propiedades del modelo a los datos empíricos.
El tratamiento estadístico de los datos consiste en una serie de modelos teóricos (pruebas paramétricas y no paramétricas) que
permiten atribuir a los datos empíricos un determinado valor de probabilidad. Para elegirlo, a de tenerse en cuenta:
La formación de grupos (aleatorio o emparejamiento)
El tipo de diferencia entre los grupos
El número de v.i., los niveles, condiciones o tratamiento de cada una de ellas
Supuestos en los que se basan las Pruebas paramétricas: muy concretos y restrictivos, acerca de los valores de la
población o parámetros. Estos supuestos son:
La independencia en la selección. Aleatorización: selección del muestra al azar; asignación de los sujetos a los dos grupos al
azar y atribución del tratamiento a los grupos al azar
La normalidad de la distribución: las variables referidas a capacidades y rendimiento suelen seguirlo
La homogeneidad de las varianzas: las varianzas de los grupos deben ser estadísticamente iguales
Nivel o escala de medida, al menos de intervalo
Linealidad: (no es exigida para la prueba t, peri sí para la F)
Cuando alguno de estos supuestos no se cumple se debería recurrir a las pruebas no paramétricas que son menos exigentes. Aunque
hay autores que difieren de ello diciendo que “en la mayor parte de los casos de educación y psicología es más seguro y más eficaz,
usar pruebas paramétricas en vez de no paramétricas” (Kerlinger)
Paramétricas
Ventaja Inconveniente
*Mayor potencia para rechazar H0 falsas *Supuestos restrictivos, que limitan el uso de las
*Desarrollo estadístico superior, más complejo y más avanzado pruebas a su cumplimiento.
*En la estimación del parámetro se indica el margen de error, lo que supone mayor
precisión y riqueza
No paramétricas
Ventaja Inconveniente
*Cálculo más fácil *Menor potencia
*Menores supuestos, destaca su superior aplicabilidad con niveles de *Menor desarrollo estadístico
medida como el ordinal y nominal
*Adecuación a muestras pequeñas
La probabilidad conforme al azar a partir de la cual el investigador está dispuesto a pensar que ya no es éste el factor causante sino
que lo es el tratamiento experimental, se denomina nivel de significación α. Este nivel coincide con la probabilidad aceptada por el
investigador de tomar una decisión errónea (error tipo I), de rechazar H0 siendo verdadera y aceptar H1 siendo falsa, es decir
considerar que existen diferencias reales, atribuidas a la v.i cuando en realidad son explicables por el azar.
En esta prueba la variabilidad de las puntuaciones de los sujetos en la v.d. puede descomponerse en partes, juntas constituyen la
varianza total: S2t= s2E + s2D (varianza total = v. experimental + v. error)
1. Varianza experimental: parte que se debe al efecto de la v.i.
2. Varianza de error: una parte sustancial de está se conoce como diferencias individuales
Cálculo:
Varianza experimental o entre grupos:
Se compara los grupos. Se entiende que incluye ambas fuentes de variación, v.i. y diferencias individuales. Como los grupos se
forman al azar, la varianza entre grupos debe ser aproximadamente igual a la varianza dentro de los grupos antes de la aplicación
del tratamiento. El valor de F (cociente entre ambas varianzas) será 1 o próximo a 1.
Después del tratamiento, si la v.i. ha sido eficaz, uno de los grupos aumentará o disminuirá sus puntuaciones con respecto al otro,
por tanto, la varianza entre grupos habrá aumentado con respecto a la varianza dentro de los grupos. El valor de F se elevará en
proporción al efecto de v.i.
Varianza de error:
Se calcula sobre cada grupo por separado, variabilidad dentro de los grupos, que no se altera por los efectos de v.i. dado que todos
sus miembros han recibido el mismo tratamiento, por tanto la variabilidad se debe únicamente a factores aleatorios y errores de
medida. El valor de F será igual antes que después del tratamiento
¿Cúanto mayor debe ser la varianza entre grupos que la varianza dentro de los grupos para decidir que las diferencias son
significativas? Igual que en t: si F ≥ al valor crítico de las tablas, la probabilidad de que el hecho se deba al azar es demasiado
pequeña para considerar como algo razonable, por lo que se debe rechazar H0 y considerar H1. Si F es significativo se considera a
las dos varianzas de poblaciones diferentes, la que recibió el tratamiento y la que no, grupo experimental y de control
Cuadro resumen de F para muestras independientes: (F) 2,33 <7,82 (valor crítico) = no se rechaza H0, puesto que el resultado no
representa una diferencia significativa
Fuente de variación S.C. g.l. M.C. F
Entre grupos 66.76 1 66,76 2,33
Dentro de grupos 687,86 24 28,66
TOTAL 754,62 25
El enfoque estadístico consiste en no creer en los resultados empíricos, en considerarlos casuales, mientras no demuestren que no
lo son; la estrategia consiste en comparar los resultados obtenidos con los que podrían esperarse por azar.
Los diseños elegidos para constrastar las hipótesis pueden captar o no las diferencias reales. Por tanto, el investigador puede
intentar dos estrategias:
1. Procurar que los efectos de v.i. sean lo más fuertes posibles (maximizar la varianza experimental). Para conseguirlo se
puede utilizar valores de v.i. suficientemente diferentes o seleccionando valores óptimos,
2. Reducir el valor del denominador (minimización de la varianza de error cuanto sea posible). Una forma de reducirlo es
formar los grupos intencionalmente, con la técnica de bloqueo o emparejamiento
La formación de parejas permite identificar, y luego extraer, la variabilidad debida al emparejamiento, esto es, a la correlación;
como esa variabilidad no es sino una parte de la variabilidad total (varianza total) que no se altera, al igual que la variabilidad
producida por v.i., es la varianza de error la que queda reducida.
Así el emparejamiento reduce el v.error, ya que se puede explicar una parte de la misma como fruto del emparejamiento
(correlación)
Pero no todo son ventajas, la correlación implica pérdida de g.l., que lleva consigo la elevación de los valores críticos, por tanto los
valores empirícos de t y F deben ser más elevados que en la modalidad al azar si se desea rechazar H0.
Por tanto es necesario que el efecto de la correlación sea suficientemente elevado como para compensar los efectos negativos.
Cuando el índice de correlación es bajo (0,12) se puede considerar que la correlación no ha sido eficaz, y a la inversa, cuando el
índice es alto (0,97) se considera que la correlación ha sido eficaz
En muestras relacionadas tenemos dos F, una en que se compara la MC entre filas y la residual y otra en que el cociente se da entre
la MC entre columnas y el residual. Por tanto, tendremos dos valores teóricos para F con α=0,05
F
(0.95) (9y9) = 3,18 <58,24 = el emparejamiento es eficaz. Esto también lo indica el índice de correlación 0,97
F
(0.95) (1y9) = 5,12 <17,80 = la v.i. ha dado lugar a diferencias significativas.
Ante un emparejamiento casi perfecto (0,97) la disminución del término de error es sustancial y, consecuentemente, se produce una
notoria elevación del F empírico.
Las pruebas no paramétricas se utilizan cuando el estudio no cumple con los supuestos exigidos por las pruebas paramétricas.
Entre las muchas que hay, se verán:
Para dos grupos
Independientes: prueba U de Mann-Whitney y Ji-cuadrado X2
Relacionados: prueba de los signos y prueba T de Wilcoxon. Ambos para un nivel de medida ordinal
Las limitaciones de estas pruebas consisten en su menor potencial al compararla con una paramétrica. Para alcanzar la misma
potencia que éstas, cada caso requiere de un número de observaciones que deben ser recogidas cuando se va a aplicar una
prueba no paramétrica, a este concepto se lo denomina potencia-eficiencia.
JI-CUADRADO X2
Es una prueba apta para el nivel nominal, nivel que asigna a los sujetos a las categorías (nombres) en que se ha dividido el
conjunto, lo que permite calcular frecuencias, tantos por cientos o proporciones.
Los datos se recogen en tablas bidimensionales que permiten determinar o establecer asociaciones. El análisis y las pruebas
pueden ser aplicados a los números brutos que aparecen en las celdillas (frecuencias), pero cuando hay necesidad de comparar,
se traducen a valores como % o proporciones.
CÁLCULO E INTERPRETACIÓN
La resolución estadística de un diseño de 2 grupos mediante X2 pasa por las siguientes fases:
1. Recogida de datos y determinación de las fo para cada celdilla
2. Cálculo de las fe de acuerdo con la fórmula ff x fc/ftotal
3. Cálculo de X2 según la ecuación 10.2 (pág. 358). El valor de una discrepancia no es algo absoluto, sino que está en
relación con la magnitud en que se encuadra, por lo tanto el valor de X2 se hace relativo a la fe.
4. Comparación del X2 empírico con el teórico (el valor de las tablas) para el valor de α elegido y los g.l. correspondientes y
decisión sobre el rechazo o no de H0
5. Al interpretar los resultados ha de tenerse en cuenta que X2 sirve para contrastar hipótesis relativas a distribuciones de
frecuencias consideradas como una entidad total. Fox: “si hay otras hipótesis acerca de la posibilidad de que haya diferencias
en las proporciones en categorías concretas, hay que utilizar, después del método de X2 otros contrastes que sean adecuados
para analizar esas hipótesis…si X2 no revela diferencias estadísticamente significativas no se deben hacer más contrastes”
POTENCIA EFICIENCIA: es una prueba que no tiene alternativa cuando es obligada, pero Cochran indica que tiende a 1
cuando el valor de N es grande
PRUEBA DE U DE MANN-WHITNEY
Requiere una medición de nivel ordinal que permita establecer rangos de mayor a menor, o viceversa.
Es la prueba más potente dentro de las no paramétricas con sujetos independientes y es especialmente apta para contrastar
diferencias en posición o tendencia central.
Para muestras grandes los valores empíricos de U se contrastarán con la curva normal, para muestras pequeñas U tiene sus
propias tablas.
U indica las veces que una puntuación del grupo experimental precede, en una serie ordenada de menor a mayor, a una del
grupo de control, es decir, las veces que una puntuación teóricamente superior queda por debajo de otra teóricamente inferior.
Cuando U=0 significa que ninguna puntuación del grupo experimental precede a una del grupo de control
Cuando el grupo mayor tiene 9 o más sujetos se suele utilizar otro procedimiento en el que U se calcula a partir de la
transformación de Xi en rangos; el valor de U sigue siendo tanto más significativo cuanto menor sea.
Cómo se calcula:
Para muestras pequeñas: cuando el grupo mayor (n2) ≤ 9
Ejemplo: se ordenan y mezclan las puntuaciones obtenidas por dos grupos A y B. La puntuación 4 de A es precedida por una B;
la 5,7 de A por dos de B y sucesivamente…
X 3,5 4 5 5,7 7 8 9 10 11
Grupo B A B A B A B A B
RANG 1 2 3 4 5 6 7 8 9
O
U = 1+2+3+4=10
La decisión sobre si el valor empírico representa o no una diferencia significativa se lleva a cabo mediante las tablas de U, y
teniendo en cuenta el tipo de hipótesis, uni o bilateral. En el caso de las bilaterales, se multiplicará por dos el valor encontrado
en la tabla. Se rechaza H0 si valor de la tabla es ≤ α
Para muestras pequeñas (intermedia): muestras entre 9 y 20
a) Se ordenan las puntuaciones
b) Se transforman las puntuaciones en rangos, como si las puntuaciones de ambos grupos estuviera mezclada, 1º a la menor
y sigue, 2º, 3º. En el caso que se repita la misma puntuación (ligas), se saca la media de los rangos que le corresponderían
y esa media será el rango de la puntuación repetidas.
c) Se calcula U con la ecuación 10.4 y 10.5, o habiendo calculado una de estas dos, se utiliza la ecuación 10.6. En cada caso
hay dos valores de U, se utiliza el más pequeño, pues a él se refieren las tablas (valor de U empírico)
d) El valor empírico de U se compara con el valor teórico de las tablas. Se rechaza H0 si U empírico ≤ tabla, con un riesgo
de decisión errónea máximo igual a α.
POTENCIA-EFICIENCIA: alrededor del 95% y puede llegar al 95,5% cuando aumenta el valor de N.
Prueba para un nivel ordinal de medida, en su nivel más burdo. Es una prueba poco precisa ya que sirve para decir que algo es
mayor que algo, pero no describe diferencias dentro de cada uno de esos dos grandes bloques, el mayor y el menor. Se
contrastan los resultados de la v.d. de cada pareja y se asigna el signo + si el primer miembro de la pareja ha hecho más de
algo, lo haya hecho mejor o antes, y el signo - en caso contrario. No se tienen en cuenta los casos en que no se perciben
diferencias.
Exigencias: la continuidad de la variable, el nivel ordinal de medida y que los grupos sean correlacionados.
Cómo se calcula:
a) Se compara las puntuaciones de cada pareja y se le asigna el signo + ó – según la hipótesis formulada, cuando es
unilateral parece más adecuado dar el signo positivo al grupo que en tal H se prevé superior
b) Se determinan los valores de n (nº de parejas que han obtenido signo, de N se restan las que no presenten diferencia) y x
(nº de parejas con el signo menos frecuente)
c) Se compara el resultado con la distribución teórica:
Muestras pequeñas (n≤25): la asignación de probabilidad es directa a través de la tabla de probabilidades binomiales,
en la que el resultado es propio de hipótesis unilaterales, si la H fuera bilateral se multiplica x2 dicho valor. Se rechaza
H0 si la probabilidad del modelo teórico es ≥ α, con un riesgo de error igual a α.
Muestras grandes (n>25): la distribución tiende a la curva normal a partir de n=25, siendo la aproximación tanto más
correcta cuando se hace la corrección por continuidad. Esto es, reducir en el cálculo de z el numerador en 0,5 punto,
lo que se consigue sumando o restando al valor x±0,5, según que x sea menor o mayor que ½ n. Para el cálculo de z
en el modelo binomial se utiliza la ecuación 10.12 y se la compara con las tablas de la curva normal para el nivel de
confianza elegido por el investigador. Se rechaza H0 si zx ≥ valor teórico
Pareja 1ª 2ª 3ª 4ª 5ª 6ª 7ª 8ª 9ª
S M 4 3 4 3 2 4 2 5 2
e
F 4 2 5 2 2 3 3 5 1
x
o
Signo = + - + = + - = +
n= 6
x=2
POTENCIA-EFICIENCIA: con muestras pequeñas n=6 alcanza valores del 95%, y se reduce a 63% conforme aumenta n.
T DE WILCOXON
Prueba para un nivel ordinal de medida en su nivel más preciso y fino. En esta prueba, a las diferencias apreciadas en cada
pareja se les puede asignar rangos de mayor a menor, o viceversa.
El estadístico de esta prueba es T y se define como la menor suma de los rangos, + ó - , asignados a las diferencias entre las
puntuaciones de las parejas. Como las parejas son correlacionadas se espera que las diferencias de las puntuaciones se repartan
por igual entre los primeros y segundos miembros. Por tanto, la suma de los rangos positivos será la misma o tendrá un valor
muy próximo a la suma de los rangos negativos.
Esta prueba trata de decidir si el valor de T es significativo, si va más allá de las expectativas conforme al azar. Ese valor será
tanto más significativo cuanto menor sea.
Cómo se calcula:
a) Se establecen los valores de las diferencias entre las puntuaciones de los miembros de cada pareja y se atribuye el signo
de conformidad con la H. Las diferencias nulas no se toman en cuenta.
b) Se atribuyen los rangos, comenzando con el de menor valor absoluto con 1º, luego se asignan los signos a los rangos
c) Se calcula T o suma de los rangos de menor valor absoluto, sea cual fuere el signo
d) Se interpreta el valor empírico T
Muestras pequeñas n<25: se contrasta directamente el valor empírico de T con los valores críticos de la tabla, para el
tipo de H y α. Se rechaza H0 cuando el valor empírico T ≤ que la tabla
Muestras grandes n≥25: la distribución tiende a la normal, para lo que se calcula zT con las ecuaciones 10.13-10,14 y
10.15. Se rechaza H0 cuando zT ≥α
Pareja 1ª 2ª 3ª 4ª 5ª 6ª 7ª 8ª 9ª
Método A 90 70 65 83 64 97 54 63 68
Método B 86 75 61 74 59 82 79 63 62
Diferencia y signo +4 -5 +4 +9 +5 +15 -25 0 +6
RANGO +1,5 -2,5 +1,5 +6 +2,5 +7 -8 +5
T=10,5
TEMA 11
LAS PRUEBAS PARAMÉTRICAS EN DISEÑOS ESPECÍFICO
PRUEBA DE TUKEY
Cuando los niveles de la v.i. son más de dos se pueden resolver mediante ANAVA o prueba F, ya que la prueba t es para dos
grupos, y si se cumplen los supuestos para pruebas paramétricas.
Pero como F sólo indica que hay diferencias en general, conviene hacer pruebas a posteriori para ver entre qué pares de medias
se dan dichas diferencias. Para comparar grupos con el mismo número de miembros se puede utilizar la Prueba de Tukey =
media A – media B
√MCD/n
El resultado se compara con el valor q; este valor se compone del nº de grupos y de N-g que son los g.l., para el nivel de
significación que le corresponda. Tukey tiene una tabla especial. (pág. 595)
Ejemplo: con α de 0,01 0,99 q 3,78 g.l = x (para 3 grupos con N de 81)
Si el resultado de la prueba de Tukey es > que q, se interpreta que la diferencia es estadísticamente significativa.
ANÁLISIS DE COVARIANZA
Covariables: variables que covarían con la dependiente, con la que mantienen correlaciones significativas.
El análisis de covarianza nos aporta la posibilidad de contrastar si las diferencias finales van más allá del azar, ajustándolas a
las posibles diferencia iniciales no controladas. Es necesario contar con una covariable, debe tratarse de una variable que
correlaciones con la v.d., algo que se podría constatar aplicando el coeficiente de correlación adecuado.
Aquí los grupos a comparar son la v.d. y la covarianza, a los que se los puede denominar X e Y. Se deben calcular las SC, las
MC y las F tanto para el total como entre grupos y dentro de los grupos, para la variable X (v.d.), variable Y (covarianza) y
para su producto (XY). Si se tratara de un ANAVA simple solo se calcularía para Y.
Con estos datos se calculan las SC y MC ajustados con las ecuación 11.1. y el resultado que se obtiene (F) se lo compara con la
tabla, según los g.l. y el nivel de significación.
Si las diferencias encontradas resulten significativas, y se quiere saber si también lo son para, por ejemplo, el grupo A y B, se
realiza un contraste específico. Para lo que se deben calcular las medias ajustadas de los grupos A y B, lo que exige el cálculo
del coeficiente de regresión dentro de los grupos para la ecuación 11.2. Y por último se calcula F, se lo compara con la tabla y
se decide sobre si la diferencia es significativa o no.
CUADRO LATINO
Este diseño trabaja con bloques, que se constituyen con sujetos tan homogéneos como sea posible en variables que, de no ser
controladas, bien podrían actuar como extrañas. Por tanto, estas variables no son tomadas como independientes, lo que importa
es poder controlar su posible efecto sobre la v.d. En el ejemplo, grado de extraversión y edad.
Los sujetos de los diferentes grupos pasarán por los distintos niveles de la variable tratamiento (v.i.) para equilibrar su efecto.
En el ejemplo, sistemas de disciplina M, N y O
Grado de Edad
extraversión 1 2 3
A M N O
B N O M
C O M N
Cuando hay más de un sujeto por celdilla, puede aparecer en la resolución estadística, una nueva fuente de variación, conocida
como residual entre celdas. Ya que en cada celda confluyen el cruce de dos niveles de las variables de bloqueo (edad y grado
de extraversión) con los datos del correspondiente nivel de la v.i. (M,N,O).
Por lo tanto, si la interacción fuera estadísticamente significativa, no se podría esclarecer si los resultados en la v.d. se deben a
la v.i. o dicha interacción. Es por ello que en este diseño se calcula la F residual entre celdas.
Fuente de variación S.C. g.l. M.C. F
Entre celdas 52,85 8 6,61
-Tratamiento v.i. 1,38 2 6,69 3,07
-Filas 13,92 2 6,96
-Columnas 6,18 2 3,9
-Residual entre celdas 19,37 2 9,69 4,44
Error (dentro celdas) 78,4 36 2,18
TOTAL 131,25 44
Si F tratamiento fuera estadísticamente significativo, y F residual también lo fuera, sería imposible hacer inferencias correctas
sobre la v.d., ya que no se podría separa lo que es efecto de la v.i. y lo que lo es de las interacciones.
A tener en cuenta:
Cuanto más elevado es el nivel de confianza estadística, o sea, cuanto menor es el valor de significación α, más difícil
resulta rechazar H0.
Si se trabaja con un bajo nivel de confianza, se debe analizar si los datos permiten atribuir los resultados a la v.i. o a su
interacción con las variables de bloqueo. Por ello se analiza la significación estadística residual entre celdas.
DISEÑO FACTORIAL
Este diseño, estudia dos o más v.i., denominadas factores, que actúan a la vez sobre una v.d., por tanto, ofrecen la posibilidad
de descubrir la existencia de interacción entre las variables.
Esto es importante, porque con frecuencia, la influencia de los niveles de una v.i. no siempre es uniforme, ocurre en ocasiones
que el influjo mayor se da por medio de una combinación de los efectos de un factor con los de otro. Por ejemplo, un método
de aprendizaje es más eficaz en un sistema de recompensa que en otro.
Si se analiza la modalidad de trabajo por un lado y los sistemas de recompensa por otro, nos encontramos con efectos simples,
que se pueden analizar con ANAVA simple, para un solo factor. Pero el diseño factorial analiza los efectos secundarios o de
interacción entre ambas v.i.
No habrá interacción cuando la diferencia entre los efectos simples de un factor no sea significativa en términos estadísticos, es
decir, pueda explicarse como consecuencia del azar. Sí habrá interacción si tal diferencia va más allá, indicando en ese caso
que una determinada combinación de niveles de ambos factores ofrece mejores resultados que otra u otras. En el caso de no
interacción el efecto de un factor da resultados superiores, o inferiores, con cualquiera de los niveles del otro factor.
Para calcular el efecto de la interacción se acude a la diferencia entre las sumas de los promedio de las diagonales. En el
ejemplo: (6+5)-(4+8)=11-12=1
Al igual que en ANAVA simple, F indica si existen diferencias estadísticamente significativas, pero para localizar entre que
pares de medias se dan tales diferencias, es preciso proceder a contrastes específicos a posteriori, como lo son las pruebas de:
Tukey: para n iguales. Se contrasta el valor empírico con el valor teórico de la tabla de q, para el valor de α
seleccionado, con g y (N-gAgB) g.l. Para la obtención del estadístico empírico la ecuación es:
Si se compara los niveles 1 y 2 del factor A, la diferencia será estadísticamente significativa si el resultado de la prueba de
Tukey es > gA y (N-gAgB) q 0,01
Scheffé: es más general, para n desiguales. Se contrasta el valor empírico con el valor teórico de F, para el valor de α
seleccionado, con (g-1) y [N-(N-gAgB] g.l. Para la obtención del estadístico empírico la ecuación es:
Si se comparan los niveles 1 y 2 del factor A, la diferencia será estadísticamente significativa si este cociente es >√ (gA-1)F, donde
F tiene (gA-1) y N-gAgB g.l.
Cuando el investigador estar interesado a priori por determinados contrastes y no por otros, se habla de comparaciones
planeadas
TEMA 12
PROCESO DE LA INVESTIGACIÓN CUALITATIVA
Lo que plantea la investigación cualitativa es que observadores competentes y cualificados pueden informar con objetividad,
claridad y precisión acerca de sus propias observaciones de mundo social, así como de las experiencias de los demás.
La metodología cualitativa no trata de estudiar cualidades que aparecen separadas independientes unas de otras, sino de aplicar el
análisis a un todo integrado que forma o constituye una unidad: una persona, una entidad social…También se podría estudiar una
cualidad específica, pero siempre teniendo en cuenta los nexos y relaciones que tiene con el todo, los cuales contribuyen a darle su
significación propia.
Lo cualitativo no se opone a lo cuantitativo, sino que lo integra, sirviéndose de la cuantificación para dotar de sentido y facilitar la
interpretación de las cualidades, en su afán por interpretar los hechos.
La principal característica de la investigación cualitativa, es que busca interpretar o valorar los acontecimientos, las acciones, los
hechos, desde la perspectiva que tienen los sujetos que las protagonizan. Sustentada en un planteamiento subjetivo del
conocimiento, pretende una comprensión del fenómeno social, confiriendo importancia y valor científico a lo personal, buscando
en lo particular una descripción o una comprensión de los hechos objeto de estudio. Pero como la realidad tiene un carácter
dinámico, ya que depende de quien la construya, se deben valorar la multiplicidad de visiones.
Por ello, es importante aceptar esa necesidad que se tiene de interpretar qué es lo que está pasando en términos de un entendimiento
de la sociedad como un todo y del significado que tienen los hechos para los participantes. Sólo podemos entender los
acontecimientos si son situados en un contexto social amplio. Lo que nos permite abordar una estrategia de investigación abierta y
no estructurada, evitando la formulación de teorías.
Limitaciones:
1. La influencia del investigador en los resultados de la investigación, para evitarlo, no se debe aportar información sobre los
propósitos de la investigación
2. Las dificultades para generalizar
EL PROCESO
Sigue las mismas fases que las cuantitativas, se define el problema, se diseña el proceso de trabajo, se recogen los datos, se los
analiza y valida y se realiza el informe; aunque con matices diferenciadores en cada etapa:
1. Propuesta inicial de partida: que termina con un documento escrito el Proyecto de investigación
Marco teórico: fase reflexiva, se fundamenta la idea inicia con fuentes documentales, que será el eje de todo el trabajo.
Conocer distintas perspectivas, experiencias y opiniones, va a enriquecer el punto de vista que se tenga acerca del problema. Se
comienza seleccionando una serie de preguntas relevantes para la investigación, que no serán definitivas, podrán ser
reformuladas a medida que avanza el trabajo.
Diseño: marca las pautas de actuación futura del investigador, que estarán abiertas, para ir delimitándose durante el
proceso. El método de trabajo a seguir, queda supeditado a la intención de la investigación (los interrogantes generados por el
marco teórico), pero igualmente se deben contemplar al menos:
Hipótesis directivas u objetivos del estudio
El escenario social
Los recursos necesarios y disponibles para trabajar
Se debe contar con todas las garantías posibles sobre la eficacia de la propuesta, y esto lo aporta el desarrollar una buena
triangulación metodológica.
Selección de técnicas:
La observación
La entrevista, basada en un cuestionario (preguntar)
Técnicas narrativas y documentales, que implican todo el tratamiento de datos informativos (leer)
Proceso de recogida de datos: el diseño de esta fase implica una descripción bien detallada del modo en que se recogerán
los datos, el personal implicado y sus oportunas instrucciones y normas, tiempos y espacios concretos, momentos en que se
lleve a efecto y los instrumentos y recursos a emplear. La meticulosidad garantiza mayor riqueza y efectividad de los datos
obtenidos, que deben ser suficientes y adecuados.
Es también muy importante la salida del investigador del campo de estudio, una vez obtenidos los datos, es necesario que se retire
para evitar que su implicación contamine la sensibilidad de los datos, pudiendo llegar a convertirse en un nativo.
3. Análisis e interpretación de datos cualitativos: que termina con una Tabla de datos debidamente interpretada
Conviene proceder a realizar el análisis interpretativo de los datos, cuando éstos aún se están recogiendo, para poder reelaborar la
interpretación
Análisis: el investigador tendrá que descifrar el mensaje de los datos, partiendo de la base de que no existe un
procedimiento general válido para todo tipo de análisis cualitativo.
La investigación no concluye con el informe, conviene ofrecer una vía de desarrollo futuro que permita dar continuidad al
conocimiento obtenido, y marcar las pautas de retroalimentación que ofrezcan nuevas reformulaciones con las que completar y
enriquecer el estudio de los hechos educativos abordados.
Actualmente se acepta ya la consideración de que las técnicas cualitativas pueden aportar una contribución válida a la producción y
al análisis de evidencia empírica, facilitando la generación y el contraste de hipótesis.
Se mencionan algunas metodologías que conforman un recurso de gran interés para la escuela:
La investigación etnográfica: aporta datos valiosos, de naturaleza descriptiva, sobre los contextos, las actividades y las
creencias que presentan los sujetos que protagonizan el escenario educativo.
El estudio de casos: facilita el estudio en profundidad de determinados fenómenos educativos, ofreciendo soluciones a
problemas planteados a partir de la discusión y el análisis de un caso particular, en una situación real.
El grupo de discusión: permite evidenciar dimensiones cognitivas y sociales propias de sus grupos sociales de referencia.
Es por ello que este método facilita la reconstrucción del sentido social en el seno de una situación grupal discursiva.
La investigación-acción: se investiga desde la propia experiencia, de forma que repercuta luego en la calidad del
aprendizaje y en la propia enseñanza. Precisa de un constante procedimiento de retroalimentación
La investigación evaluativa: investigación aplicada, centrada en la práctica, que a través de un proceso selectivo de
recogida de información, facilita la toma de decisiones de mejor. Su objetivo es medir la eficacia de los programas, aportando
propuestas para el enriquecimiento y la mejora.
TEMA 13
MÉTODOS Y TÉCNICA PARA LA RECOGIDA DE DATOS CUALITATIVOS
La utilidad y la validez de la información se sustentan en el procedimiento que siga su obtención, y no en la categorización de los
datos.
De un modo general, se considera que las técnicas cualitativas:
Se centran en el sujeto, por lo que el investigador interacciona de forma directa con él
Se obtienen los datos empíricos mediante la comunicación y el lenguaje
Su interpretación establece una relación directa con el ser humano y su entorno
Requieren datos referidos a creencias, opiniones, percepciones y preferencias de los sujetos
Exigen del investigador una postura neutral
Focalizan la atención en rasgos específicos, más que en aspectos normativos
Explican la realidad con un sentido multidimensional, completo
LA OBSERVACIÓN PARTICIPANTE
Una técnica que le permite al observador conocer in situ la realidad que estudia, de un modo participativo
Proceso de desarrollo:
a) Selección de un problema: partiendo de una realidad más amplia conocida como foco o propósito de estudio, luego se acota
como consecuencia de reflexiones, experiencias, lecturas…
b)Diseño o plan de investigación: flexible, para poder incorporar las modificaciones que sean precisas en función del
desarrollo que vaya tomando el trabajo de campo
c) Selección y acceso al escenario: deben ser escenarios en los que el observador tenga fácil acceso y donde pueda establecer
una buena relación con los informantes.
d)Selección de los informantes: se utilizan criterios etnográficos, donde el grado de conocimiento de la cultura propia del
escenario se considera el elemento fundamental.
e) Negociación de roles: se deben establecer con claridad los roles de observador y observados
f) Actuar de forma pausada y prudente: porque es importante ganarse la confianza del personal antes de proceder a la recogida
de datos
g)Recogida de información: para distinguir la info correcta de la que no lo es, el investigador tiene que realizar un contraste de
la misma, mediante procedimientos de comparación y de triangulación
h)Registro de información: Pérez Juste recomienda:
Registro de las notas de campo detallado y amplio
Las notas deben referirse a las personas, circunstancias, sentimientos, escenario, secuencia, duración…
Se deben diferenciar las notas descriptivas de los comentarios del observador
i) Elaboración y análisis de la información: es la fase más técnica del proceso, que busca llegar el informe final
j) Redacción del informe final: donde se describe el problema planteado y se detalla el proceso seguido
LA ENTREVISTA
Es una técnica de interacción directa con los sujetos a investigar. Su modalidad en profundidad, la distingue de otro tipo de
entrevistas utilizadas en la investigación cuantitativa. Se caracteriza por su flexibilidad, tanto en las preguntas como en las
respuestas. La única norma de referencia es alcanzar el objetivo del trabajo, de conseguir la comprensión de las posiciones y
perspectivas que tiene el sujeto en el tema objeto de estudio.
Se trabaja con textos, orales o escritos, que registran las opiniones, sentimientos, valoraciones y apreciaciones, que los sujetos
tienen de la realidad que se pretende estudiar.
Estos documentos se generan independientemente de la acción del investigador, por lo que la información es no reactiva, es decir,
no se ve afectada por la interacción del investigador y por tanto, no sufre efectos de distorsión. Es un contenido cerrado, por tanto,
el investigador ha de trabajar con lo que hay, sea suficiente o no
Procedimiento de expansión y contrastación de hipótesis y/o teorías: su objetivo es hacer evolucionar formulaciones
teóricas incipientes (que comienzan). Para ello, se la teoría, generalizándola o matizándola. Pasos a seguir: se seleccionan
casos negativos o discrepantes, ya que representan la excepción y por tanto, facilita la delimitación del objeto de estudio.
Procedimiento analíticos manipulativos: el análisis opera sobre textos, que es la fuente principal de los datos. El
investigador debe saber interpretarlo y dotarlo de sentido, ya que cada persona, lugar o grupo presenta una forma diferente de
expresión e incluso de organización del lenguaje. Así, la interpretación que se haga de esos datos, vendrá determinada por los
objetivos que orientan la investigación, que pueden ser:
El análisis de datos, en la investigación cualitativa, tiene una presencia continua a lo largo de todo el proceso, y en su
aplicación, se van dividiendo y segmentando sucesivamente en unidades significativas, de acuerdo con los objetivos
establecidos.
Pérez Juste concreta el proceso en tres tareas, con sus respectivas actividades:
1. Reducción de datos:
Separación de unidades: que se realiza en base a unidades relevantes, que mantienen conexión con un objetivo más
global
Identificación y clasificación: se categorizan de acuerdo a un sistema organizado
Agrupamiento: en cada categoría
2. Disposición de datos:
Transformación simbólica: una vez agrupada y reducida, la info debe ser presentada de modo que resulte manejable y
comprensible. Esto se consigue mediante el uso de tablas o de representaciones gráficas
APORTACIONES DE LA INFORMÁTICA
Debido a la gran cantidad de información que se maneja en la investigación cualitativa, son de gran ayuda los tratamientos
informáticos de datos, que facilitan la larga tarea de reducirlos. A saber:
AQUAD: ideal para las fases de reducción, presentación y extracción de conclusiones (Alemania)
NUD.IST: sirva para segmentar y organizar los datos, asignar categorías, establecer relaciones entre ellos, realizar
búsquedas textuales específicas y construir matrices y tablas de frecuencias (Australia)
QSR NVIVO: es un producto asociado de actualización opcional del NUD.IST
WIN MAX: codifica y recupera, utiliza procedimientos cuantitativos y cualitativos de forma combinada
MAXQDA: versión modera de WinMAX, que optimiza el análisis cualitativo de texto
ATLAS.TI: potente software para el análisis visual de datos cualitativos de textos, gráficos, audio y video. Ayuda a
descubrir los fenómenos complejos que se encuentran ocultos en los datos cualitativos
ETHNOGRAPH: creado para el análisis descriptivo-interpretativo de textos. Secuencia: recopila datos, codificación,
memos y análisis
DECISION: permite, a partir de la captura de fragmentos de los textos, explorar su contenido y obtener nueva
información, generando un mapa conceptual a partir de ellos (Inglaterra)