Está en la página 1de 139

EXAMEN DE GRADO 2015

Manual de competencias 3

1
Competencia 33: Epistemología – Investigación II Paradigmas que están a la base de la
metodología cualitativa y cuantitativa
Metodología Cuantitativa

Positivismo clásico: Comte, Descartes, Locke, Hume, Kant


Positivismo lógico: Carnap
Postpositivismo: Popper, Kuhn, Feyerabend

Metodología Cualitativa

Paradigma postpositivista (Teoría fundamentada, por ejemplo).


Revisar EgonGuba.
Paradigma Constructivista.

En cuanto a la clasificación de los paradigmas se observa que existen dos fuerzas bien definidas:
el positivista y el interpretativo, definidos por el carácter de su ontología, epistemología, y
metodología. Sin embargo, a partir de la teoría crítica de Habermas, se desarrolló el llamado
paradigma sociocrítico, cuyos puntos de contacto con el interpretativo hacen que muchos
autores lo consideren unido a este. Es por ello que para el presente manual, se considerará tanto
el paradigma interpretativo, como el sociocrítico dentro de la metodología cualitativa.

Metodología Cuantitativa

Paradigma positivista

También llamado hipotético-deductivo, cuantitativo, empírico-analista o racionalista, surgió en


el siglo XVII y tiene como fundamento filosófico el positivismo. Fue desarrollado para estudiar
los fenómenos en el campo de las ciencias naturales, pero después también fue utilizado para
investigar en el campo de las ciencias sociales.

La investigación positivista asume la existencia de una sola realidad; partiendo de supuestos


tales como que el mundo tiene existencia propia, independiente de quien lo estudia y que está
regido por leyes, las cuales permiten explicar, predecir y controlar los fenómenos. En
consecuencia, la finalidad de las ciencias está dirigida a descubrir esas leyes, desarrollando
generalizaciones teóricas que contribuyen al enriquecimiento de un conocimiento de carácter
universal. Este carácter también es denominado como “nomotético”, por oposición a lo
“ideográfico”, que estudiaría los fenómenos en su singularidad.

Para el paradigma positivista, el estudio del conocimiento existente en un momento dado


conduce a la formulación de nuevas hipótesis, en las cuales se relacionan variables, cuya
medición cuantitativa, permitirá confirmarlas o refutarlas en el proceso de investigación. Se
busca una relación causa-efecto, donde los investigadores han de mantener una actitud neutral
frente a los fenómenos. El experimento y la observación son considerados los métodos
fundamentales del conocimiento científico, los resultados objetivos y cuantificados obtenidos
experimentalmente determinarán la validez de la predicción inicial.

Para lograr la fiabilidad de los resultados se necesita delimitar con criterios estadísticos una
muestra representativa de cada población. Solo así los resultados podrán ser considerados con
validez universal, aplicables a cualquier contexto o situación.

En síntesis, las características de la investigación positivista serían:


1. Monismo metodológico
2. El modelo de las ciencias naturales exactas

2
3. La explicación causal
4. El interés dominador del conocimiento positivista (control y dominio de la realidad)

Positivismo clásico
Se sabe que el estudio riguroso del conocimiento, desde la perspectiva filosófica, comenzó con
el positivismo lógico, cuyos representantes se agruparon en el Círculo de Viena (1929),
sosteniendo que el conocimiento que amerita ser estudiado desde el punto de vista
epistemológico era específicamente el conocimiento científico, y no cualquier otro tipo de
conocimiento.

En ese sentido, los positivistas lógicos distinguieron dos niveles de análisis sobre el
conocimiento, que fueron: el contexto de descubrimiento y el contexto de justificación. El
primero se refiere al estudio del acto de concebir o inventar una idea, o teoría nueva; o sea, trata
de los procesos reales del pensar relacionados con la psicologíadel conocimiento. Mientras que
el contexto de justificación trata de la validación lógica de una hipótesis o teoría científica ya
estatuida, con el fin de aceptarla o rechazarla.

Augusto Comte

Según Comte (1798-1857) sólo existe un conocimiento propio de las ciencias, no un


conocimiento filosófico, siendo la filosofía solamente una reflexión o teoría acerca de la ciencia.
Comte defendía la idea de que el cambio social solo podía surgir a partir del conocimiento.

Así, realiza un análisis de la historia del conocimiento, estableciendo tres estadios o etapas en el
desarrollo de este, distinguiendo el conocimiento positivo como aquel que proviene de la
observación y de la experimentación. Estos estadios son:

1.- Estado Teológico: En la que el hombre hace depender los fenómenos naturales de la
voluntad de poderes superiores (p.e. fetichismo, politeísmo, monoteísmo).
2.- Estado Metafísico: Consiste en una forma algo más crítica, que sustituye las creencias del
primer tiempo por entidades abstractas (fuerzas, esencias y la naturaleza).
3.- Estado Positivo: Es el definitivo. En él, la imaginación queda subordinada a la observación.
La mente humana se atiene a las cosas. El positivismo busca sólo hechos y sus leyes. No causas
ni principios de las esencias o sustancias. Los significados son sinónimo de lo real, útil, certero
y relativo, al contrario de lo negativo.

René Descartes (racionalismo)


Descartes (1897-1910), profundo cultivador de la matemática, quedó impresionado por el
contraste que se daba entre esta ciencia y la filosofía: el campo filosófico era discorde,
desunido, controvertido e incierto; en la matemática, en cambio, no había discordia alguna, sino
certeza y unanimidad plena. Por ello, Descartes desea reconstruir todo el saber según un método
análogo al de las matemáticas, con una especie de "matemática universal", con un método
deductivo, y que considera la extensión como el verdadero ser de la sustancia corpórea que
llamamos "mundo". Deseaba que la ciencia se convirtiera en una matemática universal. El
objetivo de Descartes no es “injertar o superinducir”, sino comenzar de nuevo, para comenzar
señaló “fue necesario descreer todo lo que pensé que conocía hasta el momento”. Así entonces
el punto de partida del método científico fue un sano escepticismo según Descartes. Encuentra
claridad en las operaciones de la mente pura, y el método que propone para adquirir
conocimientos es la geometría, donde el primer paso es el enunciado del problema, que será
oscuro y confuso. El segundo paso es dividir el problema en sus unidades más simples, sus
partes componente. De esta forma uno puede rearmar la estructura total de una manera lógica y
ya no nos es oscuro y confuso.

John Locke (empirismo)

3
Locke combate con toda decisión la teoría de las ideas innatas. La mente es un papel en blanco
(o tabula rasa) que la experiencia cubre poco a poco con los trazos de su escritura. Distingue
entre una experiencia externa (sensación) y una experiencia interna (reflexión). El pensamiento
no agrega un nuevo elemento sino que se limita a unir unos con otros los datos de la
experiencia. Locke infringe el principio empirista admitiendo verdades a priori.

David Hume (empirismo)


El empirismo de Locke fue desarrollado por Hume, quien divide las “ideas” (percepciones) de
Locke en impresiones e ideas. Por impresiones entiende las vivas sensaciones que tenemos
cuando vemos, oímos, tocamos, etc. Hay impresiones de la sensación y de la reflexión. Hume
sienta este principio “todas las ideas proceden de las impresiones y nos son nada más que copias
de las impresiones. Dicho de otra manera, todos nuestros conceptos han de poder reducirse a
algo intuitivamente dado. Hume reconoce en la esfera matemática un conocimiento
independiente de la experiencia y por ende universalmente válido.

Immanuel Kant
Sabemos que la gran revolución en la epistemología la hizo Kant al considerar que en el
desarrollo del conocimiento intervienen tanto el objeto que hay que conocer como también el
sujeto que conoce. Los empiristas ingleses consideraban el conocimiento proveniente de las
sensaciones; en Kant el conocimiento significa formas puras de la sensibilidad y formas puras
del entendimiento, en donde relaciona racionalismo y empirismo. Las sensaciones ya no forman
parte del conocimiento desde Kant. Kant señaló que había límites para el conocimiento y que
esos límites era encuadrarlo dentro de la experiencia, en consecuencia no había nada para el
conocimiento humano fuera del fenómeno y el mundo fenomenal contiene en sí lo
verdaderamente real.

Positivismo lógico
El positivismo lógico se consolida como escuela independiente con el Círculo de Viena y
el Círculo de Berlín por los años 1920-30. Su objetivo fundamental es establecer los
fundamentos del conocimiento científico mediante la obtención de un lenguaje lógico o ideal
unificado. Se acentúa el rechazo de la metafísica y de cualquier otro conocimiento que pretenda
superar los datos de la ciencia. La filosofía consistirá en una lógica del conocimiento científico.

Carnap
Propone una filosofía “científica”, basada en hechos, afirman las ciencias experimentales y
niegan la metafísica, que no es ciencia y carece de interés. La filosofía ha de limitarse al análisis
de los métodos y resultados de las ciencias. En otras palabras, el positivismo lógico postula un
empirismo antimetafísico tendente al análisis lógico y lingüístico de las proposiciones del
lenguaje común y científico.

Lo esencial del positivismo lógico se resume en:


1. No hay más que dos clases de proposiciones que tengan significado: las analíticas (propias de
las matemáticas y la lógica) y las sintéticas (propias de las ciencias naturales). El resto de
proposiciones carece de significado cognoscitivo.
2. Del primer punto se deriva que las proposiciones filosóficas (sobre todo las referentes a la
metafísica) carecen de sentido. Crítica a la metafísica.
3. La "verificación" como criterio de demarcación entre lo que es ciencia y lo que no lo es.
4. El deseo de unificación de la ciencia mediante la utilización de un único método (la
inducción) y un único lenguaje (el lenguaje observacional).

De esta manera, el papel de la filosofía queda reducido a filosofía de la ciencia.Carnap introdujo


algunas modificaciones a los principios positivistas de la verificabilidad y del reduccionismo,
para hacer frente a ciertas críticas de Popper y para acercar más su sistema al verdadero carácter
de la práctica de la ciencia. En relación con la verificabilidad, Carnap aceptó la crítica de
Popper, de que las hipótesis científicas nunca pueden verificarse completamente por medio de la

4
observación, y la cambió por el principio de la confirmación.De acuerdo con este principio, las
hipótesis pueden ser más o menos confirmadas, o desconfirmadas, por los datos
observacionales. Pero además, Carnap distinguió entre la confirmabilidad, y la noción más
fuerte de "experimentalidad". Una proposición es confirmable si existen registros de
observaciones que la confirmen o desconfirmen, y una proposición confirmable es también
experimentable cuando podemos definir y realizar a voluntad experimentos que conduzcan a su
confirmación. De lo anterior se desprende que una proposición dada puede ser confirmable sin
ser experimentable (como cuando sabemos que la observación de un grupo de eventos la
confirmaría pero no es posible realizar los experimentos pertinentes), mientras que todas las
proposiciones experimentables también son confirmables.

Postpositivismo:
A medida que el positivismo lógico va alcanzando madurez, surgen algunas revisiones,
encabezadas por Karl Popper (1902-1994), que pretenden sentar las bases de una renovación de
la filosofía y la historia de la ciencia. Tres representantes de esta nueva filosofía de la ciencia
son Kuhn, Lakatos y Feyerabend.

Orientación postpositivista: se ha consolidado la convicción de que la observación empírica, la


misma percepción de la realidad, no es una fotografía objetiva, sino que depende de la teoría. Es
decir, incluso el simple registro de la realidad depende de la ventana mental del investigador, de
condicionamientos sociales y culturales. En otras palabras, partiendo de que la realidad existe
independientemente de la actividad cognoscitiva y de la capacidad perceptiva del hombre, el
acto de conocer está condicionado por las circunstancias sociales y por el marco teórico en
las que se colocan.

Thomas Kuhn
Según Kuhn, el paso de una visión teórica a otra es tan global y tiene consecuencias tan
radicales sobre la disciplina implicada, que no duda en utilizar el término «revolución» y
habla precisamente de «revolución científica», en donde se produce un cambio de los
problemas que se proponen a la investigación científica, y también un cambio de los
criterios con los que la profesión establecía lo que debía ser considerado como un problema
admisible o como una solución legítima del mismo. Se realiza una reorientación de la disciplina
que consiste «en la transformación de la estructura conceptual a través de la cual los científicos
miran el mundo». Esta estructura conceptual es aquella a la que Kuhn llama paradigma y es este
aspecto de su teorización, más que el análisis del proceso de desarrollo de la ciencia, el que nos
interesa en este contexto.

¿Qué entiende Kuhn por paradigma? Con este término designa una perspectiva teórica:
a) Compartida y reconocida por la comunidad de científicos de una determinada disciplina.
b) Fundada sobre adquisiciones que preceden a la disciplina misma.
c) Que actúa dirigiendo la investigación en términos tanto de:
c1) identificación y elección de los hechos relevantes a estudiar
c2) formulación de hipótesis entre las que situar la explicación del fenómeno
observado
c3) preparación de las técnicas de investigación empíricas necesarias.

Sin un paradigma una ciencia no tendría orientaciones y criterios de elección: todos los
problemas, todos los métodos, todas las técnicas son igualmente legítimos.
De acuerdo con Kuhn, la ciencia es caracterizada de acuerdo a las fases de desarrollo en que se
encuentren, y la vigencia de un paradigma en una ciencia determinada será condición de
normalidad para ella y señal de madurez disciplinar al mismo tiempo. Así, se distinguen dos
estados de ciencia:
1.- Preparadigmático: existe una pluralidad de teorías y metodologías.
2.- Paradigmático: presencia homogénea de un paradigma orientador del pensar y del actuar
científico.

5
Por último, una teoría se convertirá en paradigma cuando en la resolución de un problema es
exitosa tomando una ventaja instrumental sobre sus competidoras.

Karl Popper
El falsacionismo, refutacionismo o principio de falsabilidad es una corriente epistemológica
fundada por el filósofo austriaco Karl Popper(1902-1994).
El paradigma postpositivista de Popper mantiene el rigor de la lógica deductiva por medio de su
falsacionismo, pero debilita el realismo por medio de su racionalismo crítico.
Para Popper, contrastar una teoría significa intentar refutarla mediante un contraejemplo. Si no
es posible refutarla, dicha teoría queda corroborada, pudiendo ser aceptada provisionalmente,
pero nunca verificada (nunca tendrá pretensión de verdad).
El problema de la inducción nace del hecho de que no se puede afirmar algo universal a partir
de los datos particulares que ofrece la experiencia. Por muchos millones de cuervos negros que
se vean, no será posible afirmar que «todos los cuervos son negros». En cambio, basta encontrar
un solo cuervo que no sea negro para poder afirmar: «No todos los cuervos son negros». Por esa
razón Popper introduce el falsacionismo como criterio de demarcación científica. Su tesis
central es que no puede haber enunciados científicos últimos, es decir, enunciados que no
puedan ser contrastados o refutados a partir de la experiencia. La experiencia sigue siendo el
método distintivo que caracteriza a la ciencia empírica y la distingue de otros sistemas teóricos.

Para Popper ni existen puntos de partida incuestionables ni la racionalidad científica los


requiere. El asunto de la verdad es, pues, cuestión del método de buscarla y del método de
reconocer la falsedad. Aunque la ciencia es inductiva en primera instancia, el aspecto más
importante es la parte deductiva. La ciencia se caracteriza por ser racional, y la racionalidad
reside en el proceso por el cual sometemos a crítica y reemplazamos, o no, nuestras creencias.

Popper propone un método científico de conjetura por el cual se deducen las consecuencias
observables y se ponen a prueba. Si falla la consecuencia, la hipótesis queda refutada y debe
entonces rechazarse. En caso contrario, si todo es comprobado, se repite el proceso
considerando otras consecuencias deducibles. Cuando una hipótesis ha sobrevivido a diversos
intentos de refutación se dice que está corroborada, pero esto no nos permite afirmar que ha
quedado confirmada definitivamente, sino sólo provisionalmente, por la evidencia empírica.

Paul Freyerabend
- Anarquismo filosófico
Aconseja ir en contra de las reglas; por ejemplo, ante los empiristas que creen en la inducción
(los científicos que consideran que son los hechos experimentales los que deciden si sus teorías
son correctas o incorrectas) debe procederse en forma contraintuitiva, o sea que deben
construirse hipótesis que contradigan de manera flagrante y abierta las teorías más aceptadas y
confirmadas, o que se opongan a los hechos más contundentes. Sólo así se logrará mantener la
frescura y el avance de la ciencia. Consciente de que sus críticos reaccionarían señalando que
esto simplemente es la proposición de otra metodología más.

En la perspectiva de Feyerabend la ciencia es concebida como un estilo cognitivo coexistente


con otras formas de comprender o pensar la realidad, que cuentan, igualmente, con originales
modalidades de corroboración y ostentan idéntico rango epistemológico que la ciencia, porque
-a su juicio- ningún estilo cognitivo posee superioridad intrínseca sobre sus rivales; sólo se
podría adjudicar una calidad superior si arbitrariamente se opta por las pautas de evaluación de
uno de ellos y, a continuación, se aplican tales criterios a los estilos alternativos.

De esta manera se plantea la idea de inconmensurabilidad de los paradigmas, en el sentido de


que no pueden compararse entre sí, porque cada uno tiene sus propios criterios de evaluación.
Así, por ejemplo, no sería posible comparar la efectividad de una terapia psicodinámica respecto
de una cognitivo-conductual, puesto que tienen distintos criterios de efectividad.

6
METODOLOGIA CUALITATIVA
Paradigma postpositivista (Teoría fundamentada, por ejemplo).
Este paradigma surge a partir de un intento por solucionar las falencias presentes en el
positivismo, pero conservando las mismas creencias básicas de este paradigma, por lo que
autores como Guba y Lincoln (1994) y Krausse (1995), denominan que el intento del
postpositivismo por superar las críticas hechas al positivismo es limitado.
El postpositivismo, se caracteriza por mantener la creencia de que la realidad existe y es una
sola, es decir, que existe una realidad universal, sin embargo, manifiesta que la realidad en sí es
aprehensible de forma parcial, determinado por las capacidades del investigador, en otras
palabras, si bien la realidad existe, solo se puede conocer de manera imperfecta y limitada.
Teoría Fundamentada:
Hunde sus raíces en el interaccionismo simbólico. En este el investigador busca determinar qué
significado simbólico tienen los artefactos, gestos y palabras para los grupos sociales y cómo
interactúan unos con otros. El investigador busca construir lo que los participantes ven como su
realidad social. Desde su introducción en los años 60 se ha desarrollado hasta convertirse en la
metodología cualitativa más usada.
Aquí las fuentes de datos son las entrevistas, las observaciones de campo y documentos que
contengan información. El investigador cualitativo que hace uso de la teoría fundamentada
asume la responsabilidad de interpretar lo que observa, escucha o lee.
La principal diferencia entre este método y otros métodos cualitativos, reside en su énfasis en la
generación de teoría. A través del proceso de teorización el investigador descubre o manipula
categorías abstractas y relaciones entre ellas, utilizando esta teoría para desarrollar o confirmar
las explicaciones del cómo y porqué de los fenómenos.
Glaser y Strauss (1967) diferencian dos tipos de teorías:
Sustantivas: Se relacionan con el área concreta de la investigación. Ej: Escuelas,
hospitales, o con el consumo de drogas.
Formales: Se refieren a áreas conceptuales de la indagación, tales como estigmas, las
organizaciones formales, la socialización y la desviación.
Las dos estrategias fundamentales de Glaser y Strauss proponen para desarrollar teoría
fundamentada son: El método de la comparación constante y muestreo teórico
Método de la comparación constante: El investigador codifica y analiza los datos de forma
simultánea para desarrollar conceptos. Su aplicación supone una contratación de categorías,
propiedades e hipótesis.
Método del muestreo teórico del investigador: Selecciona nuevos casos a estudiar según su
potencial para ayuda a refinar o expandir los conceptos y teorías ya desarrollados. Lo
importante no es el número de casos, sino la potencialidad de cada uno para ayudar al
investigador a desarrollar una mayor comprensión teórica sobre el área que está estudiando.
EgonGuba
Propone una categorización basada en la forma en que los paradigmas dan respuesta a tres
preguntas básicas, las cuales son:
 La pregunta ontológica: ¿Cuál es la forma y la naturaleza de la realidad? Es decir, ¿qué
es lo que podemos conocer de ella? ¿Es una sola? ¿Es construida? ¿Se puede conocer
todo o solo de manera limitada?
 La pregunta epistemológica: ¿Cuál es la relación entre quien conoce o busca conocer y
lo que puede ser conocido? Entonces posibles respuestas son el distanciamiento, la

7
objetividad, el estar libre de valores o teñido por ellos para acceder y relacionarse con el
conocimiento.
 La pregunta metodológica: ¿Cómo el investigador debe proceder para acceder al
conocimiento? Es decir, cual es la metodología apropiada para conocer la realidad,
considerando si se debe controlar ciertos factores, si se debe manipular la realidad,
realizando experimentos, etc.
Ahora bien, a partir de cómo se responde a estas preguntas, Guba procede a analizar cuatro
paradigmas: el positivista, el post-positivista, el crítico y el constructivista.
a) El paradigma positivista:

Responde a la pregunta ontológica, como una ontología realista (o realismo ingenuo), es decir,
la realidad existe, operando según leyes y mecanismos naturales e inmutables, las cuales se
pueden generalizar libre de tiempo y contexto, cobrando la forma de leyes causa-efecto. En
definitiva, se supone la existencia de una realidad aprehensible.
Respecto a la pregunta epistemológica, esta tiene por solución una epistemología
dualista/objetivista. El dualismo está presente por la suposición de que el investigador y el
objeto investigado son dos entidades independientes, donde el investigador es capaz de estudiar
al objeto sin influenciarlo o ser influenciado por él (de aquí lo objetivista). Por esto, se evita que
los valores y prejuicios tengan alguna influencia en los resultados, cumpliendo con los
procedimientos prescitos rigurosamente. Los resultados entonces son tomados como reales y
repetibles en cualquier contexto y tiempo.
Finalmente la pregunta metodológica, tiene por respuesta una metodología experimental y
manipuladora. Donde las preguntas o hipótesis son presentadas como proposiciones y se
sujetan a una prueba empírica para su verificación, donde las condiciones deben ser controladas
(manipuladas), para evitar resultados influenciados por otras variables.
b) El paradigma postpositivista:

Ontología: realismo crítico, supone la existencia de la realidad, pero esta es imperfectamente


comprensible, puesto que los mecanismos intelectuales humanos son básicamente defectuosos
para acceder a toda la comprensión de la realidad. Por ende, cada aseveración acerca de la
realidad debe someterse a un examen crítico, para aprehenderlo de la manera más fielmente
posible.
Epistemología: dualista/objetivista modificada. Se abandona el dualismo propio del
positivismo, pero la objetividad permanece como un regulador ideal, donde la comunidad
critica, cumplen la función de árbitros, logrando cierto nivel de objetividad. Los hallazgos
repetidos son entendidos como más válidos y probablemente reales, pero sujetos a
corroboración.
Metodología: experimental/manipuladora modificada. Busca realizar investigaciones en
escenarios más naturales, reunir información más situacional, dejando de lado entonces los
estudios de laboratorio.
c) El paradigma de la teoría critica:

Ontología: Realismo histórico. Entiende una realidad que existe y que anteriormente era
plástica, pero con el paso del tiempo, ciertos factores o valores sociales, políticos, culturales,
económicos, étnicos y de género, le han dado una forma específica que ha sido cristalizada, y
que en la actualidad son consideradas (inapropiadamente), como reales, es decir como
inmutables y naturales. Las estructuras sociales conforman una realidad virtual e histórica.
Epistemología: transaccional y subjetivista. Supone que el investigador y el investigado están
vinculados interactivamente, donde los valores del investigador inevitablemente influencian la
investigación, por ende los valores están mediados por los valores del investigador.

8
Metodología: dialógica y dialéctica*. Al tener una epistemología transaccional, se requiere de
un dialogo entre el investigador y el investigado, y ese dialogo debe tener una naturaleza
dialéctica para transformar la ignoracia y los conceptos erróneos en una conciencia más
informada. Es decir, se busca que las estructuras vistas como inmutables históricamente, sean
aceptadas con una naturaleza o posibilidad de cambio.
*dialéctica: por medio de una tesis y antítesis se conforma una síntesis, es decir a partir de dos
puntos de vista contrapuestos se llega a una idea nueva que considera e integra ambas ideas
posteriores.
d) El paradigma constructivista:
Ontología: relativista.Las realidades son comprensibles en forma de construcciones mentales
múltiples e intangibles, basadas social y experiencialmente, por ende son de naturaleza local y
específica, aunque pueden existir elementos compartidos entre individuos y culturas.
Epistemología: Transaccional y subjetivista. El investigador y el investigado están vinculados
interactivamente, por lo que los hallazgos son creados entre ambos al avanzar en la
investigación.
Metodología: Hermenéutica y dialéctica. La naturaleza variable y personal de las
construcciones sociales, refieren a que estas solo pueden ser refinadas por medio de la
interacción entre el investigador y quienes responden, por lo que se utilizan técnicas
hermenéuticas convencionales y se comparan y contrastan con un intercambio dialectico para
llegar a una construcción consensuada y que sea más sofisticada e informada que cualquiera de
las construcciones precedentes (del investigador y del investigado).
Paradigma constructivista
Corriente epistemológica que asume que el conocimiento es construido socialmente por
las personas en interacción con la realidad. La realidad es una realidad construida por medio de
representaciones sociales. Por lo que pueden existir realidades múltiples. Se requiere de una
interrelación entre El investigador y el objeto de estudio para elucidar las representaciones
personales y sociales. Utilización de la inducción. Conceptos emergentes. Utilización de
técnicas no estadísticas que permiten una Comprensión profunda del tema estudiado
Ontología: Relativista, la realidad sólo existe en la forma de múltiples construcciones mentales y
sociales. La realidad como constructo social.
Epistemología: Subjetivista, no hay diferenciación entre sujeto y objeto del conocimiento. Ambos se
funden en una sola entidad epistemológica.
Metodología: Hermenéutica y dialéctica, refinamiento hermenéutico y contrastación dialéctica. Estas
metodologías están orientadas por la fidelidad al objeto de estudio, la complementaridad, en el
sentido que el investigador complementa la investigación. Y a diferencia de las metodologías
cientificistas y críticas, carece de ideal de progreso como criterio regulativo. El principal criterio
regulativo de la investigación constructivista es la solidaridad. La metodología de la investigación
educativa bajo la influencia del paradigma constructivista está representada, principalmente, por la
corriente de metodologías etnográficas: estudio de casos, trabajo de campo, etnografía, descripciones
"densas". También se cuenta con una corriente de metodologías hermenéuticas.

Positivismo Postpositivismo Teoría crítica contructivismo


Ontología Realista, la Realista crítica, la Realista crítica, pues Relativista, las
realidad existe ahí realidad existe pero declara abiertamente realidades existen

9
afuera y se no puede ser nunca que los valores son en la forma de
conduce por leyes completamente de algún modo la vía construcciones
y mecanimos aprendida. La de entrada a la mentales
naturales realidad se conduce “realidad”, pues son múltiples,
inmutables. Así el por leyes naturales ciertos valores los fundadas social y
conocimiento es que pueden ser sólo que permiten experiencialmente
generalizado y parcialmente seleccionar un tema , locales y
algunas de estas comprendidas de estudio, el específicas,
generalizaciones paradigma dentro del dependientes en
posteriores toman cual será estudiado, su forma y
la forma de leyes los instrumentos y contenido de las
causa- efecto los modos en que se personas que las
analizará la sostienen.
información, las
interpretaciones,
conclusiones y
recomendaciones
que se hacen
Epistemología Dualista, Objetivista Subjetivista, en el Subjetivista,
objetivista,para el modificada, la sentido que los investigador e
investigador es objetividad valores del investigado están
tanto posible permanece como un investigador median fundidos en una
como esencial ideal regulatorio. Es en la investigación. entidad singular.
adoptar distancia relevante el juecio Los hallazgos son
y una postura no de los pares de la literalmente la
interactiva. Los comunidad científica creación del
valores y los para cada proceso de
otros factores investigación y ésta interacción entre
predisponentes debe ser consistente ambos.
son con la tradición
autoáticamente propia de la
excluidos de disciplina
influenciar los respectiva.
resultados.
Metodología Experimental Experimental/manip Dialógica Hermenéutica,
manipultativa, las ulativa modificada, transformativa, los dialéctica, las
preguntas y/o enfatiza la teórico-críticos construcciones
hipótesis son multiplicidad crítica. buscan una individuales son
establecidas por Se compensan los aproximación elicitadas y
adelantado en desequilibrios por dialógica que elimine refinadas
forma de hacer investigación la falsa conciencia y hermeneuticament
proposiciones, y en contextos facilite la e, y comparadas y
sometidas a tests naturales usando transformación en el contrastadas
empíricos métodos momento en que los dialécticamente,
(falsación) bajo cualitativos, grupos se dan cuenta con el objeto de
condiciones dependientes más de de cómo están generar una
cuidadosamente la teoría oprimidos. construcción en la
controloladas. fundamentada, y cual existe
reintroduciendo el consenso
descubrimiento substancial.
dentro del proceso
de investigación.
34: Epistemología- Investigación I Fases de un proceso de investigación cuantitativa y
cualitativa
Fases Investigación:
Formulación del problema,

10
Pregunta de investigación
Objetivos generales y específicos
Marco teórico
Definición y operacionalización de hipótesis de trabajo
Preguntas directrices
Fase de difusión de resultados
Comparar formulaciones de problemas de investigación de orientación cuantitativa y
cualitativa
Resúmenes de los procesos cuantitativo y cualitativo

Proceso cuantitativo
Fase 1  idea
Fase 2  planteamiento del problema
Fase 3  revisión de la literatura y desarrollo del marco teórico
Fase 4  visualización del alcance de estudio
Fase 5 elaboración de hipótesis y definición de variables
Fase 6  desarrollo del diseño de investigación
Fase 7  definición y selección de la muestra
Fase 8  recolección de los datos
Fase 9  análisis de los datos
Fase 10  elaboración del reporte de resultados

Proceso cualitativo
Fase 1  Idea
Fase 2  planteamiento del problema
Fase 3  inmersión inicial en el campo
Fase 4  concepción del diseño del estudio
Fase 5  definición de la muestra inicial del estudio y acceso a ésta
Fase 6  recolección de los datos
Fase 7  análisis de los datos
Fase 8  interpretación de los resultados
Fase 9  elaboración del reporte de los resultados

En cuanto a la investigación cualitativa también se definen las fases del proceso como:
1- Acceso al escenario sociocultural que se pretende estudiar
2- Identificación del fenómeno a estudiar
3- Negociación del rol o oposición dentro de la dinámica social cotidiana
 “balcón interno” (para entrar y ver el mundo desde dentro)
4- Selección de informantes claves y estrategias de producción de información.
5- Registro, ordenamiento, reducción, validación de la información
6- Análisis e interpretación de la información obtenida
7- Reformulación y reenfoque del estudio basado en el conocimiento y la comprensión
obtenidos
8- Preparación del retiro de campo

También se agrupan en cuatro grandes fases:


 Fase preparatoria:
- Etapa reflexiva:
o ¿Qué me interesa? (tema);
o ¿Qué se sabe? (marco referencial);
o ¿Qué no se sabe?: vacío de conocimiento;
o ¿Qué quiero saber? (objeto de estudio).
- Diseño: la elección paradigmática determina el diseño, que puede tomar la forma de
documento escrito (marco teórico, metodología, etc). Acá se debe identificar el

11
escenario, se debe determinar el acceso a ésta, las características de los
participantes, recursos.
 Fase de campo:
- Trabajo de campo: 1) acceso al campo: se debe pedir permiso para acceder al
campo. Se debe escoger un buen informante.
- Recogida productiva de datos: se recogen datos más específicos. Se deben tener en
cuenta dos criterios para asegurar el rigor: la suficiencia y adecuación.
 Fase analítica: se inicia tras el abandono del escenario
- Reducción de datos: Resultados y conclusiones
- Disposición y transformación
 Fase informativa
- Elaboración de informe: se informan los datos, aparte de la comprensión de datos,
estos se deben compartir y difundir y la mejor forma de hacerlos es a través de las
entrevistas especializadas.

Formulación del problema


Según en el proceso cualitativo en la investigación científica el planteamiento del problema se
realiza así:
- Existe una orientación hacia la exploración y la descripción y el entendimiento
- Es general y amplio
- Dirigido a las experiencias de los participantes.

La recolección de los datos: emergen poco a poco, hay datos en texto o imagen y en un número
relativamente pequeño de casos.
El análisis de los datos:
- Se realiza el análisis de textos y material audiovisual
- Descripción, análisis y desarrollo de temas
- Significado profundo de los resultados

Producto de la revisión de la literatura voy consolidando:


- Si mi idea original es interesante, útil y relevante
- Si mi idea ha sido investigada
- Si mi idea se enmarcan alguna tradición de investigación
- Si mi idea constituye un aporte verdadero

Proceso de investigación cuantitativa según Roberto Hernández, Carlos Fernández y Pilar


Baptista:

Paso 1: Concebir la idea de investigación

Paso 2: Plantear el problema de investigación:


- Establecer objetivos de investigación
- Desarrollar las preguntas de investigación
- Justificar la investigación y su viabilidad

Paso 3: Elaborar el marco teórico:


- Revisar la literatura
- Detectar la literatura
- Obtener la literatura
- Consultar la literatura
- Extraer y recopilar información de interés
- Construir el marco teórico

12
Paso 4: Definir si la investigación es exploratoria, descriptiva, correlacional o explicativa, y
hasta qué nivel llegará.

Paso 5: Establecer la hipótesis:


- Detectar las variables
- Definir conceptualmente las variables
- Definir operacionalmente las variables

Paso 6: Seleccionar el diseño apropiado de investigación (experimental, preexperimental, cuasi


experimental o no experimental).

Paso 7: Determinar la población y la muestra:


- Seleccionar la muestra
- Determinar el universo
- Estimar la muestra

Paso 8: Recolección de datos:


- Elaborar el instrumento de medición y aplicarlo.
- Determinar la validez y confiabilidad del instrumento de medición.
- Codificar los datos.
- Crear un archivo o una base de datos.

Paso 9: Analizar los datos:


- Seleccionar las pruebas estadísticas
- Elaborar el problema de análisis
- Realizar los análisis

Paso 10: Presentar los resultados:


- Elaborar el informe de investigación
- Presentar el informe de investigación

¿Cómo saber cuándo usar tal o cual método en mi investigación?


No siempre se emplea el método científico desde un mismo enfoque para cualquier tema de
investigación.
Su uso dependerá del objeto de investigación, el problema de investigación, las preguntas de
investigación, los objetivos de investigación, y las hipótesis de investigación.

Objeto de investigación.

Cualquier sistema de la realidad cuyo proceso o estructura resulta de interés para realizar un
estudio, pues reporta una necesidad que superar para el ser humano, es decir, un problema de
investigación.

Problema de investigación.
¿Qué es?
Es un hecho, un fenómeno o una situación que incita a la reflexión y al estudio.
Su descripción y formulación permite conocer la situación que se va a estudiar mostrando sus
principales rasgos.

Aspectos del problema:


- Descripción: Mostrar la situación general del objeto de investigación.
- Formulación: Elaborar preguntas de reflexión sobre el problema

Criterios para plantear el problema (Kerlinger y Lee, 2002):


- El problema debe expresar una relación entre dos o más conceptos o variables.

13
- El problema debe estar formulado como pregunta, claramente y sin ambigüedad; por ejemplo,
¿qué efecto?, ¿en qué condiciones….?, ¿cuál es la probabilidad de …?, ¿cómo se relaciona
con…?
- El planteamiento debe implicar la posibilidad de realizar una prueba empírica. Es decir, la
factibilidad de observarse en la “realidad única y objetiva”.
Ejemplo: No puedo estudiar cuán sublime es el alma de los adolescentes.

Preguntas de investigación.
Una adecuada formulación de un problema de investigación implica elaborar dos niveles de
preguntas:

La pregunta general: debe recoger la esencia del problema y, por lo tanto, el título del estudio.
Las preguntas específicas: están orientadas a interrogar sobre aspectos del problema y no al
problema en su totalidad, pero que en su conjunto conforman la totalidad

Ejemplo
Si mi problema de investigación gira en torno a los nuevos retos que enfrentan las empresas
como consecuencia del nuevo paradigma mundial de la globalización y la competitividad,
puedo formularlo así:

Pregunta general:
¿Cómo deben prepararse las empresas nacionales y sus gerentes si quieren desenvolverse
competitivamente?

Preguntas específicas:
¿Cómo favorece el gobierno la competitividad de las empresas nacionales?
¿Cuál es la actitud de los gremios ante los retos que impone el nuevo milenio?
¿Qué están haciendo las universidades para contribuir a la competitividad de las empresas?
¿Qué están haciendo los empresarios para responder al nuevo ambiente de competitividad?

Objetivos de la investigación.
Son los propósitos del estudio, expresan el fin que pretenden alcanzarse, por lo tanto, todo el
desarrollo del trabajo de investigación se orientará a lograr estos objetivos.
Deben ser claros y precisos, lo que no implica que no puedan modificarse durante la
investigación.
Deben usarse verbos en infinitivo, por ejemplo: Determinar, verificar, definir, identificar,
diseñar, conocer, evaluar, elaborar, estudiar, describir, formular, proponer, analizar, corroborar,
entre otros.
Deben evitarse aquellos que impliquen acciones finales: cambiar, motivar, enseñar, entre otros.

Objetivos: general y específicos


En toda investigación es necesario plantear dos niveles de objetivos:
El objetivo general debe reflejar la esencia del planteamiento del problema y la idea expresada
en el título del proyecto de investigación.
Los objetivos específicos se desprenden del general y deben ser formulados de forma que estén
orientados al logro del objetivo general. Cada objetivo específico está diseñado para lograr un
aspecto del general.
Ejemplos de objetivos de investigación:

Título de la investigación: “Análisis de la relación entre el tipo de valores practicados por los
estudiantes universitarios y su rendimiento académico”.

14
Objetivo general: Analizar la relación entre el tipo de valores practicados por los estudiantes
universitarios y su rendimiento académico.

Objetivos específicos:
- Identificar el tipo de valores practicados por los estudiantes universitarios.
- Analizar el tipo de valores que practican los estudiantes de más alto rendimiento.
- Analizar el tipo de valores que practican los estudiantes de más bajo rendimiento.
- Analizar la existencia de diferencias significativas entre los valores practicados por estudiantes
de alto y bajo rendimiento.
- Evaluar la relación entre el tipo de valores practicados por los estudiantes universitarios y su
rendimiento académico.

Hipótesis de investigación.

Definición: “Suposición o conjetura sobre características con las cuales se da en la realidad el


fenómeno social en estudio; o bien como una conjetura de las relaciones que se dan entre
características o variables de ese fenómeno”

Las hipótesis son el centro del enfoque cuantitativo –deductivo (en lo cualitativo). Las
hipótesis surgen del planteamiento del problema y de la revisión de la literatura.

Las hipótesis tienen las funciones de:


- Guiar al estudio
- Dar explicaciones
- Apoyar la prueba de teorías
- Su formulación: depende del alcance de estudio (exploratorio, descriptivo, correlacional,
explicativo causal).
- Requisitos: establecen correspondencia con la realidad, requieren relación entre variables,
técnicas para probarlas.
Clasificación de hipótesis:
- Hipótesis descriptivas: Se refieren a características que se darían en el objeto estudiado.
- Hipótesis tipológicas: Proponen clasificaciones de las personas u objetos estudiados.
- Hipótesis relacionales: Suponen relaciones entre dos o más propiedades o variables que se dan
en las personas del objeto estudiado.
- Hipótesis explicativas o causales: Suponen causas o factores determinantes de un cierto
fenómeno. Si bien muchas de las hipótesis explicativas o causales proponen un solo factor, en la
complejidad del mundo social sobre todos y cada uno de los fenómenos se dan múltiples
influencias.
- Hipótesis estadísticas: Las hipótesis estadísticas son supuestos hechos por el investigador
acerca del valor que puede tener una cierta medida estadística en una muestra probabilística
tomada de una determinada población.
- Se distinguen hipótesis nula e hipótesis alternativa, que se rechazarán o aceptarán según la
probabilidad de que se dé el valor estimado.

Preguntas directrices
Las preguntas directrices derivan a partir de los objetivos específicos. Corresponde al eslabón
entre objetivos específicos y técnicas de investigación (o producción de información
propiamente tal).
Reemplaza la hipótesis, especialmente en el enfoque cualitativo, siguiendo el esquema: objetivo
general - objetivo específico - preguntas directrices - técnicas de producción de
información.

MARCO DE REFERENCIA
Para elaborar el marco de referencia de la investigación, cada investigación debe:

15
- Fundamentarse en el conocimiento existente.
- Asumir una posición frente al mismo.
- Realizarse dentro de un marco de referencia o conocimiento previo (teoría, enfoque,
escuela).
- Explicitar la concepción de persona que enmarcará la investigación.
- Precisar los conceptos relevantes de estudio.

Marco de referencia:
“Marco general de la fundamentación teórica y antropológica en la cual se desarrolla el
estudio”
Comprende:
- El marco filosófico-antropológico (opcional)
- El marco teórico
- El marco conceptual
- El marco legal (eventualmente)

Marco filosófico-antropológico: Especifica el concepto de ser humano dentro de la


investigación. Implica enfatizar y relegar algunos aspectos sobre otros.

¿Cómo elaborar el marco filosófico-antropológico?


Revisar bibliografía específica relacionada con la concepción de ser humano que tenga relación
a su vez con el tema y problema de investigación.

Ejemplo
El presente trabajo está enmarcado en una concepción de ser humano como una entidad
compleja y paradójica y, sobre todo, como un ser pluridimensional, ya que es un ser en sí
mismo, es decir, un ser en relación con los otros seres humanos, un ser corpóreo, espiritual,
emocional, intelectual, cultural e histórico, libre, trascendente, y un ser en proyecto, que se
construye y transforma el mundo en que vive (Polo, 1997, p. 53).

Marco Teórico:
Tiene la función de orientar y crear las bases teóricas de la investigación.

Definición (Briones):
“Comprende la ubicación del problema en una determinada situación histórico-social, sus
relaciones con otros fenómenos, las relaciones de los resultados por alcanzar con otros ya
logrados, como también definiciones de nuevos conceptos, redefiniciones de otros,
clasificaciones, tipologías por usar, etcétera”.

Funciones del Marco Teórico:


- Sirve de base para enunciar o describir el problema de investigación (integración).
- Sirve para cuestionar o reformular el problema de investigación (crítica).
- Precisión y organización de los elementos contenidos en el problema (delimitación).
- Compendia conocimientos del área de estudio (sistematización).
- Sirve como base para formular hipótesis, manejar variables y esbozar técnicas y
procedimientos.
- Ayuda a prevenir errores que se han cometido en otros estudios
- Orienta sobre como habrá de llevarse a cabo el estudio
- Inspira nuevas líneas y áreas de investigación
- Provee de un marco de referencia para interpretar los resultados del estudio.

Elaboración del Marco Teórico


- Revisión Bibliográfica: Revisar libros, revistas y otros documentos.
- Buscar asesoría.
- Detallar estado del arte.

16
- Construcción del Marco Teórico
- Integración de ideas revisadas.
- Enmarcación del estudio dentro de ese marco de ideas.
- Se adopta algún enfoque o técnica revisada.
- Indispensable: citar y referenciar.

Marco conceptual: “Definición precisa de los conceptos relevantes”. “Glosario de términos


clave utilizados en la investigación”

Fase de difusión de resultados

El proceso de investigación culmina con la presentación y difusión de los resultados. De esta


forma el investigador no sólo alcanza una mayor comprensión del fenómeno objeto de estudio,
sino que comparte esa comprensión con los demás. El informe cualitativo debe ser un
argumento convincente presentando los datos sistemáticamente que apoyen el caso del
investigador y refute las explicaciones alternativas. Existen dos formas fundamentales de
escribir un informe: a) como si el lector estuviera resolviendo el puzzle con el investigador; y b)
ofrecer un resumen de los principales hallazgos y entonces presentar los resultados que apoyan
las conclusiones.

En esta fase se puede entregar un borrador a los participantes, de tal forma que nos devuelvan
sus opiniones, como un medio más de verificación de las conclusiones. Además del envío a los
participantes de una copia del informe final, la mejor forma de difusión de los hallazgos es la de
publicarlos en las revistas especializadas.

El investigador habrá culminado así el trabajo de investigación, que sólo será posible si se parte
del carácter humano y apasionante de esta tarea, implicándose, comprometiéndose en la misma.

Dimensiones Enfoque cuantitativo Enfoque cualitativo


Formulación del Delimitado, acotado, específico, poco Abierto, libre, no es
problema flexible delimitado o acotado. Muy
flexible.
Marco teórico La literatura juega un papel crucial, La literatura desempeña un
guía la investigación. Es fundamental papel menos importante al
para la definición de la teoría, inicio. En ocasiones provee
hipótesis, diseño y demás etapas del dirección. Es un elemento que
proceso ayuda a justificar la necesidad
de investigar un problema
planteado.
Definción y Se prueban hipótesis. Éstas se Se generan hipótesis durante
operacionalización establecen para aceptarlas o el estudio o al final de éste.
de hipótesis de rechazarlas dependiendo el grado de
trabajo certeza.
Fase de difusión de Los reportes utilizan un tono objetivo, Los reportes utilizan un tono
resultados impersonal, no emotivo. personal y emotivo.

35.a: Epistemología  Diseños y tipos de investigación cuantitativa


Diseños experimentales y No experimentales, transversales y longitudinales
Investigaciones descriptivas, correlacionales y causales
Investigación experimental y no experimental

¿Cómo definir el diseño de investigación?

17
- Según el tipo de investigación
- Por la hipótesis a probar
Investigación Experimental.

Demuestra que la modificación de una variable (independiente) ocasiona un cambio predecible


en otra (dependiente).

Diseño: Conjunto de procedimientos con los cuales se manipulan una o más variables
independientes y se mide su efecto sobre una o más variables dependientes.

a) Diseños experimentales

Se distinguen tres diseños:


- Pre experimental
- Cuasi experimental
- Experimental puro (o verdadero)

Se clasifican según:
- Grado de control ejercido sobre las variables
- Grado de aleatoriedad con que se asignan los sujetos de la investigación a un grupo o a varios
de ellos

a.1) Diseño experimental puro:


- Manipulación intencional de una o más variables independientes.
- Asignación aleatoria de los participantes a cada uno de los grupos.
- Que haya un grupo experimental y un grupo control.
- Que haya control de variables objeto y ajenas al estudio (tipo de prueba, condiciones,
experiencia de los participantes, etc.).

Propósito:
Analizar si una o más variables independientes afectan una o más variables dependientes y por
qué las afectan.

Ejemplo:
Estudio sobre la estrategia más adecuada para una psicoterapia en niños autistas. Los
investigadores trabajan en una institución con estos niños.
¿Cómo asigno a los niños en grupos?
¿Uso las mismas estrategias para cada grupo?
¿Quién aplica las estrategias?
¿Cómo son las condiciones ambientales para cada grupo?
¿Qué hago al final de la investigación?

Tipos:
i. Diseño experimental con post-prueba y grupo control
ii. Diseño experimental con pre y post prueba y grupo control
iii. Diseño de dos grupos apareados con mediciones antes y después
iv. Diseño de Solomon de 4 grupos

a.2) Diseño cuasi experimental:


- Poco o ningún control sobre variables extrañas.
- Asignación aleatoria o no de los participantes en los grupos.
- Algunas veces se tiene grupo de control.
- Suele usarse para grupos ya constituidos.

Tipos:

18
b.1) Diseño con pre y post prueba y grupo control no equivalente
b.2) Diseño de series cronológicas

a.3) Diseños pre experimentales:


- No se ejerce control sobre las variables extrañas o intervinientes.
- No hay asignación aleatoria de los participantes en los grupos.
- No hay grupo control.

b) Investigación No Experimental
El investigador no tiene el control sobre la variable independiente
No se conforman los grupos del estudio, están a priori.
La variable independiente ya ha generado un cambio, pero se busca describir esa variable como
también los efectos que ha producido en la variable dependiente.
Reciben el nombre de ex post facto (después del hecho).
Suelen llamarse experimentos naturales.

No experimentales: no hay manipulación de variables. Fenómenos se observan en su entorno


natural
- Transversales: recopilación en un momento único
- Exploratorios: comenzar a conocer una variable. No se plantean hipótesis
-Descriptivos: indagan incidencias de las modalidades de una o más variables de una población
- Correlacionales: describen relaciones entre dos o más variables
- Surveys: cuestionarios aplicados en distintos contextos.

b.1) Encuesta transversal (transeccional o seccional)


- Se realiza en cierta población o muestra de ella en un período de tiempo corto.
- Son estudios sincrónicos, transeccionales.
- Se realizan a informantes claves.

b.2) Encuesta longitudinal


- Es un estudio diacrónico: sigue en un cierto período de tiempo el desarrollo del fenómeno
estudiado.

Se clasifican según:
a) Período de tiempo
- Retrospectivo: reconstruye el desarrollo del fenómeno estudiado sobre un grupo. Depende de
la memoria o información proporcionada por los propios entrevistados.
Ventaja: Rapidez de recolección de datos
Desventaja: Olvido, fallos en la memoria.

- Prospectivo: sigue el desarrollo del fenómeno estudiado sobre un grupo.

b) Conjunto de participantes

- Tendencias: personas que tienen uno o más rasgos comunes (por ejemplo, el curso de
Investigación en Psicología II).

- Panel: un mismo grupo de personas estudiado en varios momentos (por ejemplo, la generación
2010).

c) Amplitud de la población objeto de estudio

19
- Cohorte: grupo delimitado por haber presenciado un determinado elemento o haber nacido
entre unas fechas determinadas.Estos examinan cambios a través del tiempo en subpoblaciones
o grupos específicos. Su atención son las cohorte o grupos de individuos vinculados de alguna
manera, generalmente la edad, que serían grupos por edad.
TIPOS DE INVESTIGACIÓN
Exploratorios: Es comenzar a ver una variable. Se trata de una exploración inicial en un
momento específico.

Descriptivos: Corresponde a la indagación de las modalidades o niveles de una o más variables


en una población.

Tienen como objetivo:


- Indagar los valores que se manifiestan una o más variables (dentro del enfoque cuantitativo) o,
- Ubicar, categorizar y proporcionar una visión de comunidad, un evento, un contexto, un
fenómeno o una situación (describirla, como su nombre lo indica dentro del enfoque
cualitativo).

El procedimiento consiste en medir o ubicar a un grupo de personas, objetos, situaciones,


contexto, fenómenos, en una variable o concepto (generalmente más de una variable o
concepto) y proporcionar su descripción. Son, por lo tanto, estudios puramente descriptivos y
cuando establecen hipótesis, éstas son también descriptivas.

Correlaciónales- causales: describen relaciones entre 2 o más categorías, conceptos o variables


en un momento determinado, ya sea en términos correlaciones o en función de la causa – efecto.
Se trata también de descripciones, pero no de categorías, conceptos, objetos ni variables
individuales, sino de sus relaciones, sean éstas puramente correlacionales o relaciones causales.
Los diseños correlacionales pueden limitarse a establecer relaciones entre variables sin precisar
sentido de causalidad ni pretender analizar relaciones de causalidad. Cuando se limitan a
relaciones no causales, se fundamentan en ideas o hipótesis correlacionales; y cuando buscan
evaluar relaciones causales, se basan en ideas o hipótesis causales (Hernández, 2003).
Estos pueden ser:
 Investigación causal retrospectiva: se reconstruyen las relaciones a partir de variables
dependientes.
 Investigación causal prospectiva: se reconstruyen las relaciones a partir de variables
independientes.
 Causalidad múltiple: sobre la base de variablidad amplia de las variables independiente
y dependiente.

Nota: Tradicionalmente se ha manejado la distinción entre tipo de investigación correlacional y


explicativa-causal, como independientes una de otra. Lo importante es tener claro que la
primera sólo se refiere al grado de asociación estadística que hay entre una variable y otra(s)
(por ejemplo, si aumenta una, aumenta la otra, que sería correlación positiva), mientras que en
el tipo de investigación explicativo-causal se busca justamente estudiar un tipo de relación
causal entre dos o más variables, es decir, se pregunta por el efecto, impacto, influencia, etc. que
tiene una variable sobre otra, y es más propia de diseños experimentales.

Tipo Hipótesis Diseño Método


Exploratorio No se establece, lo que Transversal Cualitativo

20
se puede formular son
conjeturas inciales
Aproximación a Cuantitativo
fenómenos desconocidos
Descriptivo Se plantean objetivos Preexperimental Cualitativo
Reseña las características Transversal Cuantitativo
de un fenómeno actual
Correlacional Diferencia de grupos sin No experimental Cuantitativo
atribuir causalidad
Describe relación entre -Transversal
variables/factores
-Longitudinal
Correlacional
Explicativo Diferencia de grupos sin Experimental Cuantitativo
atribuir causalidad
Intenta encontrar las Causas Cuasi experimental,
del problema, por qué longitudinal y
sucede transversal
No experimental
Causalidad Experimental Cuantitativo
No experimental,
longitudinal y
transversal.

35.b: Epistemología  Técnicas de recolección de datos en investigación cuantitativa


Cuestionarios
Escalas likert
Escalas de diferencial semántico
Entrevistas: Pauta de observación estructuradas
Cuestionario.
Es una de las técnicas de recolección de información más usadas, a pesar de que cada vez pierde
mayor credibilidad por el sesgo de las personas encuestadas.
El contenido de las preguntas de un cuestionario es tan variado como los aspectos que mide.
Básicamente se consideran dos tipos de preguntas: cerradas y abiertas.
La pregunta cerrada contiene categorías o alternativas de respuesta que han sido delimitadas. Es
decir, se presentan a los sujetos las posibilidades de respuesta y aquéllos deben circunscribirse a
éstas.
En cambio, las preguntas abiertas no delimitan de antemano las alternativas de respuesta, por lo
cual el número de categorías de respuestas es muy elevado; en teoría es infinito.
Escala Likert.
La escala de Likert mide actitudes o predisposiciones individuales en contextos sociales
particulares. Se le conoce como escala sumada debido a que la puntuación de cada unidad de
análisis se obtiene mediante la sumatoria de las respuestas obtenidas en cada ítem.
La escala se construye en función de una serie de ítems que reflejan una actitud positiva o
negativa acerca de un estímulo o referente. Cada ítem está estructurado con cinco alternativas de
respuesta:
( ) Totalmente de acuerdo
( ) De acuerdo

21
( ) Indiferente
( ) En desacuerdo
( ) Totalmente en desacuerdo
La unidad de análisis que responde a la escala marcará su grado de aceptación o rechazo hacia
la proposición expresada en el ítem. Los ítems por lo general tienen implícita una dirección
positiva o negativa.
a. Criterios para la confección de los ítems de una escala
- Los ítems deben facilitar respuestas relacionadas con el fenómeno medido, aunque
dicha relación no tiene porqué ser necesariamente manifiesta
- Cada ítem debe declarar no sólo las dos posturas extremas, sino también graduar las
intermedias. A medida que la gente gane en sensibilidad, ganará también en precisión.
- Los ítems deben ser fiables y seguros. La fiabilidad con frecuencias se logra a costa de
la previsión. Cuanto más refinada es una medición, más probable es que en dos medidas
repetidas obtengamos puntuaciones distintas.

Escalas de diferencial semántico


Serie de pares de adjetivos extremos (bipolares) que sirven para calificar al objeto de actitud,
ante los cuales se pide la reacción del sujeto, al ubicarlo en una categoría de una escala de
respuestas por cada par.
La escala de respuestas puede ser altamente discriminante (siete o más categorías) o poco
discriminante (cinco o menos). Esta escala se califica de igual manera que la likert.
Ejemplo:
Barato: _____,______,_____, ______,______,______,______ Caro
Se marca una x en donde se ubica el producto x (Ej: sushi)
Entrevistas: Pauta de observación estructurada.
La entrevista estructurada se realiza partiendo de un cuestionario previamente elaborado y cuya
principal característica es la inflexibilidad, tanto en las cuestiones a plantear al entrevistado
como en el orden y presentación de las preguntas. Tiene la ventaja de reducir los sesgos del
entrevistador, pero impide indagar al entrevistar con preguntas complementarias.
Planificación de un Estudio en base a Entrevistas
1. Definir el propósito del estudio, sus bases teóricas, objetivos, posibles aplicaciones de
los resultados, y las razones para utilizar el método de la entrevista. Metodología de la
Investigación / Escuela de Psicología
2. Traducir los objetivos generales en objetivos específicos y detallados que puedan,
posteriormente, adecuarse a un plan de entrevista y permitan construir preguntas que
recojan información útil.
3. Desarrollar una guía tentativa a usar durante la entrevista.
4. Desarrollar un método adecuado de codificación y/o registro de respuestas.

Confección de la Pauta de Entrevista


1. Generalmente, las respuestas se pueden pre-categorizar en un estudio piloto, para
anticipar los patrones de respuesta más frecuentes. Luego, sólo se escribirán las
respuestas que caen fuera de estas categorías. También es posible grabar.
2. Las preguntas deben formularse en un lenguaje que garantice una comunicación
objetiva entre entrevistador y entrevistado. Debe evitarse el vocabulario ambiguo.
3. Asegurarse que el entrevistado entienda el propósito de la pregunta.
4. Asegurarse que la población de a que se seleccionará la muestra de entrevistados
conocen la información que se busca.

22
5. Evitar formular preguntas que sugieran la respuesta deseada o preferida por el
investigador.
6. Asegurarse que el marco de referencia que subyace a cada pregunta es claro, de modo
que cada entrevistado escuche la pregunta del mismo modo, evitando malas
interpretaciones.
7. Probar la entrevista en un estudio piloto, para eliminar las debilidades.

Evaluación de las preguntas


1. ¿Se relaciona la pregunta con el objetivo de la investigación?
2. ¿Es la pregunta clara, o es ambigua?
3. La pregunta, ¿induce respuestas?
4. ¿Se pregunta por información que el entrevistado no tiene?
5. La pregunta, ¿pide información a la cual puede resistirse el entrevistado?

37: Investigación en psicología I - Investigación en psicología cuantitativa  Métodos


estadísticos descriptivos e inferenciales:
Estadística descriptiva:
Distribución Normal
Tablas de frecuencia
Estadísticos de resumen: localización, variabilidad y forma de la distribución
Gráficos: barra, circular, histograma, boxplot, de dispersión

Estadística Inferencial:
- Intervalos de confianza: concepto de error de estimación y nivel de confianza
- Contraste de hipótesis: error tipo 1 y error tipo 2

Estadística descriptiva
Distribución normal
Corresponde a una forma de distribución de datos en gráficos. Es un modelo teórico y es
asintótica (tiende a 0, pero nunca toca el gráfico, es infinito). También es simétrica cuyo eje es –
z= 0, debiera distribuirse igual a los dos lados del eje. La moda, mediana y media corresponden
a z=0.

Tablas de frecuencia
Tablas de distribución de frecuencias:
Forma de organizar los datos de una variable con el propósito de conocer qué valores aparecen y
con qué frecuencia (localización de los datos)
Elaboración:
- Reglas APA:
Tabla precedida por el nombre de la tabla (Tabla + número correlativo “Tabla 1”)
A continuación del nombre, se presenta una breve descripción del contenido
Las tablas sólo presentan líneas horizontales

23
Solo se emplean líneas horizontales para indicar: el comienzo de la tabla, separar
los encabezados de los datos, indicar el fin de la tabla.
- Reglas de contenido
Primera columna: categorías de la variable + total
Segunda columna: corresponde a las frecuencias absolutas N
Tercera columna: frecuencia relativa fr
Cuarta columna: rango de porcentaje % (1 decimal): se elimina la frecuencia
relativa

Frecuencia absoluta: número de observaciones de una categoría particular. (Ej. Mujer, mujer,
mujer, hombre, hombre= 3 mujeres y 2 hombres)
Frecuencia relativa: Cantidad de observaciones de una categoría en relación al total. Puede ser
proporción o percentual.
Frecuencia acumulada: cuenta la frecuencia de una categoría dada sumándole las frecuencias de
todas las categorías anteriores. Requiere, por lo menos, de variables ordinales (jerarquía)
Ej:
Nivel de estudios N Na % %a
(acumulado) (porcentaje
acumulado)
Sin estudiar 54 54 2.91 2.91
E. básica 520 574 28.02 30.93
E. media 1135 1709 61.15 92.08
E. superior 147 1856 7.92 100
Total 1856 100

Estadísticos de resumen
Localización: medidas de tendencia central
Son estadígrafos de posición que son interpretados como valores que permiten resumir a un
conjunto de datos dispersos, podría asumirse que estas medidas equivalen a un centro de
gravedad que adoptan un valor representativo para todo un conjunto de datos predeterminados.
Estas medidas son:
1. Promedio (Media): cuál es el punto de equilibrio cuantitativo.
2. Mediana: el valor central
3. Moda: el valor que más se repite.
4. Media Armónica: se utiliza para calcular la media cuando el tamaño de las muestras no son
iguales entre los grupos.
Otras medidas de posición son:
Percentiles: Dividen la distribución en 100 partes iguales. P1-P99.
Cuartiles: Dividen la distribución en 4 partes iguales (Q1-Q3)
Deciles: Dividen la distribución en 10 partes iguales (D1-D9)
Variabilidad:
Son estadígrafos de dispersión que permiten evaluar el grado de homogeneidad, dispersión
variabilidad de un conjunto de datos. Estas medidas son:
1. Amplitud o Rango: evalúa la distancia ente los valores máximos y mínimos (Xmáx – Xmín)

24
2. Varianza: Evalúa la variabilidad de los datos, este estadístico define la variabilidad de un
conjunto de datos como el grado de dispersión que estos presentan en torno a su media.
3. Desviación Estándar: representa la desviación típica que los sujetos presentan en torno a la
media.un problema con la interpretación de la varianza/cuasi-varianza es que los valores que se
obtienen no se encuentran en la escala original de los datos analizados, sino que se encuentran
en una escala de “valores al cuadrado”. Por ejemplo, si se hubiera calculado la
varianza/cuasivarianza de las estaturas de un conjunto de personas, y las estaturas hubieran sido
medidas en metros, entonces, la varianza/cuasivarianza estaría expresada en “metros al
cuadrado”. Para evitar este problema de la “escala al cuadrado”, es que se deriva a partir de la
varianza/cuasivarianza este nuevo estadístico de dispersión. La DE es la raíz cuadrada de la
varianza/cuasivarianza. Al utilizar la desviación estándar, resulta más sencillo interpretar su
valor, dado que se encuentra en la misma escala que los valores originales analizados.
4. Coeficiente de Variabilidad: permite comparar la dispersión de variables que aparecen
medidas en escalas distintas, sin la necesidad de depender de una de ellas.
Forma de la distribución:
Evalúa la forma que adopta la distribución de frecuencias respecto al grado de distorsión
(inclinación) que registra respecto a valor promedio tomado como centro de gravedad, el grado
de apuntamiento (elevamiento) de la distribución de frecuencias. A mayor elevamiento de la
distribución de frecuencia significará mayor concentración de los datos en torno al promedio,
por tanto, una menor dispersión de los datos. Estas medidas son:
1. Asimetría o Sesgo: mide la distribución en torno al centro de los datos. Pueden ser
simétricas (normales) o asimétricas (con sesgo negativo (cola a la izquierda) o sesgo
positivo (cola a la derecha).

2. Curtosis: mide la concentración de datos en torno a la media (picudez). Tres clasificaciones:


Mesocurticas: normales, coeficiente 0.
Platicurticas: planas, valor negativo.
Leptocurticas: condensadas, valor positivo sobre lo normal. (Ej. Edades de un curso, son todas

similares)
Gráficos
Barra: Este gráfico es útil para representar datos categóricos nominales u ordinales. A cada
categoría o clase de la variable se le asocia una barra cuya altura representa la frecuencia o la
frecuencia relativa de esa clase. Las barras difieren sólo en altura, no en ancho. La escala en el
eje horizontal es arbitraria y en general, las barras se dibujan equiespaciadas, por esta razón este
tipo de gráfico sólo debe usarse para variables categóricas.
Circular: En este gráfico, ampliamente utilizado, se representa la frecuencia relativa de cada
categoría como una porción de un círculo, en la que el ángulo se corresponde con la frecuencia
relativa correspondiente. Como en todo gráfico es importante indicar el número total de sujetos.

25
Esta representación gráfica es muy simple y permite comparar la distribución de una variable
categórica en 2 o más grupos.
Histograma: variables numéricas. El área de sus barras representa distribución de las variables,
el eje horizontal representa los valores de las variables. Los intervalos son continuos. Permite
visualizar fácilmente la moda, dispersión y forma de la distribución.
Aspectos a considerar al analizar un histograma:
 Uno de los principales usos del histograma, consiste en analizar la forma de la distribución
de frecuencias de los valores de la variable.
 Dentro de las distintas formas que puede revelar un histograma, una de las más importantes,
desde una perspectiva estadística, corresponde a la denominada “distribución normal”
 Otra distribución de frecuencias que se puede observar en un histograma, corresponde a la
denominada “distribución uniforme”
 El siguiente histograma muestra las
características de esta distribución:

 Finalmente, un último tipo de distribución que es particularmente importante de reconocer,


corresponde a las “distribuciones asimétricas”.
 Los siguientes dos histogramas muestran las características de esta distribución:

Un aspecto crucial a considerar, es que aquellas variables que presentan este tipo de distribución
son bastante difíciles de analizar con las técnicas estándar, por lo que usualmente, requieren un
análisis más pormenorizado.

Boxplot: permite graficar las variables numéricas, identifica un minimo, máximo, mediana
(cuartil 2 o percentil 50). La caja central representa al 50% central de la distribución. La línea
central de la caja representa a la mediana (si es simétrica se encuentra al medio de la caja). Los
bigotes se trazan con Limite inferior y Limite superior, fuera de los bigotes se ubican los casos
atípicos.
Construcción de un boxplot:
Para dibujar la caja se procede a calcular los tres cuartiles (Q1, Q2 y Q3) de la
distribución de datos. Luego se determinan las fronteras superior e inferior, que separan los
valores atípicos de los restantes valores. Para calcular la frontera, en primer lugar se calcula la
distancia a la que estas se van a encontrar en relación a la caja

26
El último aspecto a considerar es la forma en la que se deben presentar en el boxplot
aquellos datos cuyos valores resulten mayores al valor de la frontera superior, o bien resulten
menores al valor de la frontera inferior. Estos datos reciben el nombre de “valores atípicos”
(“outliers”). Se tiene la convención de representar los valores atípicos con algún símbolo
especial que los individualice.
Aspectos a considerar al analizar un box plot:
El análisis de un box plot complementa al de un histograma para describir las características de
una variable numérica. Las principales características a analizar en un box plot corresponden a:
1. Tendencia central de los datos, a partir del examen de la
mediana
2. Los valores que encierran al 50% central de los datos(Q 1=P25 y
Q2=P75)
3. Una indicación del grado de variabilidad del conjunto de datos,
dado que permite calcular fácilmente tanto los valores máximos
como los valores mínimo, y también el rango intercuartil.
4. Permite identificar de manera explícita cualquier valor
particularmente alto o bajo (valores atípicos) en relación al resto de
los valores del conjunto de datos
5. Finalmente, permite identificar simetrías o asimetrías en la distribución de valores de la
variable.

Otro uso de los box plot consiste en inspeccionar visualmente las similitudes y diferencias entre
distintos grupos en relación a una misma variable de comparación.
Cuando se emplean los box plot con este propósito, los aspectos en los que se centran las
comparaciones corresponden a:

1. Detectar diferencias en la tendencia central de los distintos grupos bajo comparación


2. Detectar diferencias en la variabilidad manifestada por los distintos grupos bajo
comparación
3. Detectar diferencias en la forma de la distribución entre los distintos grupos bajo
comparación.

De dispersión: Un gráfico de dispersión es una representación de coordenadas numéricas en los


ejes X e Y. Los datos de la hoja de cálculo se representan en forma de varios puntos en el
gráfico. Los datos se deben incluir en dos o más columnas y deben ser numéricos. La primera
columna de datos debe contener los valores del eje X del gráfico, mientras que las demás
columnas deben incluir los del eje Y. El contenido de las columnas con los valores del eje Y se
representa en forma de varios puntos en el gráfico. (se utiliza para regresiones y correlaciones)

27
Estadística inferencial (análisis estadístico inferencial)
1. Conocer el valor de una característica de la variable
2. Probar la hipótesis  toda la población  censo  no se puede realizar.
Se toma una muestra: argumentar que la muestra da una respuesta igual de adecuada al censo.
Para esto son necesarios ciertos requisitos:
1.- Muestra seleccionada de forma aleatoria.
Muestra representativa
2.- Tamaño muestral aleatorio.

Estimación de parámetros
Conjunto de procedimientos estadísticos que permiten conocer las características de una
población, en base a los datos obtenidos de una muestra aleatoria extraída de ella.
a. Parámetro: cantidad que es una función de los valores de la población. Se emplea para
describir alguna característica de la población.
b. Estadístico: es una cantidad que es una función de los valores de la muestra. Se emplea
para describir alguna característica de la muestra.
c. Estimador: cantidad que es una función de los valores de la muestra. Se emplea como una
aproximación al valor de un parámetro.

Lógica de la estimación de parámetros


Ej: Supongamos que tenemos una población de 50 alumnos y deseamos estimar el promedio de
notas en base a una muestra aleatoria extraída de ella:

1. Decidir tipo muestral: aleatoria simple


2. Decidir cantidad de la muestra
Ej.: decidimos trabajar con 5 alumnos.
A cada alumno, se le consulta su promedio de notas, los cuales corresponden a los siguientes

Decidimos que estimador vamos


a emplear para estimar el
promedio de la población. Ej.:
decidimos emplear la media
muestral
3. Calcular el valor del estimador
Ej.: Al calcular la media en los
datos de esta muestra se obtiene
el valor de 3,66
4. Realizar la estimación del
parámetro. Dado el valor del estimador recién obtenido
podríamos querer afirmar que el valor del promedio de la
población (parámetro) correspondería (cercano a) 3.66

Si hiciéramos lo anterior, estaríamos llevando a cabo una “estimación puntual del


parámetro”. ¿Es una buena idea hacer estimaciones puntuales de los parámetros?
¡PROBLEMA!
Al seleccionar 3 nuevas muestras a partir de
la población original:

Como se ve a partir de los resultados


obtenidos, cada vez que se obtienen

28
muestras aleatorias de una misma población, las distintas muestras tenderán a arrojar resultados
diferentes al estimar el mismo parámetro.
Ahora bien, si de la población original continuáramos extrayendo nuevas muestras y, en
cada una de ellas procediéramos a calcular el promedio, obtendríamos después de muchas
repeticiones de este procedimiento, todos los valores de los promedios muestrales que podrían
aparecer a partir de dicha población.

El conjunto de todas las medias muestrales obtenidas de la forma anterior recibe el


nombre de DISTRIBUCIÓN MUESTRAL DE LA MEDIA (DMM)

Qué importancia tiene conocer la DMM?


1. Permite darnos cuenta que diferentes muestras, seleccionadas de una misma población,
entregarán diferentes valores para el estimador del promedio poblacional. Esto es, la DMM nos
revela que el muestreo aleatorio introduce una FUENTE DE VARIABILIDAD en la estimación
del parámetro poblacional.
2. La existencia de esta variabilidad muestral introduce una fuente de incertidumbre al
momento de estimar el promedio poblacional. Esta incertidumbre surge debido a que al trabajar
con una sola muestra, no podemos igualar el valor del promedio de dicha muestra al valor del
promedio de la población, ya que sabemos que otra muestra hubiera arrojado un valor diferente
para el estimador.

Esto implica que resulta inadecuado realizar una Estimación Puntual del Parámetro, ya
que generamos la falsa impresión de que hemos identificado el verdadero valor del promedio
poblacional, lo cual es incorrecto.
Debido a lo anterior es que se vuelve necesario, al momento de estimar el promedio
poblacional en base a los resultados de una muestra, que el procedimiento de estimación que se
utilice tome en cuenta el fenómeno de la variabilidad muestral que introduce el muestreo
aleatorio.
¿Cómo diseñar un procedimiento de estimación que tome en cuenta el fenómeno de la
variabilidad muestral que introduce el muestreo aleatorio?

Para poder resolver este problema, debemos analizar con mayor detalle cómo se
comporta la variabilidad muestral que introduce el muestreo aleatorio. Concluyendo que:
1. La mayoría de los promedios muestrales no coincidirá con el verdadero valor del promedio
de la población (Esto, una vez más, refuerza la idea de lo inadecuado de realizar una estimación
puntual)
2. Sin embargo, la mayoría de las muestras que se extraigan de la población de interés,
presentarán valores del promedio localizados en torno al verdadero valor del promedio
poblacional.

Estimación mediante intervalos de confianza


Intervalos de confianza:
Cuando se obtiene una estimación puntual de un parámetro, es conveniente acompañar dicha
estimación por una “medida” de la precisión de la estimación. Un modo de hacerlo es informar
el estimador y su error estándar. Otro modo es reemplazar la estimación puntual por un intervalo
de valores posibles para el parámetro.

Error de estimación: Cuanto mayor sea el tamaño de la muestra, n, menor es el


error. Cuanto mayor sea el nivel de confianza , 1-α, mayor es el error.

Nivel de confianza: El nivel de confianza se indica por 1-α y habitualmente se da en porcentaje


(1-α)%. Es la probabilidad de que el parámetro a estimar se encuentre en el
intervalo de confianza. Hablamos de nivel de confianza ya que una vez extraída la muestra,

29
el intervalo de confianza estará definido al igual que la media poblacional (μ) y solo se confía si
contendrá al verdadero valor del parámetro o no.
Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9%
El segundo resultado señalado anteriormente, es la base del procedimiento de
estimación de parámetros que se emplea mayoritariamente y que recibe el nombre de estimación
por intervalos de confianza.
La estimación de un parámetro mediante un intervalo de confianza, consiste en
construir, a partir de un valor del promedio que arroja una muestra, un intervalo que se extienda
por arriba y por debajo de dicho promedio muestral y, concluir que el valor del parámetro
debería ser alguno de los valores que se encuentran dentro de dicho intervalo.
El empleo de esta estrategia garantiza que muchas muestras generen un intervalo que
logre incluir el valor del promedio de la población.
Por ejemplo: Elijamos una muestra, por ejemplo, alguna de las muestras que haya presentado
como promedio el valor de 4.0. La comparación directa muestra que el valor 4.0 es diferente al
valor del promedio de la población de 4.166. Sin embargo, si ahora procedemos a construir un
intervalo de confianza que se extienda 0.2 hacia ambos lados del promedio de la muestra (4.0),
habremos definido el siguiente intervalo de confianza para estimar el promedio poblacional:
[3.8, 4.2]. Al observar este intervalo, podemos darnos cuenta que esta estimación si logra acertar
en localizar el verdadero valor del promedio poblacional, dado que el intervalo incluye el valor
4.166 que es el valor parámetro.
a. Construcción de un intervalo de confianza
Cómo decidir cuál debe ser el valor que se va a utilizar para construir el intervalo de
confianza a partir del promedio de una muestra a objeto de garantizar que este valor logre dar
origen a un intervalo de confianza que contenga el parámetro?
En principio, se podría pensar que la mejor solución consiste en utilizar un valor muy
grande, de forma que cualquiera sea el promedio de la muestra con la que se esté trabajando, el
intervalo que se obtenga siempre incluya el valor del parámetro. En el ejemplo un valor que
cumple este requisito podría ser 2.2.
Para ver que este valor cumple la condición, supongamos que nuestra muestra hubiera
sido alguna de las dos que presentaron los promedios más extremos entre todas las muestras que
forman la DMM. Dichas muestras corresponden a:
1. La que presenta el promedio más bajo: 2.0
2. La que presenta el promedio más alto: 5.8

Para el caso de la muestra con el promedio más bajo: el promedio de la muestra (2.0) es
bastante distinto a un promedio de la población (4.166). Si se procede a construir un intervalo
de confianza que se extienda 2.2 hacia ambos lados del promedio de la muestra (2.0) habremos
definido el siguiente intervalo de confianza para estimar promedio poblacional [-0.2, 4.2]. Esta
estimación si logra acertar en localizar el verdadero valor del promedio poblacional, dado que
el intervalo incluye el valor de 4.166 que es el valor del parámetro.
Ahora, con la muestra que presento el promedio más alto: el promedio de la muestra
(5.8) es bastante distinto de la población (4.166) si construimos un intervalo de confianza que se
extienda de 2.2 hacia ambos lados del promedio de la muestra (5.8), habremos definido el
siguiente intervalo de confianza para estimar el promedio poblacional [3.6, 8.0]. La estimación
si logra acertar en localizar el verdadero valor del promedio poblacional, dado que el intervalo
incluye el valor 4.166 que es el valor del parámetro.
La elección de un valor grande permite lograr que todos los intervalos que se podrían
construir en base a cualquiera de las muestras que forman la DMM, terminarían incluyendo el
parámetro, el problema que se presenta es que dichos intervalos inevitablemente van a exhibir
una amplitud tan grande, que no van a tener ninguna utilidad práctica.

30
Para solucionar este problema se adopta el siguiente camino:
1. Se decido renunciar a que el valor que se emplee para construir los intervalos, garantice que
todas las muestras darán origen a intervalos que contengan un parámetro
2. En un lugar, se establece que el valor que se utilice permita que solo el 95% de todas las
muestras den origen a un intervalo que contenga el parámetro
Siempre ocurrirá que del total de muestras que se podrían seleccionar, un 5% de ellas darán
origen a un intervalo que NO va a contener el valor del parámetro.
La consecuencia de la decisión anterior, es que se introduce un margen de incertidumbre
inevitable en las estimaciones que se van a realizar empleando este procedimiento. Cuando se
elabore un intervalo de confianza a partir de la única muestra con la que se puede trabajar en la
mayoría de las investigaciones, se tendrá que asumir que no se tiene un 100% de confianza de
que efectivamente el parámetro se encuentre en el intervalo calculado.
Lo que si se va a poder afirmar es que hay una alta confianza, corresponde al 95%, de
que el intervalo calculado corresponda a aquellos intervalos que si logran incluir el valor del
parámetro. ¿Cómo se determina el valor que se emplea en la construcción de intervalos de
confianza que garantice que el 95% de las muestras logren incluir el parámetro?
Volver a las propiedades de la DMM: la propiedad que permite resolver el problema es
aquella que dice que la DMM se caracteriza por presentar una distribución normal. Se puede
demostrar que en una distribución normal, aproximadamente el 68% de todas las muestras, se
localizan a una distancia del promedio de la DMM, menor o igual a 1 DE en ambas direcciones.
De igual modo, se sabe que en toda distribución normal, el 95% de todas las muestras, se
localizan a una distancia promedio de la DMM, menor o igual 1.96 veces la DE en ambas
direcciones. Este antecedente es el que se utiliza para obtener el valor con el cual se construye el
intervalo de confianza a partir del promedio de cualquier muestra obtenida de una población.
Para ello se requiere multiplicar el valor de 1.96 por el valor de la DE de la DMM, también
denominado ERROR ESTÁNDAR. El valor que se obtiene al hacer esta multiplicación recibe
el nombre de ERROR MUESTRAL, ERROR DE MUESTREO o ERROR DE PRECISIÓN.

e: Error muestral
1.96: puntaje Z que permite que el 95% de las muestras de la DMM den origen a un intervalo de
confianza que incluya el promedio poblacional.

: Error estándar (desviación estándar de la DMM)


¿Cómo se puede obtener el error estándar dado que una investigación real, solo tenemos
acceso al resultado de una sola de las muestras que formarían la DMM?
El error estándar de una DMM es igual al cociente entre la desviación estándar de la
población de la que se obtiene la DMM y la raíz cuadrada del tamaño de las muestras que se
extraen

: Error estándar (desviación estándar de la DMM)

: Desviación estándar de la población a partir de la cual se obtiene la DMM


n:tamaño de la muestra

31
El resultado anterior nos dice que para conocer el valor del error estándar no
necesitamos obtener la DMM, sino que basta conocer la desviación estándar de la población en
la que se desea llevar a cabo la estimación del parámetro.
Ahora bien, esta solución no es del todo práctica por cuanto obliga a tener acceso a los
resultados de un censo que nos permita conocer la desviación estándar de la población de
interés. Lo cual, en la práctica, sólo se consigue rara vez.
Para resolver este último problema vamos a tener que estimar el valor de la desviación
estándar poblacional, a partir de los datos de la muestra con la que estamos haciendo las
inferencias.
El estimador que se emplea corresponde a la desviación estándar muestral:

: Desviación estándar de la población a partir de la cual se obtiene la DMM


S: desviación estándar muestral.
El cálculo del error estándar se obtiene como:

: Error estándar (desviación estándar de la DMM)


S: desviación estándar muestral.
n: tamaño de la muestra
Mientras tanto que el valor del error muestral se obtiene como:

e: Error muestral
1.96: puntaje Z que permite que el 95% de las muestras de la DMM den origen a un intervalo de
confianza que incluya el promedio poblacional
S: desviación estándar muestral.
n: tamaño de la muestra
Una vez obtenido el error muestral, se procede a restarlo y a sumarlo del valor del
promedio de la muestra con la que se está trabajando para construir un intervalo de confianza
deseado:

Contraste de hipótesis:

Hipótesis nula (Ho): implica que no hay efectos o diferencias a nivel de la población.
Hipótesis alternativa (H1): Implica que hay efectos o diferencias a nivel de la población (los
grupos son distintos).

32
Corresponde al procedimiento mediante el cual se comparan los resultados esperados según lo
planteado por una teoría y los resultados obtenidos de la observación de los fenómenos. Ahora
bien, los resultados esperados se redactan en la forma de una afirmación, la cual recibe el
nombre de hipótesis de investigación.

Un aspecto que resulta importante considerar, es que la hipótesis de investigación (y la teoría de


la cual emana) plantea la existencia de un cierto resultado para una o varias POBLACIONES
COMPLETAS DE ELEMENTOS.

Sin embargo, en la mayoría de las ocasiones no es posible observar todos los elementos de las
poblaciones de interés, por lo que se presenta el problema de cómo decidir si la hipótesis de
investigación es correcta o incorrecta. La solución a este problema, consiste en emplear las
herramientas que proporciona la estadística inferencial.

Esta solución consiste en inferir/estimar los resultados (parámetros) de la(s) población(es) de


interés a partir de los resultados (estadísticos) observados en una o varias muestras aleatorias
seleccionadas de dichas poblaciones.
De este modo el contraste estadísticos de hipótesis se convierte en la comparación de los
resultados predichos por la hipótesis para la(s) población(es), con los resultados inferidos para
dicha población a partir de lo observado en una o varias muestras aleatoria(s).

Ejemplo de contraste de hipótesis


Estudios previos han demostrado que el tiempo de reacción a determinado estimulo
luminoso en sujetos normales es de 65 milisegundos (DE=15.4). Una investigadora plantea
como hipótesis, que si los individuos reciben cierto tipo de entrenamiento, tenderán a mostrar
un tiempo de reacción más corto.
Como actividad preliminar se debe plantear explícitamente la hipótesis de
investigación: las personas que participen en sesiones de entrenamiento, exhiben menores
tiempos de reacción que la población general. A continuación, se presenta un esquema que
representa el problema de investigación.

De la población con promedio


desconocido se extrae una muestra aleatoria. El
promedio de esta muestra, estima el promedio
de su población.
Finalmente, se proceden a comparar el promedio
de la población conocida con el promedio de la
muestra (el cual cumple la función de estimador
del promedio de su población)
¡PROBLEMA! Al hacer la comparación se debe
considerar la variabilidad que introduce el
muestreo.
Continuación del ejemplo:
Para evaluar la hipótesis, 45 sujetos normales participaron en 10 sesiones de entrenamiento,
luego de lo cual se les midió su tiempo de reacción, obteniéndose un promedio de 55.5
milisegundos (DE=19.3)

Lógica de contraste estadístico de hipótesis:


1. Replantear la hipótesis de investigación en términos de una hipótesis nula (H0: plantea que
no existe una relación entre las variables en la población) y de una hipótesis alternativa (H1:
plantea que existe relación entre las variables en la población). En la mayoría de los estudios de
la hipótesis de investigación coincide con la H1.
Sin embargo para efectos de trabajo de análisis estadísticos, es la H0 la que se somete a
contrastación con los datos obtenidos en la muestra. Dado que la H0 es el opuesto de la H1, solo
en el caso de que se pueda concluir que H0 es falsa es que el investigador estará en condiciones

33
de apoyar H1 y, por ende, concluir que su hipótesis de investigación ha sido apoyada por los
datos del estudio.

Continuación del ejemplo… Elaboremos las hipótesis estadísticas

2. Determinar el estadístico de contraste y su distribución muestral. Existen muchos


estadísticos distintos para llevar a cabo los contrastes de hipótesis, por lo que una decisión muy
importante consiste en determinar cuál de ellos es el mas adecuado, dada la naturaleza de la
hipótesis y el tipo de datos con el que se va a trabajar (nivel de medición).
3. Calcular el valor del estadístico de contraste a partir de los datos de la muestra. Esta
actividad implica el uso de las formulas propias de cada estadístico de contraste.
4. Determinar la probabilidad asociada al valor del estadístico de contraste. Empleando la
distribución muestral del estadístico, se procede a determinar cual es la probabilidad, también
denominada valor p, de obtener para el estadístico un valor igual o más extremo (alejado del
centro de la distribución) al observado en la muestra, si es que efectivamente la muestra
procediera de una población en la que es verdadera la H0
Para algunos estadísticos, la obtención del valor p a partir de la distribución muestral varía
ligeramente dependiendo de si la hipótesis de investigación es direccional o no direccional.
En el primer caso se trabajo con una prueba de 1 cola (contraste unilateral), mientras que en el
segundo caso, se trabaja con una prueba de 2 colas (contraste bilateral). Si la distribución
muestral del estadístico es simétrica, el valor p de un contraste bilateral es el doble del valor p
para un contraste unilateral.
5. Reglas de decisión para determinar si se rechaza o no la hipótesis nula. Si el valor p
asociado al estadístico de contraste es un valor muy pequeño, esto se interpreta del siguiente
modo: es poco probable que la muestra proceda de una población en la que H0 es verdadera.
Por lo tanto se concluye que H0 es falsa. De este modo, se concluye que la muestra procede de
una población en la que H0 es falsa. En consecuencia se acepta como valida H1 y por ende, se
acepta como correcta l hipótesis de investigación.
Dado que no existe ningún criterio absolutamente correcto, se tiende a seguir el uso de la
costumbre en psicología, que indica que se considere como un valor p pequeño cualquiera que
resulte inferior a 0.05

Conclusión:
Para someter a evaluación la hipótesis del estudio, se aplico la prueba Z para una media,
mediante un contraste unilateral. Al comparar los resultados de los tiempos de reacción de las
personas que participaron en sesiones de entrenamiento (M=, DE=) con los tiempos de reacción
de la población general (M=, DE=) se concluye que los primeros tienden a mostrar resultados
significativamente menores que estos últimos (Z=-4.14, p<0.001)

Errores estadísticos
Error tipo I o error Alfa: Se refiere a cuando los datos de la muestra llevan a concluir que hay
que rechazar la hipótesis nula, pero en realidad en la población es cierta.
Nivel de significación: es la máxima probabilidad de cometer un error tipo I que estamos
dispuestos a aceptar. Si P es mayor o igual a alfa (0.05) –> se acepta hipótesis nula. Mientras

34
menor sea el numero mejor (0.01, 0.001), sin embargo, si es más chico la muestra aumenta
considerablemente, por lo que no conviene.
Error tipo II o error Beta: Cuando al analiza la muestra concluye que la hipótesis nula es
verdadera cuando en la población es falsa.
Potencia: 1-B. La potencia es la probablidad de que a partir de la muestra detectemos un efecto,
si es que el efecto existe a nivel de la población. Nos va a mostrar de cuanto tiene que ser la
muestra. En Psicología se exige un 80% de potencia, la potencia da control al error tipo II y la
potencia se controla por la muestra
muestra potencia Error tipo II (la probabilidad de cometer un error tipo II tiene que ser
menor a 20% y la potencia tendría que ser 80% (o más), para eso la muestra debe ser grande.
Cuando se conduce una investigación, el investigador desea arribar a conclusiones que estén
libres de error. Esto significa que el investigador/a espera que si el análisis de los datos
obtenidos en la muestra indican que se debe aceptar la H0 esto sea lo correcto, y
recíprocamente, si es que los datos indican que se debe rechazar la H0.
No obstante lo anterior, y dado que se trabaja con muestras, siempre existe alguna probabilidad
de cometer un error en las conclusiones a las que se arriba durante una investigación.
Esto significa que, si el análisis de los datos obtenidos en la muestra indican que HJ0 es
correcta, sea justamente lo contrario lo que realmente esté sucediendo, y recíprocamente, si es
que los datos indican que se debe rechazar la H0.

 Error tipo I o Error Alfa: Consiste en rechazar H0 cuando esta es VERDADERA EN LA


POBLACIÓN. Si bien es imposible reducir a 0 la probabilidad de cometer este tipo de error en
una investigación, si se puede lograr que dicha probabilidad sea un numero pequeño.
 Esa es la función que cumple en el contraste estadístico de hipótesis el valor que se le
asigna al nivel de significación o valor alfa.
 Esto explica que en investigación psicosocial, se utilice como alfa el valor 0.05.
 Esto implica que si H0 fuera VERDADERA EN LA POBLACION, ocurriría que si se
repitiera el mismo estudio 100 veces empleando muestras diferentes, pero del mismo tamaño,
extraídas de la misma población, solo en 5 de ellas se obtendría un valor en la prueba estadística
que llevaría a RECHAZAR H0 y, por ende, a cometer el error tipo I.
 De lo anterior, se puede ver una conexión directa entre el valor p y el error tipo I.
 Desde esta perspectiva, se puede interpretar el valor p como la probabilidad de cometer el
error tipo I si es que el investigador/a decidiera concluir que H0 es falsa.

 Error tipo II o Error Beta: Consiste en aceptar como verdadera H0, cuando en realidad
ésta es FALSA EN LA POBLACIÓN.
 Al igual como ocurriría con el error tipo I, es imposible reducir a 0 la probabilidad de
cometer el error tipo II en una investigación.
 Sin embargo, si se puede lograr que dicha probabilidad se aun número pequeño.
 En investigación psicosocial se tiende a fijar el Error tipo II en el valor 0.20.
 Esto implica que si H0 fuera FALSA EN LA POBLACION ocurriría que si se repitiera el
mismo estudio 00 veces empleando muestras diferentes, pero del mismo tamaño, extraídas de la
misma población, solo en 20 e ellas se obtendría un valor en la prueba estadística que llevaría a
aceptar H0 y por ende, a cometer el error tipo II.
 Usualmente, en contextos de investigación, más que considerar el error tipo II se prefiere
considerar su complemento.

Potencia = 1- beta
 De este modo, la potencia de una investigación viene a ser la probabilidad de no cometer el
error tipo II es decir, la probabilidad que tiene una investigación de detectar “un efecto” (una
relación entre variables, una diferencia entre grupos, etc.) si es que este se encuentra presente en
la población.

35
 Es así como la potencia de una investigación, puede ser vista como el grado de
“sensibilidad” del estudio para detectar un efecto si es que este existe en la población.
 Dado que el máximo valor que se le asigna al error tipo II en la investigación psicosocial
corresponde a 0.20, en consecuencia se tiene que el mínimo valor de potencia aceptado es de
0.80
 Si una investigación no es capaz de alcanzar una potencia cercana a 0.80, no sería adecuado
llevarla a cabo, por cuanto es casi seguro que el estudio va a ser incapaz de detectar la existencia
de algún efecto que esté teniendo lugar en la población.
 Esto significa que si H0 es falsa en la población, el investigador/a tiene muy pocas
probabilidades de lograr rechazar H0 a partir de los datos de su muestra.
 El control del error tipo II resulta más complejo que el error tipo I.
 Entre los factores que permiten controlar el error tipo II se tienen:

1. Una adecuada elección del tamaño de la/s muestra/s con las que se va a trabajar. Mientras
mayor sea el tamaño de la/s muestra/s, mayor serpa la potencia del estudio y, en consecuencia,
menor será la probabilidad de cometer el Error tipo II.
2. Una correcta elección del estadístico de contraste
3. Empleo de instrumentos de medición con alta confiabilidad y validez

Finalmente, es importante señalar que el error tipo II mantiene una relación inversa con el error
tipo I, por cuando, al disminuir la probabilidad de cometer el error tipo I aumenta la
probabilidad de cometer el error tipo II.

Conclusión final en torno al trabajo con muestras: La conclusión ultima que se debe tener
presente cuando se llevan a cabo generalizaciones en base a muestras, es que nunca se puede
saber con total seguridad si el resultado que se obtiene es correcto, o bien producto del
azar.Debido a ello es que los estudios deben replicarse en nuevas muestras, a fin de poder
identificar qué resultados tienden a ser consistentes a lo largo de los deferentes estudios.

40: Investigación en psicología cuantitativa  Criterios de validez y confiabilidad


utilizados en investigación cuantitativa
Confiabilidad:
Formas paralelas
Estabilidad temporal
Consistencia interna
Validez:
Contenido
Criterio
Constructo

Confiabilidad: La confiabilidad se refiere a la ausencia relativa de errores de medición


en un instrumento. Es la exactitud o precisión de un instrumento. El ideal es que esté totalmente
libre de error, poro ya que esto es imposible, se aspira al menor error posible.

¿Cómo evaluar el error de medición?


Se puede entender desde dos conceptos:

36
1) Exactitud: En que medida los valores son cercanos a los verdaderos valores de la variable.
 Valor real: Puntaje que una persona tiene para una variable.
 Valor real=valor observado + error.

 Valor observado=valor real + el valor del error.

Error de medición
 No hay un instrumento que mida exactamente los valores de la variable.
 Se busca que la variable observada refleje le valor real de la variable, pero también un valor
del error.
 El valor del error debe ser bajo.
 Si el error es bajo (casi 0), el valor observado se acerca al valor real. Por otro lado, si el
error es alto, el valor observado no se acerca al real.

2) Estabilidad: Medición del error de medición.


 Se calcula restando dos valores de la variable observada, los cuales no deben ser muy
distintos para que pudieran ser medidos en una escala exacta, donde los puntajes son similares.
Ve= Vo1 –Vo2
 El valor observado se obtiene a través de un instrumento.
 La Vo1 debe ser similar a la Vo2 para obtener una escala exacta.

Determinación del error de medición.

Error= Vreal – Vobservado.

¿De dónde se saca? A través de un instrumento.


No hay acceso directo.

Los instrumentos que son exactos tienden a ser estables en sus puntajes.
Test 1 Test 2

Vobservado 1 = Vobservado 2. Exactitud Confiabilidad


Estabilidad

Formas para obtener estimadores empíricos del coeficiente de confiabilidad:


a) Método de las formas paralelas.
b) Método de repetición de test – retest.
c) Método de consistencia interna.

a) Método de formas paralelas:


Fases:
- Construir dos formas paralelas y equivalentes del test (mismos ítems o parecidos,
misma cantidad de `preguntas, etc.). ej.: 16 pf, cuatro formas.
- Aplicar las dos formas a una muestra amplia y representativa de la población de sujetos
a la que se destina el test.
- Calcular el coeficiente de correlación producto momento de Pearson con los dos
conjuntos de puntuaciones, el cual puede considerarse una estimación del coeficente de
confiabilidad. Buenos resultados serían de un Pearson de 0,60 hacia arriba.

b) Test – retest (con una forma del instrumento):


Fases:

37
1) Aplicar el mismo test en dos ocasiones a una misma muestra de sujetos.
2) Calcular el coeficiente de correlación entre los puntajes obtenidos en ambas
aplicaciones (Pearson).
Este resultado refleja la estabilidad de los puntajes a través del tiempo.
Existe una dificultad con este procedimiento y es la de determinar cuál es el tiempo
adecuado entre una y otra aplicación del test. Si es muy corto, las personas pueden recordar
las preguntas y pueden contestar lo mismo para permanecer coherentes (sobreestima). Si el
tiempo es muy largo, la persona puede cambiar en ese lapso (subestima). El tiempo en
general utilizado va de 2 semanas a tres meses.

c) Consistencia interna: Se mide una sola vez a la persona con el mismo instrumento.
Procedimientos:
1) División en mitades.
2) Coeficiente alpha de Cronbach.

1) División en mitades: Una vez aplicada la escala a una muestra de sujetos, se procede a
dividir los reactivos en dos grupos. Para cada grupo se obtiene un puntaje total. Finalmente
se calcula el coeficente de correlación producto momento de Pearson entre ambos puntajes
totales. Este coeficiente permite estimar la confiabilidad de la prueba.
2) Coeficiente alpha de Cronbach:
Evita las desventajas del procedimiento de División en mitades.
Desventajas de la División en mitades:
 Requiere dividir la escala en mitades
 No hay una única forma de hacer esta división, y por lo tanto genera incertidumbre de
si quedan los dos grupos iguales o no.
 El cálculo de Pearson se debe ajustar y por lo tanto es una estimación y no el valor real.

Interpretación del Coef. Alpha de Cronbach:


VALOR ALPHA DE CRONBACH INTERPRETACIÓN
0,90 -1,00 Muy confiable
0,80 - 0,89 Adecuada cofiabilidad
0,70 - 0,79 Moderada confiabilidad
0,60 - 0,69 Baja confiabilidad
0,50 -0,59 Confiabilidad muy baja (Se usa)
< 0,50 No es confiable (No se debe usar la escala ni sus puntajes)

Cuando un alpha de Cronbach es malo o muy bajo, ¿Cuáles podrían ser las razones,
porque no se llegó a 1?
Respuesta a través de un ejemplo:
Ej.: Alpha=0,46.
2 posibilidades:
- Que todos o la mayoría de los ítems son inconsistentes.
- Que solo algunos ítems sean inconsistentes.
El alpha de Cronbach posee valores entre 0 y 1. Mientras más cercano a 1 mejor es la
confiabilidad del instrumento.
¿Qué se podría hacer?
En el caso uno, la escala no sirve, se pierde. En el caso dos, debemos encontrar los ítems que
son inconsistentes, eliminarlos de la escala y seguir trabajando con los otros.
¿Cómo sabemos cuál de las dos opciones es?
A través del análisis de la capacidad discriminativa (homogeneidad).
Para llevar a cabo este análisis se procede a determinar el coeficiente de correlación
producto-momento r de Pearson entre cada uno de los ítems de la escala y el puntaje total
corregido de la escala.

38
EJEMPLO:

R de Pearson con
Ej.: entre los valores de ítem 1 y total corregido 1.

ID Ítem 1 Ítem 2 Ítem 3 Ítem 4 Total Total Total Total


corregido corregid Corregido
(1) o (2) (3)

1 1 1 2 1 5 (5-1) 4 (5-1) 4 Etc.

2 2 1 2 2 7 (7-2) 5 (7-1) 6

3 1 1 3 2 7 (7-1) 6 6

4 5 4 3 5 17 Etc. Etc.

5 4 4 4 4 16 Etc. Etc.


n

A cada ítem se le asocia un total corregido. Total corregido (1) = se le resta el ítem uno al total
de la fila. Luego se saca el R de Pearson con los valores de la columna ítem 1 y total corregido
(1). Para interpretar el resultado de r se debe considerar que puntajes mayores a 0,30 pueden ser
considerados confiables. Mientras más lejano a cero en el sentido de los números negativos más
inconsistentes y menos confiables.
Ej.: r ítem 1= 0,51
Ítem 2= 0,45
ritem 3= 0,04 debe ser eliminado.

Otra opción: la que vimos con el Profesor Fernando Reyes

39
1) Se Seleccionan todos los ítems de la escala que queremos analizar y luego aparecen los
siguientes resultados:
Analizar->escala->analisis de fiabilidad

40
PD: LA TABLA CON LOS VALORES DE ALFA ES IMPORTANTE SABERSELA

41
42
VALIDEZ:
Se define una variable y se construye un instrumento que la mida. Surge el problema de evaluar
en qué medida el instrumento o conjunto de operaciones miden adecuadamente la variable.
 La validez del procedimiento de medición se refiere a que los datos resulten apropiados
para las inferencias y decisiones basados en ellos.
 Convencionalmente la definición de validez es el grado en que un instrumento mide lo
que pretende medir.
 La definición actual: Grado en que la evidencia empírica y las bases teóricas apoiyan la
adecuación de las interpretaciones y acciones basadas en las puntuaciones de los test.
Esta definición tiene dos implicaciones:
1) Énfasis en las puntuaciones y no en los instrumentos (validez y
confiabilidad son propiedad de los datos y no de los instrumentos)
2) Hay diferentes evidencias que permitirán justificar las decisiones que se
adopten en base a los datos entregados por un instrumento.

 La validez se ocupa para diferentes finalidades (trabajo, aprendizaje, grado de


sociabilidad, etc.)
 Hay distintos métodos para garantizar la adecuación de los datos (que un procedimiento
de medida puede ser válido e inválido al mismo tiempo).

3 TIPOS DE VALIDEZ:
a) La validez de contenido consiste esencialmente en el juicio. En forma individual o con
otras personas, uno juzga la representatividad de los elementos o reactivos. Su definición
puede ser guiada por la siguiente pregunta ¿es el contenido de esta medida representativo
del contenido o del universo de contenido de la propiedad que se va a medir?
Forma de evaluar la validez de contenido:
JUICIO DE EXPERTOS: 4 PASOS
Paso 1: Identificación y definición de las dimensiones del constructo.
Paso 2: Identificación de expertos en el constructo bajo estudio.
Paso 3: Juicio de los expertos acerca del grado en el que el contenido del instrumento es
relevante, representativo del constructo por medio de un procedimiento estructurado.
Paso 4: Un procedimiento para resumir los datos de la fase anterior.
El paso 3 y 4 requiere de:

43
 Entregar a los jueces descripciones claras de las dimensiones o constructo que deben
abordar los ítems del instrumento.
 Presentación de los ítems a los jueces, quienes compararan cada ítem con las dimensiones,
indicando a que dimensión corresponde cada uno. ( un ítem puede tener una o unas o
ninguna dimensión)
 Registro de la opinión de los expertos, se ocupa una pauta que contiene los ítems, también
una columna para cada dimensión del constructo y una columna que diga ninguna.
 Porcentaje de jueces que asigne cada ítem a la misma dimensión debe estar en el 75%.
Falla en la validez de contenido:
1) Alguna dimensión importante no está siendo medida.
2) Se miden con ítems todas las dimensiones, pero los ítems son poco precisos.
3) Los ítems no tienen nada que ver con el constructo.
b) Validez de criterio: Busca establecer la relación entre los resultados que entrega el
procedimiento de medición que se trata de validar y los resultados que entrega un proceso
de medición distinto.
Opciones del criterio:
El criterio que se va a utilizar debe poseer una validez y una confiabilidad satisfactoria.
1) Instrumento que mide le mismo constructo que intenta medir el instrumento que se
quiere validar.
2) Opinión de un evaluador calificado que evalúa el mismo constructo que mide el
instrumento que se intenta evaluar.
3) Instrumento que mide un constructo diferente, pero que se encuentre muy
relacionado con el instrumento que se quiere validar.

*En la práctica se usa una mezcla de los tres.


Procedimiento:
1) Identificar uno o más criterios relevantes.
2) Seleccionar una muestra numerosa de sujetos representativos de la población en la que será
usado el instrumento a validar.
3) Obtener para cada sujeto una medición tanto en el instrumento que se está validando como
en los criterios.
4) Determinar estadísticamente el grado de relación entre las puntuaciones del instrumento y
los resultados obtenidos en el criterio. En este último punto se utilizan dos análisis
estadísticos para el procedimiento. R de Pearson y t de Student para muestras
independientes.

Temporalidad del criterio:


Se puede ver de dos formas:
1) Validez predictiva: grado en que las puntuaciones del test predicen medidas del criterio
tomadas posteriormente, es decir, las conductas futuras del sujeto en el criterio.
2) Validez concurrente: grado en que las puntuaciones del test correlacionan con las de
criterio, medidas al mismo tiempo, es decir, en la situación actual del individuo en el
criterio.
c) Validez de constructo: La validez de constructo vincula las nociones prácticas y
psicométricas con las nociones teóricas.

Tiene dos ideas o acepciones:


1. Si la estructura interna de la información (agrupamiento de ítems) es consistente con la
estructura (dimensiones/factores) que la teoría plantea para el constructo. Para evaluar
esta idea se utiliza el ANÁLISIS FACTORIAL (no es ANOVA).
 Procedimiento estadístico multivariado para la reducción de información.
 Permite saber cuantos factores mide el instrumento y que ítem mide cada factor.

44
 Tiene dos variantes:
a) Análisis factorial exploratorio (EFA): Programa busca cuántos factores mide el
instrumento y que ítem mide cada factor.
b) Análisis factorial confirmatorio (CFA): Se le indica al programa cuántos factores
cree uno que mide el instrumento y que ítem cree uno que mide el factor.

2. Si las mediciones que proporciona el instrumento reproduce la red de relaciones que el


constructo evaluado debería mostrar con otros constructos.
 Para evaluar se ocupa la matriz multirasgo/multimétodo:
 Tiene dos o más modos de medir el constructo de interés (multimétodo)
 Se le pide la investigador que identifique otros constructos diferentes que
puedan ser medidos por los mismo métodos utilizados por el constructo de
interés (multirasgo)
 Se selecciona una muestra de sujetos a la que s ele aplican todas las medidas
de cada constructo y de cada método.
 Obtenido los datos se calculan las correlaciones entre todas las medidas y se
presentan e forma de una matriz.
 Se analiza el patrón de correlaciones observado y se concluye si el
instrumento posee o no una adecuada validez de constructo.

Ejemplo análisis factorial exploratorio paso a paso:

45
OJO: Existen unas teorías a la base del análisis psicométrico (que es confiabilidad y validez)
estas se llaman teoría de respuesta al ítem y teoría clásica.
También es importante que para los instrumentos las validez que se pueden ver es la de
contenido, de criterio (pudiendo ser concurrente o predictiva), la aparente y la de constructo
(que es la que vemos con el análisis factorial). PD: LO ANTERIOR; NO CONFUNDIR
CON VALIDEZ INTERNA Y EXTERNA PORQUE ESTAS SON DEL EXPERIMENTO
Y NO DEL INSTRUMENTO.

Tablas análisis factorial (otro ejemplo)


1)
KMO y prueba de Bartlett

Medida de adecuación muestral de Kaiser-Meyer-Olkin.(para


ver
si existen factores latentes, tiene que ser mayor a ,773
0,7 , pero a veces es mayor a 0,5 y también es
aceptado)
Prueba de esfericidad de Bartlett Chi-cuadrado aproximado
(también para ver 2741,880
factores latentes y tiene gl
que ser significativa o 190
sea menor a 0,05)

Sig.
,000

PD: DEBEN EXISTIR FACTORES LATENTES PARA HACER EL ANALISIS

46
47
EXPLICACION TABLA ANTERIOR: Acá nos fijamos en el valor total y cuales van a ser
mayores que 1, los mayores que 1 son los componentes que vamos a ocupar para la escala y
después cuando se les da nombre se llaman factores, también al lado sale cuanto % de la
varianza explican cada uno y en porcentaje acumulado significa la varianza que van explicando
cuando se van juntando por ejemplo los tres primeros explican un 48,916% de la variable.
También otra opción es que pueden poner el grafico de sedimentación que en ese se tiene que
ver cuales valores se escapan de la línea, para ver cuantos componentes tenemos.

Varianza total explicada (otro ejemplo)

Componente Autovalores iniciales


% de la
Total varianza % acumulado
1 6,592 32,960 32,960
2 1,949 9,747 42,707
3 1,646 8,232 50,939
4 1,269 6,346 57,285
5 1,113 5,564 62,848
6 ,954 4,769 67,617
7 ,875 4,374 71,991
8 ,826 4,130 76,121
9 ,656 3,281 79,402
10 ,641 3,206 82,608
11 ,619 3,095 85,704
12 ,523 2,614 88,318
13 ,486 2,428 90,745
14 ,438 2,192 92,937
15 ,338 1,688 94,625
16 ,313 1,563 96,188
17 ,272 1,362 97,550
18 ,199 ,996 98,545
19 ,152 ,759 99,305
20 ,139 ,695 100,000
Método de extracción: Análisis de Componentes principales.

Acá nos fijamos en el valor total y cuales van a ser mayores que 1, los mayores que 1 son los
componentes que vamos a ocupar para la escala y después cuando se les da nombre se llaman
factores, también al lado sale cuanto % de la varianza explican cada uno y en porcentaje acumulado
significa la varianza que van explicando cuando se van juntando por ejemplo los tres primeros
explican un 50,939% de la variable.
También otra opción es que pueden poner el grafico de sedimentación que en ese se tiene que ver
cuales valores se escapan de la línea, para ver cuantos componentes tenemos.

48
Gráfico de sedimentación

6
A u to v a lo r

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Número de componente

49
Acá en esta tabla aparecen al lado izquierdo los ítems de la escala y en cada componente
aparece su carga factorial asociada, acá se tiene que ver donde se carga cada ítem y en el
caso de que se cargue en dos componentes ese ítem se queda en el componente en donde su
carga es mayor. Por ejemplo el ítem A2 se queda en el componente 2. Luego de esto se
agrupan los ítems en relación a cada componente que quedaron y se ve que dice cada uno
para así poder darle nombre al componente y llamarse factor!!!
Matriz de componentes rotados(a) (otro ejemplo)

Componente
1 2 3 4 5
E22 ,781
E14 ,600 ,336
E21 ,597
E15 ,590 ,409
E9 ,555 ,309
E16 ,536 ,479

50
E13 ,526 ,427
E3 ,854
E2 ,823
E11 ,690
E19 ,762
E10 ,586 ,358
E7 ,422 ,348 ,547
E17 ,542 ,501
E8 ,300 ,471 ,542
E20 ,528
E5 ,803
E4 ,387 ,747
E23 -,847
E1 ,678
Método de extracción: Análisis de componentes principales.
Método de rotación: Normalización Varimax con Kaiser.
a La rotación ha convergido en 9 iteraciones.
Por ejemplo el ítem E22 se queda en el componente 1, pero el ítem E8 carga en el componente 1, 2
y 3 pero como en el 3 tiene carga de 0,542 se atribuye a ese componente.
Luego de esto se agrupan los ítems en relación a cada componente que quedaron y se ve que dice
cada uno para así poder darle nombre al componente y llamarse factor
42ª: Investigación Cualitativa - Investigación II  Diseños y tipos de investigación
cualitativa

Enfoque fenomenológico
Enfoque etnográfico.
Teoría fundamentada.

1. Enfoque fenomenológico
Algunos antecedentes de la fenomenología:
 La fenomenología se hereda de la filosofía y la sociología, constituyéndose en la
corriente filosófica de mayor influencia en el siglo XX.
 Contrario al positivismo, en enfoque fenomenológico considera que el conocimiento no
es total.
 Etimológicamente, fenomenología proviene de “phenomenon”, que significa “que se
muestra”. Esto quiere decir que uno no ve la realidad, sino lo que ésta representa.
 La fenomenología busca comprender cómo los sujetos experimentan su realidad; se
interesa por describir la experiencia de los sujetos, tal cual la viven. Buscando comprender y
mostrar la esencia del mundo subjetivo del hombre, conformado por todo el campo de
experiencias, percepciones y recuerdos al que un individuo puede acceder en un momento
determinado.
 El abordaje de la realidad, siempre parte desde el marco de referencia interno del
individuo
 El enfoque fenomenológico pasa por el desarrollo de técnicas conversacionales, que
luego el investigador plasma en un reporte.

Orientaciones fenomenológicas:
Fenomenología eidética (Husserl, corte filosófico)
a. Considera nefasto del positivismo el formalismo (traducir todo el conocimiento a una
estructura matemática) y el nominalismo (todo conocimiento científico debe tener correlato
medible en la realidad).

51
b. Surgimiento del “mundo social”: “el mundo de la vida” trasciende lo que puede abarcar
el formalismo/nominalismo.
c. Conceptos:
1) Epoyé: poner la subjetividad entre paréntesis; suspender el propio juicio; acercarse a la
subjetividad del otro poniendo entre paréntesis la propia; implica asumir que se puede
estar equivocado.
2) Intentio: concepto de “intención”, entendido como “la conciencia de”.
3) Asepsia: aproximación al mundo de los significados alejándose del mundo de la
metafísica o lo no científico.

Fenomenología hermenéutica (Heidegger)


a. Pone énfasis en el rol interpretativo del investigador y del “que está allí” (vivenciar e
interpretar).
b. El hombre cuando ve el mundo está posicionando en un lugar (lugar social). La sustancia
del hombre es la existencia: ser en el mundo.
c. Lo que se ve tiene que ver con las experiencias propias y la situación histórica
culturalmente determinante: sujeto está histórica y culturalmente determinado.
d. Desde esta perspectiva, la fenomenología destaca la intencionalidad humana, que sería la
forma en que los significados determinan las acciones hacia los objetos. Estas acciones, a su
vez, estarían determinadas por la conciencia, mientras que esta última valora la experiencia
subjetiva y estudia los procesos de interpretación (desde el sujeto), es decir, cómo las
personas viven y significan su mundo.

Fenomenología de Schutz (corte sociológico)


 Reformula la fenomenología eidética desde la sociología.
 No pone énfasis en las grandes teorías sociales, sino en generar conocimiento desde los
sistemas microsociales.
 “Interpreta la acción” no desde el sistema, y sí desde la experiencia del actor.
 Además de conocer el significado se lo debe cuestionar (crítica a Weber).
 Desde el enfoque de Schutz, la investigación social es una investigación fenomenológica,
y la realidad está construida por significados objetivados: construidos por alguien, y se llega
a ellos a través de la intención (intenciones de la relación sujeto/objeto; relaciones causales
para qué/por qué).

Aspectos generales de la fenomenología como diseño en investigación cualitativa:


(LO IMPORTANTE)
Principios teóricos del diseño fenomenológico:
1. Primacía otorgada a la experiencia subjetiva inmediata como base de conocimiento.
2. Estudio de los fenómenos desde la perspectiva de los sujetos, teniendo en cuenta su
marco de referencia.
3. Interés por conocer cómo las personas experimentan e interpretan el mundo social.

Principios metodológicos del diseño fenomenológico (etapas de la investigación):


1.Clarificación de los presupuestos de los cuales parte el investigador
a) Se explicitan los supuestos de la investigación y su influencia en la misma.
b) Se observa y reflexiona.
c) Se revisa la teoría y se hace referencia a datos de otras investigaciones.
2.Descripción que refleja lo más fielmente posible, la realidad vivida por los individuos.
a) Se observa dejando entre paréntesis la teoría y nuestras creencias, para reflejar la
vivencia de los sujetos lo más fielmente posible (epoyé).
b) Se describe y representa la realidad del sujeto.
c) Se hace referencia al espacio y tiempo en el cual se aborda el fenómeno y los datos
del sujeto, como la edad, genero etc. (contexto).
3.Estudio y análisis fenomenológico

52
a) Se estudian las descripciones para delimitar los temas centrales, dando paso a la
elaboración de categorías, para luego integrar las categorías señaladas en una
estructura global que las incluya.
b) Analizar, reflexionar y percibir la totalidad.
c) Pasar desde lo que dicen los sujetos, a su subjetividad (esencia del significado). Y
desde estos significados particulares encontrar similitudes que nos permitan
observar lo universal.
4.Discusión del resultado del análisis, en contraste con lo planteado por otras
investigaciones.
a) Relacionar lo fenomenológicamente descrito, con lo que ha sido teóricamente
establecido previamente.
b) Comparar, analizar y sintetizar.
c) Se reduce lo universalmente esencial para dar paso a lo trascendental e
intersubjetivo.

Enfoque etnográfico
Fenomenología (filosofía, sociología) Etnografía (antropología)
Visión en torno a un foco. Funcionamiento de un grupo contextualizado.
Como la gente experimenta los fenómenos Estudio del “etnos” (endogrupo).
(significados que se le atribuyen).

1. Objetivo del estudio etnográfico


1. Descripción de un “etnos”, de un grupo claramente definido.
2. Busca describir el modo de vida del “etnos”.
3. Busca indagar en la cultura (cosmovisión, valores, creencias, formas de interactuar) del
“etnos”.
4. Estudia el “etnos” desde la perspectiva de los miembros: estudio de un grupo que no es el
propio (desde afuera) y aproximación al otro desde su propio lenguaje.

2. Definición de etnografía
 Trabajo de describir una cultura.
 Comprender la forma de vida de un grupo desde el punto de vista de sus miembros.
 Más que “estudiar a la gente” es “aprender de la gente”: “proceso de aculturación
controlada”; es más que extraer datos de la gente, por eso depende de las concepciones
culturales vigentes y cómo entiendo a los otros. Estos dos últimos aspectos son parte de la
evaluación de la etnografía, así como también lo son:
1) La perplejidad (distinciones llamativas).
2) Sobrevalorización de mi cultura.
3) Diversidad (hay otro distinto, todos somos diferentes): estudio de los otros = alteridad.

3. Alteridad (preocupación por el otro o por la “otredad”)


La otredad visto como otro distinto a mí pero a la vez igual como humano
Varias etapas:
1) Antigüedad/ Medioevo:
a) Heródoto (padre de la historia, decripción de distintas culturas).
b) Tácito (estudió a los germanos).
c) Marco Polo (cuenta las vivencias en china).
d) Battuta (relata la vida de los grupos con los que se cruzó).

2) Edad moderna (S. XVIII-XIX):


a) Morgan: secuencia evolucionista de la progresión cultural (todas las culturas pasan
por tres etapas: salvajismo, tribus; barbarie, domesticación; civilización, escritura).

53
b) Le play (quiebre): no hay modelos a priori; visión del fenómeno desde todas las
perspectivas posibles (triangulación metodológica y teórica); datos sobre
preconcepción.
c) Siglo XIX-XX: particularismo histórico de Boas:
 Crítica al evolucionismo (importancia del ambiente, la psiquis individual y la historia).
 Considera la “singularidad cultural”.
 Es riguroso en la recolección de datos.
 Los datos deben ser contextualizados.
d) Siglo XIX-XX/primera guerra mundial:
 Malinowski, funcionalismo: función social (soluciones colectivas a necesidades
individuales); presencia personal y prolongada; perspectiva nativa; cultura como
sistema.
 Benedict, particularismo histórico: culturas son únicas; se comprenden en sus propios
términos; estudio de culturas japonesa, polinesia y malari; critica la asociación de la
adolescencia y el temperamento a la cultura y género.

4. Características actuales de la etnografía


1) Vinculada a la antropología.
2) Guber: etnografía tiene una triple acepción:
a. Como una orientación epistemológica: existiría una óptica etnográfica para
aproximarse a la realidad; así se podría decir que toda la investigación
cualitativa se basa en epistemología etnográfica.
b. Como un método: etnografía puede ser vista como una estrategia de estudio
(“diseño etnográfico”).
c. Como un texto: informe etnográfico (producto del proceso de investigación;
“etnografía como una radiografía cultural”.
3) Presenta principios de investigación que son transversales a todas las formas de
investigación social.
4) Es holista: considera la realidad compleja, abarcando todo el contexto del fenómeno; el
hecho estudiado está inserto en otros hechos y en el contexto que genera.
5) Es selectiva: hace un trabajo focalizado = elige un foco no definido a priori, primero
vagabundea y luego se estrecha hacia el foco. Busca describir cómo se construyen los
fenómenos en un grupo.
6) Es naturalista: in situ = estudio en su ambiente natural, porque la cultura es una
construcción única que depende de su contexto. Ambiente etnográfico permite definir
de dónde se genera la conducta.
7) Contextualizado: perspectiva personal y global; temporal (cuándo), espacial (dónde) y
social (con quiénes).
8) Inductivo: no hay datos estructurados.
9) Émico: desde el lenguaje de los protagonistas.
10) Evolutivo: no hay un foco elegido de antemano; se parte de la investigación con una
mirada amplia que se va reduciendo progresivamente.
11) Juicios de valor entre paréntesis (epojé).
12) Reflexividad: mutua influencia = en la interacción con los otros hay un proceso de
significación bidireccional (cambia y se afecta el investigador por la cultura, y cambian
los grupos por la presencia del investigador).

5. Conceptos clave de la etnografía


1) Reflexividad: construcción de significados en la interacción; se debe promover, invitar
al grupo a construir información.
2) Aprendizaje del oficio: implica una resocialización controlada (se vive el fenómeno
desde adentro, pero no se forma parte de él) de:
a. La mirada (flexible, sensible, holística).
b. El diálogo (punto de encuentro, no de excavación).
c. Del registro (textualizar el campo).

54
6. Estudio etnográfico
Distingue entre:
Macroetnografía: de las sociedades.
Microetnografía: situaciones sociales puntuales.
Tiempo de duración:
Hasta la saturación de la información.
3 meses (microetnografía), 1 a 10 años (macroetnografía).
7. Fases de la etnografía
1) Acceso al escenario sociocultural.
2) Identificación del fenómeno a estudiar.
3) Negociación del rol o posición dentro de la dinámica social cotidiana: balcón
interno o negociación para ver el grupo desde adentro.
4) Selección de informantes claves de estrategias de producción de información.
5) Registro, ordenamiento, reducción y validación (con alguien del grupo) de la
información.
6) La información se analiza e interpreta.
7) Reformulación y reenfoque del estudio: basado en el conocimiento y
comprensión obtenidos.
8) Preparación del retiro del campo.
8. Método de la etnografía
Observación participante: se necesita formar parte del grupo para saber los significados que
ocurren en torno a un fenómeno. Debe tener en cuenta:
1. Variedad metodológica (multitécnica, complementando la observación
participante).
2. Instrumentos deben generarse in situ.
3. Contacto prolongado y repetitivo (elástico->finaliza con la saturación teórica, no
se sabe a priori el tiempo de investigación).
4. Triangulación
5. Producto: narración personalizada en 1ª persona.
6. Flexible (apertura a incorporar procedimientos de recolección y análisis de
información)

Fenomenología (filosofía, sociología) Etnografía (antropología)


Visión en torno a un foco. Funcionamiento de un grupo contextualizado.
Como la gente experimenta los fenómenos Estudio del “etnos” (endogrupo).
(significados que se le atribuyen).

Teoría fundamentada
a) Procedimiento que a partir de los datos permite generar teoría (inductiva-> de lo
particular a lo general).
b) Ve la experiencia del sujeto, los factores que intervienen, etc.
c) Describe la experiencia contextualizada.
d) Aborda el fenómeno y se amplía a otros factores.
e) Mientras la fenomenología es esencialmente descriptiva, y se queda en el centro del
fenómeno, la teoría fundamentada toma en cuenta los factores de afuera considerando
las causas del fenómeno, sus factores intervinientes y sus consecuencias.
f) Se origina en la sociología, más específicamente en el interaccionismo simbólico.
g) Su mayor aporte tuvo que ver con el concepto de saturación teórica y con el uso del
método de comparación constante (hasta el momento el análisis comprendía la
inducción analítica, es decir, probar una teoría con los datos recolectados; los autores

55
Glasser y Strauss plantean que hay que detenerse en la producción de información
cuando el investigador es capaz de predecir lo que va a ocurrir).
h) La única forma de llegar a la saturación teórica a través de este método, es el muestro
teórico (selección de informantes, el muestreo no es a priori; estratégico, pragmático,
por conveniencia).
Origen
a. Altos recursos económicos para la Universidad de Chicago en los años 30, llevó a un
aumento de la producción de investigación cualitativa.
b. Luego EE.UU. quiere una visión más general, y para eso la Universidad de Columbia
aporta con sus investigaciones.
c. En los años 60, las dos escuelas se encuentran en los autores B. Glasser (U de
Columbia) y A. Strauss (U de Chicago).
Glasser: métodos cuantitativos (Lazarsfeld), operacionalización; teorías de alcance
medio (Merton), fenómeno no en general, sino de la sociedad.
Strauss: estudio microsocial (Simmel), no en grupos, sino en situaciones;
interaccionismo simbólico (Blummer).

Influencias teóricas a la base


a) Pragmatismo: utilidad práctica de los resultados
b) Paradigma post-positivista: las teorías dormitan en los datos que se deben recolectar.
c) Interaccionismo simbólico: Interés puesto en los significados interpersonales.

Definición
 Método general para el desarrollo inductivo de teorías.
 Genera modelos conceptuales a partir de la observación del mundo social.
 Teoría no es la base, sino el producto del estudio.
 En definitiva, la teoría fundamentada es el descubrir teorías, conceptos, hipótesis y
proposiciones partiendo directamente de los datos, y no de supuestos a priori, de otras
investigaciones o de marcos teóricos existentes.
Teoría
 Modelos conceptuales, formas de explicación.
 Esquema analítico abstracto de un fenómeno vinculado a una situación y un contexto
particular.
 Forma de la teoría (narración, figura, serie de proposiciones, dependerá de la tradición de la
teoría fundamentada).
 Requisitos de una teoría:
a) Ajuste a los datos: cada cosa dicha en investigación debe calzar con los datos.
b) Funcionamiento: explicar el fenómeno.
c) Parsimonia: decir cosas de la manera lo más sencilla posible.
d) Tipos de teoría:
1. Teorías formales: áreas temáticas o conceptuales, referida a fenómenos universales.
2.Teorías sustantivas: áreas concretas de donde extraer conocimiento; dar sentido a
cuestiones prácticas de la vida social; son locales y/o aplicadas.

Glasser Strauss
Teoría formal como meta. Teoría puede ser formal o sustantiva; no
generalizables.
Acumulación de teorías sustantivas, generan Teorías no necesitan ser generalizables, sino
una teoría formal. útiles (generativas).

Método de la teoría fundamentada

56
Teoría fundamentada: forma de hacer investigación con estructura lógica, con su propio
muestreo y lógica de análisis. Tiene sus propias formas y producción.
1) No tiene métodos de producción específicos: no dice si elegir uno u otro, no hay una
predilección definida, pero hay más uso de entrevistas y observaciones.
2) Selección de participantes: muestreo teórico y muestreo intencional.
3) Análisis: método de comparación constante.
4) Saturación teórica: el análisis y muestreo se hacen en conjunto hasta no obtener más
información nueva.

1) Método de comparación constante

El investigador, codifica y analiza los datos de forma simultánea para desarrollar conceptos. Su
aplicación supone la contrastación de las categorías, propiedades e hipótesis que surgen a lo
largo de un estudio en sucesivos marcos o contextos. Este procedimiento se desarrolla en cuatro
etapas (Glaser y Staruss, 1967):
La primera implica la comparación de los datos, la segunda supone una integración de cada
categoría con sus propiedades; la tercera requiere delimitar la teoría que comienza a
desarrollarse; por último, en la cuarta etapa, que se produce tras un proceso de saturación de los
incidentes pertenecientes a cada categoría; recoge la redacción de la teoría.
Durante todo este proceso el investigador, selecciona nuevos cados a estudiar, según su
potencial información para ayudar a elaborar la teoría, refinando o expandiendo conceptos. Este
proceso se conoce con muestreo teórico.

- Glasser: “estar abierto a lo que emerge”:


1) Identificar los fenómenos: categorías, describir el fenómeno; codificación abierta.
2) Codificación selectiva: identifica cómo los elementos se relacionan entre sí. Explicaciones
relevantes; modelo de relaciones predefinidas, elección de las categorías más relevantes.
3) Codificación teórica: ser capaces de narrar el proceso, fenómeno en su conjunto; agrupación
de todos los códigos selectivos.

- Strauss y Corbin (diseño sistemático):


 “Mantener el carácter emergente de la teoría fundamentada, pero con una idea
preconcebida”.

Características del análisis de datos (codificación)

 Concurrente con la recogida de datos


 Proceso sistemático, ordenado, flexible

 Actividad reflexiva –Notas analíticas-

 Los datos se “segmentan” en unidades de significado.

 Las categorías son tentativas y flexibles

 El recurso intelectual es la comparación

 El tratamiento de datos es una actividad ecléctica

 Los procedimientos ni son “científicos” ni son “mecánicos”

 –es una “artesanía intelectual”

57
 Los resultados son un tipo de síntesis de orden superior

La codificación es un proceso analítico por medio del cual se fragentan, conceptualizan e


integran los datos para formar una categoría. Existen 3 tipos de codificaciones:
1. Codificación abierta: proceso analítico por medio del cual se identifican los conceptos y
se descubren en los datos sus propiedades y dimensiones

- Incidentes  categorías  propiedades


- Acciones identificar: propiedades y dimensiones exhaustivamente.
- Utilidad de esta etapa: identificar categorías y dimensiones; identificar tipologías.
- Muestreo teórico abierto.

2. Codificación axial: proceso de relacionar las categorías a sussubcategorías,denominado


"axial" porque la codificación ocurre alrededor del eje de una categoría, y enlaza las categorías
en cuanto a sus propiedades y dimensiones.

Tareas básicas de la codificación axial:

- Organización contextual  paradigma de codificación.


- Acciones  identificar relaciones y validarlas empíricamente.
- Proceso:
 Reconocimiento de fenómenos axiales.
 Causas del fenómeno.
 Factores intervinientes del fenómeno que pueden modificarlo (estrategia de acción-
interacción).
 Consecuencias
 Contexto en el que ocurre el fenómeno.
- Utilidad de esta etapa: generar “teorías” parciales; abrir perspectivas.
- Muestreo teórico focalizado.

ESQUEMA GENERAL DE CODIFICACIÓN AXIAL(no pude encontrar el autor)

• FENÓMENO
• CONDICIONES CAUSALES
• CONTEXTO
• CONDICIONES INTERVINIENTES
• ESTRATEGIAS DE ACCIÓN
• CONSECUENCIAS

ELEMENTO DESCRIPCIÓN
Fenómeno la idea central, evento, suceso o incidente al cual se refieren
las acciones o interacciones con el cual se relacionan
Condiciones causales Son los eventos o variables que conducen a la ocurrencia o
desarrollo del fenómeno. Es un conjunto de causas y sus
propiedades
Contexto El set de propiedades específicas con el cual se da el
fenómeno.
Difícil de distinguir de las condiciones causales. Son las
localizaciones específicas (valores) de las variables que lo
definen. Un conjunto de condiciones que influyen en la
acción/estrategia. Los investigadores hacen frecuentemente

58
una curiosa distinción entre variables activas (causas) y
variables de contexto. Tiene más que ver con lo que el
investigador encuentra interesante que con distinciones de la
naturaleza.

Condiciones intervinientes las condiciones estructurales que influyen sobre las


estrategias de acción/interacción que pertenecen al
fenómeno. Ellas facilitan o interfieren las estrategias
implementadas dentro de un contexto específico.
Estrategias de acción Las acciones determinadas, orientadas a metas que los
agentes realizan en respuesta al fenómeno y a las
condiciones intervinientes.
Estrategias para manejar, llevar a cabo o responder ante un
fenómeno (bajo un determinado set de condiciones
percibidas)
Consecuencias Son las consecuencias de la acción estratégica, tanto
esperadas como inesperadas..
EJEMPLO:

3. Codificación selectiva: proceso de integrar y refinar la teoría. El primer paso que se lleva a
cabo para integrar los datos es determinar una categoría central o medular, la cual representa el
tema principal de la investigación. Aunque la categoría central va evolucionando a partir de la
investigación, también es una abstracción. En un sentido exagerado consiste en todos los
productos del análisis, condensados en unas cuantas palabras que parecen explicarnos"de qué
trata esta investigación".

- Tema central: teoría


- Acciones: elaborar una teoría (validarla, sostenerla, podarla).
- Utilidad de esta etapa: genera una teoría única que explique comprensivamente el
fenómeno.
- Muestreo teórico discriminante.

59
Propósitos de los procesos de codificación en general:
-Construir teoría más que comprobarla
-Ofrecer a los investigadores herramientas útiles para manejar grandes cantidades de datos
brutos
-Ayudar a los analistas a considerar significados alternativos de los fenómenos
-Ser sistemático y creativo al mismo tiempo
-Identificar, desarrollar y relacionar los conceptos, elementos constitutivos básicos de la teoría.

Tipo de resultados en teoría fundamentada:


1) Descriptivos: obtenidos a partir de la codificación abierta. Pueden originar
clasificaciones.
2) Analítico-relacionales: surgen de la codificación axial y selectiva. Aquí se obtienen
modelos densos de explicación.

b) Tradiciones
1) Glasser: diseño emergente
 Teoría debe tener: ajuste, funcionamiento, relevancia, modificabilidad.
 No usar ideas preconcebidas.
2) Strauss: diseño sistemático
 Conjunto de pasos que facilitan la teorización.
 Inductivo, creativo y sistemático.
3) Chamaz: diseño constructivista
 Diseño emergente y sistemático serían objetivistas.
 No hay realidad unidimensional.
 Observador y observado.

Cuándo usar Metodología CUALI:


1. Estudio de fenómenos poco conocidos.
2. Acceso a los significados que los involucrados le otorgan a la acción social (subjetividad).
3. Reconstruir escenarios psicosociales complejos (ej: representaciones en torno al 11 de
Septiembre de 1973).
4. Reconstruir retrospectivamente procesos psicológicos o sociales (ej: episodios de cambio en
psicoterapia).
5. Generar nuevos modelos conceptuales o teóricos.
6. Integrar la investigación con la intervención (ej:investigación-acción participativa).
7. Contrastar hipótesis.
Fenomenología Se requiere comprender significados subjetivos de la experiencias de
las personas respecto de un fenómeno
Teoría Fundada Se requiere generar de teoría a partir de datos
Etnografía Se requiere describir una cultura y sus significados desde los actores y
los investigadores.
Etnometodología Se requiere describir una realidad social a partir de sus prácticas
cotidianas. No busca cuestionar ni explicar significados.

Cuanti Cuando se requiere medir y predecir comportamientos observables

60
Generalizar a la población
Se requiere una explicación causal
Cuando se tiene una hipótesis que verificar
Cuando hay una realidad objetiva y particular que estudiar
No experimental Observa, no interviene
Experimental Prueba causalidad. Controla Variables. Grupos aleatorios
Cuasiexperimental Confirmatoria, Grupos predefinidos.

42b: Investigación CualitativaTécnicas de recolección de datos en investigación


cualitativa.
Técnicas conversacionales: entrevistas y focusgroup
Técnicas observacionales.
Planificación, ejecución, calidad, y aspectos éticos relacionadoscon la aplicación de tales
técnicas.
Técnicas conversacionales:
ENTREVISTAS: Tipos de entrevistas
a) Entrevistas estructuradas: Consiste en proporcionar cuestionarios estructurados, en los
cuales las preguntas están predeterminadas tanto en su secuencia como en su formulación. Es
decir, el entrevistador formula -en la mayoría de los casos- un número fijo de preguntas de
forma estándar y en el mismo orden. Las respuestas también están prefijadas de antemano.
- Situación en la que un entrevistador realiza preguntas a cada entrevistado mediante preguntas
a cada entrevistado, mediante una serie de preguntas preestablecido habiendo un set limitado de
categorías de respuesta.
- Hay muy poco o ningún espacio para preguntas abiertas.
- La codificación de las respuestas se realiza con un esquema preestablecido.
- Todos los entrevistados reciben el mismo set de preguntas.
- Instrucciones:
1) Nunca hablar sobre los objetivos de la investigación, más allá de lo necesario.
2) Nunca se puede desviar de la introducción del estudio, de la secuencia de preguntas y de las
palabras de las preguntas.
3) Nunca se debe dejar que otra persona interrumpa la entrevista, ni dejar que otro responda por
el entrevistado.
4) Nunca sugerir algún tipo de respuesta o dar algún tipo de expresión a favor o en contra de lo
dicho por el entrevistado. No dar opiniones ni indicios de ellas.
5) Nunca interpretar el significado de una pregunta, sólo se repite para clarificarla.
6) Nunca improvisar, ni en las categorías de respuestas, ni en el modo de realizar las preguntas.
- Rol del entrevistador es neutral (rapport balanceado: establecer una relación de confianza, pero
de distancia).
- Errores que se pueden producir en la entrevista estructurada:
1) Conducta del entrevistado: puede entregar respuestas por deseabilidad social, o bien omitir
información.

61
2) Tipo de cuestionario: algunos medios de entrevista pueden producir información errónea (ej:
por teléfono); modo de hacer las preguntas.
3) El entrevistador cambia el modo de la entrevista: la naturaleza predeterminada de la
entrevista está orientada a minimizar los errores.
B) Entrevistas semi estructuradas: Al igual que las anteriores las preguntas están definidas
previamente -en un guión de entrevista- pero la secuencia, así como su formulación pueden
variar en función de cada sujeto entrevistado. Es decir, el/la investigador/a realiza una serie de
preguntas (generalmente abiertas al principio de la entrevista) que definen el área a investigar,
pero tiene libertad para profundizar en alguna idea que pueda ser relevante, realizando nuevas
preguntas. Como modelo mixto de la entrevista estructurada y abierta o en profundidad,
presenta una alternancia de fases directivas y no directivas.
c) Entrevistas en profundidad (no estructurada o abierta): También denominada por algunos
autores como entrevista abierta. Generalmente suelen cubrir solamente uno o dos temas pero en
mayor profundidad. El resto de las preguntas que el investigador realiza, van emergiendo de las
respuestas del entrevistado y se centran fundamentalmente en la aclaración de los detalles con la
finalidad de profundizar en el tema objeto de estudio. Aunque es la que más se caracteriza por la
carencia de estructura –salvo la que el sujeto le de- y por la no-dirección, no hay que olvidar que
las entrevistas deben desarrollarse bajo la dirección y el control sutil del investigador/a. Lo que
se dice en las páginas siguientes puede aplicarse a todas las entrevistas independientemente del
enfoque.
- Sería una técnica cualitativa “por derecho propio”.
- Características:
1) Inexistencia de cualquier pauta de preguntas (no hay preguntas, sino un tema y un foco).
2) No hay estructuración de subtemas previas.
- Pasos a seguir:
1) Acceso al setting: acceder al escenario social donde se da el fenómeno; no olvidar que en
algunos casos no hay setting (ejemplo: personas que viven en la calle).
2) Comprensión del lenguaje que hablan los entrevistados.
3) Decidir cómo nos vamos a presentar a nosotros mismos (aquí vale mucho la 1ª impresión).
4) Localizar un informante (“informante clave”): será el facilitador para entrevistar a otras
personas y acceder al lenguaje.
- Aspectos éticos:
 Consentimiento informado.
 Derecho a la privacidad.
 Proteger de cualquier daño a las personas investigadas.
 Si la entrevista será abiertamente grabada o no.
 Grado de involucramiento de los investigadores.
Adecuación de las entrevistas en profundidad en las siguientes situaciones:
 Cuando se desea estudiar acontecimientos del pasado o no se puede tener acceso a un
particular tipo de escenario y por tanto los escenarios o las personas no son accesibles
de otro modo.
 La investigación depende de un amplia gama de escenarios o personas.
 Cuando existen limitaciones de tiempo en comparación con otras técnicas, como la
observación participante. Las entrevistas permiten un empleo más eficiente del tiempo.
 El investigador quiere esclarecer experiencia humana subjetiva. En este caso los autores
se refieren a historias de vida basadas en entrevistas en profundidad.

62
La decisión de optar por la utilización de entrevistas, y en caso afirmativo, dictaminar su uso
combinado o propio, va a estar determinada por el diseño del estudio de investigación y en
concreto por el objetivo o los objetivos marcados en el estudio.
Tipos de preguntas
•Introductorias.
•De profundización.
•De sondeo.
•De especificación.
•Directas.
•Indirectas.
•De estructuración.
•Silencio.
•De interpretación.
Planificando entrevistas:
7 etapas:
1. Organización temática: por qué y de qué realizamos entrevistas. (por qué, propósito de
realizar entrevista y no otro --> podrían ser exploratorias, comprobación de hipótesis,
descriptivo, teorizante (teoría fundamentada), investigación acción participativa y como
material de apoyo para estudios de carácter práctico.
2. Diseño: tener claro dimensión temporal, sujetos entrevistados (+- 10, mayor
entrevistados, menor información nueva) y guión de las entrevistas (semiestructuradas)
3. Ejecución: aplicar entrevistas/producción (introducción informativa propósito de
entrevista, tema, objetivo, contexto, consentimiento informado; Sensación de vacío
dar espacio a preguntas; sesión de reflexión tiempo breve donde se le da la
posibilidad de dar su experiencia durante la entrevista.)
4. Transcripción.
5. Análisis: en función de este se modifican la estructura de las siguientes entrevistas.
6. Paralelamente al análisis: verificación: a medida que se hace el análisis y es posible
modificar, puedo volver a los mismos sujetos y a otros para ver si los resultados de la
entrevista está libre de sesgos.
7. Informe.

Aspectos éticos:
Microética:
-Consentimiento informado: dar a conocer los objetivos de la investigación, nuestros intereses,
quienes tienen acceso a las entrevistas, qué se va a registrar. Puede retirarse de la entrevista en
cualquier momento, es confidencial, los resultados se envían.
-Confidencialidad: Los datos confidenciales del entrevistado no pueden llegar a ser conocidos.
-Consecuencias: Considerar el beneficio o daño que puede causar la entrevista. Algunas pueden
gatillar algún evento traumático.
Integridad de la entrevista: la experiencia del investigador determina qué información entrega y
qué no. La honestidad también es importante.
Macroética:
Tiene que ver con los resultados, ¿Para quiénes son útiles?¿A quienes les beneficia la
información?, es decir, cómo las entrevistas tienen repercusión en la sociedad, en algunos casos

63
pueden llegar a ocasionar efectos negativos. También puede dar que se rompan ciertas éticas con
el fin de dar beneficio a la sociedad.
D) Focus group
o Técnica conversacional dirigida a grupos. Es parte de las entrevistas grupales.
o Discusión en la cual un grupo de personas conversa respecto de temas considerados
importantes para una investigación, y donde dicha discusión es guiada por un moderador o
facilitador.
o Morgan: las entrevistas grupales son un modo específico de escuchar a las personas y
aprender a ellas.
o Número de participantes: algunos señalan que puede ser de 6 a 12 personas; Morgan: un
grupo de 6 a 8 es “fácilmente dirigible”.
o Trabajo de los moderadores con un set de preguntas preestablecidas, orientadas a temáticas
(no a elementos específicos) que se quieren tratar.
o El FG no busca necesariamente llegar a acuerdos o a conclusiones grupales, sino más bien
busca develar cómo se llega a acuerdos o desacuerdos. La idea es generar un análisis de las
interacciones.
Focus group es un punto medio en un proceso de 3 etapas:
1) Decisión del equipo de investigación, respecto a qué necesitan oír del grupo focal.
2) Focusgroup propiamente tal.
3) Resumen de lo que se ha aprendido de los personajes participantes.
Focus group es un proceso activo y no pasivo. Esto significa que:
 Investigadores eligen el tema.
 Investigadores dirigen la discusión.
 Sin embargo, los investigadores tampoco deben ser tan directivos o rígidos.
 La única manera de escuchar a los participantes, es considerando sus prioridades.
 El FG es adaptable a distintos propósitos. Por eso se ocupa en distintas instancias.

 4 usos básicos del FG:


1) Para identificar problemas.
2) Para planificar.
3) Para realizar buenas implementaciones.
4) Para evaluar.

 4 aplicaciones del FG:


1) Investigación académica
2) Marketing de productos
3) Investigación evaluativa
4) Mejoramiento de la calidad

Investigación Marketing Investigación Mejoramiento


académica de evaluativa de calidad
productos
Identificación Generar las Generación Evaluación de Identificar
del problema preguntas de de nuevas necesidades. problemas de
investigación. ideas de mejora.
productos.
Planificación Diseño de Desarrollo Población se Planificar
investigación. de nuevos haga partícipe intervenciones
productos. y para mejorar
lineamientos. calidad.

64
Implementación Retroalimentación Monitorear Evaluación de Intervención,
de la investigación. la respuesta procesos. aplicación con
Recolección de del cliente. la
datos. organización.
Evaluación Análisis de la Refinar el Evaluación de Rediseña el
información. producto. resultados. proceso de
Contrastar la intervención.
información

Cuándo usar un FG:


1) Se usa para saber cómo las personas construyen significados en torno a algunos temas (los
que los investigadores tengan como foco de interés).
2) Para comprender por qué las personas sienten como sienten. Demostrar cómo las personas
mantienen sus puntos de vista en grupos, y cómo son capaces de modificarlo.
3) Se usa cuando los investigadores saben que a través de esta técnica pueden aparecer
elementos nuevos (que no se pueden obtener por una entrevista individual).
4) Se usa cuando los investigadores quieren encontrar una visión más individualista.
5) El FG ofrece la oportunidad de estudiar la forma en que los individuos colectivamente
construyen significados respecto de los fenómenos.
Cómo se conduce un FG:
1) Registro y transcripción:
 La transcripción debería realizarse terminando el FG. Quien modera no debe tomar notas.
Razones:
- Porque es muy difícil tomar notas y al mismo tiempo poner atención a lo que se dice.
- Es muy difícil atender a dos cosas a la vez, considerando que el FG se interesa por
quienes expresan puntos de vista, quienes lideran el proceso de opiniones y quienes
dominan el grupo.
- El en FG hay interés en lo que se dice y en quién dice las cosas. Si se pierde de vista
esto, se pierde el hilo de cómo se construye significado. O sea, no habría razón para
elegir un FG antes que una entrevista.
2) Cuántos grupos realizar:
 No hay una medida exacta.
 Rango medio: 10 a 15
 FG no sería muy válido si no se ocupa con otra técnica paralelamente.
 Muchos grupos podría ser una pérdida de tiempo (llegar a la saturación teórica).
 Importa no tanto la representatividad, como la diversidad de opiniones que surjan.
3) Tamaño de los grupos:
- Cuándo usar grupos pequeños:
 Cuando los participantes están profundamente involucrados en el tema.
 Cuando los temas son controvertidos y complejos.
- Cuándo usar grupos grandes:
 Cuando las personas no están involucradas en el tema.
 En los grupos grandes sería difícil estimular a los participantes no interesados,
produciéndose grandes espacios de silencio.
4) Nivel de involucramiento del moderador:
- El facilitador no deber ser ni muy intrusivo, ni muy estructurado.
- El facilitador tiene 2 funciones: dejar fluir libremente la conversación, y ser capaz de
intervenir con objeto de indicar aspectos especialmente sobresalientes que surjan durante la
conversación.

65
5) Selección de participantes:
- Principalmente sigue la variable sociodemográfica.
- Otra alternativa es el grado de involucramiento en con el tema.
- Se ha planteado que las personas de un FG no deben conocerse.
Limitaciones:
- -El investigador tiene menos control del proceso que en una entrevista individual.
- -Una enorme cantidad de información puede ser rápidamente producida, puede tomar
hasta 8 horas de transcripción.
- -La información es compleja de analizar. (datos voluminosos, inestructurados y poco
manejables.)
- -Son difíciles de organizar: acuerdo inicial + tiempo específico

Técnicas Observacionales:
- La observación permite observar directamente, sin mediación, las prácticas de las
personas. La mediación está dada por el relato o discurso.
- Dimensiones de la observación:
1) Encubierta (ejemplo, experimento de Festinger y las sectas) v/s al descubierto.
2) No participante (ejemplo, filmación de una práctica social) v/s participante (el
investigador se involucra y se relaciona con los sujetos que investiga).
3) Sistemática (se necesita de una pauta previa y estructurada de lo que se quiere
encontrar) v/s no sistemática (“lo que se encuentra”, no estructurada).
4) En situaciones naturales v/s en situaciones artificiales (ejemplo, laboratorios).
5) De sí mismo v/s de otros.

 Es utilizada por investigadores cuantitativos y cualitativos.


 Sola o en conjunto con otras técnicas.
 La observación cualitativa intenta capturar la vida tal como es experimentada por los
participantes de la investigación más que a través de categorías que han sido
predeterminadas por el investigador. La investigación observacional asume que las
conductas son intencionales, reflejando valores y creencias profundas.
 Involucra a menudo el contacto directo, aunque a veces se utilizan instrumentos de registro,
tales como audio y video.
 Es idiográfica más que nomotética.
 Reconoce el rol subjetivo del investigador

- La forma de observación debería ser coherente con los objetivos de la investigación.


- La comprensión efectiva de las prácticas sociales se logra conociendo su significado.
- Descripción densa: descripción lo más completa posible de las prácticas sociales, viendo lo
que está en el fondo, y usando la interpretación para llegar al significado.

Tipos de observación:
1) Observación no participante.
2) Observación participante.
3) Etnografía
4) Fotografía
5) Análisis de películas.

Características de la observación:
1) Debiera ser repetitiva y regular: se debe volver al lugar de observación varias veces.
2) No incluye solamente el dato visual: también incluye el sonido, los olores, lo que se
toca, lo que se sabe.

66
3) Los observadores cualitativos están libres para buscar las categorías o conceptos que
parecen significativos a los sujetos: no están limitados por categorías predeterminadas de
respuestas. Ejemplo: limitaciones de género, religión, edad, etc.
4) Puede variar entre diferentes practicantes, a través de la etapa.

Observación participante, trabajo de campo, etnografía¿Sinónimos?:


•Etnografía es observación participante hecha durante el trabajo de campo

•La observación participante y el trabajo de campo como descripciones útiles de la técnica de


producción de datos y la locación de la producción de datos.

•El trabajo de campo es la fase de producción de datos, cuando los investigadores dejan sus
escritorios y se sumergen en el mundo.

Rol del observador


Tipología de Gold, 3 tipos de membrecías:
 Periférica: faculta al investigador a observar e interactuar lo suficientemente cerca con los
miembros para establecer la identidad de un miembro sin participar en aquellas actividades
constituyentes de la esencia de la membresía al grupo.
 Activa: En la postura del participante como observador, el investigador es un miembro del
grupo estudiado, y el grupo es consciente de la actividad de investigación. En esta postura,
el investigador es un participante en el grupo que observa a los otros, y que se interesa más
en observar que en participar, dado que su participación es un supuesto, pues él es miembro
del grupo. Este rol también tiene desventajas, en que hay un intercambio entre la
profundidad de los datos revelados al investigador, y el nivel de confidencialidad brindado
al grupo por la información que ellos ofrecen.
 Completa: En un extremo está el participante completo, quien es un miembro del grupo que
está siendo estudiado, y quien oculta al grupo su rol de investigador para evitar interrumpir
la actividad normal. Las desventajas de esta postura son que el investigador puede carecer
de objetividad, los miembros del grupo pueden sentir desconfianza del investigador cuando
el rol de investigador es revelado, y la ética de la situación es cuestionable, porque los
miembros del grupo están siendo engañados.

El rol del observador depende de: el propósito de la observación, las características del
observador, y la naturaleza del escenario.
Etapas de la observación:
1) Selección del entorno: qué se va a observar; comportamiento de interacciones en los
seres humanos; interaccionismo  en ellas están los significados que serán
interpretados para la comprensión de los fenómenos psicológicos.
2) Definición del foco: a partir del objetivo de investigación.
3) Formar observadores.
4) Observación descriptiva: es el único de la etapa de observación propiamente tal,
evitando los juicios personales.
5) Observación focalizada: observación específica del foco.
6) Observación selectiva: se escoge algo particular, que es clave o lo más significativo del
foco.
7) Final de la observación.

Dónde comenzar a buscar depende de la pregunta de la investigación, pero dónde enfocar o


detener la acción no puede ser determinado de antemano.
Problemas de la observación:

67
 Tienen que ver con la validez (que mida lo que tiene que medir) y la confiabilidad (que
en repetidas ocasiones de aplicación, se mida lo mismo).
 Validez: Para aumentar la validez utilizar múltiples observadores o equipos, diversos en
edad y género.
 Confiabilidad: para aumentar la confiabilidad se deben realizar observaciones
conducidas sistemática y repetidamente en tiempo. Observar varios lugares distintos y
observamos el mismo lugar en tiempos distintos.
 La primera responsabilidad del observador es saber lo que está pasando, para verlo,
escucharlo, tratar de hacer sentido de ello. Esto es más importante que obtener la nota
perfecta o una cita. Mucho de lo que deja es una aproximación que podemos mejorar
más, si tenemos una buena idea lo que pasó.
 En la investigación cualitativa, la observación sería una herramienta que aportaría a la
validez (en la entrevista se puede dar el fenómeno de la deseabilidad social, y ese riesgo
disminuye en la observación).
 Los sesgos en la observación se pueden evitar por:
a) Triangulación de los distintos puntos de vista de los observadores.
b) Triangulación de métodos (uso de varias técnicas).

Rigor en la observación:
 Phillips: la observación suministra una calidad “suculenta”.
 La técnica de observación es la menos intrusiva de todas las técnicas (no hay mayor
influencia en los grupos).
 Emergencia de la observación: la investigación cualitativa tiene una lógica inductiva (a
partir de las cosas particulares); la observación debería hacer emerger la información.
 Combinación de la observación con otras técnicas.

Debilidades de la observación
•Procesos no observables (procesos mentales se infieren)
•Cantidad de tiempo (tienen que producirse en largos periodos de observación y generalmente
está asociado con recursos económicos.
•Específica a un lugar (no se puede generalizar)
•Posibilidad de transferibilidad (no se puede transferir lo que pasa en un lugar a otro)
•Dependencia del observador y sus sesgos
Fortalezas de la observación
•La mayor parte de la observación es no intrusiva lo que la hace propicia para producir
información altamente confiable. Es la menos intrusiva de todas las técnicas de investigación.
•Su emergencia, permite ir conduciendo la investigación y generado preguntas. (construcción de
categorías, libertad de modificar los problemas y preguntas investigadas).
•Combinación con otras técnicas. (generalmente la entrevista).
•Las prácticas son accesibles sólo mediante observación, mientras que las entrevistas hacen
abordables los relatos de las prácticas.
•Es adecuada tanto para descubrir nueva información (generación de teoría) como para validar
conocimiento existente (confirmación de teoría).
Aspectos éticos
Una primera consideración en cualquier estudio de investigación es dirigir la investigación de
una forma ética, haciendo saber a la comunidad que el propósito que uno tiene al observar es
documentar sus actividades. Si bien puede haber casos en que los métodos de investigación
cubierta pueden ser apropiados, estas situaciones son pocas y son sospechosas.

68
Otra responsabilidad ética es preservar el anonimato de los participantes en la escritura final y
en las notas de campo para prevenir su identificación, en caso de que las notas de campo sean
requeridas para inspección.
También señalan que hay una preocupación ética en torno a las relaciones establecidas por el
investigador cuando dirige una observación participante; el investigador necesita desarrollar
relaciones cercanas, y esas relaciones son difíciles de mantener cuando éste retorna a su hogar
en un sitio lejano
•Engaño.
•Observación encubierta, asumir un rol falso podría violar el principio del consentimiento
informado.
•Confidencialidad, tanto protegiendo la identidad de los participantes como rehusando revelar
información sensible recolectada durante el proceso de investigación que pudiera dañar a los
individuos involucrados.
•Deben ser inclusivos, representando realistamente las voces de todos los participantes en un
escenario de investigación. Informantes claves y porteros podrían bloquear el acceso a los
menos poderosos y es preciso encontrar formas de by-pasearlos (buscar otras formas para llegar
a otro informante).
•Usados para investigar conductas desviadas, lo que podría generar el llamado “conocimiento
culpable.
- Paradigmas observacionales:
1) Sociología formal
 Porpuesta por George Simmel.
 Trabajó con la “estructura relacional”: no hay que fijarse tanto en los contenidos de las
interacciones humanas, como en su forma.
 Simmel trabajó con las “formas de asociación” (se refería a las formas de interacción).
 Tipos sociales: los tipos sociales que le interesaban a Simmel eran 2:

1) Los definidos por su relación con otros: las relaciones triádicas, diádicas, de
subordinación o superordinación.
2) Marginales: interés por individuos que parecían marginales en la sociedad.
 Rol del observador: puede integrar participación y no participación (saliencia total v/s
membrecía completa); importancia del distanciamiento del observador o “posicionamiento”.
 Introdujo la acción del vagabundeo.

2) Sociología dramatúrgica
 La propone ErvinGoffman.
 Perspectiva respecto a que las personas juegan roles en la sociedad.
 Las personas, con estos roles presentan su self o identidad (lo que ellos quieren mostrar
que son)  “autopresentación del sí mismo”.
 Las presentaciones del self son intencionales y no naturales en nosotros.
 Metodológicamente, Goffman señala que la observación tiene algunas limitaciones: es
no sistemática (no tiene pautas previas) y es naturalística (tal como está dada). No explicitó
estas dos como fortalezas y debilidades de la observación, sino como parte de sus limitaciones.
 Goffman se interesó por mostrar un amplio espectro de las relaciones humanas (“atrapar
al personaje social”). Quería ver todas las partes del rol que el hombre cumple en la sociedad.
 Incluyó la observación de los pequeños movimientos a los grandes rasgos (rango de
actos).
3) Estudios en el reino público
 Son investigaciones con foco en el orden moral, relaciones interpersonales, etc.
 Descripción de las características propias de diversos tipos de individuo.
 Es un desarrollo de la teoría de Goffman.

69
 Por “reino público”, se entendería “sociedades urbanas y modernas”.
 El objetivo de la técnica es obtener datos de grandes grupos de personas en un lugar y
aislar patrones de la conducta grupal.
 Investigaciones en el reino público:

1.- Lofland
- Observaciones externas y posterior escritura de sus observaciones.
- Su investigación era individual.
- Señala el elemento del peligro y los límites de la observación (noción de no quebrar los límites
de la observación, no involucrarse o ser impertinente; adscrito a la línea menos participante).
2.- Nash
- Aquí el observador tampoco participa mucho.
- Trabajó con equipos de investigación y vio el problema de los “investigadores novatos”
(involucramiento de prejuicios).
- Destaca la importancia de la “epojé” (poner entre paréntesis).
3.- Humphreys
- Observación rigurosa con pautas de registro sistemáticas.
- Pudo describir formas de funcionamiento y normas de relación entre los individuos extraños, y
diferentes categorías de individuos.
- Su investigación usó una observación participante.
- Puso tensión al menos en dos aspectos: el tema ético y la confidencialidad.
- Auto-observación:
 Herramienta de investigación en niveles más íntimos de análisis.
 Noción de reciprocidad de perspectiva: el observador puede exponer una situación para
observarse a sí mismo, y eso le ayuda a ver aspectos más íntimos.
 Desde el concepto psicológico: se busca lo que le pasa a una persona frente a una
determinada situación; observación de los propios sentimientos; propone ir a las experiencias, ir
a vivir la misma situación que otros y observar cuáles son los sentimientos, y ver qué me
produce lo que veo (ejemplo: ir al lugar donde alguien vivió el terremoto).
- Etnometodología:
 Su autor inicial fue Harold Garfinkel.
 Parson: los seres humanos vivíamos en una sociedad que estaba construida socialmente,
y ahí se funcionaba.
 Garfinkel: efectivamente vivimos en mundos sociales, pero no somos autómatas
sociales. Propone que lo que hacemos es construir persistentemente la sociedad, a través de
pequeñas cosas.
 Objetivo de la etnometodología:
1) Cómo se construye la vida social de las personas.
2) Interesa más la estructura de las relaciones en función de normas, relaciones, roles.
3) Interesa la estructura subyacente de la realidad social.
 Los etnometodólogos rechazan las entrevistas y prefieren el registro de observaciones lo
más fidedigno posible. Utilizan audio, video y otros, para registrar.
 Los etnometodólogos prefieren observar lejos, lo más objetivos posible.
 Utilizan el análisis de conversaciones: esto sirve para ver cómo se produce la vida
social. Requiere de observaciones con detalle.
 Los detalles y el rigor hacen un buen registro. Si esto es así, las conclusiones son las
mismas que puedan tener otros.
 Algunos aspectos éticos:

70
- Investigación encubierta o no.
- Publicación de los resultados.
- Grado de participación.

44: Investigación CualitativaMuestreo y criterio de saturación en investigación


cualitativa
Muestreo teórico
Muestreo Estratégico
Saturación teórica

Muestreo teórico:
Se basa en el método de comparación constante es decir en la conexión que se produce entre los
datos, esto permitiéndole ir hacia una determinada fuente de datos y no hacia otras. No se parte
con muestreo a priori.
Según Strauss es el proceso de recogida de datos para generar teoría por medio del cual el
analista recoge, codifica y analiza sus datos conjuntamente y decide que datos recoger después y
donde encontrarlos, para desarrollar su teoría a medida que surge. Este proceso de recogida de
datos esta controlada por la teoría emergente.
Para seleccionar informantes que puedan entregar información por medio de la entrevista, se
puede utilizar la “técnica de la bola de nieve” la cual consiste en conocer a algunos informantes
que presentarán a nuevos informantes y estos últimos a otros (acceder a los informantes por
redes sociales naturales)
Selecciona nuevos casos a estudiar según su potencial para ayuda a refinar o expandir los
conceptos y teorías ya desarrollados. Lo importante no es el número de casos, sino la
potencialidad de cada uno para ayudar al investigador a desarrollar una mayor comprensión
teórica sobre el área que está estudiando.
Muestreo estratégico:
También llamado pragmático o por conveniencia, apuntan a la posibilidad concreta de llegar a
una muestra con ciertas características que nos interesan, respecto de otras de la posibilidad de
llegar a otras. Muestreo a priori, donde uno se enfoca en cierta manera en determinadas
poblaciones.
 Muestreo estratégico o de conveniencia responde a una modalidad de muestreo no
probabilístico, en el que la selección de la muestra responde a criterios subjetivos,
acordes con los objetivos de la investigación. Por lo que comparte las ventajas y los
inconvenientes básicos de cualquier muestreo no probabilístico.

 Muestreo de bola de nieve: las unidades muestrales se van escogiendo, sucesivamente, a


parir de las referencias aportadas por los sujetos a los que ya se ha accedido. Como a su
vez, los nuevos casos identifican a otros individuos en su misma situación, la muestra
va aumentando, como una bola de nueve hasta que el investigador decida cortar.

Saturación teórica:

71
A grandes rasgos es cuando la información comienza a ser redundante, no aportando
ningún nuevo punto de vista analítico. Por lo que se decide la conclusión de la recogida de
información.
Para comprobar una hipótesis como una teoría potencialmente robusta, uno se debe detener en
la producción de información cuando como investigar uno es capaz de predecir la información
que se dará a continuación si se siguiera analizando o extrayendo información (es decir se repite
la información). Alcanzar el punto en el que nuevos datos no son iluminadores. Utilizando los
términos de la codificación, la saturación teórica sería el punto en la construcción de la
categoría en el cual ya no emergen propiedades, dimensiones, o relaciones nuevas durante el
análisis.

Cuando una categoría está saturada solo corresponde ir hacia nuevos grupos para
obtener datos sobre otras categorías e intentar saturar también estas nuevas categorías. Cuando
ocurre la saturación, el analista por lo general encontrará que alguna brecha en su teoría,
especialmente en sus categorías mayores, está casi, si no completamente, saturada. Al tratar de
alcanzar la saturación, maximiza las diferencias en sus grupos para maximizar las variedades de
datos contenidos en una categoría; y de esta manera desarrolla tantas propiedades diversas de la
categoría como es posible. Los criterios para determinar la saturación son, entonces, la
combinación de los límites empíricos de los datos, la integración y la densidad de la teoría y la
sensibilidad teórica del analista.

La sensibilidad teórica refiere a la capacidad del investigador de pensar los datos en


términos teóricos. Requiere que el investigador interactúe constantemente con las operaciones
de recopilación y análisis, en vez de elaborar hipótesis respecto de posibles resultados y
suspender sus juicios hasta que todos los datos estén analizados

45: Investigación CualitativaCriterios de rigor científico aplicados a la investigación


cualitativa
Criterios planteados por Guba (1985): credibilidad, transferibilidad, dependencia y
confirmabilidad.
Otros criterios de calidad, por ejemplo, Marshall (1990).
Procedimientos o estrategias para alcanzar los criterios de calidad.

Criterios de calidad planteados por Guba:


• Credibilidad (validez interna)
• Transferibilidad (validez externa)
• Dependencia (confiabilidad)
• Confirmabilidad (objetividad)

Credibilidad
• Cuánto “crédito” es posible darle a los resultados.
• El grado en que los hallazgos hacen sentido.
• Si lo que se reporta corresponde al fenómeno y no al sesgo del investigador.
Se refiere a cómo los resultados de una investigación son verdaderos para las personas que
fueron estudiadas y para otras personas que han experimentado o estado en contacto con el
fenómeno investigado.
Es importante tener en mente que los informantes son los que conocen su mundo, el cual puede
ser completamente diferente al mundo del investigador. Éste tiene la tarea de captar el mundo
del informante de la mejor manera que él lo pueda conocer, creer o concebir lo cual a menudo
es un reto difícil para el investigador. Captar lo que es “cierto”, “conocido” o la “verdad” para

72
los informantes en los contextos o en la situación social en que viven los informantes requiere
escuchar de manera activa, reflexionar y tener una relación de empatía con el informante.
El criterio de credibilidad se puede alcanzar porque generalmente los investigadores, para
confirmar los hallazgos y revisar algunos datos particulares, vuelven a los informantes durante
la recolección de la información. La experiencia indica que, por lo general, a los informantes les
gusta participar en esa revisión pues ellos quieren reafirmar su participación y desean que los
hallazgos sean lo más creíbles y precisos para ellos. La mayoría de los informantes son capaces
de corregir los errores de interpretación de los hechos y para ello se ocupan de dar más ejemplos
que ayudan a clarificar las interpretaciones del investigador.
Propuestas:
• Chequear con participantes.
• Involucrarse en el campo: contactos extensos, observaciones continuas.
• Triangulación de datos.
• Informe transparente.
• Exposición intermedia a par.
Transferibilidad
• Es el grado en que los sujetos analizados son representativos del universo al cual pueden
extenderse los resultados obtenidos.
• El objetivo es dar al lector la suficiente información para juzgar si los resultados son aplicables
a otros escenarios.
• En cualitativa la transferibilidad es una función de los grupos o sujetos comparados (muestreo
teórico).
Este criterio se refiere a la posibilidad de extender los resultados del estudio a otras
poblaciones.. En la investigación cualitativa la audiencia o el lector del informe son los que
determinan si pueden transferir los hallazgos a un contexto diferente del estudio. Para ello se
necesita que se describa densamente el lugar y las características de las personas donde el
fenómeno fue estudiado. Por tanto, el grado de transferibilidad es una función directa de la
similitud entre los contextos.
Propuestas:
• Muestreo teórico.
• Descripción densa.
• La generación de modelos densos y complejos del objeto de estudio.
• Un modo de conocer el nivel de transferibilidad de un estudio es considerar los resultados de
un estudio como hipótesis de otro estudio próximo semejante
Dependencia
• Se refiere a la exactitud de los reportes del fenómeno. Propuestas:
• Triangulación.
• Realizar auditoria (chequeo de la calidad de las decisiones en la producción de información y
su análisis, por parte de expertos).
La dependencia o consistencia lógica es el grado en que diferentes investigadores que recolecten
datos similares en el campo y efectúen los mismos análisis, generen resultados equivalentes. De
acuerdo a Franklin &Ballau (2005) existen dos clases de dependencia, la interna (Grado en el
cual diversos investigadores, al menos dos, generan temas similares con los mismos datos) y la
externa (Grado en que diversos investigadores generan temas similares en el mismo ambiente y

73
período, pero cada quien recaba sus propios datos). En ambos casos, ese grado no se expresa por
medio de un coeficiente, sólo se verifica la sistematización en la recolección y el análisis
cualitativo (Citado por Hernández, Fernández & Baptista, 2006).
Confirmabilidad
• Captar el mundo del mismo modo que lo haría alguien sin prejuicio ni llevado por intereses
particulares.
La habilidad de otro investigador de seguir la pista o la ruta de lo que el investigador original ha
hecho. Otro investigador examine los datos y pueda llegar a conclusiones iguales o similares a
las del investigador original siempre y cuando tengan perspectivas similares. . Para ello es
necesario un registro y documentación completa de las decisiones e ideas que el investigador
haya tenido en relación con el estudio. Esta estrategia permite que otro investigador examine los
datos y pueda llegar a conclusiones iguales o similares a las del investigador original siempre y
cuando tengan perspectivas similares. (Diario de campo)
Propuestas:
• Juicio de expertos que hagan chequeo sobre calidad de las transcripciones, notas de campo,
memos, calidad de las interpretaciones, etc.
• Triangulación de datos, analistas.
• ¿Están los descubrimientos basados en los datos?
• ¿Las inferencias realizadas son lógicas?
• ¿Las decisiones metodológicas son apropiadas?
• ¿Cuál es el grado de sesgo del investigador y en qué se transparenta? (por ejemplo, no busca
casos negativos, sobreinterpreta).
• ¿Qué estrategias se utilizaron para aumentar la credibilidad?

Cuadro resumen:
En resumen los índices de calidad dignos de confianza se pueden lograr mediante los criterios
anteriores.
Esto Incluye los siguientes aspectos:
• Se explicita el modo de producción de información.
• Se reconocen los propios sesgos del investigador.
• Se documentan las decisiones.
• Se utilizan ejemplos específicos de los datos.
• Se evalúa la garantía de los informantes.
• Se triangula.
• Se va y regresa entre recogida e interpretación de la información.
• Se obtiene retroalimentación de los informantes.
• Se acepta la apertura a posibles cambios.

74
Criterios de calidad según Marshall:
1. El método es explicado en detalle a fin de que el lector pueda juzgar si es adecuado y si hace
sentido (que nada aparezca “por obra de magia”).
2. Los supuestos son explicitados (incluyendo los sesgos personales y teóricos) y se analizan.
3. Se evitan juicios de valor en la recolección y el análisis de información.
4. Existe abundante evidencia proveniente de los “datos brutos”.
5. Las preguntas de investigación son explicitadas y el estudio las responde, y genera preguntas
adicionales.
6. La relación entre el estudio actual y estudios previos es explícita (y se da un paso más).
7. El estudio es reportado de manera accesible para otros investigadores, profesionales y
generadores de políticas.
8. La evidencia se presenta mostrando que el investigador fue tolerante frente a la ambigüedad,
buscó explicaciones alternativas, contrastó con evidencia negativa y usó variedad de métodos
para chequear sus hallazgos.
9. El reporte señala las limitaciones de la generalización mostrando al mismo tiempo a los
lectores la transferibilidad de los hallazgos.
10.Se realizaron observaciones en un amplio rango de actividades y sobre un ciclo completo de
éstas.
11.Los datos están almacenados y se encuentran disponibles para un re-análisis.
12.Se aplicaron métodos para chequear la calidad de los datos (veracidad, conocimiento de los
informantes, etc.)
13.El trabajo de campo está documentado.
14.El estudio se adecua a los estándares éticos (consentimiento informado, por ejemplo).
15.Los participantes se benefician, de algún modo, de la investigación.
16.El investigador tiene un mirada holística.
Para profundizar en el tema; Otros autores que proponen diversos criterios de calidad son:
Whittemore, Chase y Mandle: Desarrollo de términos y definiciones más novedosos de
criterios de calidad tales como: autenticidad, explicitud, creatividad, vivacidad, minuciosidad,
sensibilidad, etc.
Calderón:lleva a cabo un intento de integración flexible y abierto de las propuestas
previamente publicadas, en torno a cuatro criterios principales: adecuación epistemológica y
metodológica, relevancia, validez y reflexividad, y que por considerarlos todavía vigentes
pasamos a exponer brevemente a continuación.
El criterio de adecuación epistemológica y metodológica. Conforme a dicho criterio,
antes de valorar cómo se ha llevado a cabo la obtención de información, el análisis, o la
presentación de los resultados, lo primero que hemos de preguntarnos es qué se pretende
investigar, si la perspectiva cualitativa es la que mejor se corresponde con la pregunta y con los
objetivos de la investigación, y si el diseño y modo de desarrollo de la investigación responde
en su conjunto a dicha metodología. La necesidad de dicha adecuación requiere subrayar la
importancia de la teoría en la investigación, así como un sentido bidireccional en el proceso
evaluativo, de lo global a lo particular y valorando el grado de coherencia entre los presupuestos
teóricos de partida y el conjunto del trabajo de investigación.
El criterio de relevancia depende del grado de abstracción/profundidad a que lleguemos
en la interpretación del fenómeno y también de la minuciosidad en la descripción de las
circunstancias en que se ha realizado el trabajo de investigación.
El criterio de validez responde, en primer lugar, a la preocupación del quehacer
investigador por la fidelidad para con el comportamiento del fenómeno investigado en la
realidad, lo cual requiere el máximo rigor en el diseño, obtención y validación de la
información. Pero a su vez, la validez ha de centrarse en su componente de análisis
interpretativo, lo cual ha sido expuesto en términos de "plausibilidad" o "credibilidad", y que
nosotros hemos denominado como "complicidad interpretativa", con la finalidad de destacar la

75
importancia de que las audiencias puedan sentirse partícipes de dicho proceso de interpretación
creativa llevado a cabo a partir del referente empírico.
Por último, la consideración de la reflexividad representa la autoconsciencia por parte
del investigador respecto de sus propios planteamientos y perspectivas teóricas tanto en el
diseño, como en las relaciones con los participantes y en el desarrollo del conjunto de la
investigación. El no ocultamiento del investigador permite además valorar mejor su impronta o
huella en el resultado final de la investigación y subrayar la necesidad de tener en cuenta los
aspectos éticos como componentes fundamentales de la evaluación no sólo a lo largo del
desarrollo de la investigación sino también en lo que respecta a su justificación y aplicabilidad.

Triangulación y saturación como método para alcanzar los criterios de calidad:


La triangulación es entendida como la combinación en un estudio único de distintos
métodos o fuentes de datos. Es un método para protegerse de las tendencias del investigador y
confrontar y someter al control reciproco, relatos de diferentes informantes. De esta forma
también se puede tener una comprensión mas clara y profunda de la información.
También es definida como la utilización de múltiples métodos, materiales empíricos,
perspectivas y observadores para agregar rigor, amplitud y profundidad a cualquier
investigación. Se proponen 4 tipos de triangulación:
1. triangulación de datos: utilización de diversas fuentes de datos en un estudio.
2. triangulación de investigadores: utilización de diversos investigadores o evaluadores.
3. triangulación de teorías: utilizar múltiples perspectivas para interpretar un mismo
grupo de datos.
4. triangulación metodológica: utilización de diferentes métodos para estudiar un mismo
problema.
Algunos autores agregan un quinto tipo que seria la triangulación interdisciplinaria entendida
como la participación de diferentes profesionales, de diversas disciplinas, para enriquecer la
interpretación.
 OJO: la saturación teórica ya ha sido definida en las páginas anteriores.
46a: Investigación Cualitativa Pertinencia y adecuación del método cuali
(fenomenología, teoría fundada, etnografía, etnometodología) en función de la
características del problema planteado y su objeto de estudio.
Enfoque fenomenológico.
Enfoque etnográfico.
Teoría fundamentada.
Distinción entre una perspectiva interpretativa o fenomenológica de base.
***Considerar planteamiento de preguntas de investigación, objetivos cualitativos,
planteamiento de preguntas directrices
Diseños de Alcance Exploratorio, Descriptivo y Relacional
Preguntas, Objetivos y Preguntas Directrices

Fenomenología Se requiere comprender significados subjetivos de la experiencias de las


personas respecto de un fenómeno
Teoría Fundada Se requiere generar de teoría a partir de datos
Etnografía Se requiere describir una cultura y sus significados desde los actores y los
investigadores.
Etnometodología Se requiere describir una realidad social a partir de sus prácticas cotidianas.
No busca cuestionar ni explicar significados.
ENFOQUE FENOMENOLOGICO:

76
Las raíces de la fenomenológica hay que situarlas en la escuela de pensamiento filosófico
creada por Husserl en los primeros años del siglo XX. Según Husserl, la tarea de la filosofía
fenomenológica es constituir a la filosofía como una ciencia rigurosa, de acuerdo al modelo de
las ciencias físico-naturales del siglo XIX, pero diferenciándose de esta por su carácter
puramente contemplativo.
Como diferencia fundamental de la investigación fenomenológica, frente a otras corrientes de
investigación cualitativas, destaca el énfasis sobre lo individual y sobre la experiencia subjetiva:
“la fenomenológica es la investigación sistemática de la subjetividad”.
Para Van Manen, el sentido y las tareas de la investigación fenomenológica se pueden resumir
en los siguientes 8 puntos:
1.- la investigación fenomenológica es el estudio de la experiencia vital. Del mundo de la vida.,
de cotidianidad. Lo cotidiano en sentido fenomenológico, es la experiencia no conceptualizada
o categorizada.
2.- La investigación fenomenológica es la explicación de los fenómenos dados a la conciencia.
Ser conciente implica una transitividad, una intencionalidad. Toda conciencia es conciencia de
algo.
3.- la investigación fenomenológica es el estudio de las esencias. La fenomenológica se
cuestiona por la verdadera naturaleza de los fenómenos. La esencia de un fenómeno es un
universal, un intento sistemático de desvelar las estructuras significativas internas del mundo de
la vida.
4.- La investigación fenomenológica es la descripción de los significados vividos, existenciales.
La fenomenológica procura explicar los significados en los que estamos inmersos en n nuestra
vida cotidiana, y no las relaciones estadísticas a partir de una serie de variables, el predominio
de tales o cuales opiniones sociales, o la frecuencia de algunos comportamientos.
5.- La investigación fenomenológica es el estudio científico humano de los fenómenos. La
fenomenológica puede considerarse ciencia en sentido amplio, es decir, un saber sistemático,
explicito, autocrítico e intersubjetivo.
6.- La investigación fenomenológica es la práctica atenta de las meditaciones. Este estudio del
pensamiento tiene que ser útil e iluminar la practica de la educación de todos los días.
7.- La investigación fenomenológica es la exploración del significado del ser humano. En otras
palabras: que es ser en el mundo, que quiere decir ser hombre, mujer o niño, en el conjunto de
su mundo en la vida, de su entorno socio-cultural.
8.- La investigación fenomenológica es el pensar sobre la experiencia originaria.
En definitiva la fenomenológica busca conocer los significados que los individuos dan a su
experiencia, lo importante es aprehender el proceso de interpretación por el que la gente define
su mundo y actúa en consecuencia. El fenomenólogo intenta ver las cosas desde el punto de
vista de otras personas.
La fenomenológica trata de desvelar que elementos resultan imprescindibles para que un
proceso educativo pueda ser calificado como tal y que relación se establece entre ellos. El
resultado de un estudio fenomenológico es una narración que dibuja un modelo, una descripción
de las invariantes estructurales de un determinado tipo de experiencia.
Al analizar distintas aproximaciones al estudio de las prácticas en la educación permanente, se
presenta al enfoque fenomenológico como el desarrollo de 6 etapas:
1. descripción de fenómeno
2. búsqueda de múltiples perspectivas
3. búsqueda de la esencia y de la estructura
4. constitución de la significación
5. suspensión de enjuiciamiento

77
6. interpretación del fenómeno

La fase de descripción supone partir desde la experiencia concreta y describirla de manera mas
libre y rica posible, sin entrar en clasificaciones o categorizaciones pero trascendiendo lo
meramente superficial. Al reflexionar sobre los acontecimientos, situaciones o fenómenos, se
puede obtener distintas visiones: la del investigador, la de los participantes, la de los agentes
externos, etc. Se trata de obtener toda la información posible desde diversas perspectivas y
fuentes, incluso si estas son contradictorias.
A partir de la fase de reflexión, el investigador intenta captar las estructuras del hecho, actividad
o fenómeno objeto de estudio, y las relaciones entre las estructuras y dentro de las mismas. Es el
momento de encajar las piezas del puzzle, establecer categorías y las relaciones existentes entre
ellas.
Durante la constitución de la significación, el investigador profundiza mas en el examen de la
estructura, centrándose en como se forma la estructura de un fenómeno determinado en la
consciencia.
La quinta fase se caracteriza por la suspensión de los juicios mientras se recoge información y el
investigador se va familiarizando con el fenómeno objeto de estudio. Se trata de distanciarse de
la actividad para contemplarla con libertad, sin las contricciones teóricas o las creencias que
determinan de una manera u otra la forma de percibir.
Por último la fase de interpretación, se trata de sacar a luz los significados ocultos, tratar de
extraer de la reflexión una significación que profundice por debajo de los significados
superficiales y obvios presentados por la información acumulada a lo largo del proceso.
No obstante debemos ser conscientes de la diversidad metodológica que se da en el seno de la
aproximación fenomenológica. Bajo esto se presentan 3 corrientes fundamentales: la
descriptiva, la interpretativa o una combinación de ambas.
Una buena forma de conocer el método fenomenológico es a través del análisis de las
investigaciones que se han realizado con el mismo, sobre todo aquellas que explicitan de
manera clara el proceso metodológico seguido.
ETNOGRAFIA:
La etnografía se entiende como el método de investigación por el que se aprende el modo de
vida de una unidad social concreta. A través de la etnografía se persigue la descripción o
reconstrucción analítica de carácter descriptivo de la cultura, formas de vida y estructura social
del grupo investigado. También bajo el proceso de etnografía, nos referimos al producto del
proceso de investigación como un escrito o retrato del modo de vida de una unidad social.
Una familia, una escuela, una clase, un claustro de profesores, son algunos ejemplos de
unidades sociales educativas que pueden describirse etnográficamente. Desde la unidad de
análisis que se escoja la etnografía clasifica en un conjunto que va desde la macroetnografia,
cuya unidad de análisis es la sociedad compleja, hasta microetnografia, interesada por una
situación social dada.
La preocupación fundamental del etnógrafo es el estudio de la cultura en si misma, es decir,
delimitar en una unidad social particular cuales son los componentes culturales y sus
interrelaciones de modo que sea posible hacer afirmaciones explicitas acerca de ellos. Cuando
hacemos la etnografía de una determinada unidad social, estamos intentando construir un
esquema teórico que recoja y responda lo más fielmente posible a las percepciones, acciones y
normas de juicio de esa unidad social.
Desde una dimensión práctica se conceptualiza la etnografía como una unidad social que se
caracteriza por los siguientes rasgos:
1.- un concreto énfasis en la exploración de la naturaleza de un fenómeno social concreto, antes
que ponerse a comprobar hipótesis sobre el mismo

78
2.- una tendencia a trabajar con datos no estructurados, es decir, datos que no han sido
codificados hasta el punto de recoger datos a partir de un conjunto cerrado de categorías
analíticas.
3.- se investiga un pequeño numero de datos, quizás uno solo, pero en profundidad.
4.- el análisis de datos implica la interpretación de los significados y funciones de las
actuaciones humanas, expresándolo a través de descripciones y explicaciones verbales,
adquiriendo el análisis estadístico de un plano secundario.
Como requisito de una buena etnografía educativa se presenta una primera característica como
es el requerimiento de la “observación directa”. No importa con que instrumento, sistema de
codificación, aparato de registro o técnicas se utilizadas, la primera obligación del etnógrafo es
permanecer donde la acción tiene lugar y de tal forma que su presencia modifique lo menos
posible tal acción.
En segundo lugar el etnógrafo debe pasar el tiempo suficiente en el escenario, aunque no existe
una forma rígida que nos indique el tiempo de permanencia en el escenario. Lo importante aquí
es la validez de la observación etnográfica, que se consigue permaneciendo durante el tiempo
que permita al etnógrafo ver lo que sucede en repetidas ocasiones. Descubrimientos
significativos se pueden conseguir tras dos semanas de observación, pero debemos permanecer
en el campo mientras sigamos aprendiendo: en el momento en que la ocurrencia sucesiva no nos
aporte nada nuevo, podemos alejarnos. No obstante, resulta difícil que tras dos semanas se
realice una etnografía cultural seria. Desde la antropología se considera un periodo razonable el
de un año para llevar a cabo el estudio de un fenómeno o una unidad social compleja.
Como tercera condición de una buena etnografía encontramos la necesidad de contar con un
gran volumen de datos registrados. El papel del observador en este sentido será fundamental,
recogiendo todo tipo de información a través de notas de campo o utilizando los recursos
tecnológicos disponibles en la actualidad. Además el etnógrafo debe ser un buen recopilador de
artefactos, productos, documentos o cualquier otra cosa u objeto que este relacionado con el
objeto de estudio.
Una cuarta condición es el carácter evolutivo del estudio etnográfico. En un principio el
etnógrafo debe introducirse en el campo con un marco de referencia lo suficientemente amplio
que le permita abarcar con una gran amplitud el fenómeno objeto de estudio. Al menos al
comienzo de su trabajo el etnógrafo no debería trabajar con hipótesis específicas, sino con la
mente totalmente abierta, atendiendo de esta forma la mayor cantidad posible de relaciones.
Como quinta condición nos encontramos con la utilización de instrumentos en el proceso de
realizar una etnografía. Los registros de las observaciones y entrevistas son la base del trabajo
etnográfico, pero pueden utilizarse otros instrumentos tales como cuestionarios. En cualquier
caso los instrumentos deben emplearse cuando el investigador conozca realmente lo que es
importante descubrir, y cuando se haya elaborado específicamente un escenario concreto y el
foco de indagación se juzga como significante.
La utilización de la cuantificación cuando sea necesaria se constituye en la secta condición de
una etnografía. La cuantificación no es el punto de inicio, ni el objetivo ultimo. Tanto la
instrumentación como la cuantificación han de entenderse como procedimientos empleados para
reforzar ciertos tipos de datos, interpretaciones o comprobación de hipótesis en distintos grupo.
La siguiente condición se refiere al objetivo de estudio de la etnografía. En este sentido
entienden que es descubrir el conocimiento cultural que la gente guarda en sus mentes, como es
empleado en la interacción social y las consecuencias de su empleo.
Por último, es preciso considerar un holismo selectivo y una contextualización determinada en
la realización de la etnografía educativa. El holismo es un ideal deseable, siempre y cuando lo
reduzcamos operativamente, al entorno inmediato donde se centra nuestra investigación.
En ocasiones se olvida contextualizar el trabajo etnográfico en el tiempo, de tal forma que se
presentan como estudios de lo que sucede aquí y ahora. Los estudios longitudinales corregirán

79
este error. Además de esta serie de condiciones se propone como criterios para una buena
etnografía los siguientes:
1. las observaciones son contextualizadas, tanto en el lugar inmediato en el que la
conducta es observada como en otros contextos relevantes mas alejados.
2. Las hipótesis emergen in situ en la medida en que el estudio se desarrolla en el
escenario seleccionado para la observación. El juicio en torno a lo que es relevante para
estudiar en profundidad se aplaza hasta que la fase de orientación del estudio de campo
haya finalizado.
3. La observación es prolongada y repetitiva. Para llegar a establecer la fiabilidad de las
observaciones es preciso observar en varias ocasiones las cadenas de sucesos.
4. el punto de vista nativo de la realidad se atiende a través de las inferencias realizadas a
partir de las observaciones y por medio de las diferentes formas de indagación
etnográfica (incluyendo la entrevista y otros procedimientos de explicitación); sin
embargo, en la propia etnografía, las localizaciones se realizan a partir de lo que las
voces nativas pueden haber escuchado. Las traducciones culturales se reducen al
mínimo.
5. el conocimiento cultural guardado por los participantes sociales constituye la conducta
y comunicación social apreciables. Por lo tanto, una gran parte de la tarea etnográfica
reside en explicitar ese conocimiento de los informantes participantes.
6. los instrumentos, códigos, esquemas, cuestionarios, agendas de entrevistas, etc.
Deberían generar in situ, como resultado de la observación y la indagación etnográfica.
7. siempre esta presente una perspectiva comparativa, transcultural, aunque con frecuencia
como una Asunción no afirmada. Esto es, la variación cultural a lo largo del tiempo y el
espacio se considera una condición humana natural.
8. parte del conocimiento cultural que afecta la conducta y la comunicaron en cualquier
escenario concreto que se este estudiando es implícito o tácito, no conocido por parte de
algunos participantes y solo conocido ambiguamente por parte de otros
9. debido a que el informante (cualquier persona que se entrevistada es alguien que tiene
el cocimiento cultural nativo, el entrevistador etnográfico no debe predeterminar las
respuestas por los tipos de cuestiones preguntadas. La conducción de la entrevista debe
realizarse de tal forma que se promueva el despliegue del conocimiento cultural en su
forma más natural posible.
10. se utilizara cualquier aparato que permita recoger datos más inmediatos, naturales y
detallados de la conducta, tales como cámaras, grabaciones y videos.
11. la presencia del etnógrafo debería reconocerse y describirse su situación de interacción
personal y social.

Como resumen podemos destacar ciertos rasgos de la etnografía:


 el problema jeto de investigación nace del contexto educativo en el tiempo, lugar y
participantes desempeñan un papel fundamental
 la observación directa es el medio imprescindible para recoger información realizada
desde un punto de vista holistico
 la triangulación constituye el proceso básico para la validación de los datos.

TEORIA FUNDAMENTADA:
La presentación de la teoría fundamentada hunde sus raíces en el interaccionismo simbólico, en
donde el investigador intenta determinar que significado simbólico tienen los artefactos, gestos
y palabras para los grupos sociales y como interaccionan unos con otros. Desde esta perspectiva
el investigador espera construir lo que los participantes ven como su realidad social.
El enfoque de la teoría fundamentada es el de descubrir teorías, conceptos, hipótesis y
proposiciones partiendo directamente de los datos y no de supuestos a priori, de otras
investigaciones o de marcos existentes.

80
Al igual que otros métodos cualitativos, en la teoría fundamentada las fuentes de dato son las
entrevistas y las observaciones de campo, así como los documentos de todo tipo y las
grabaciones audiovisuales. Así mismo, puede utilizar cualitativos, cuantitativos o una
combinación de ambos. El investigador cualitativo que hace uso de la teoría fundamentada
asume la responsabilidad de interpretar lo que observa, escucha o lee.
La principal diferencia que existe entre este método y otros cualitativos reside en su énfasis en
la generación de teoría. A través del proceso de teorización el investigador descubre o manipula
categorías abstractas y relaciones entre ellas, utilizando esta teoría para desarrollar o confirmar
explicaciones del como y por que de los fenómenos.
Se diferencias dos tipos de teorías: las sustantivas y las formales. Las primeras se relacionan con
un área sustancial o concreta de investigación por ejemplo, con escuelas, hospitales o consumo
de droga. Las teorías formales se refieren a áreas conceptuales de indagación, tales como los
estigmas, las organizaciones formales, la socialización y la desviación.
Las dos estrategias fundamentales que se proponen para desarrollar la teoría fundamentada son el
método de comparación constante y el muestreo teórico. A través del método de comparación
constante el investigador codifica y analiza los datos de forma simultánea para desarrollar
conceptos. Su aplicación supone una contrastación de categorías, propiedades e hipótesis que
surgen a lo largo del estudio en sucesivos marcos teóricos y contextos. Este procedimiento se
desarrolla en cuatro etapas:
ETAPAS TIPO DE COMPARACIONES
1.- Comparar incidentes aplicables a cada Incidentes-incidentes
categoría.
/categoría/

2.- Integrar categorías y sus propiedades. Incidentes-Propiedades


/categoría/
3.- Delimitar la teoría. Categoría-teoría
/saturación/
4.- Redactar la teoría. Temas-Teoría

A través del muestreo teórico el investigador selecciona nuevos caos a estudiar según su
potencial para ayudar a refinar p expandir los conceptos y teorías ya desarrollados. Lo
importante no es le numero de casos, sino la potencialidad de cada uno para ayudar al
investigador a desarrollar una mayor comprensión teórica sobre el área que esta estudiando.
 Inducción analítica: Uno tiene que llegar a probar una teoría con los datos que uno
llega a recolectar, así llegar al 100% de los datos disponibles. (Usado anteriormente,
este término va evolucionando hasta la saturación teórica).
 Saturación teórica: continuar para comprobar una hipótesis como una teoría
potencialmente robusta, uno se debe detener en la producción de información cuando
como investigar uno es capaz de predecir la información que se dará a continuación si
se siguiera analizando o extrayendo información (es decir se repite la información).
Alcanzar el punto en el que nuevos datos no son iluminadores.
 Comparación constante: Corazón de la teoría fundamentada. Procedimiento de
comparación de datos e información constante y paulatina dentro de un mismo
documento primario; y comparando a la vez distintos documentos primarios, y como
todo esto tiene una vinculación de alguna manera con las teorías que se están
construyendo. También es definido como el proceso de sostener una conexión estrecha

81
entre los datos y la conceptualización, es decir, la correspondencia entre conceptos y
teorías con sus indicadores no esta pérdida.

DISTINCION ENTRE UNA PERSPECTIVA INTERPRETATIVA O


FENOMENOLOGICA DE BASE:

Enfoque fenomenológico: basado en tradición en bases filosóficas, desarrollado inicialmente


por Usserl, filósofo germánico y posteriormente desarrollada por vertientes más bien
sociológicas. Su centro es describir las experiencias o vivencias de los sujetos tal cual ellos la
viven o experimentan.
- Busca el desarrollo de técnicas conversacionales o de entrevista, para que el sujeto
exprese sus vivencias en donde el investigador busca plasmar lo más autentico posible
de lo que expresa el sujeto, sin añadir sus propias interpretaciones o valoraciones.

Enfoque interpretativo: tiene un componente con el análisis y proceso hermenéutico que


realizan los investigadores. A punta a generar interpretaciones. (Enfoque hermenéutico o
interpretativo es lo mismo).
PREGUNTAS DIRECTRICES:
Preguntas que el investigador quiere resolver. Son eslabones entre objetivos específicos y las
técnicas de producción de información propiamente tal. Según este punto se podría decir que es
el equivalente de la hipótesis en psicología cuantitativa.
 Estas preguntas son de tipo más bien generales y más bien sofisticadas.

DISEÑOS DE ALCANCE EXPLORATIO, DESCRIPTIVO Y RELACIONAL:


Tipo Hipótesis Diseño
Exploratorio No se establece, lo que se puede Transversal
formular son conjeturas
Aproximación a fenómenos
desconocidos
Descriptivo Se plantean objetivos Preexperimental
Reseña las características de Transversal
un fenómeno actual
Correlacional Diferencia de grupos sin atribuir No experimental
causalidad
Describe relación entre -Transversal
variables/factores

82
-Longitudinal
Correlacional
Explicativo Diferencia de grupos sin atribuir Experimental
causalidad
Intenta encontrar las Causas Cuasi experimental
del problema, por qué sucede
No experimental
Causalidad Experimental
No experimental

Diseño exploratorio:
Los estudios exploratorios se efectúan, normalmente, cuando el objetivo es examinar un
tema o problema de investigación poco estudiado o que no ha sido abordado antes. Es decir,
cuando la revisión de la literatura reveló que únicamente hay guías no investigadas e ideas
vagamente relacionadas con el problema de estudio. Por ejemplo, si alguien desea investigar lo
que opinan los habitantes de alguna ciudad sobre su nuevo alcalde o gobernador y cómo piensa
resolver los problemas de ella, revisa la literatura y se encuentra conque se han hecho muchos
estudios similares pero en otros contextos (otras ciudades del mismo país o del extranjero).
Estos estudios le servirán para ver cómo han abordado la situación de investigación y le
sugerirán preguntas que puede hacer; sin embargo, el alcalde y la ciudadanía son diferentes, la
relación entre ambos es única. Además, los problemas son particulares de esta ciudad. Por lo
tanto, su investigación ser exploratoria -al menos en sus inicios-. De hecho, si comienza a
preguntarle a sus amigos lo que opinan sobre el nuevo alcalde, está comenzando a explorar.
Los estudios exploratorios son como cuando viajamos a un lugar que no conocemos, del
cual no hemos visto ningún documental ni leído algún libro (a pesar de que hemos buscado
información al respecto), sino simplemente alguien nos ha hecho un breve comentario sobre el
lugar. Al llegar no sabemos que atracciones visitar, a que‚ museos ir, en qué‚ lugares se come
sabroso, cómo es la gente; desconocemos mucho del sitio. Lo primero que hacemos es explorar:
preguntar sobre qué‚ hacer y a dónde ir al taxista o al chofer del autobús que nos llevar al hotel
donde nos instalaremos, en la recepción, al camarero del bar del hotel y en fin a cuanta persona
veamos amigable. Desde luego, si no buscamos información del lugar y‚ esta existía (había
varias guías turísticas completas e incluso con indicaciones precisas sobre a que‚ restaurantes,
museos y otros atractivos acudir; que‚ autobuses abordar para ir a un determinado sitio)
podemos perder mucho tiempo y gastar dinero innecesariamente. Por ejemplo, vemos un
espectáculo que nos desagrade y cueste mucho, y perdemos uno que nos hubiera fascinado y
hubiera costado poco (por supuesto, en el caso de la investigación científica la inadecuada
revisión de la literatura tiene consecuencias más negativas que la frustración de gastar en algo
que finalmente nos desagrade).
Los estudios exploratorios nos sirven para aumentar el grado de familiaridad con
fenómenos relativamente desconocidos, obtener información sobre la posibilidad de llevar a
cabo una investigación más completa sobre un contexto particular de la vida real, investigar
problemas del comportamiento humano que consideren cruciales los profesionales de
determinada área, identificar conceptos o variables promisorias, establecer prioridades para
investigaciones posteriores o sugerir afirmaciones (postulados) verificables (Dankhe, 1986).
Esta clase de estudios son comunes en la investigación del comportamiento, sobre todo en
situaciones donde hay poca información.
Los estudios exploratorios en pocas ocasiones constituyen un fin en si mismos, "por lo
general determinan tendencias, identifican relaciones potenciales entre variables y establecen el
`tono' de investigaciones posteriores más rigurosas" (Dankhe, 1986, p. 412). Se caracterizan por
ser más flexibles en su metodología en comparación con los estudios descriptivos o
explicativos, y son más amplios y dispersos que estos otros dos tipos (v.g., buscan observar

83
tantas manifestaciones del fenómeno estudiado como sea posible). Asimismo, implican un
mayor "riesgo" y requieren gran paciencia, serenidad y receptividad por parte del investigador.
Diseño descriptivo:
Muy frecuentemente el propósito del investigador es describir situaciones y eventos.
Esto es, decir cómo es y se manifiesta determinado fenómeno. Los estudios descriptivos buscan
especificar las propiedades importantes de personas, grupos, comunidades o cualquier otro
fenómeno que sea sometido a análisis (Dankhe, 1986). Miden o evalúan diversos aspectos,
dimensiones o componentes del fenómeno o fenómenos a investigar. Desde el punto de vista
científico, describir es medir. Esto es, en un estudio descriptivo se selecciona una serie de
cuestiones y se mide cada una de ellas independientemente, para así -y valga la redundancia--
describir lo que se investiga.
Es necesario hacer notar que los estudios descriptivos miden de manera más bien
independiente los conceptos o variables con los que tienen que ver. Aunque, desde luego,
pueden integrar las mediciones de cada una de dichas variables para decir cómo es y se
manifiesta el fenómeno de interés, su objetivo no es indicar cómo se relacionan las variables
medidas.
Así como los estudios exploratorios se interesan fundamentalmente en descubrir, los
descriptivos se centran en medir con la mayor precisión posible. Como mencionan Selltiz
(1965), en esta clase de estudios el investigador debe ser capaz de definir qué‚ se va a medir y
cómo se va a lograr precisión en esa medición. Asimismo, debe ser capaz de especificar quién o
quiénes tienen que incluirse en la medición. Por ejemplo, si vamos a medir variables en
empresas es necesario indicar que‚ tipos de empresas (industriales, comerciales, de servicios o
combinaciones de las tres clases; giros, tamaños, etc.),
La investigación descriptiva, en comparación con la naturaleza poco estructurada de los
estudios exploratorios, requiere considerable conocimiento de la realidad que se investiga para
formular las preguntas especificas que busca responder (Dankhe, 1986). La descripción puede
ser más o menos profunda, pero en cualquier caso se basa en la medición de uno o más atributos
del fenómeno descrito.
Diseño correlacional:
Los estudios correlaciónales pretenden responder a preguntas de investigación tales
como: ¿conforme transcurre una psicoterapia orientada hacia el paciente, aumenta la autoestima
de éste?;¿a mayor variedad y autonomía en el trabajo corresponde mayor motivación intrínseca
respectó a las tareas laborales?; ¿los niños que dedican cotidianamente más tiempo a ver la
televisión tienen un vocabulario más amplio que los niños que ven diariamente menos
televisión?; ¿los campesinos que adoptan más rápidamente una innovación poseen mayor
inteligencia que los campesinos que la adoptan después?; ¿la lejanía física entre las parejas de
novios está relacionada negativamente con la satisfacción en la relación? Es decir, estos tipos
de estudios tienen como propósito medir el grado de relación que exista entre dos o más
conceptos o variables (en un contexto en particular).
La utilidad y el propósito principal de los estudios correlaciónales son saber cómo se
puede comportar un concepto o variable conociendo el comportamiento de otra u otras variables
relacionadas. Es decir, para intentar predecir el valor aproximado que tendrá un grupo de
individuos en una variable, a partir del valor que tienen en la variable o variables relacionadas.
Un ejemplo tal vez simple, pero que ayuda a comprender el propósito productivo de los estudios
correlaciónales, sería el correlacionar el tiempo dedicado a estudiar para un examen de
estadística con la calificación obtenida en él. En este caso se mide en un grupo de estudiantes
cuánto dedica cada uno de ellos a estudiar para el examen y también se obtienen sus
calificaciones en el examen (mediciones en la otra variable); posteriormente se determina si las
dos variables están o no correlacionadas y, si lo están, de qué‚ manera.
En el caso de que dos variables están correlacionadas, ello significa que una varía
cuando la otra también varía (la correlación puede ser positiva o negativa). Si es positiva quiere

84
decir que sujetos con altos valores en una variable tenderán a mostrar altos valores en la otra
variable. Por ejemplo, quienes estudian más tiempo para el examen de estadística tienden a
obtener una más alta calificación en el examen. Si es negativa, significa que sujetos con altos
valores en una variable tienden a mostrar bajos valores en la otra variable. Por ejemplo, quienes
estudian más tiempo para el examen de estadística tienden a obtener una calificación más baja
en el examen. Si no hay correlación entre las variables, ello nos indica que éstas varían sin
seguir un patrón sistemático entre sí: habrá sujetos que tengan altos valores en una de las dos
variables y bajos en la otra, sujetos que tengan altos valores en una de las variables y valores
medios en la otra, sujetos que tengan altos valores en una variable y altos en la otra, sujetos con
valores bajos en una variable y bajos en la otra, y sujetos con valores medios en las dos
variables. En el ejemplo mencionado, habrá quienes dediquen mucho tiempo a estudiar para el
examen de estadística y obtengan altas calificaciones en él, pero también quienes dediquen
mucho tiempo y obtengan bajas calificaciones, quienes dediquen poco tiempo y saquen buenas
calificaciones, quienes dediquen poco y les vaya mal en el examen. Si dos variables están
correlacionadas y se conoce la correlación, se tienen bases para predecir -con mayor o menor
exactitud- el valor aproximado que tendrá un grupo de personas en una variable, sabiendo
qué‚ valor tienen en la otra variable.
Diseño explicativo:
Los estudios explicativos van más allá de la descripción de conceptos o fenómenos o
del establecimiento de relaciones entre conceptos; están dirigidos u responder a las causas de los
eventos físicos o sociales.
Como su nombre lo indica, su interés se centra en explicar por qué ocurre un fenómeno
y en qué condiciones se da éste, o por qué dos o más variables están relacionadas. Por ejemplo,
dar a conocer las intenciones del electorado es una actividad descriptiva (indicar -según una
encuesta de opinión antes de que se lleve a cabo la elección- cuántas personas "van" a votar por
los candidatos contendientes constituye un estudio descriptivo) y relacionar dichas intenciones
con conceptos como edad y sexo de los votantes, magnitud del esfuerzo propagandístico en los
medios de comunicación colectiva que realizan los partidos a los que pertenecen los candidatos
y los resultados de la elección anterior (estudio correlacional) es diferente de señalar por qué
alguna gente habrá de votar por el candidato 1 y otra por los demás candidatos" (estudio
explicativo).
OJO: IMPORTANTE SABER QUE UNA COSA ES EL DISEÑO DE
INVESTIGACION Y OTRA COSA EL ALCANCE.
PLANTEAMIENTO DEL PROBLEMA
Es resultado de una profunda y serena reflexión realizada por el investigador después
de haber revisado detalladamente la literatura correspondiente (antecedentes teóricos y
empíricos) e interiorizado los principales conceptos y proposiciones teóricas que le permiten
formular con toda claridad y dominio el problema que se pretende resolver con la
investigación.
¿Qué realidad me interesa investigar?
OBJETO DE ESTUDIO
Es consecuencia del planteamiento del problema, delimita aquella parte de la realidad
que interesa estudiar. La precisión del investigador, en este sentido, se demuestra en la redacción
minuciosa y cuidada con la cual formula el objeto de estudio.
¿Qué parte de esa realidad deseo investigar?
PREGUNTAS DE INVESTIGACION
Son las interrogantes básicas que se derivan de la justificación y el problema planteado
y, consecuentemente, pretenden ser resueltas por la investigación.
¿Qué cuestiones me interesan de esa parte de la realidad?

85
OBJETIVOS
Representan las acciones concretas que el investigador llevará a cabo para intentar
responder a las preguntas de investigación y así resolver el problema de investigación. Se puede
notar que todos los subtítulos hasta ahora señalados tienen una consistencia entre sí (coherencia
interna), por ello, los objetivos deben ser concretos, claros, realistas y modestos, en la medida
en que realmente reflejan la contundencia del investigador en su intención de aportar en el
conocimiento del objeto de estudio.
¿Qué debo hacer para desarrollar la investigación?
46b: Investigación en psicología I - Investigación Cuantitativa Pertinencia y adecuación
del método cuanti (modelo univariado, bivariado y multivariado) en función de las
características del problema planteado y su objeto de estudio.

Objetivos descriptivos: análisis univariados.


Hipótesis bivariadas: prueba t de student, anova de un factor, chi-cuadrado de Pearson,
correlación de Pearson, regresión lineal simple
Hipótesis multivariadas: anova factorial

Para recordar:

 En el análisis univariado se describen las características de una variable por vez.


También se le llama estadística descriptiva.
 En el análisis bivariado se investiga la influencia de una variable que es independiente,
por vez, con respecto a la variable dependiente.
 En el análisis multivariado se investiga la influencia de dos o más variables
independientes con respecto a la variable dependiente.

Además existen pruebas paramétricas que corresponde a trabajar con muestras obtenidas
aleatoriamente, las observaciones distribuyen de forma normal (o cercana a la normal) y existe
un parámetro de interés que deseamos estimar; y pruebas no paramétricas que se utilizan cuando
la variable dependiente no distribuye de manera normal.

Ejemplo: La prueba t de student para muestras independientes se utiliza cuando tengo una
variable dependiente y una variable independiente; si mi variable dependiente distribuye normal
puedo usar esta prueba pero si la variable no distribuye de manera normal se utiliza el análogo a
esta prueba que se denomina U de Mann Whitney. (se adjunta cuadro donde se especifica cuales
pruebas son paramétricas y cuales no paramétricas)

86
Tipos de variables

 Las nominales no jerarquizan (por ejemplo: sexo)


 Las ordinales ordenan de acuerdo a algún criterio; es decir jerarquizan (por ejemplo: la
altura dividirla en estatura alta, media y baja)
 Las variables numéricas trabajan con cantidades expresadas en una unidad de medición.
Acá encontramos todas las escalas; por ejemplo escala de autoestima, de satisfacción,
etc. También la edad, la altura, etc.

Hipotesis planteadas: segun el tipo de prediccion

87
Por ejemplo en correlaciones (R de pearson).

88
Por ejemplo en anova, t de student.
Hipótesis causales: Por ejemplo en las regresiones (simple y múltiple) porque buscan predecir;
“cuanto cambio en x (variable independiente) produce un cambio en y (variable dependiente)”

89
Por lo anterior en las pruebas cuando existe lo siguiente:
p (significancia) <o igual 0,05 = se acepta H1 - existen diferencias
estadísticamente significativas (esto si es el caso tienen que decirlo, son las palabras
fundamentales)
p (significancia) > 0,05= se acepta H0  no existen diferencias estadísticamente
significativas (esto si es el caso tienen que decirlo, son las palabras fundamentales)
Ahora sabiendo todo lo anterior podemos pasar a describir bien de que se trata cada prueba y si
tiene a la base un análisis univariado, bivariado o multivariado.
1) Objetivos descriptivos:

Análisis univariados (se usan para describir a la muestra, en general es estadística descriptiva,
describir la variable; por ejemplo el numero de participantes, lo que mas se repite, cual es la
media, moda, etc . Por ejemplo cuando queremos saber como les fue en la PSU a los niños del
establecimiento X, con este análisis podemos decir “el rendimiento de los alumnos del
establecimiento x fue bajo, o fue de 600 puntos”
2) Hipótesis bivariadas:
-T de Student: prueba paramétrica, permite la comparación de medias de 1 variable categórica
con dos grupos (hombre y mujer por ejemplo). Ve la relación entre las variables categóricas y
una numérica (nivel de estrés por ejemplo). Existen tres formas:
 T de student para una muestra (caso especial): Prueba si las medias de la muestra de una
variable difiere significativamente de la media conocida de la población. Acá se tiene
una media poblacional conocida y se comparan con la media de una población
específica. Ejemplo de cuando podemos usar esta prueba:

90
 T de student para muestras relacionadas: Mide diferencias de la media estimada de la
población en un mismo grupo, en distintos momentos. Por ejemplo, nivel de estrés en
psicólogos cuando están en baja y alta demanda.
Ejemplo de cuando podemos utilizar esta prueba:

 T de student para muestras independientes (es una de las mas utilizadas): Mide si hay
diferencias entre las medias estimadas de la población en muestras que no se relacionan,
ve diferencias en grupos distintos, por ejemplo, medir estrés en hombres y mujeres

Ejemplo de cuando podemos utilizar esta prueba:

NOTA: La variable dependiente es


NUMERICA (sintomatología depresiva
en una escala de puntaje) y la variable
independiente es CATEGORICA (el sexo;
ser hombre o mujer  2 grupos) ; es
una variable categórica con dos grupos
o categorías.

91
-Anova de un factor (análisis de la varianza): Prueba paramétrica. Se utiliza en aquellos casos
en que el investigador desea comparar el promedio de tres o más poblaciones, pero desconoce
dicha información. Para 1 variable categórica con 3 o mas grupos (a diferencia de T de
student; aca se puede poner como variable categórica el NSE en alto, medio y bajo; en T
de student tendría que ser solo alto y bajo). Permite evaluar diferencias entre una variable
dependiente (numérica ya sea de intervalo o razon) y una variable independiente o factor
(categórica ya sea nominal y ordinal).

IMPORTANTE: El estadístico F permite poner a prueba esta hipótesis. Refleja el grado de


parecido entre las medias que se están comparando. Si las medias poblacionales son iguales, las
medias muestrales serán parecidas, existiendo entre ellas tan sólo diferencias atribuidas al azar.
 El valor de F será mayor mientras más diferentes sean las medias.

 Si la significancia del estadístico F es menor que 0,05, se rechaza la hipótesis de igualdad de


medias y se concluye que no todas las medias poblacionales comparadas son iguales.

 Al contrario, si la significancia del estadístico F es mayor que 0,05, se acepta la hipótesis de


igualdad y no podemos afirmar que los grupos comparados difieran en sus promedios
poblacionales.

Pd: en la competencia que viene se explicita un ejercicio con la interpretación de cada


tabla y cuales son los pasos a seguir para realizar esta prueba
Ejemplo de cuando podemos utilizar esta prueba:

92
NOTA: La variable dependiente es la ansiedad en una escala de tipo NUMERICO y la
variable independiente es los tratamientos divididos en CATEGORIAS y se tienen 4
grupos en este caso.
-Chi cuadrado de Pearson: Prueba no paramétrica para dos variables categóricas. Evalúa si
existe relación entre dos variables categóricas que se evalúa a partir de las frecuencias de las
variables. Ejemplo, relación entre asistencia a preuniversitario y si queda seleccionado en la
carrera a la que postula.
Ejemplo de cuando podemos utilizar esta prueba: **siguiendo el mismo ejemplo que para
la prueba t para muestras independientes.
El mismo investigador hipotetiza que en alumnos universitarios, el trast. Depresivo es mas
frecuente en mujeres que en hombres

NOTA: las dos variables categóricas son:


SEXO (hombre y mujer)
TRASTORNO DEPRESIVO (PRESENTA Y NO PRESENTA)

Correlación: Mide la relación entre dos variables numéricas, se usa sólo cuando existe una
relación lineal. El valor de r va de 1 a -1, Signo positivo indica relación directa (si una aumenta

93
la otra aumenta) signo negativo indica relación inversa (si una aumenta la otra disminuye), el
valor numérico indica la intensidad de la relación, mientras más cercano a 1 o -1 mayor es la
relación. Se tiene una variable dependiente o y; y una variable independiente o x. (ambas
numéricas). Se ve a través de los gráficos de dispersión (diagrama de dispersión o Scatterplot).
Se mide con R de pearson; también existe el tau b de Kendall para cuando se quiere hacer
correlaciones con variables ordinales. Además existe el Rho de Spearman que también es un
coeficiente para hacer correlaciones; se emplea como alternativa al de Pearson cuando las
variables son categóricas generalmente ordinales o no se cumple el supuesto de normalidad.
IMPORTANTE:
 r de 0 a 1= correlación directa (si una variable sube la otra también sube o si una
baja la otra también baja)
 r de 0 a -1: correlación inversa (si una variable sube la otra baja o si una variable
baja la otra sube)
 r entre 0 y 0.30= relación baja entre las variables
 r entre 0,31 y 0,70= relación media entre las variables
 r entre 0,71 y 1= relación alta entre las variables

Ejemplo de cuando podemos utilizar correlación:


Cuando el investigador quiere saber la relación que existe entre las horas de entrenamiento y el
rendimiento deportivo.

-Regresión lineal simple: Se utiliza para predecir los valores de una variable dependiente o
criterio (y) a partir de una variable independiente o variable predictora (x), esto cuando hay
relación entre las variables. En general lo fundamental es que “cuanto un cambio en x impacta o
predice o explica un cambio en la variable y”. Se busca ver de que manera se relacionan las
variables, deque manera están relacionadas, el impacto. Se usan dos variables numéricas Por
ejemplo, predecir puntajes PSU a partir de las horas de estudio semanales. Se utiliza un grafico
de dispersión. También puede ser una relación directa o inversa. (sigue la misma dirección el
grafico que en las correlaciones cuando es directa
o inversa). Mayor porcentaje sobre el modelo
mayor predicción.La significancia tiene que ser
menor a 0,05 para que el modelo sea
estadísticamente significativo. Esto se ve en un
diagrama de dispersión o Scatterplot.

OJO: También existe la regresión lineal


múltiple (no aparece en las competencias pero
la describiremos igual porsiacaso a grandes
rasgos); en este caso la diferencia con la regresión lineal simple es que se utiliza para
predecir los valores de una variable dependiente o criterio (y) numérica a partir de 2 o
mas variables independientes o variables predictoras (x) numéricas. Por ejemplo cuando

94
un investigador intenta predecir el rendimiento académico a través de las horas de estudio
y de las horas de sueño.

Ejemplo de cuando utilizar la regresión lineal simple:


Por ejemplo cuando un investigador intenta predecir el rendimiento académico a través de las
horas de estudio; por lo tanto se ve de que manera están asociadas, el impacto que tienen las
notas en este caso en el rendimiento académico y así se puede hacer una predicción. Por
ejemplo decir que el estudiar más horas va a predecir o generar que las personas tengan un
mejor rendimiento académico.
Supuestos:

95
3) Hipótesis multivariadas:
ANOVA Factorial (también análisis de la varianza): Prueba paramétrica que evalúa
diferencias de medias entre dos o más variables categóricas o factores (niveles de factores (Ej.
Género (hombre y mujer) y nivel educacional (básica, media y superior) que actúan como
variables independientes (es decir esta prueba tiene 2 o mas variables independientes que son
categóricas) sobre una variable dependiente que es numérica a través del análisis de la varianza.
Acá cada variable categórica puede tener dos o más grupos y no necesariamente tres como en
Anova de un factor.
Ejemplo:
Factor 1: sexo: hombre y mujer
Factor 2: nivel de ansiedad: bajo, medio y alto.

Permite evaluar dos tipos de efectos sobre la variable dependiente (numérica):


-Efecto principal: Efecto de un factor que no se ve moderado por la presencia de un segundo
factor. Ver el efecto independiente del factor (Ejemplo: si estudio nivel de materialismo en
relación al género (hombre y mujer) y ansiedad (alta, media y baja) el efecto principal sería que
hay diferencias entre los hombres y mujeres respecto al nivel de materialismo, o que hay
diferencias respecto a los que tienen ansiedad alta baja y media en relación a su nivel de
materialismo)
-Efecto de interacción: Efecto conjunto, combinado de los factores. Su efecto se ve alterado por
el segundo factor. (Ejemplo: si estudio nivel de materialismo en relación al género (hombre y
mujer) y ansiedad (alta, media y baja) el efecto de interacción sería que cuando se es mujer y
hay alta ansiedad el nivel de materialismo es mayor que si se es hombre y con alta ansiedad, no
así cuando presentan baja ansiedad)

96
En Anova factorial si se tiene un factor con 3 o mas grupos y este resulto:
 ser un efecto principal o
 ser parte del efecto de interacción

En ambos casos seria necesario realizar un ANALISIS POST HOC que se utiliza para ver
entre que grupos de ese factor están las diferencias; para esto es necesario realizar lo siguiente
(este análisis también se hace en Anova de un factor ya que si el resultado sale significativo
tenemos que ver entre cuales de los tres grupos se encuentran las diferencias):
1) Realizar la prueba de LEVENE

2) Si el valor es < o igual a 0,05 se utilizan las pruebas:


 T3 DUNETT
 Games-howell
 T2 de Tamhane
 C de Dunett
3) Si el valor es > a 0,05 se utilizan las pruebas:
 HSD TUKEY
 SIDAK
 SHEFFE
 BONFERRONI
 DUNCAN

Pd: en la competencia que viene se explicita un ejercicio con la interpretación de cada


tabla y cuales son los pasos a seguir para realizar esta prueba.
Ejemplo de cuando utilizar Anova factorial:

Cuando un investigador quiere evaluar si existe o no relación entre el sexo (variable categórica:
2 grupos mujer y hombre) y el estado civil (variable categorica: 3 grupos o categorias alto,
medio, bajo) en los niveles de depresión de estudiantes universitarios.

48: Investigación en psicología I -Investigación cuantitativa


Interpretar resultados estadísticos desde la perspectiva del problema estudiado.
Interpretar salidas del programa SPSS para dar cuenta de los siguientes tipos de problemas:
Objetivos descriptivos: análisis univariados.
Hipótesis bivariadas: prueba t de student, anova de un factor, chi-cuadrado de Pearson,
correlación de Pearson, regresión lineal simple.
Hipótesis multivariadas: anova factorial.

a) OBJETIVOS DESCRIPTIVOS: ANALISIS UNIVARIADO

La estadística descriptiva: Conjunto de datos (población o muestra) a los que se les saca
resultados a través de métodos numéricos y tablas.

97
 Se diferencia de la estadística inferencial, en que esta última entrega herramientas para
inferir a partir de los resultados que arrojó la muestra de lo que debería ocurrir en la
población.
 Cuando el análisis presenta característica por característica, aisladamente, estaremos en
presencia de un análisis estadístico univariado. Ejemplo, cuando decimos que una persona
pesa 95 k. independientemente de cualquier otra característica estaremos en presencia de
análisis univariado.
 Los estadísticos básicos que conocemos, como la media, la mediana, la moda, la varianza,
los porcentajes, entre otros, miden una variable. Es decir, fueron hechos univariados.

En esta tabla podemos ver las frecuencias; por ejemplo podemos identificar que la Moda es ser
soltero.

En esta tabla podemos identificar medias, mediana, moda, desviación estándar, etc.

En esta tabla podemos identificar por ejemplo que ningún pasajero tuvo retraso para una
aerolínea x.

98
b) HIPOTESIS BIVARIADAS:

B1. PRUEBA T DE ESTUDENT:


Prueba T de Student para una muestra:
Es una alternativa a la prueba Z para una muestra, ya que se utiliza cuando el investigador desea
comparar el promedio de dos poblaciones, pero solo conoce el promedio de una de ellas. Esta
prueba posee ventajas sobre la prueba Z. Estas son que no requiere el valor de la DE (desviación
estándar) de la población y que es más precisa en muestras inferiores a N=30. Una de las
características de la distribución t es que el valor p varía según el tamaño de la muestra. Más
específicamente, varía según los grados de libertad. Por tanto, después de calcular el estadístico
es necesario calcular los Grados de libertad (gl) para determinar el valor p mirando la tabla de
distribución t.

La tabla anterior es una salida de SPSS donde podemos observar el valor de t en la segunda
columna y la significancia en la cuarta columna; en este caso la significancia es ,000
(generalmente antes de la coma no se pone un 0; decir ,000 es lo mismo que decir 0,000) lo
que significa que p es MENOR que 0,05 por lo tanto se aprobaría H1 (hipótesis de
investigación); si la significancia fuera MAYOR que ,05 significa que p es mayor a 0,05 por lo
tanto se rechazaría H1 y se aprueba H0 (que es la hipótesis nula).
NOTA: Existe otro caso que es cuando nos dan el valor de t (t observado; que siempre se
compara en VALOR ABSOLUTO) y no aparece la significancia; por lo tanto uno la tiene que
sacar; esto se hace asi:
1. Sacar los grados de libertad con la formula: G. l = n-1 (grados de libertad es igual al
numero de participantes menos 1)
2. Ver la tabla de valores críticos para t: dependiendo si se realizo contraste unilateral o
bilateral

Recordar: el contraste unilateral es cuando por ejemplo yo digo en mis hipótesis :

99
A diferencia del contraste bilateral:

3. En la tabla vemos cuales son los grados de libertad y nos ubicamos en el grado de
significancia que estamos aceptando (generalmente es 0,05 lo que significa que aceptamos un
5% de error) para poder sacar el t critico; entonces por ejemplo si nuestra t tuviera grados de
libertad 2 con un contraste unilateral el t critico seria 2,920.
4. Comparamos nuestro t observado con el t critico y se ve lo siguiente:

Si t observado > t critico  se asume que p es < que 0,05 por lo que se aprueba H1 y se
rechaza H0
Si t observado < t critico  se asume que p es > que 0,05 por lo que se aprueba H0 y se
rechaza H1
DATO IMPORTANTE: lo anterior explicado también puede suceder en la prueba t para
muestras relacionadas; ya que los grados de libertad se sacan de la misma manera; en la
prueba t para muestras independientes también se puede utilizar esta tabla pero los
grados de libertad se sacan con la siguiente formula: G.l = na + nb -2 (grados de libertad
es igual al numero de participantes de la muestra 1 mas el numero de participantes de la
muestra 2 menos 2).
Ejemplo de un ejercicio y de conclusión:

100
Luego se aplica la formula para t de una muestra (no es necesario saber sacar la formula, solo
interpretar resultados porque lo mas probable es que van a poner la tabla del spss que se puso al
principio de empezar a explicar esta prueba) y el t es = -4,965 y la significancia o valor p= 0,001
Por lo que tenemos que comparar este valor p con el valor de significación especificado
que es el % de error que vamos a aguantar y generalmente es un 5% de error por lo que se
aguanta hasta que p < o igual a 0,05 para aceptar la hipótesis H1.
DATO FREAK E IMPORTANTE: en algunos estudios se acepta solo un 1% de error,
entonces la significación para aceptar h1 debería ser que p tiene que ser < o igual a 0,01 y
en otros estudios se acepta solo el 0,1 % de error y acá la significación para aceptar h1 es
que p tiene que ser < o igual a 0,001. (el investigador lo estipula, pero generalmente es
0,05)

En este caso p< 0,05 por lo tanto se concluye que:


 H0 se rechaza
 H1 se acepta

Para someter a evaluación la hipótesis del estudio, se aplicó la prueba t de Student para una
muestra en base a un contraste unilateral. Al comprar la edad de inicio del habla entre los
niños del grupo experimental (M=10 meses; DE=2.34) y los niños de la población (M = 13
meses) se concluye que los primeros tienden a iniciar el habla a una edad significativamente
inferior a estos últimos (t(14)= -4.965; p < 0,001).
Prueba T de student para muestras relacionadas:
Se utiliza cuando queremos comparar dos aplicaciones de una prueba hechas a la misma
muestra en períodos sucesivos o cuando tenemos dos muestras pareadas en las cuales se ha
medido la misma variable numérica. En el primer caso, el objetivo es comparar si hubo cambios
en los puntajes de los sujetos de entre las pruebas, en cambio en el segundo caso, el objetivos es
saber si existen diferencias entre los puntajes de los sujetos pareados. Parear las muestras o
también llamado emparejamiento, consiste seleccionar una muestra y dividirla aleatoriamente
en dos grupos. Es decir, se seleccionan los casos que van a un grupo y al otro de manera
aleatoria.

101
La tabla anterior es una salida de SPSS donde podemos observar el valor de t en la sexta
columna y la significancia en la octava; en este caso la significancia es ,011 (generalmente no
se pone el 0 antes de la coma pero recuerden que va un 0; decir ,011 es lo mismo que decir
0,011) lo que significa que p es MENOR que 0,05 por lo tanto se aprobaría H1 (hipótesis de
investigación); si la significancia fuera MAYOR que ,05 significa que p es mayor a 0,05 por lo
tanto se rechazaría H1 y se aprueba H0 (que es la hipótesis nula).
Ejemplo de t para muestras relacionadas con conclusión:
Se lleva a cabo un estudio para determinar si el nacimiento del primer hijo aumenta la cohesión
en las parejas. Se selecciona una muestra de 10 personas sin hijos, a las que se les pide que
evalúen los niveles de cohesión con su pareja. Luego de un año del nacimiento del primer hijo,
se les vuelve a aplicar la misma escala. Los resultados aparecen a continuación:

Hipótesis de investigación: El nacimiento del primer hijo produce un aumento en la cohesión de


las parejas.

Luego se aplica la formula para t para muestras


relacionadas (no es necesario saber sacar la formula, solo interpretar resultados porque lo mas
probable es que van a dar la tabla del spss que se pego antes al empezar a explicar esta prueba)
y el t es = 2,472 y la significancia o valor p= 0,001. Por lo que tenemos que comparar este
valor p con el valor de significación especificado que es el % de error que vamos a
aguantar y generalmente es un 5% de error por lo que se aguanta hasta que p < o igual a
0,05 para aceptar la hipótesis H1.

102
Alfa es el 5% de error que estamos aceptando y para que sea asi p tiene que ser menor a 0,05.

Prueba T de Student para muestras independientes.


Esta prueba se utiliza cuando se tienen dos muestras en las cuales se ha medido una misma
variable numérica y se desea determinar si dichas muestras provienen de una misma población o
de poblaciones distintas sin tener ningún dato de las poblaciones.Mide si hay diferencias entre
las medias estimadas de la población en muestras que no se relacionan, ve diferencias en grupos
distintos, por ejemplo, medir estrés en hombres y mujeres

Ejemplo de esta prueba con la interpretación de las tablas del spss y conclusión:

103
En la tabla anterior es necesario fijarse en 3 cosas:
a) En la columna donde dice prueba de levene para igualdad de varianza porque esta
dependiendo de que valor tenga la significancia nos va a decir si se asumen o no varianzas
iguales y cual de los dos valores de t que aparecen en la columna de al lado es el correcto
para este ejercicio.
La prueba de levene mide lo siguiente y se interpreta de la siguiente manera:

b) En la columna de t (luego de haber visto la


prueba de Levene) en este caso nos tenemos que
fijar en el resultado de t que aparece arriba
porque como la prueba de Levene arrojo una
significancia de 0,404 eso significa que p es >
que 0,05 por lo que se asumen varianzas iguales;
por lo tanto el valor de t = -3,464
c) Fijarse en la significancia (p) que aparece en la tabla al lado de donde sale el valor de t y los
grados de libertad; ya que si p>0,05 se rechaza h1 y se aprueba h0; y si p<o = 0,05 se acepta
h1 y rechaza h0 por lo que habrían diferencias estadísticamente significativas entre las
medias de los dos grupos. (en este caso porque la significancia es 0,001; es decir menor
que 0,05)

RESUMEN:
Prueba t para una muestra

104
Se utiliza cuando quiero comparar 2 promedios poblacionales, pero solo tengo uno de ellos. El
otro es muestral.
Valor p  está dado de forma bilateral. Si tengo un ejercicio unilateral hay que dividirlo por 2.
Prueba t para muestras relacionadas
Se aplica para una misma prueba en el tiempo.
Prueba t para muestras independientes
Queremos comparar 2 poblaciones, pero no tenemos los datos de ninguna de las dos, por lo que
ocupamos los promedios poblacionales para los dos.
Se utiliza cuando tenemos dos muestras en las cuales se ha medido una misma variable
numérica y se desea determinar si dichas muestras provienen de una misma población o de
poblaciones con medias diferentes. Al momento de calcular t, se disponen de dos fórmulas
diferentes, dependiendo de si las varianzas de las dos muestras son iguales o diferentes.
Prueba levene: observo la significancia (p)… si p < 0,05 las varianzas son distintas o no iguales.
Si p ≥ 0,05 las varianzas son iguales o no son distintas.

B2. CHI-CUADRADO DE PEARSON o X2 DE PEARSON:


El estadístico Chi2 es una prueba que se utiliza para comprobar si existen relaciones entre dos
variables de tipo categóricas, ya sean nominales u ordinales. Algunos ejemplos de preguntas de
investigación que se analizan a través de Chi 2 pueden ser:

¿Existen diferencias en la proporción de personas depresivas entre mujeres y hombres?¿Existen


diferencias en la proporción de personas deprimidas entre personas de los niveles
socioeconómicos alto, medio o bajo?.
Para evaluar estas hipótesis a través de Chi 2 es necesario organizar los datos en una tabla de
contingencias. La tabla de contingencias o tabulación cruzada, es un cuadro de dos dimensiones,
y en cada dimensión hay una variable con sus respectivas categorías.
EJEMPLO TABLA SPSS.
PD: LO MAS PROBABLE ES QUE NO SALGA NADA DE LO QUE SE EXPLICA
DESPUES Y SALGA SOLO ESTO; PERO PORSIACASO SE EXPLICA EL ANALISIS
MAS DETALLADO A CONTINUACION DE ESTA TABLA.

En este caso observamos primero una tabla de contigencia donde se cruzan las dos
variables categóricas; en este caso el genero (femenino y masculino) y el estado civil
(casado, viudo, divorciado, unión libre, nunca casado).
Luego al lado esta el resultado de la prueba chi cuadrado; en este caso es 24,520 y se anota
= 24,520; y la significancia en este caso es ,000 por lo que p es < que 0,05; asi que se
aceptaría H1 y se rechaza H0.
Otro ejemplo: TABLA DE CONTINGENCIAS
Esta tabla, resulta del cruce de las filas correspondientes a las categorías de la primera variable
(Var1), con las columnas correspondientes a las categorías de la segunda variable (Var2).

105
Tabla de contingencia GENERO * NSE
NSE
bajo Medio alto Total
GENERO masculino 37 57 31 125
Femenino 37 60 19 116
Total 74 117 50 241

Cada celda de la tabla de contingencia contiene el valor correspondiente al número de casos que
presentan las características de la variable 1, categoría i y de la variable 2, categoría j (i y j
significa que puede ser cualquier categoría). Estos valores reciben el nombre de frecuencias
observadas y no incluye a los valores totales ubicados en el extremo derecho e inferior. La suma
de las frecuencias observadas correspondientes a cada categoría son presentadas en los totales y
se llaman totales marginales fila o totales marginales columna.
Ej.: Tabla de contingencia GENERO * NSE
NSE
bajo Medio alto Total Totales marginales filas.
GENERO masculino 37 57 31 125
Femenino 37 60 19 116
Total de casos de la
Total 74 117 50 241
muestra.

Totales marginales

Una vez dispuestos los datos en la tabla de contingencias, se procede a analizarlos a objeto de
determinar si las variables son independientes o por el contrario están relacionadas. El que las
variables sean independientes es equivalente a la H 0 y que estén relacionadas se corresponde con
la H1. Cuando la H0 es correcta (las variables son independientes), entonces se tiene que los
valores que toman las frecuencias observadas en una tabla de contingencias son iguales al
producto de sus respectivos totales marginales filas y columna dividido por el total de la
muestra. Estos números calculados así reciben el nombre de frecuencia esperada (Fe):
Fe= Total fila X Total Columna
Total de la muestra.
Tabla de contingencia GENERO * NSE
NSE
bajo Medio alto Total
GENERO masculino 37 57 31 125
Femenino 37 60 19 116
Total 74 117 50 241

Es decir, para calcular la Fe esperada de la casilla donde convergen las categorías


socioeconómico bajo y género masculino, tengo que multiplicar el total de nivel
socioeconómico bajo (74) por el total marginal fila de l categoría masculino (125) y dividirlo

106
por 241. Si así lo hiciéramos con cada una de las casillas obtendríamos otra tabla semejante,
pero que representa a las Fe:
Tabla de contingencia GENERO * NSE
NSE
Bajo medio alto Total
GENERO Masculino Frecuencia
38,4 60,7 25,9 125,0
esperada
Femenino Frecuencia
35,6 56,3 24,1 116,0
esperada
Total Frecuencia
74,0 117,0 50,0 241,0
esperada

Si las frecuencias esperadas (Fe) fueran muy distintas a las frecuencias observadas, esto
indicaría que las variables si se relacionan y, por tanto, H 0 es falsa.
Pero, ¿Cómo sabemos cuándo una diferencia entre las Fe y las Fo es significativa?
Justamente, el estadístico Chi 2 determina si hay diferencias significativas entre las frecuencias
observadas y las frecuencias esperadas según las tablas de contingencia desarrolladas. De esta
forma las hipótesis en este tipo de problemas siempre serán redactadas como:
H1: Fo ≠ Fe
H0: Fo = Fe
Donde Fo=frecuencia observada y Fe=frecuencias esperadas. Es decir, se comparan las Fo con
las Fe. Además, la hipótesis es siempre bilateral.
Mientras más diferencias hay entre ambas frecuencias (Fe y Fo) el valor de Chi 2 tenderá a ser
mayor que 0. De otra forma, si no existen diferencias entre las frecuencias, entonces Chi 2
tenderá a 0.
Una vez que hemos obtenido las Fe y Fo se calcula el valor de Chi 2 a través de la siguiente
fórmula:

Esta fórmula significa, elevar al cuadrado cada cuadrante de la Fo, dividir cada uno de ellos por
sus respectivas Fe, sumarlos todos y finalmente restarle el número total de la muestra.
Por tanto, no basta con saber que existen diferencias entre las frecuencias (Chi 2 ≠ 0), sino que es
necesario saber si estas diferencias son significativas. Para esto es importante revisar el valor p
asociado al valor Chi2 y sus respectivos grados de libertad.
Si p menor a 0,05, entonces hay diferencias significativas entre las frecuencias, lo cual significa
que las variables están relacionadas (se rechaza H0, se aprueba H1). Si p mayor a 0,05, entonces
no hay diferencias significativas entre las frecuencias por lo que las variables son
independientes.

107
En esta prueba, los valores p varían dependiendo de los grados de libertad que son calculados en
base a la siguiente fórmula: gl= (filas-1) x (columnas – 1)
- ANEXO: introducción a Anova de un factor o One way Anova

ANALISIS DE VARIANZA (ANOVA en general)


Los modelos de Análisis de Varianza constituyen herramientas estadísticas que permiten el
estudio de la relación entre una variable respuesta y una o más variables explicativas. Entre las
características que presentan los modelos estadísticos del Análisis de Varianza se pueden
mencionar:
- La variable respuesta necesita ser numérica.
- Las variables explicativas o predictoras usualmente son variables categóricas.
En el marco del Análisis de Varianza se tiene la costumbre de denominar a las variables
explicativas como Factores. De igual modo, los valores que puede tomar un Factor reciben el
nombre de Niveles del Factor.
Número de factores:
Los modelos de Análisis de Varianza, se pueden clasificar en cuanto al número defactores
analizados:
- ANOVA de un Factor (One-way ANOVA).
- ANOVA Factorial (2 o mas factores)

Supuestos (ambos):
- Distribución normal de la variable dependiente en cada uno de los grupos comparados.
- Homogeneidad de las varianzas entre los grupos comparados (Homocedasticidad).
- Que los datos sean independientes entre sí.

El estadístico utilizado en esta prueba se denomina por la letra F. Este estadístico sigue una
distribución de probabilidad denominada F de Shedecor – Fisher que posee una distribución
asimétrica positiva en el histograma.

B3. ANOVA DE UN FACTOR:

Se utiliza en aquellos casos en que el investigador desea comparar el promedio de tres o más
poblaciones, pero desconoce dicha información. Se tiene una variable dependiente (numérica) y
una variable independiente o factor con 3 o mas grupos (categórica).
En términos de hipótesis de investigación, ésta plantea la existencia de diferencias en los
promedios de las distintas poblaciones comparadas.
Hipótesis estadísticas:
H0: μ1 = μ2= μ3
H1: no todos los μi son iguales
Dado que las poblaciones son muy numerosas, se debe proceder a trabajar con muestras de cada
una de ellas. Una vez obtenidas las muestras, se comparan sus promedios para determinar si
existen diferencias estadísticamente significativas.
Los resultados de la aplicación de la prueba ANOVA de un factor, dan origen a dos posibles
conclusiones:

108
- Si se observan diferencias significativas en los promedios de los grupos, se concluirá
que las variables se encuentran relacionadas.
- Por el contrario, si no se observan diferencias significativas en los promedios, se
concluirá que las dos variables son independientes.

Cuando los resultados del ANOVA indican que existen diferencias significativas en los
promedios de los grupos comparados, el paso siguiente será determinar qué grupos son distintos
entre sí.Esto sucede cuando p< o igual a 0,05 (en ambas anovas)
Para ver que grupos son distintos entre si es necesario (en ambas anovas):
1) Realizar la prueba de LEVENE

2) Realizar un análisis POST HOC (existen varios análisis post hoc y para decidir cual es
la prueba que vamos a usar necesitamos hacer la prueba de Levene antes) que me
permitirá ver entre que grupos se encuentran las diferencias
- Si el valor en la prueba de Levene es < o igual a 0,05 se utilizan las pruebas porque se
asume que las varianzas no son iguales o por lo tanto que son distintas:
 T3 DUNETT
 Games-howell
 T2 de Tamhane
 C de Dunett
- Si el valor en la prueba de Levene es p> a 0,05 se utilizan las pruebas porque se asume
que las varianzas son iguales o que no son distintas:
 HSD TUKEY: Esta prueba determina el mínimo valor entre los promedios para que
la diferencia de los promedios sea significativa.
 SIDAK
 SHEFFE
 BONFERRONI
 DUNCAN

Ejemplo con tablas SPSS y conclusión:

109
Acá podemos ver cuales son la media (promedio) y desviación estándar de cada uno de los
niveles de nuestro factor (en este caso el factor es tratamiento)

Acá podemos ver cual es la significancia (valor p) de la Prueba de Levene; en este caso es
0,557 por lo que p es > a 0,05 entonces se asume que las varianzas son iguales por lo que si
nuestro valor F (anova) tiene un valor significativo (p<o igual 0,05); debemos utilizar una
prueba post hoc como la HSD Tukey para ver en que grupos del factor están las
diferencias con relación a la variable dependiente.

110
Acá podemos ver el resultado de nuestra F (Anova) y la significancia; en este caso es 0,000
por lo que p< a 0,05; entonces existen resultados estadísticamente significativos y se
aprueba H1 y se rechaza H0.

En esta tabla y la anterior podemos observar entre que grupos del factor se encuentran las
diferencias; en este caso podemos ver que las personas que se sometieron al tratamiento
cognitivo conductual son las que presentan una mayor disminución de síntomas ansiosos
en comparación a los otros tratamientos.

111
B.4 COEFICIENTE DE CORRELACION PRODUCTO-MOMENTO R DE PEARSON
(correlaciones):
Se creó para analizar las relaciones lineales.
Relaciones lineales:
- Relación lineal directa: la nube de puntos asciende. Personas con bajos ptjes en una
variable tienen bajos puntajes en la segunda variable. Personas con altos puntajes en
una variable, tienen puntajes altos en la segunda variable.
- Relación lineal inversa: La nube de puntos baja. Personas con altos ptjes se asocian con
bajos ptjes en la segunda variable. Personas con bajos ptjes se asocian con altos ptjes en
la segunda variable.
Pd: Generalmente es entre dos variables numéricas (correlaciones bivariadas) pero existe
un tipo que se denomina correlaciones parciales que es la relación entre dos variables
numéricas pero controladas por una tercera que puede ser categórica o numérica ( por
ejemplo correlación entre horas de entrenamiento y rendimiento deportivo controlado
bajo el efecto de suplemento energético, drogas, etc)

Dos propiedades:
1. El tipo de relación (Directa o inversa). Forma de la relación (al mirar el nª del
coeficiente).
2. Permite describir la intensidad o la fuerza de la relación directa y muy fuerte inversa y
moderada inversa y débil.

EL coeficiente de relación producto momento puede variar de -1,0 a +1,0 (la matemática de la
fórmula impide salirse de ese intervalo).
El signo coeficiente R de pearson indica la forma de relación:
- Signo positivo-> Relación directa (altos con altos /bajos con bajos)
- Signo negativo->Relación inversa (bajos con altos/altos con bajos).

El valor absoluto de un coef. Indica la intensidad:


- Valor cercano a 1,0 -> relación muy intensa
- Valor cercano a 0 –> ausencia de relación lineal

Valores de referencia:
 r entre 0 y 0.30 o entre 0 y -0.30= relación baja entre las variables
 r entre 0,31 y 0,70 o entre -0,31 y -0.70= relación media entre las variables
 r entre 0,71 y 1 o entre -0,71 y -1= relación alta entre las variables

Ejemplos de salidas de datos SPSS:


a) Bivariada

S1 S2
S1 Correlación de Pearson
1 ,052
(R)
Sig. (bilateral) ,325
N 356 356
S2 Correlación de Pearson ,052 1
Sig. (bilateral) ,325
N 356 356

112
Correlación entre s1 y s2= 0,052

OJO: También es importante evaluar la significancia si p< o = 0,05 esto es significativo y la


relación puede ser aplicada a la realidad; de lo contrario (si p> 0,05 esto es poco confiable).

b) Parcial

Variables de
control S1 S2
S3 S1 Correlación 1,000 ,039
Significación
. ,460
(bilateral)
gl 0 353
S2 Correlación ,039 1,000
Significación
,460 .
(bilateral)
gl 0
353

Correlación entre s1 y s2 controlado por s3= 0,039

Analizar gráficos de dispersión y matriz de correlación: ejemplo


SUICIDIO
DESESPE
EFICIENC
SOLEDAD
EDAD

SUICIDIO DESESPE EFICIENC SOLEDAD EDAD

 Suicidio y edad, no hay linealidad clara…se puede aplicar r de person pero puede salir
que las variables no se relacionan.
 Suicidio y desesperación es directa. A mayor suicidio mayor desesperanza.
 Suicidio y soledad hay curvatura, no se aplica pearson por no linealidad.
 Suicidio y eficiencia, son de relación inversa.

113
70

60
Estrés post traumático en Niños

50

40

30

20

10 20 30 40 50 60 70 80
Estrés post traumático en Cuidadores

EJEMPLO: Grafico de dispersion: Directa y lineal.


Repaso r de pearson y análisis en computador:

Este estadístico se emplea cuando se tiene una muestra en la que se han medido dos variables
numéricas distintas y lo que se desea es determinar si existe una relación lineal entre estas
variables.
El coeficiente producto-momento r de Pearson puede variar de –1,0 a +1,0.
Para interpretar el significado de un coeficiente de correlación de Pearson

SIGNO (positivo o negativo) Valor numérico

(+)existencia de una relación lineal Cercano a 1,0 indica existencia de


directa. Es decir altos valores de una una relación lineal muy intensas de la
variable, se asocian a altos valores de variable.
la otra variable. Cercano a 0 indica ausencia de una
(-)existencia de una relación lineal relación lineal de las vaiable (lo que
inversa. Es decir, a altos valores de no implica que no haya relación
una variable, bajos valores de la otra. entre variables)

Un aspecto importante a considerar al momento de aplicar esta prueba, consiste en especificar el


tipo de contraste que se va a realizar:
Contraste Unilateral:se emplea en aquellos casos en que la hipótesis de investigación plantea la
existencia de relaciones directas o inversas entre las variables.
Contraste Bilateral:se emplea en aquellos casos en que la hipótesis de investigación sólo plantea
la existencia de una relación entre las variables, sin indicar la forma de ésta.
OTRO EJERCICIO COMO EJEMPLO

114
H1: Las personas con mayor apoyo social presentan menor soledad

Valor r de pearson (fijarse signo y


n°)
Valor p asociado al coeficiente de
correlación producto-momento de
Conclusión: Pearson

Paraevaluar la hipótesis de que las personas con mayor apoyo social presentan menor soledad, se
empleó el coeficiente de correlación producto-momento de Pearson en base a un contraste
unilateral.
Los resultados obtenidos permiten apoyar esta hipótesis, r(77) = −.52; p< .001, observándose una
relación lineal inversa, de intensidad fuerte, estadísticamente significativa entre ambas variables.

r(GL=n-2) = valor r; significancia p


- R de Pearson es sólo para relaciones lineales. Primero se debe identificar si la relación es
lineal.
- Forma de la relación: (Gráfico) si la relación entre variables es lineal, no lineal o no existe
relación y por tanto no existe una relación determinada para ordenar los datos. (no existe
una tendencia, los datos están dispersos)

Dirección:
Puede ser: directa o positiva o lineal inversa o
negativa.
Intensidad (de un gráfico):
- Si se tienen los datos que calzan perfectamente con la línea recta, sería una correlación de 1
(una tendencia lineal perfecta). Si se dispersan un poco, el valor de R ya no será 1.
- Intensidad: intensa mayor a 0.50
- Moderada; mayor a 0,30
- Leve: mayor a 0.10
- Si la relación lineal que se observa es fidedigna en la población (esto entrega el p)

B.5 REGRESION LINEAL SIMPLE:


La regresión lineal simple, es utilizada para predecir valores de una variable dependiente a partir
de una variable independiente. Ambas deben ser numéricas. A la variable dependiente se le
denomina también variable criterio y a la independiente, predictora. Es necesario considerar que
la variable independiente no necesariamente es causal de la dependiente, sino que a partir de la
relación lineal que poseen las variables es posible predecir los valores de una a través de la otra
construyendo una ecuación.

115
Etapas en un análisis de regresión Lineal: (ESTO NO CREO QUE LO PREGUNTEN; ES
PARA PRIFUNDIZAR Y ENTENDER A FONDO EL MODELO)
1) Obtener el modelo lineal.
2) Determinar la capacidad explicativa del modelo de regresión lineal.
3) Evaluar la significación estadística del modelo de regresión lineal.
4) Evaluar la significación estadística de cada uno de los parámetros del modelo de
regresión lineal.
5) Evaluar el cumplimiento de los supuestos de regresión lineal.

Ejemplo:
Queremos ver la relación que se da y como predice el salini (salario inicial) como variable
independiente o predictora el salario (salario actual) como variable dependiente.

116
Esta tabla muestra el modelo (paso 1); luego es necesario determinar la capacidad explicativa
del modelo de regresión lineal (cuan bien predice, paso 2) y esto se ve a través del valor del
coeficiente de correlación múltiple (R) y de su cuadrado (R2)

Este modelo tendría una alta capacidad explicativa (en la vida real) y seria directa alta; por lo
tanto el cambio en el salario actual estaría altamente explicado por el salario inicial “explica
cuanto un cambio en x (salario inicial) explica o predice un cambio en y (salario actual)” por lo
tanto podríamos decir que a mayor salario inicial de las personas esto va a predecir que la
persona tenga un mayor salario actual; o que mientras mas salario inicial tengan las personas
mas se explica que tengan un mas sueldo actual.
Luego tenemos que evaluar la significancia del modelo (tiene que ser significativo, paso 3);
para determinar si el modelo es significativo, se debe aceptar H1. Si se llegase a aceptar H0
quiere decir que los valores son 0, por lo que los valores del predictor no resultan útiles en la
predicción de la variable dependiente a nivel de población.
Para eso se observa la TABLA ANOVA: El valor del estadístico F, con su valor asociado: si p
<0,05 el modelo es significativo y existe regresión lineal entre predictores y variable
dependiente.

La significación estadística del modelo en su conjunto se observa en el valor p asociado al


ANOVA. Si p ≤ .05, entonces el modelo es significativo a nivel de la población. En términos de
contraste de hipótesis, este valor p significaría que alguno de nuestros coeficientes (b0
(constante, donde intercecta el eje); b1 (inclinación, pendiente, acompañado de x1 que es la
variable predictora) son distintos que cero, por lo que se concluye que nuestra variable
predictora incide en la predicción de la variable dependiente.

Después de esto es necesario evaluar la significación estadística de cada uno de los parámetros
del modelo de regresión lineal (paso 4) lo que se realiza mediante una tabla de coeficientes:

117
b0: Se observa en la fila constante y columna B, es decir, en este caso b0 = 1928,206 para el
modelo y b1: = 1,909. Estos son los valores que deben ser ingresados en la ecuación Y= b0 +
b1X1 + e si queremos predecir nuevos casos una vez estimado el modelo.

Los coeficientes Beta Estandarizados (tipificados), señala la capacidad predictiva entre el


predictor. Para esto debemos leer el valor absoluto (el valor independientemente del signo
asociado). Mientras mayor sea el valor, mayor capacidad explicativa tiene el predictor en el
modelo. Además, aquí podemos observar la forma de la relación de la variable independiente
con la dependiente. Para esto, miramos el signo del coeficiente (ya que la relación puede ser
directa o inversa).

El estadístico t de Student y su valor p asociado (Sig.) nos permite observar la significación


estadística de cada coeficiente de nuestro modelo y responde a la pregunta: ¿el valor de este
coeficiente es distinto que cero? Si el valor p asociado es menor que 0,05, se asume que el
coeficiente es distinto que cero y por tanto, esa variable es significativa en la predicción de la
variable dependiente. Si por el contrario, p es mayor a 0,05, este coeficiente no es significativo,
por lo cual no debe ser incluido en la forma final del modelo lineal (tiene que ser significativa).

Por ultimo (paso 5) es necesario evaluar si se cumplen o no los supuestos de la regresión lineal
simple; estos son:
1. Ausencia de relación no lineal o linealidad: aquí analizamos el grafico de dispersión para
el cual esperamos que no sea curvo.
2. Presencia de Homocedasticidad: Implica que los valores predichos por el modelo deben
tener una variabilidad estable a lo largo de todos los valores que pueda tener la variable
independiente. Se evalúa a través del gráfico de dispersión anteriormente explicado en el
supuesto ausencia de relación no lineal. Si es curvo no sirve. Para cada valor de la variable
independiente la varianza de los residuos es constante. Se utiliza un análisis de los residuos y el
grafico de dispersión. Lo que importa es la distancia y dispersión, y no la posición, ya que
puede ser directa o inversa.
3. Normalidad o distribución normal de los residuos: para ello se observa el Histograma y
se espera que este tenga una distribución normal; Para cada valor de la VI (o la combinación de
éstas), los residuos se distribuyen normalmente con media 0.
4. Independencia u observaciones independientes: Los residuos son independientes entre
sí (no están correlacionados), el residuo de una persona no debería tener relación ni estar
influenciado con el residuo de otros sujetos. Por ejemplo, cuando se estudia a familias o un
curso completo hay dependencia de datos. El grado de dependencia puede medirse con el
coeficiente de correlación intraclase (ICC), si es sobre o igual a 0.10 hay dependencia
importante, por lo que no se cumpliría el supuesto. También puede medirse la dependencia de
los datos con el estadístico Durbin-Watson (DW), ésta prueba sólo se usa si se hizo una
investigación a grupos y se ingresaron los datos del grupo en orden. De esta forma se verá el
parecido. El valor debe estar entre 1 y 3 para que no exista dependencia (Hay autores que
proponen que sea entre 1,5 y 2,5 para asumir independencia). A grandes rasgos es que los
residuos (diferencia entre valores observados y pronosticados) son independientes entre sí.

118
Ejemplo: Se cumpliría el supuesto
porque el valor de Durbin – Watson es mayor que 1; es decir esta entre 1 y 3.

5. Ausencia de casos influyentes: Los casos influyentes son casos que afectan de forma
importante al valor de la ecuación de regresión, no tiene porque ser un problema en sí mismo,
pero hay que ver que no sean valores erróneos.
6. Cuando se obtiene un modelo de regresión lineal se espera que los valores de los
coeficientes del modelo reflejen el efecto de todos los casos analizados. Sin embargo, en
ocasiones alguno de los casos analizados presentan valores en las variables analizadas tan
inusuales respecto del resto de la muestra, que el modelo de regresión obtenido tiende a reflejar
la información de dicho caso atípico. Lo que implica que si se hubiera llevado a cabo el análisis
excluyendo el caso atípico, los valores de los coeficientes del modelo serían muy distintos a los
valores de los coeficientes que se obtuvieron cuando el caso atípico fue incluido en el análisis.
Para evaluar este supuesto se utiliza la Distancia de Cook para cada integrante de la muestra. El
caso sería influyente si la Distancia de Cook es mayor a 1. También se pueden observar los
valores de influencia, si es menor a 0.2 son poco problemáticos, entre 0.2 y 0.5 se consideran
arriesgados y si es mayor a 0.5 debería evitarse. Si hay casos influyentes, se podrían eliminarse
del análisis si entorpecen el juste del modelo (podrían ser casos atípicos que no representen a la
población). Ejemplo:

Ejemplo de conclusión:
Para evaluar el efecto de la variable predictora… sobre la variable criterio … se llevo a cabo un
análisis de regresión lineal simple.
El resultado obtenido corresponde a un coeficiente R 2 =_______(R2adj = _____). En cuanto a la
significación estadística del modelo, el resultado mostro un F(gl trat, gl error)=_______,
p______, lo cual permite sostener que existe una relación lineal estadísticamente significativa
entre el predictor y los puntajes de_______________.

119
El predictor … es estadísticamente significativo en su contribución a la explicación de
los puntajes de la variable ___________________… exhibiendo una relación directa con la
variable ______________(β = , sr2 = ).
c) HIPÓTESIS MULTIVARIADAS
c.1) ANÁLISIS ANOVA FACTORIAL
Es una extensión del ANOVA de un factor, por cuanto ahora se desea determinar si dos o más
factores se relacionan con una única variable numérica (y). Acá cada factor tiene dos o mas
niveles y siempre son categóricos

Y (numérica) X1 (CATEGORICA)
X 2 (CATEGORICA)
Una de las ventajas del ANOVA factorial sobre el de un factor, reside en que el primero permite
evaluar dos tipos de efectos de los factores sobre la variable dependiente.
a) El efecto principal de cada factor por separado.
b) El efecto de interacción entre los factores sobre la variable dependiente.

Al momento de analizar los resultados de un anova factorial, se evalúa en primer lugar, la


hipótesis del efecto de interacción. Cuando los resultados indican la existencia de una
interacción, pueden ocurrir dos situaciones distintas:
- Que sólo exista efecto de interacción, sin ningún efecto principal significativo.
- Que junto con el efecto de interacción también esté presente un efecto principal de
alguno de los factores.

- Efecto principal. Involucra la comparación de los promedios de los distintos niveles de cada
factor. En un diseño factorial, cada factor tiene asociado su propio efecto principal.
- Efecto de interacción. Evalúa en qué medida las combinaciones provocan distintos resultados
o resultados iguales (si tienen o no tienen efecto). Refleja los efectos asociados con las diversas
combinaciones de los niveles de los factores.

Variables implicadas en el Efecto principal Efecto de interacción


estudio hipotético.

A, B sobre variable A explica C por sí sola. A y B, en interacción explican


dependiente C B explica a C por sí sola. C.

En el cuadro anterior, se pone un ejemplo de la distinción entre un efecto principal y de


interacción. El efecto principal involucra que cada variable/factor explica por sí solo la variable
dependiente. Puede ser que en algunos factores se encuentre este efecto y en otras no. En
cambio, en el efecto de interacción, ambas variables juntas explican la variable dependiente.
Ejemplo:
Variable Satisfacción.

A. Género: 1) Masculino.
2) femenino.
B. Depresión: 1) con depresión.
2) sin depresión.

Al comparar por ejemplo, si el género influye en la satisfacción se comparan los promedios de


a1 y a2 (cuadro de arriba). Así mismo se hace si se quiere ver si influye la depresión en la
satisfacción, se comparan b1 y b2. Para ver si ambos factores influyen sobre la satisfacción se
comparan todos los promedios.

120
50

40
Media SATISFAC

30

DEPRESIÓ

con

20 sin
MASCULINO FEMENINO

GENERO

Para facilitar la tarea de entender la forma del efecto principal o de interacción resulta útil
analizar el gráfico de los promedios de los grupos que se están comparando. El grafico anterior
muestra un efecto principal.
Reglas generales de interpretación del gráfico:
- Hay efecto de interacción si las líneas dejan de ser paralelas. Si las líneas son paralelas
no hay interacción.
- Hay efecto principal si las líneas se encuentran separadas notoriamente (solo para el
factor ubicado en las líneas.)
- Hay efecto principal si las líneas se encuentran notoriamente inclinadas en la misma
dirección. Este es solo para el factor ubicado en el eje X.
Ahora al analizar el gráfico de arriba podemos encontrar:
a) Efecto principal:
-género (eje X): Hay efecto principal del género puesto que las líneas van hacia una misma
dirección.
-depresión (Ubicado en las líneas): No hay efecto principal de la variable depresión, puesto que
las líneas están muy juntas.
b) Efecto de interacción:
-Género*depresión: No hay efecto de interacción porque las líneas son paralelas.

Otro ejemplo: Hipótesis de estudio


H1: Las personas con alta ansiedad presentan mayores niveles de materialismo
H2: Existen diferencias en los niveles de materialismo experimentado por hombres y
mujeres
Tabla 1. Estadísticos Descriptivos
Variable dependiente: MATERIALISMO (Var.Numérica)
ANSIED
GENERO AD Media Desv. típ. N
Hombre bajo 10,3429 2,02837 35 Estos datos permiten ver
que las mujeres presentan
medio 8,9667 1,77110 30 mayores puntaje en las
Alto 15,3125 2,07034 32 escala de materialismo
que los hombres (ver los
Total * 11,5567 3,33532 97
totales *)
Mujer bajo 14,8485 2,38644 33
medio 14,9091 3,37605 33

121
Alto 13,5455 3,84131 33
Total* 14,4343 3,28622 99
Total bajo 12,5294 3,15505 68
medio 12,0794 4,03733 63
Alto** 14,4154 3,20104 65
Total 13,0102 3,60340 196

Tabla 2. Prueba de Levene


Contraste de Levene sobre la igualdad de las varianzas error(a)
Esta tabla evalúa el supuesto de
Variable dependiente: MATERIAL
homogeneidad de la varianza se
Significació esperará que:
F gl1 gl2 n p < .001 Varianzas no iguales
6,655 5 190 ,780 p ≥ .001 Varianzas iguales
(homogeneidad)

Tabla 3. Efecto de Interacción o Efectos principales

Pruebas de los efectos inter-sujetos


Variable dependiente: MATERIAL
Suma de
cuadrados Media Significació
Fuente tipo III gl cuadrática F n
Modelo corregido 1149,101(a) 5 229,820 31,576 ,000
Intercept 32990,258 1 32990,258 4532,681 ,000
GENERO 409,422 1 409,422 56,252 ,000
ANSIEDAD 214,704 2 107,352 14,750 ,000
GENERO *
543,097 2 271,549 37,309 ,000
ANSIEDAD
Error 1382,879 190 7,278
Total 35708,000 196
Total corregida 2531,980 195
a R cuadrado = ,454 (R cuadrado corregida = ,439)
En esta Tabla lo primero que hay que observar es si hay o
no efecto de interacción entre las variables categóricas
(Factor)

OBSERVAR EFECTO DE INTERACCIÓN(lo que dice GENERO*ANSIEDAD) EN LA


COLUMNA DE SIGNIFICANCIA, si p < .05 hay efecto de interacción, por tanto hay que
ir a ver ese efecto en el grafico, no se toman en cuentan los efectos principales.
Si p ≥ .05 no hay efecto de interacción, por tanto hay que buscar los efectos
principales.

122
OBSERVAR EFECTO PRINCIPALES (UN EFECTO PRINCIPAL ES DONDE DICE GENERO Y
OTRO EFECTO PRINCIPAL ES DONDE DICE ANSIEDAD) EN LA COLUMNA DE
SIGNIFICANCIA
si p < .05 hay efecto principal de la variable categórica que se está analizando.
Si p ≥ .05 no hay efecto principales.

Tabla 4. Análisis HSD Tuckey


Comparaciones múltiples
Variable dependiente: MATERIAL
Intervalo de confianza al
95%.
Diferencia
(I) (J) entre Significació Límite Límite
ANSIEDAD ANSIEDAD medias (I-J) Error típ. n inferior superior
bajo Medio ,4500 ,47177 ,607 -,6644 1,5645
Alto -1,8860(*) ,46798 ,000 -2,9915 -,7805
Medio Bajo -,4500 ,47177 ,607 -1,5645 ,6644
alto -2,3360(*) ,47697 ,000 -3,4627 -1,2093
Alto Bajo 1,8860(*) ,46798 ,000 ,7805 2,9915
medio 2,3360(*) ,47697 ,000 1,2093 3,4627
Basado en las medias observadas.
* La diferencia de medias es significativa al nivel ,05.

Esta Tabla, te permite ver cuáles grupos de tu variable categórica (sólo de tres o más niveles)
muestras diferencia significativa (entre ellos) en su relación con la variable numérica.Si tu anova
factorial tiene una variable categórica de dos niveles (ej. género), esta no se observa en esta
tabla de tuckey.

123
Medias marginales estimadas de MATERIAL
16
Se debe buscar comprender la
lógica del efecto de
15 interacción. En este caso,
14
existe un aumento del
materialismo cuando se es
Medias marginales estimadas

13 hombre y existe al mismo


tiempo una alta ansiedad. Si
12
no se dan ambas condiciones,
11 el efecto en la variable
materialismo no se presenta.
10 GENERO
Esto se evidencia en el hecho
9 hombre de que para el caso de las
mujeres con alta ansiedad, el
8 mujer
bajo medio alto materialismo desciende, en
vez de subir como en el caso
ANSIEDAD de los hombres.

Figura 1. Grafico de interacción variable materialismo.


CONCLUSIONES.
DADO QUE HAY EFECTO DE INTERACCIÓN NO SE ANALIZAN LOS EFECTOS
PRINCIPALES.

OJO: Ahora si es que no hubiera efecto de interacción las conclusiones se redactan así:

124
125
50: Epistemología - Investigación I y II - Cuanti – CualiVentajas y desventajas del
enfoque cualitativo y cuantitativo

Enfoque cuantitativo:
Ventajas: conocimiento replicable, posibilidad de generalización
Desventajas: foco limitado, centrado en los aspectos cuantificables de los fenómenos
Enfoque Cualitativo:
Ventajas: conocimiento de fenómenos poco explorados, centrado en los aspectos subjetivos e
intersubjetivos de los fenómenos, generación de hipótesis emergentes (es decir, de carácter
inductivas)

Desventajas: conocimiento no replicable y no generalizable

Investigación Cuantitativa
Ventajas:
1) Uno de los principales objetivos de esta investigación es que se pretende generalizar los
datos de una muestra a una población, esto quiere decir de un grupo pequeño a uno
mayor.
2) Brinda una gran posibilidad de réplica y un enfoque sobre puntos específicos de tales
fenómenos, además de facilitar la comparación entre estudios similares.

Desventajas:
1) El investigador plantea un problema de estudio delimitado y concreto. Las preguntas de
investigación versan sobre cuestiones específicas. Es por esto que en este tipo de
investigación el fenómeno tiene que cumplir con ciertas características que permitan
que sea estudiado y analizado mediante procesos estadísticos. Solo así la investigación
será creíble y aceptada por otros investigadores.
2) Enfoque reduccionista y fragmentado de la realidad, desconocimiento de procesos
subyacentes, simplificación de la realidad.

Investigación Cualitativa.
Ventajas
1) La mayoría de sus estudios no se prueban hipótesis, éstas se generan durante el proceso
y van refinándose conforme se recaban más datos o son un resultado del estudio, por lo
que tiene mayor afinidad con investigaciones exploratorias, siendo factible para el
conocimiento de fenómenos que no han sido explorados totalmente o con una calidad
adecuada, como también permite el estudio de fenómenos particulares (experiencias
únicas).
2) Este tipo de investigación se fundamenta en un proceso inductivo, es decir explora,
describe y luego genera perspectivas teóricas. Parte de lo particular hasta llegar a lo
general. Procede caso por caso, dato por dato, hasta llegar a una perspectiva más
general, lo cual permite generar conclusiones o supuestos contextuados al tiempo y
espacio en el cual se llevó a cabo la investigación.
3) Se centra en variables subjetivas del fenómeno, las cuales varían en su forma y
contenido entre individuos, grupos y culturas, lo cual permite explorar las vivencias
personales y la subjetividad de las personas. Por ello el investigador cualitativo parte de
la premisa de que el mundo social es relativo y sólo puede ser entendido desde el punto
de vista de los actores estudiados.
4) Otra ventaja es la flexibilidad, ya que permite establecer los instrumentos de
recolección y análisis durante el transcurso de la investigación, con la finalidad de
comprender el fenómeno desde su contexto natural y de manera holista.

5) El carácter recursivo permite retroceder a otra frase dentro del proceso investigativo.

126
Desventajas
1. Las indagaciones cualitativas no pretenden generalizar (extrapolar) de manera
probabilística los resultados a poblaciones más amplias ni necesariamente obtener
muestras representativas, ya que está centrada en la profundidad y contextualización
del fenómeno más que en la amplitud.

2. Tampoco pretenden que sus estudios lleguen a replicarse en otros contextos a


diferencia de la investigación cuantitativa, ya que se comprende la variabilidad de los
fenómenos en sus estados naturales, lo que impide que las investigaciones puedan
replicar sus resultados, ya que el contexto genera variabilidad en los fenómenos
estudiados. El conocimiento generado solo tiene sentido dentro del contexto particular
donde este emerge porque dicho contexto es determinante dentro del conocimiento
obtenido, por ello los resultados no se pueden replicar dentro de otro contexto de
estudio. Lo que sí se puede replicar es el procedimiento que se utilizó, pero no los
resultados que arrojó dicho procedimiento dentro de un contexto particular.

Cuantitativo Cualitativo
Ofrece la oportunidad de generalizar los -Proporciona profundidad a los datos,
resultados, otorga control sobre los dispersión, riqueza interpretativa,
fenómenos, así como un punto de vista contextualización del ambiente o
de conteo y las magnitudes de éstos. entorno, detalles y experiencias
Brinda gran posibilidad de réplica y un únicas. También aporta un punto de
Ventajas enfoque sobre puntos específicos de vista “fresco, natural y holístico” de
tales fenómenos. Facilita la comparación los fenómenos, así como flexibilidad.
entre estudios similares.

Otros
Existe una visión encontrada entre los más acérrimos defensores de las perspectivas
cuantitativas y cualitativas, sin embargo esta disyuntiva se fundamenta en estereotipos del
enfoque contrario
Actitudes sobre la relación cuali – cuanti:
Supremacía: Una es mejor que la otra
Critica de los cuantitativos a los cualitativos
- incapacidad de generalizar y ampliar sus resultados a un grupo mayor de personas
- Carencia de requisitos mínimos de validez y fiabilidad metodológica.
Critica de los cualitativos a los cuantitativos
- visión positivista ingenua: creer que el conocimiento es reflejo de la realidad y que sus teorías
son universalmente válidas.
- generación de modelos sociales escuálidos, esquemáticos y lejanos a la realidad.
- los modelos estadísticos recientes explican variaciones mínimas de la realidad
- cuantofrenia (Sorokin): La obsesión por transformar cualquier experiencia social y humana en
términos numéricos es “una expresión caricaturizada de la ilusión de creer que la realidad puede
ser comprendida y dominada a condición de poder medirla”
Síntesis: maximización de las fortalezas y minimización de las debilidades a partir de la
combinación de ambos métodos. Bajo esta postura encontramos tres posibilidades:

127
Complementación
- en una misma investigación se utiliza ambos enfoques, pero por separado, para obtener dos
imágenes de diferentes facetas el objeto de estudio
- generar un informe con dos partes separadas, y en algunos casos, una síntesis interpretativa
Combinación
- se utiliza uno de los métodos para perfeccionar la implementación del segundo método.
- Permite compensar sus debilidades incrementando la validez de sus resultados
Triangulación
- se utilizan ambas perspectivas para el estudio de una única dimensión de la realidad,
enfocando el mismo objeto desde diversos enfoques.
- busca el solapamiento de los métodos para reforzar la validez de los mismos.
Contingencia: seleccionar la perspectiva de acuerdo al contexto
Dialéctica: construir nuevos modos de aprehensión de la realidad social a partir de las
diferencias y semejanzas de estos métodos.
Todo vale: Cualquier enfoque – por absurdo que sea - es capaz de generar conocimiento
(Feyerabend)

52: Investigación Cualitativa  Criterios éticos en investigación en Psicología

Ética: consentimiento informado, confidencialidad, consecuencias (beneficencia), **e


integridad del investigador.

Microética:
-Consentimiento informado: dar a conocer los objetivos de la investigación, nuestros intereses,
quienes tienen acceso a las entrevistas, qué se va a registrar. Puede retirarse de la entrevista en
cualquier momento, es confidencial, los resultados se envían.
-Confidencialidad: Los datos confidenciales del entrevistado no pueden llegar a ser conocidos.
-Consecuencias: Considerar el beneficio o daño que puede causar la entrevista. Algunas pueden
gatillar algún evento traumático.
-Integridad de la entrevista: la experiencia del investigador determina qué información entrega y
qué no. La honestidad también es importante.
Macroética:

128
Tiene que ver con los resultados, ¿Para quiénes son útiles?¿A quienes les beneficia la
información?, es decir, cómo las entrevistas tienen repercusión en la sociedad, en algunos casos
pueden llegar a ocasionar efectos negativos. También puede dar que se rompan ciertas éticas con
el fin de dar beneficio a la sociedad.
Consentimiento informado:
La finalidad del consentimiento informado es asegurar que los individuos participen en la
investigación propuesta sólo cuando ésta sea compatible con sus valores, intereses y
preferencias; y que lo hacen por propia voluntad con el conocimiento suficiente para decidir con
responsabilidad sobre sí mismos. Los requisitos específicos del consentimiento informado
incluyen la provisión de información sobre la finalidad, los riesgos, los beneficios y las
alternativas a la investigación –y en la investigación–, la comprensión del sujeto de esta
información y de su propia situación, y la toma de una decisión libre, no forzada sobre si es
conveniente participar o no. El consentimiento informado se justifica por la necesidad del
respeto a las personas y a sus decisiones autónomas. Cada persona tiene un valor intrínseco
debido a su capacidad de elegir, modificar y proseguir su propio plan de vida. Es necesario
buscar alternativas confiables para garantizar que las personas aceptan la participación en la
investigación con todas las condiciones mencionadas. La presencia de testigos idóneos y el uso
de grabaciones son medidas que pueden complementar –o sustituir en ciertos casos– al
consentimiento firmado por escrito. La aceptación o no de estos recursos debe ser decidida por
los sujetos.
 Derecho a la privacidad del entrevistador. Esto implica que si la persona no quiere hablar de
algo, no se debe insistir
 Proteger de cualquier daño a los entrevistados
 Si la entrevista va a ser abierta o no (grabadora de bolsillo)
 Grado de involucramiento del entrevistador en este estudio
 El consentimiento informado corresponde a la carta que el entrevistado debe firmar en donde
se explica todo lo relacionado a la investigación. No se trata únicamente de una invitación a
participar, sino una descripción de lo que sucederá durante el curso de la investigación. Esta
debe contener al menos:
- El propósito de la investigación.
- La identidad y la filiación del investigador.
- Lo que está haciendo el investigador.
- Cuánto tiempo durará la investigación.
- El derecho del sujeto a poder retirarse de la investigación en cualquier momento y
por cualquier razón, entre otros.

129
Consentimiento informado en el caso de niños
 Cuando el niño es demasiado joven queda a juicio de los padres decidir si permitirán
participar a su hijo o no.
 Al niño se le entrega un Asentimiento informado, donde también se le explica lo que
implica la investigación y cual es su papel en ella. De igual manera de le pide su
participación, en ningún caso se le obliga.

Proporción favorable del riesgo-beneficio.


La investigación con las personas puede implicar considerables riesgos y beneficios cuya
proporción, por lo menos al principio, puede ser incierta. Puede justificarse la investigación sólo
cuando: a) los riesgos potenciales a los sujetos individuales se minimizan; b) los beneficios
potenciales a los sujetos individuales y a la sociedad se maximizan; c) los beneficios potenciales
son proporcionales o exceden a los riesgos. Obviamente, el concepto de “proporcionalidad” es
metafórico. Las personas habitualmente comparan los riegos y beneficios por sí mismas para
decidir si uno excede al otro. Este requisito incorpora los principios de no-maleficencia y
beneficencia, por largo tiempo reconocidos como los principios fundamentales en la
investigación clínica.

130
Confidencialidad
Con el fin de salvaguardar los derechos de los informantes y a veces la integridad de los
investigadores, es necesario en el proceso de registro de información utilizar seudónimos
“limpiar” la información de aquellos datos (nombre, lugares, fechas) que permitan la
identificación del informante o de personas a las que el se refiere y utilizar códigos que
permitan los cruces y análisis de la información. Igualmente, en algunos casos es recomendable
guardar la información por un tiempo prudencial hasta que se considere que su utilización no
vulnere la integridad física o moral de los participantes. Esta recomendación es especialmente
significativa en el caso de informantes estigmatizados y vulnerados, como menores en conflicto
con la ley, niños y adolescentes envueltos en explotación sexual, migrantes ilegales,
desplazados, retardados o débiles mentales, personas bajo el efecto de las drogas o el alcohol.
Confidencialidad: se refiere a mantener información de las personas que participan de la
investigación en privado. Solo el equipo de investigación debe tener acceso a los documentos de
investigación
 El anonimato significa que los registros no pueden vincularse con nombres.
 La confidencialidad se mantiene cuando cualquier cosa que se averigüé acerca del
participante se mantiene en estricto secreto, es por eso que los datos deben mantenerse en una
situación controlada.
La mejor manera de mantener la confidencialidad es minimizar el número de personas que ven
o manejan los datos
Mantenimiento de la intimidad
 Ser anónimo dentro de un contexto de investigación implica que no hay manera de que
nadie, con excepción del investigador principal pueda vincular los resultados de un
experimento con el individuo asociado a tales resultados.

Coacción
 Nunca, por ningún motivo debe obligarse a la gente a participar.

Protección contra daños


 Ante todo, se debe evitar que los sujetos sufran algún daño físico o psicológico.
 Si antes de comenzar hay alguna duda respecto a la posibilidad de un riesgo
significativo, no se deberá aprobar el experimento.

Compartir resultados
 Es importante presentar los descubrimientos nuevos al público tan pronto como resulte
práctico y posible.
 Una vez finalizada la investigación y redactado el informe final, se debe estar dispuesto
a compartir los hallazgos con otros. (personas que participaron en la inve.)

Comunicación
 Cuando se ha engañado en la investigación, es obligación informar a los sujetos que se
les ha engañado hasta cierto punto para fines de la investigación.

Distribución de los beneficios


 Cuando un grupo se beneficia por la participación en un estudio, cualquier otro grupo
que haya participado también deberán beneficiarse.
Como asegurar un nivel ético elevado
1. Realice una simulación en computador en la que se construyan datos y se sometan a los
efectos de diversos tratamientos.

131
2. Si el tratamiento es perjudicial, no se de por vencido. Trate de encontrar una población
que ya haya sido expuesta a los efectos dañinos de alguna variable.
3. Siempre obtener el consentimiento informado.
4. Publicar los informes usando datos de grupos, no individuos. Esto mantiene la
confidencialidad.
5. Si sospecha que el tratamiento podría tener efectos secundarios negativos, utilice una
muestra pequeña y buen informada hasta que pueda expandir el tamaño de la muestra.
6. Haga que colegas revisen la propuesta y procedimientos experimentales antes de
comenzar.
7. Usar la “junta de revisión institucional” es un comité donde el juicio de varios personas
decide si la investigación es inocua o no.
8. Papel de las organizaciones profesionales : APA.

132
Integridad del investigador

El responsable de resguardar los aspectos éticos de la investigación es el o los autores de la


misma, en particular el autor principal y/o jefe de proyecto.

133
La rigurosidad científica es un importante ‘deber ser’ para un evaluador/investigador.

Esto quiere decir, que los investigadores deben procurar efectuar sus estudios con la seriedad y
sistematicidad que contribuye a asegurar su adecuado desarrollo y su pertinente respaldo ante
los resultados.

Descripción de los principios para el evaluador/investigador

Podríamos decir que los principios para el evaluador/investigador son como los criterios de
rigor científico para el investigador, pero van un poco más allá de la rigurosidad en las
metodologías empleadas. En estos principios no solo se reconoce la debida solidez científica
que debe poseer un evaluador/investigador, sino que también se destacan valores tales como la
honestidad, integridad, respeto y responsabilidad frente al acto de evaluar.

Ninguno de estos principios tiene supremacía sobre el otro, por el contrario, su integración e
interrelación contribuyen a marcar el componente ético de la evaluación. En el siguiente cuadro
se representa la integración e interrelación de estos principios y luego se presenta su descripción
con más detalles.

La rigurosidad científica es un importante ‘deber ser’ para un evaluador/investigador.


Esto quiere decir, que los investigadores deben procurar efectuar sus estudios con la seriedad y
sistematicidad que contribuye a asegurar su adecuado desarrollo y su pertinente respaldo ante
los resultados.

Descripción de los principios para el evaluador/investigador

En estos principios no solo se reconoce la debida solidez científica que debe poseer un
evaluador/investigador, sino que también se destacan valores tales como la honestidad, integridad,
respeto y responsabilidad frente al acto de evaluar.

134
a) Principio de sistematicidad en la investigación: este principio indica que el evaluador/
investigador debería adherir a los más exigentes estándares metodológicos en la conducción
de su estudio, sean estas metodologías de naturaleza cuantitativa o cualtitativa, con el fin de
incrementar la precisión y credibilidad de la información producida por la evaluación. En la
búsqueda de esta sistematicidad, el evaluador/investigador debería explorar con las personas
que requieren el estudio, cuáles son las fortalezas y debilidades de las interrogantes que se
pretenden resolver, de tal manera de orientar adecuadamente el estudio para responder a
dichas interrogantes.
b) Principio de las competencias para desempeñarse como evaluador/investigador: el
evaluador/investigador debería poseer las habilidades, destrezas y experiencia necesaria
para conducir las tareas propias de una evaluación. No es suficiente con conocer del tema,
se requiere experiencia y perfeccionamiento constante. Si por algún motivo el
evaluador/investigador reconoce que no posee alguna de las competencias requeridas para
el desarrollo del estudio, debe declinar su participación en favor de su prestigio y de la
credibilidad del estudio.
c) Principio de la integridad y honestidad a mantener frente a los estudios: el evaluador/
investigador debería ser honesto frente a las negociaciones que debe considerar respecto a
los costos del estudio, las limitaciones de la metodología a emplear y las restricciones de los
resultados para ser repetidos o aplicados a otros participantes distintos al contexto donde se
realizó el estudio. El evaluador/investigador también debería ser honesto frente a los
cambios que son necesarios realizar para refocalizar la investigación, cuando éste se da
cuenta que se ha perdido el rumbo.
d) Principio de respeto a las personas: este principio indica que el evaluador/investigador
debería respetar a las personas que participan de la investigación en su amplio sentido,
cautelando la confidencialidad de su participación, el debido consentimiento a participar y
evitando daños y perjuicios morales producto de esta participación.
De esta forma, el evaluador/investigador debería conducir su estudio y comunicar sus
resultados, respetando la dignidad y valor intrínseco que tienen las personas, más allá de
buscar obsesivamente un resultado que tienda a beneficiar sus personales intereses.
Lo anterior también implica respetar las naturales diferencias entre los participantes, tales
como la cultura, la religión, sexo, discapacidades, edad, entre otras cosas más.

135
e) Principio de responsabilidad ante el bienestar general y público: el
evaluador/investigador debería ser responsable frente a los potenciales efectos colaterales
que puede tener su estudio. Efectos que pueden dañar negativamente a ciudadanos que no
han participado directamente del estudio, pero que forman parte de una población que
cumple con ciertas características que los estigmatiza a la luz pública. Este principio invita a
los evaluadores e investigadores a manejarse con una amplia perspectiva valórica al
momento de comunicar los resultados del estudio. Por otra parte, la responsabilidad ante el
bien común se expresa dando a conocer resultados que pueden beneficiar a más de un
cliente o audiencia. Para ello, la comunicación de los resultados debe informarse en un
lenguaje simple, de tal manera que otras personas puedan verse beneficiadas con los
hallazgos del estudio, inclusive cuando no forman parte de grupos de especialistas
calificados para comprender estos estudios.

ANEXO: DATOS IMPORTANTES CLASES DE REPASO (CUALI Y CUANTI)

CUANTI:

 Existen pruebas estadísticas para RELACIONAR variables : Chi cuadrado de Pearson,


correlaciones de pearson, regresión lineal
 Existen pruebas estadísticas para COMPARAR o CONTRASTAR grupos o condiciones:
T de students, Anova un factor y factorial.
 Una cosa es el diseño (experimental, no experimental) y otra cosa es el alcance
(descriptivo, correlacional, etc)
 El muestreo es probabilístico (aletarorio simple, sistemático, por conglomerados o aleatorio
estratificado)
 El análisis de datos es a partir del nivel que se quiera hacer pudiendo ser univariado,
bivariado o multivariado; y dependiendo de la lógica que se quiere alcanzar (estadística
descriptiva o inferencial).
 El problema de investigación siempre lleva las variables, la relación y la población.

CUALI:

IMPORTANTE: Ver el objetivo para definir que diseño esta a la base o que diseño es
mejor utilizar.

 El problema esta más orientado a conocer la percepción, comprender un fenómeno, etc.


 En la teoría fundamentada las técnicas mas utilizadas son la entrevista generalmente
mas semi estructurada, puede utilizarse la observación no participante pero activa y a
veces una técnica de tipo narrativa como el grupo focal. También es útil a veces utilizar
el grupo de discusión como técnica.
 El tipo de muestreo mas utilizado en la teoría fundamentada es el muestreo teórico.
 En el diseño fenomenológico la técnica mas utilizada es la entrevista semi
estructurada, puede haber observación pero no sin entrevista y también es muy común
el utilizar como técnica un grupo focal. El grupo de discusión se puede utilizar en
estudios fenomenológicos que tengan un corte más interpretativo y no descriptivo.
 En el diseño etnográfico la técnica más utilizada es la observación participantes
(siempre activa) pero varias veces son estudios multitecnicos (se incluye todo;
observaciones, entrevistas, estadísticas, mapas, fotografía, biografías, encuestas,
reconstrucciones históricas, etc.
 Dentro del método de investigación se encuentra el diseño de investigación (Etnografía,
Fenomenología, Teoría Fundamentada)
 El análisis de los datos depende del diseño de investigación; por ejemplo en la Teoría
Fundamentada es mediante la codificación y la comparación constante.

136
 Una cosa es el diseño de investigación y otra es el alcance; por ejemplo en el caso de
Maternidad (señalado mas abajo) que es de Teoría Fundamentada el alcance es
relacional o comprensivo.
 EJEMPLO TEORIA FUNDAMENTADA:

MATERNIDAD: “Este trabajo tuvo como finalidad elaborar una propuesta de lineamientos para
una psicoterapia dirigida a pacientes sujetas a tratamientos de reproducción asistida en
instituciones de salud pública, a partir de los datos emanados de una investigación realizada en
mujeres entre 25 a 40 años de edad que permitió detectar los factores psicosociales relevantes
que influyen en su deseo de maternidad, en el contexto social y cultural donde habitan. El
estudio se desarrolló con mujeres diagnosticadas de esterilidad primaria, que asisten al Servicio
de Reproducción Humana del Servicio de Ginecología del Centro Médico Nacional «20 de
Noviembre» para su tratamiento, a partir del análisis sistemático, comparativo y profundo de los
discursos de éstas. En el estudio se detectaron diversos factores que influyen en la decisión del
grupo seleccionado de someterse reiterada e insistentemente a tratamientos de reproducción
asistida. Entre ellos se encuentran, de manera central: el imaginario social de género, las fallas
en la estructura narcisista de la personalidad y el hijo imaginario. A partir de este estudio, de las
observaciones preliminares y el aporte de otros especialistas, los autores proponen lineamientos
conceptuales para llevar a cabo una psicoterapia focalizada en la paciente estéril que presenta
una insistencia a someterse a tratamientos de reproducción asistida.”

 EJEMPLO DISEÑO FENOMENOLOGICO:

PACIENTES DIALIZADOS: “El objetivo de este estudio fue comprender la experiencia de la


diálisis peritoneal domiciliaria, a partir de la narración de los pacientes. Fueron entrevistados 19
pacientes en la unidad de hemodiálisis de un hospital público brasileño, de marzo a septiembre
de 2009. Las entrevistas fueron orientadas por la pregunta: describa su experiencia en la diálisis
peritoneal. Los resultados revelaron la percepción de los participantes sobre el significado de la
enfermedad en sus vidas y las drásticas transformaciones personales sufridas en ese proceso.
Sentimientos de angustia y dolor física fueron acompañados por importantes limitaciones
personales y sociales, impuestas por el tratamiento. Ellos esperan un futuro desconocido,
reconociendo su dependencia de la ayuda de los familiares y de los profesionales de la salud.
Los resultados revelan las dificultades y la falta de perspectivas experimentadas por los
pacientes en diálisis, demostrando el papel crucial que le cabe a los profesionales que los
acompañan. Ayudarlos a desarrollar el autocuidado y maximizar su calidad de vida es una
prioridad en la asistencia a esos pacientes.”

 EJEMPLO DISEÑO ETNOGRAFICO:

BUDISMO ZEN: “La investigación reseñada correspondió un estudio antropológico de los


grupos budistas zen de la Argentina que buscó contribuir al conocimiento de una de las minorías
religiosas menos estudiadas del ámbito local, aportando así al creciente corpus de trabajos sobre
la pluralización del campo religioso argentino y sobre la dispersión del budismo en Occidente.
Particularmente, interesaba conocer el lugar que ocupa el ritual en la creación y la continuidad
de los centros zen argentinos, los que constituirían elementos de cardinal importancia a la hora
de crear un contexto religioso en el que personas de clase media, a menudo con un nivel de
educación superior, practican meditación en el marco de una comunidad. La investigación tuvo
como objetivo describir los rituales religiosos para interpretarlos y comprenderlos en el contexto
global en que se producen, con el fin de explicar los fenómenos religiosos en su complejidad
sociocultural. La dinámica de visita al campo incluyó tres elementos: la concurrencia a prácticas
de meditación regulares, la participación en jornadas de meditación intensa y la asistencia a "
seshin", un período de convivencia de más de dos días con el objetivo de practicar meditación
en comunidad. Se concluyó que en el budismo zen existe un principio de división fundamental

137
entre la esfera sagrada y la esfera profana, respecto de los cuales los rituales permitirían tanto
segregar estas dos esferas como posibilitar el pasaje entre una y otra”

Es importante especificar que en estudios cualitativos necesitamos una población (total de


unidades de análisis que están en el contexto), muestra (unidades de análisis que se seleccionan
para conocer la población) y la unidad de análisis ( lo mínimo y por donde se construye)

Ejemplos:

1. Una encuesta poblacional en Santiago de Chile evaluó a 1.056 personas de toda edad respecto
de la frecuencia de enfermedades respiratorias. De cada hogar se tomó a todas las personas > de
15 años.
¿Cuál es la más probable Unidad de muestreo en este estudio? Respuesta: Hogares de
Santiago de Chile

¿Cuál es la Unidad de análisis de este estudio? Respuesta: La persona, la familia

2.En el caso anterior sobre maternidad:

1) La población (en contexto) son las mujeres que asisten a tratamientos de reproducción
asistida en la salud publica de Chile
2) La muestra (especifica, características de participante especifico) es las mujeres con
esterilidad primaria que asisten al centro xxxx a tratamiento de reproducción asistida

3) La unidad de análisis es la mujer (como sujeto) en tratamiento de reproducción asistida.

PD: lo anterior cambia dependiendo de cual es el problema de investigación, la finalidad del estudio
y los objetivos. Las unidades de análisis pueden corresponder a las siguientes categorías o
entidades: personas, grupos humanos, poblaciones completas, etc. Por ejemplo en investigación
cuando es la relación profesor-alumno lo que se quiere investigar esa relación seria la unidad de
análisis (seria la diada de la relación).

OJO (DATO FREAK): En estudios de caso y en estudios de población no hay muestreo; por
ejemplo “conocer como perciben el liderazgo los trabajadores de una consultora y sabemos que
son 30” o estudiar el Liderazgo en Hitler, liderazgo en Piñera (son estudios de caso, biográfico)

Diferencia entre diseño de investigación y el alcance (fuente: profe C. Herrera)


Son cosas diferentes, una tiene que ver con las características del método y lo otro con el alcance del
objetivo propuesto.

Por tanto no es que siempre un investigación sea de cierto alcance, depende de lo que cada
investigación se propone, pero en general las investigaciones etnográficas y fenomenológicas son de
alcance descriptivo, y las de teorías fundamentada tienen un alcance relacional o comprensivo
(lo que sería un ximili de investigación correlacional y explicativa respectivamente en investigación
cuantativa).

Diferencia entre metodología y método (fuente: profesora Constanza Herrera)


Respecto del uso del concepto método hay muchas acepciones, de modo que alguna vez alguien
podría preguntar por el tipo de método refiriéndose al enfoque (cuanti -cuali). Pero lo que sería
más pertinente sería decir que el hecho de que una investigación sea cualitativa o cuantitativa se
refiere al enfoque o estrategia teórico-metodológica de la investigación.

Metodología es otra cosa, refiere a la reflexión acerca de qué características debería tener el método
de una investigación para determinados problemas de investigación; y el método a la descripción de

138
distintos elementos que marcan la ruta de cómo se desarrollará la investigación, incluyen el diseño
de la investigación, el diseño muestra, las técnicas de recolección de datos, entre otras.

139