Está en la página 1de 39

SEMINARIO DE INVESTIGACION.

UNIDAD 7

UNIDAD 7: RESULTADOS EN INVESTIGACIONES JURÍDICAS.

1. ESTRATEGIAS DE ANÁLISIS DE DATOS CUALITATIVOS EN INVESTIGACIONES JURÍDICAS. LA CODIFICACIÓN DE LOS


DATOS. CONSTRUCCIÓN DE TEXTOS Y DIAGRAMAS CONCEPTUALES. LA BÚSQUEDA DE CASOS NEGATIVOS. LA TEORÍA
FUNDAMENTADA: COMPARACIÓN CONSTANTE, NIVELES DE CODIFICACIÓN Y CONCEPTUALIZACIÓN ORIENTADA A LA
CONSTRUCCIÓN DE TEORÍA. EL CONCEPTO DE MUESTREO TEÓRICO. CALIDAD Y VALIDEZ. ELABORACIÓN DE INFORMES.

(APUNTE MARIANA)

Los datos Cualitativos:

En primer lugar, el dato encierra el contenido informativo, soporta una información acerca de la realidad interna o
externa a los sujetos estudiados que será utilizada con propósitos investigativos. “los investigadores cualitativos
consideran datos toda una serie de informaciones relativas a las interacciones de los sujetos entre sí y con el propio
investigador, sus actividades y los contextos en que tienen lugar, la información proporcionada por los sujetos bien a
iniciativa propia o a requerimiento del investigador, o por los artefactos que construyen y usan (documentos escritos u
objetos materiales). Además, y en contra de lo que sugiere el sentido etimológico (datum: lo dado) el dato es el resultado
de una elaboración de la realidad. ()..

Tanto el modo en que se focaliza su percepción como el todo en que da cuenta de ella, implican un referente teórico y
conceptual que condicionan el modo de interpretar lo que sucede ante sus ojos”.

Por lo tanto, el dato soporta una información sobre la realidad, implica un mayor o menor elaboración conceptual de la
misma y el modo de registrarla y expresarla”.

Concepto: consideramos el dato como una elaboración de mayor o menor nivel, realizado por el investigador o por
cualquier otro sujeto presente en el campo de estudio, en la que se recoge información acerca de la realidad interna o
externa a los sujetos y que es utilizada con propósitos indicativos. El dato soporta una formación sobre la realidad, implica
una elaboración conceptual de esa información y un modo de expresarla que hace posible su conservación y
comunicación.

“La naturaleza de los datos manejados en la investigación vendrá condicionada por las técnicas o instrumentos utilizados
para recogerlos y por los presupuestos teóricos, filosóficos o metodológicos según los cuales se utilice. Dado que en la
investigación cualitativa se suelen utilizar la entrevista, la observación, las preguntas abiertas presentadas mediante
cuestionarios, los diarios etc. El tipo de datos recogidos suele venir expresado en forma de cadenas verbales y no mediante
valores numéricos”. De ahí que la mayor parte de los datos que son recogidos en el curso de las investigaciones cualitativa
posean como una de sus características conocidas la de ser expresados en forma de textos. Se trata de datos que reflejan
la comprensión de los
procesos y las situaciones por parte de los propios participantes en los contextos estudiados”.

Análisis e interpretación de los datos

El análisis de datos cualitativos.

Concepto de análisis: definimos análisis de datos como un conjunto de manipulaciones, transformaciones, operaciones,
reflexiones, comprobaciones que realizamos sobre los datos con el fin de extraer el significado relevante en relación a un
problema de investigación.

LODOL, ALDANA MELINA 1


SEMINARIO DE INVESTIGACION. UNIDAD 7

Analizar datos supondrá examinar sistemáticamente un conjunto de elementos informativos para delimitar partes y
descubrir las relaciones entre las mismas y las relaciones con el todo. En definitiva, todo análisis persigue alcanzar un
mayor conocimiento de la realidad estudiada y, en la medida de lo posible, avanzar mediante su descripción y comprensión
hacia la elaboración de modelos conceptuales explicativos.

Cuando hablamos de análisis de datos cualitativos, nos referimos a tratamientos de los datos que se llevan a cabo
generalmente preservando su naturaleza textual, poniendo en práctica tareas de categorización y sin recurrir a técnicas
estadísticas. Los procedimientos a los que nos referimos constituyen técnicas de análisis de datos que se aplican también
a los datos generados por la propia investigación, contando con la participación activa del investigador, que utilizan las
categorías para organizar conceptualmente y presentar la información, más interesada por el contenido de las categorías
y su interpretación que por las frecuencias de los códigos y tradicionalmente no asociadas a técnicas cuantitativas.

Etapas, procedimientos y técnicas de análisis cualitativos.

Dentro del análisis cualitativo se encuentran diversidad de estrategias. A modo de guía, proponemos el siguiente proceso
de análisis cualitativo de la información:

1. Revisar y preparar el material: Implica asegurarse de que los datos hayan sido preparados en forma adecuada para
el análisis; esto es, transcribir a papel el material grabado en entrevistas o videos, organizarlo y clasificarlo por un criterio
lógico útil al investigador (organizados por temas, por actores relevantes, por fecha, etc.), además de ser legibles, audibles
o visibles, y que estén completos. También habrá que recordar que la información cualitativa en sí no es anónima (se trata
de escritos de personas, testimonios de voz, conductas filmadas, etc.), por lo cual debe mantenerse siempre la
confidencialidad de los sujetos, pero debe contarse con la información necesaria del contexto (edad del entrevistado,
lugar, hora, circunstancias particulares, etc.) en el que se realizó la entrevista, la filmación, etc.

2. Detección y codificación de las categorías de análisis: Si nuestra investigación es de alcance exploratorio, y por lo
tanto, en la construcción del marco teórico no hemos logrado definir con claridad las características fundamentales del
fenómeno que queremos investigar, se nos presenta el problema de que tenemos mucha información, pero no sabemos
qué estamos buscando en ella. En ese caso, es la misma información recolectada la que nos dirá cuales son las categorías
de análisis que debemos buscar. El procedimiento consiste en encontrar los patrones generales (las respuestas, conductas
o situaciones similares más comunes, que se repiten con mayor frecuencia), es decir, encontrar y listar los patrones que
se repiten, y asignarle un símbolo (un código) a cada uno, a los efectos de poder identificarlos con mayor facilidad en
un próximo análisis.

A este efecto, podemos recomendar el siguiente procedimiento:

• Del total de mediciones de que disponga (recuerde que una observación, un cuestionario, un video, o cualquier otro
instrumento con el que hayamos recolectado información constituye una “medición”), seleccionar determinado número,
mediante un método adecuado de muestreo.

• Buscar respuestas, conductas o episodios similares en los instrumentos muestreados (patrones generales)

• Observar la frecuencia con que aparecen cada uno de estos patrones generales.

• Clasificar las respuestas, conductas o situaciones elegidas en temas, aspectos o rubros, de acuerdo con un criterio
lógico, cuidando que sean mutuamente excluyentes.

LODOL, ALDANA MELINA 2


SEMINARIO DE INVESTIGACION. UNIDAD 7

• Darle un nombre o título a cada tema, aspecto o rubro (patrón general de respuesta).

• Asignarle el código a cada patrón general de respuesta. Es decir, en esta primera muestra buscamos y detectamos las
diferencias y similitudes entre distintas mediciones, o distintas partes de una medición. A estos patrones generales
encontrados, los llamaremos “categorías de análisis”. Es recomendable marcar cada código en el margen de las hojas, y
si es posible, usando distintos colores para cada código de cada categoría, a los efectos de poder ubicarlo con mayor
rapidez y facilidad en una próxima lectura. Al finalizar la codificación en primer nivel de la muestra, hacemos lo que se
llama un “libro de códigos”, es decir un listado con los nombres y los códigos de cada categoría de análisis encontrada.
Por ejemplo, en una investigación de comportamiento de los docentes en las escuelas, se hizo una pregunta abierta:

¿De qué manera los directivos buscan obtener la cooperación del personal para el desarrollo de un proyecto?

Las respuestas fueron múltiples, pero se encontraron y aislaron los patrones generales de respuesta más frecuentes:

PATRONES GENERALES Código asignado

Involucrando al personal y comunicándose con el IP+C

Mejorando la motivación, integración y clima laboral MM+INT+CL

Con Capacitación CAP

Con incentivos y recompensas I+R

Difundiendo el valor del trabajo en equipo TE

Otras

A partir de allí, tomamos el resto del material, comenzamos a buscar las categorías de análisis definidas en la muestra,
y lo vamos codificando. De esta manera, al finalizar la codificación en primer nivel, habremos realizado una primera lectura
u observación de las mediciones, y tendremos todo el material con las marcas de los códigos de las categorías de análisis
encontradas.
Si nuestra investigación fuera de alcance descriptivo o correlacional, significa que ya hemos podido definir previamente,
en la construcción del marco teórico, nuestras categorías de análisis, es decir, sabemos a priori lo que estamos buscando.
En este caso, el libro de códigos se puede confeccionar con anterioridad al comienzo de la lectura del material, y a medida
que este se vaya leyendo se podrá ir codificando directamente.

Por ejemplo, si estamos investigando los tipos de violencia que ejercen los hombres abusadores sobre sus parejas, y en
la construcción del marco teórico ya hemos definido que dividiremos a la violencia en tres categorías: violencia física
(golpes, empujones, etc.), violencia verbal (insultos, gritos amenazantes, etc.), y violencia psicológica (miradas
amenazadoras, encierros, etc.), iniciaremos la codificación en primer nivel buscando estas categorías. Veamos un pequeño
ejemplo (observe cómo se describen todas las características importantes en la transcripción de una entrevista que fue
grabada en MP3)

Tema investigado: tipos de violencia que ejercen los hombres que abusan de sus parejas.

Método de recolección de los datos: Entrevistas en profundidad.


LODOL, ALDANA MELINA 3
SEMINARIO DE INVESTIGACION. UNIDAD 7

Contexto: Entrevista con una joven de 27 años, tres años en pareja, clase media, que vive en un barrio de Resistencia
Chaco.

Esto lo que grave de la mujer:

1. Carla: Mi esposo me ha pegado varias veces (¡ufff!). (Pausa)

2. No sé cómo decirlo... Me pega cachetazos, y a veces trompadas.

3. La última vez me gritó: “Sos una basura”. También me ha

4. dicho que soy atorranta, hija de perra. Siempre me insulta. Y la

5. verdad es que yo no hago nada malo. Nunca (pausa).

6. Me mira con bronca. Me amenaza con los ojos, y amaga a pegarme.

7. A veces le contesto y le pego también.

8. El otro día le tiré con un cenicero....

El proceso de generar o detectar categorías de análisis se realiza sobre la base de la comparación constante entre
párrafos o líneas. En el ejemplo podemos diferenciar: la primera línea caería en la categoría “violencia física”; la segunda
también en “violencia física”; y la tercera y cuarta en “violencia verbal”. La sexta, “violencia psicológica”.

En esta transcripción observamos tres tipos de violencia. No debemos olvidarnos de tomar notas en el diario de análisis,
sobre las características de las unidades que las hacen similares o diferentes. En algunas ocasiones, las unidades de análisis
o significado no pueden ser ubicadas de manera clara en las categorías desarrolladas o descubiertas durante la revisión
del material. Entonces se acostumbra crear la categoría “otras”. Estas unidades son colocadas en dicha categoría, junto
con otras difíciles de clasificar. Cuando nos encontramos que la categoría “otras” incluye demasiadas unidades de
significado, resulta recomendable volver a revisar el proceso, y asegurarnos de que nuestro esquema de categorías y las
reglas establecidas para clasificar sean claras y nos permitan discernir entre categorías. La categoría “otras” no puede ser
mayor de 10% respecto del total el material analizado.

También es posible generar un sistema de categorías de múltiples dimensiones y que las unidades puedan ser ubicadas
en varias categorías (una por dimensión).

Por ejemplo, en el caso tratado del abuso de los maridos sobre sus esposas, ubicar las unidades en la dimensión “tipo
de violencia” y, asimismo, en la dimensión “rol del esposo”.

Entonces, supongamos la línea:

Carla: “Me dijo que era una estúpida y que él manda en esta casa”, puede clasificarse como “violencia verbal” (categoría
de la dimensión tipo de violencia) y como “autocrático o impositivo” (categoría rol del esposo en la relación).

Con frecuencia, las líneas o párrafos analizados pueden caer en dos o más categorías de una misma dimensión. Frases
como:

Carla: “Me empujó, me dijo que estaba loca y me encerró en el baño” puede categorizarse como “violencia física” (me
empujó), “violencia verbal” (me dijo que estaba loca) y “violencia psicológica” (me encerró en el baño).

LODOL, ALDANA MELINA 4


SEMINARIO DE INVESTIGACION. UNIDAD 7

En este caso se consignarán los tres códigos en el margen de la hoja, al lado de la línea.

Debemos recordar que en el análisis cualitativo hay que reflejar lo que nos dicen las personas estudiadas en sus “propias
palabras”.

Es muy importante obtener evidencia acerca de la confiabilidad y validez del proceso de codificación. Esto puede
hacerse proporcionando el material y el esquema de categorías a otros investigadores. Si notamos serias diferencias entre
la codificación hecha por distintas personas, es momento de volver a revisar el esquema de categorías, las reglas y los
resultados.

3. Análisis y descripción de cada categoría de análisis: La tarea esencial aquí consiste en identificar diferencias y
similitudes en las distintas respuestas, dentro de una misma categoría. Una vez más, utilizamos la comparación, sólo que
aquí comparamos categorías. En este punto de análisis, la meta es localizar los patrones que aparecen repetidamente
dentro de cada categoría de análisis detectada en la codificación, para poder describirla con minuciosidad. En esta etapa
entonces volvemos a leer el material, y comenzaremos a redactar

a) las descripciones de cada categoría para ubicarla en el fenómeno que estudiamos (por ejemplo, la “violencia física”
por parte del esposo, ¿cómo es?, ¿en qué circunstancias se manifiesta?, etc.), y

b) la frecuencia con la cual aparece cada categoría en los materiales analizados (en cierto sentido cuantitativo, debemos
describir cuanto duran los episodios, cuantas veces por día o semana aparecen, etc.)

4. Interpretar las categorías de análisis: En la etapa anterior hemos descripto las características de las categorías de
análisis encontradas. En esta etapa intentaremos interpretar cuales son los factores que hacen que se den de la forma
descripta, e interpretarlos en la óptica de los propios actores investigados. Para ello nos concentraremos en describir

a) los significados de cada categoría. Ello quiere decir analizar el significado de la categoría para los sujetos. ¿Qué
significado tiene la “violencia física” para cada esposa que la padece? ¿Le parece normal ser golpeada? ¿Cree que lo
merece? ¿Qué significado tiene cada palabra que escuchan de los labios de su cónyuge? ¿Le parece que es el lenguaje
apropiado?, etc.

b) las relaciones entre categorías. Encontrar vinculaciones, nexos y asociaciones entre categorías. Algunas relaciones
comunes entre categorías son:

De asociación: cuando una categoría casi siempre aparece con otra.

Por ejemplo, A→VF (cuando hay Violencia Física del esposo hacia su pareja y ha existido una ingesta previa de Alcohol).
En este caso pueden establecerse correlaciones.

Causales: cuando una categoría es la causa de otra, siempre la precede. No aparece una categoría si no aparece primero
la otra.

Por ejemplo, TVF →MNCE (las Mujeres que No Contactan a sus Esposos después de que se han separado, como
consecuencia del Temor a la Violencia Física).

De conjunto-subconjunto: cuando una categoría está contenida dentro de otra.

LODOL, ALDANA MELINA 5


SEMINARIO DE INVESTIGACION. UNIDAD 7

Por ejemplo, un chantaje puede darse de distintas formas: CHE: Chantaje del Esposo (conjunto) NAE: Negativa de Apoyo
Económico del esposo (subconjunto de CHE) NTN Negativa a Tener a los Niños (subconjunto de CHE) Para ayudarnos a
establecer relaciones entre categorías, podemos dibujar diagramas causales. Son una especie de mapa conceptual de los
datos clasificados y codificados. Estos esquemas se producen sobre la base de la codificación y, sobre todo, de la reflexión
y los juicios del investigador. Por ello, resulta fundamental la profundidad con la que se codifique, revise y evalúe el
material para llevar a cabo un análisis completo y exhaustivo.

5. Describir contexto(s), eventos, situaciones y sujetos de estudio: Una vez que hemos descripto las categorías de
análisis, así como su frecuencia, y hemos analizado su significado y relaciones, ayudándonos de esquemas gráficos,
debemos describir el contexto en el cual se desarrolló nuestra investigación.

Por ejemplo, la violencia de los esposos sobre sus mujeres tiene lugar en un barrio de clase media del gran Bs. As. El
papel de los hombres es… Los matrimonios se dan por noviazgos… Los consumos de alcohol son… Las mujeres
generalmente no trabajan y… Aquí, sólo damos unas pautas, pero las descripciones del contexto deben ser completas y
profundas. También habrá que describir a los sujetos del estudio, los actores del contexto. Cómo viven, cuál es su
ideología, sus costumbres, sus creencias (estado civil, edad, ocupación, ingresos, etcétera).

6. Integración de la información y vinculación con el marco teórico: La calidad del análisis cualitativo depende del grado
en que profundicemos los aspectos anteriores, y los vinculemos con las teorías encontradas. En este punto, mediante una
integración del conocimiento obtenido de los materiales analizados (las descripciones de categorías y contexto, las
relaciones encontradas entre ellos, los actores y la revisión de notas, apuntes, bitácoras, etc.) debemos comenzar
generar hipótesis (si no lo habíamos hecho) y/o probarlas (si las habíamos formulado con anterioridad), formular
nuevas preguntas de investigación y a vincular nuestras conclusiones con la teoría expuesta en el marco teórico. En este
sentido, las teorías son explicaciones de lo que hemos vivido, observado, analizado y evaluado en profundidad. La teoría
la obtenemos no de aplicar técnicas estadísticas, sino sobre la base de profundizar experiencias. Nuevamente, debemos
comparar los contenidos de las teorías que orientaron nuestro trabajo en el inicio, con los resultados que hemos obtenido
al analizar la información recolectada en nuestra investigación. Las conclusiones que vayamos obteniendo en esta
comparación, se deben ir redactando para dejar constancia de ellas, y evidencia de la asociación de nuestro trabajo con
las teorías preexistentes.

7. Asegurar la confiabilidad y validez de los resultados: A diferencia del análisis cuantitativo, en el análisis cualitativo no
se utilizan coeficientes ni pruebas matemáticas. Más bien, habrá que efectuar una valoración del proceso de análisis. En
primer término debemos evaluar si obtuvimos suficiente información de acuerdo con nuestro planteamiento del
problema. Es decir, si en la recolección de los datos (entrevistas, sesiones, documentos, biografías, etcétera)
profundizamos hasta donde era posible. En segundo lugar, es recomendable llevar a cabo un ejercicio de triangulación
del análisis.

Ello implica que otros(as) investigadores(as) evalúen nuestro trabajo, y utilicen nuestras reglas para ver si tomarían las
mismas decisiones (o similares) respecto de las unidades, las categorías y los temas de análisis. Esto significa que las
categorías principales los patrones generales, los temas y las conclusiones más importantes deben coincidir en lo
fundamental.

Un tercer elemento para asegurar la confiabilidad y validez de los resultados (que no siempre es posible aplicar), consiste
en obtener retroalimentación directa de los sujetos de la investigación (al menos algunos de ellos), lo cual significa

LODOL, ALDANA MELINA 6


SEMINARIO DE INVESTIGACION. UNIDAD 7

pedirles que confirmen o refuten nuestras interpretaciones y ver si capturamos los significados que ellos trataban de
transmitir, así como si nuestras descripciones fueron lo suficientemente completas y profundas.

8. Retroalimentar, corregir y regresar al campo. Como resultado de la retroalimentación (que también puede ampliarse
consultando a otros colegas), detectaremos deficiencias, errores, falta de datos, etcétera; ello implica desde realizar más
entrevistas, sesiones, estudios de caso u observaciones hasta la necesidad de recabar más materiales, recodificar, agregar
nuevos esquemas o elaborar otros análisis.

En todo el proceso de análisis debemos tener en mente el planteamiento original del problema de investigación, con
la finalidad de que no se nos olvide encontrar las respuestas a las preguntas de investigación que planteamos en el
problema.

Es decir, el diseño y análisis de la información deben ser coherentes con el problema de investigación, y deben
conducirnos a responder las preguntas de investigación, para cumplir así nuestro objetivo. Dicho planteamiento puede
sufrir cambios o ajustes conforme avanza la investigación, pero si esto sucede, habrán de justificarse.

(APUNTE ALDANA) COMPENDIO.

Estrategias de análisis de datos cualitativos en investigaciones jurídicas.

El análisis de datos es una de las actividades principales en la investigación cualitativa tanto por su importancia en el
desarrollo del estudio como por la relevancia que posee como actividad concreta ya que se realiza a lo largo de todo el
proceso. No es una etapa precisa y temporalmente delimitada en una fase concreta de la investigación. Antes bien, opera
por ciclos que tienen lugar a lo largo de todo el proceso de investigación.

El análisis de datos de materiales cualitativos suele ser problemático por varias razones.

I. Primero, que no existen procedimientos estandarizados que puedan aplicarse del mismo modo a cualquier tipo
de datos.
II. Segundo, que en el trabajo de campo se recopila información de naturaleza tan disímil que el investigador debe
utilizar múltiples técnicas de análisis.
III. Tercero, que el investigador puede volver a los mismos datos, en diferentes momentos de la investigación y
extraer de ellos indicios referidos a distintas propiedades.
IV. Cuarto, muchas veces se termina cuantificando la información cualitativa, desvirtuando la lógica subyacente y
empobreciendo las finalidades del análisis.
V. Quinto, que se trata de captar procesos sociales, interacciones portadoras de significados, en otras palabras, se
pretende reconstruir teóricamente un objeto en constante dinamismo y que va modificándose permanentemente.

Las alternativas de solución no son muchas y las disponibles están estrechamente vinculadas al mantenimiento de una
actitud equilibrada y reflexiva del investigador. La más importante es, quizás, la de no perder de vista que la finalidad del
análisis cualitativo es obtener una comprensión holística, integral y compleja de las situaciones sociales, para lo que
describen las cualidades y propiedades que caracterizan el objeto. El análisis de los datos antes que un procedimiento
mecánico, se presenta como un movimiento intelectual permanente del investigador. En esta tarea se reintegran las
cuestiones epistemológicas, lógicas, procedimentales, con la materialidad discursiva referida a las situaciones observadas.

LODOL, ALDANA MELINA 7


SEMINARIO DE INVESTIGACION. UNIDAD 7

Por ello, el análisis cualitativo supone la confluencia y convergencia de tres actividades intelectuales: realización de
procesos de generación teórica, de procesos de expansión y contrastación de hipótesis y/o teorías y procedimientos
analíticos manipulativos.

La primer actividad intelectual nos conduce a la intencionalidad teórica de las metodologías cualitativas, orientadas a
generar teorías sustantivas. Recordemos que esas teorías son formuladas a partir de los datos, mediante el uso de
procedimientos de inducción analítica.

La segunda actividad, íntimamente relacionada a la anterior, remite al uso del método de comparación constante como
el procedimiento metodológico que posibilita la contrastación y la expansión de los postulados;

La tercera actividad, se relaciona con los procedimientos manipulativos por medio de los cuáles se asigna cierto orden a
la voluminosa e informe masa de datos que se obtienen cotidianamente en el trabajo de campo.

La codificación de los datos.

a) Codificación de la información.

El hecho de que el producto del trabajo del investigador se plasma en materiales discursivos. El investigador genera
textos acerca de los otros y de sí mismo en relación a los otros, y acerca de todos situados en un determinado contexto.
El análisis de datos supone, entonces, poder encontrar las tramas de sentido que sostienen esos textos. Para ello, debe
realizar una serie de operaciones manipulativas.

Desde esta perspectiva, el sentido del análisis de datos es reducir, categorizar, clarificar, sintetizar y comparar la
información con el fin del obtener una información lo más completa posible del fenómeno observado.

En la bibliografía aparecen distintas posiciones respecto a las características que debe tener el análisis e interpretación
de datos en la investigación cualitativa. Así, entre los etnógrafos hay una corriente que postula que el investigador en su
descripción solamente tiene que ordenar en su narración lo que le han informado los sujetos que interrogó u observó, sin
realizar ninguna interpretación. Otros, sostienen que además de la narración descriptiva el etnógrafo debe desarrollar
interpretaciones y explicaciones a partir de los materiales. Otra discusión se refiere a la necesidad de reducir el material
discursivo y narrativo a códigos numéricos. Es decir, si se mantiene la estructura de la información o se la convierte en
tablas numéricas, a partir de recuentos de frecuencias, uso de porcentajes, etc.

Amparados en la característica de flexibilidad de los diseños cualitativos, la mayoría de los investigadores utiliza ambas
formas de reducción, aunque insistimos que desde este enfoque se debe mantener la primacía de la comprensión de las
cualidades.

Miles y Huberman (1984) consideran que el análisis consiste en cuatro tipos de actividades concurrentes: la reducción
de datos, la presentación de datos, la elaboración de conclusiones y la verificación.

Generalmente, para facilitar el trabajo manual que suponen las etapas siguientes, el investigador debe preparar el
material. La recomendación en tal sentido es que se seccione el texto por oraciones.

La reducción de datos implica seleccionar, focalizar, abstraer y transformar los datos brutos de forma que puedan ir
estableciéndose hipótesis de trabajo. Para esta reducción se pueden utilizar distintas técnicas tales como códigos, la
reducción de memorandums, etc. (Colás, 1994:272). La base del proceso de reducción de datos es la codificación. Es decir

LODOL, ALDANA MELINA 8


SEMINARIO DE INVESTIGACION. UNIDAD 7

se le asigna un código que identifica una unidad de significado relevante para nuestra investigación a cada frase o párrafo.
Se denomina código a una abreviatura o símbolo que se aplica a una frase o párrafo de la transcripción de una entrevista
o del diario de campo. Estos códigos permiten clasificar el tipo de información que contiene el texto según diferentes
intenciones analíticas.

Se pueden identificar distintos tipos de códigos, tales como:

 Códigos descriptivos: llamados así porque describen el contenido de la oración analizada. Los códigos descriptivos
serían una especie de etiquetas que el investigador va asignando a cada frase según el tema principal a que se refiera. De
esta primera aproximación se obtiene una visión general acerca de cuáles son los temas principales que aparecen en el
texto. Cabe señalar que el esquema de codificación se va construyendo a medida que se va recolectando la investigación.
El investigador puede tener un esquema conceptual previo, con unos pocos códigos, y a medida que va incorporando
información va modificando el esquema, agregando códigos, refinando otros.

 Códigos explicativos o interpretativos: estos surgen luego de que se haya etiquetado todo el material discursivo. El
investigador puede encontrar recurrencias en la información, o esta podría agruparse pues parece que ciertos códigos
distintos responden a la misma categoría o están relacionadas con una misma propiedad de la situación. Este tipo de
códigos supone que se puedan establecer ciertas relaciones entre códigos o entre tipos de códigos.

 Códigos patrón: designan patrones explicativos de las relaciones entre los eventos o acontecimientos y poseen un cariz
inferencial y explicativo. Este tipo de códigos está estrechamente relacionado con la construcción de un modelo
comprensivo y la formulación de conceptos teóricos de mayor nivel de abstracción. Generalmente en la tarea de
codificación predomina el uso del primer tipo de códigos. La codificación es, entonces, el procedimiento por medio del
cual los datos segmentados son categorizados de acuerdo a un sistema organizado que se deriva de la lectura de los datos.
Si bien pueden utilizarse algunas categorías relacionadas con el marco conceptual inicial, la estructura del sistema de
categorías se va conformando a medida que se van analizando los datos.

Construcción de textos y diagramas conceptuales.

b. Exposición y presentación de los datos.

Esta actividad consiste en presentar la información en forma sistemática y que permita visualizar las relaciones más
importantes entre las categorías construidas anteriormente. Una vez codificada la información, el investigador continúa
trabajando la información para establecer categorías conceptuales más amplias, a partir de las cuales se elaboran hipótesis
descriptivas y explicativas.

En este momento el investigador trata de establecer algunas conexiones entre diferentes fenómenos, observa ciertas
regularidades, detecta patrones de interacción entre propiedades de una situación. En fin se trata de elaborar un modelo
más interactivo que de cuenta de la relación entre las categorías iniciales.

Las formas más habituales de organización y presentación que se utilizan son las matrices. Mediante éstas se ordena en
un plano con distintas coordenadas la información textual producida por cada caso.

Según el interés, la finalidad del estudio o el momento en el cuál se las utilice, las matrices pueden adoptar un orden
temático, un orden temporal, o ambos simultáneamente. A su vez las matrices pueden ser descriptivas -propias de los
primeros momentos de la investigación- o explicativas. Estas últimas aportan explicaciones, razones y causas del

LODOL, ALDANA MELINA 9


SEMINARIO DE INVESTIGACION. UNIDAD 7

fenómeno observado, se usan en la fase posterior del análisis, y en ellas se vinculan determinados procesos con ciertos
efectos, productos o resultados.

También se utilizan las "redes" que se configuran en torno a enlaces de categorías que se unen entre sí. Las redes son
muy útiles para describir datos y facilitar la clasificación y comunicación del tema analizado. Expresan una ordenación de
las categorías a diferentes niveles de complejidad y facilitan la comparación entre sujetos en base a una estructura
comparativa común.

Otra forma de representación gráfica son los mapas conceptuales. Estos representan conceptos que las personas tienen
sobre sí mismas o sobre lo que hacen. El mapa conceptual permite mostrar diferentes relaciones y articulaciones entre las
propiedades de una situación.

 Elaboración de conclusiones.

En esta etapa de elaboración de conclusiones, el aspecto manipulativo de los datos y las tareas de reducción se limitan
considerablemente.

El investigador tiene que aguzar su ingenio interpretativo y argumental para poder elaborar una narración coherente
que contenga los matices, las articulaciones, las relaciones causales, las influencias recíprocas entre determinadas
situaciones o aspectos personales.

El modelo procedimental más característico es el que sugieren Glaser y Straus, en su propuesta de generar teoría a partir
de los datos, y que puede hemos tratado con anterioridad. Un modo típico de avanzar en la producción de explicaciones
es mediante la elaboración de tipologías. Es decir se identifican tipologías de respuestas, de situaciones o de prácticas.
Como resultado de este proceso el investigador obtendrá una teoría sustantiva provisoria del fenómeno. La formulación
de una teoría supone que se supere la mera descripción de la situación observada. Es necesario que se integre el modelo
teórico elaborado en un marco más amplio, para ello debe tratar de esforzarse por insertar aspectos particulares en
categorías más amplias y abarcativas y establecer claramente cuáles son las propiedades que caracterizan el fenómeno,
cuáles son los factores que lo condicionan y de qué modo las interacciones sociales, las prácticas y los lenguajes de los
sujetos contribuyen a modificarlo, a conservarlo o a darle nuevos significados.

Tabla resumen de las finalidades, objetivos y procedimientos en el análisis de datos cualitativos

FINALIDAD OBJETIVO PROCEDIMIENTO


Analisis exploratorio del material Codificar Reducción de datos. Desarrollo de
códigos.
Descripción Desarrollar categorías Matrices, redes, mapas
conceptuales.
Interpretación Elaborar hipótesis y categorías Técnicas de generación de teoría.
Teorización. Formular una teoría sustantiva Formulación de una teoría
sustantiva. Muestreo .
d. Verificación del modelo teórico

En este momento se trata de verificar el modelo teórico, analizar las inconsistencias, examinar los casos críticos, intentar
resolver las lagunas que el modelo pudiera tener. Los procedimientos que se utilizan son variados, aunque destacan el

LODOL, ALDANA MELINA 10


SEMINARIO DE INVESTIGACION. UNIDAD 7

método de comparación constante y el muestreo teórico, ya que mediante ellos se pueden contrastar los postulados
teóricos con nuevos casos.

En cuanto a las formas de producción de los materiales de análisis, se puede señalar la conveniencia de elaborar
memorandums. Sobre la base de los memorandums el investigador intentará elaborar generalizaciones. Debe recordarse
aquí que en los procedimientos que se describen hay una serie de criterios metodológicos que deben observarse para
asegurar la validez y confiabilidad.

En primer lugar, dado que en la investigación cualitativa se persigue captar las diferencias y no la homogeneidad de una
situación, el método de comparación constante es un procedimiento que garantiza información divergente.

En cuanto a la recolección y análisis, debemos guiarnos por el criterio de la saturación de la información en la variable.
Según este, cuando comenzamos a encontrar siempre la misma información en un aspecto o atributo del fenómeno debe
detenerse la búsqueda de datos y su análisis ya que mayor volumen de información no aporta nuevas categorías de
análisis. Como en todo el proceso de investigación cualitativa, la triangulación - particularmente la de investigadores y de
fuentes- constituyen estrategias cruciales en el análisis e interpretación de datos.

El trabajo con los datos es exhaustivo y se combina en diferentes niveles y con diferentes tipos de datos. El análisis se
hace extensivo hasta que. los nuevos datos no aportan o regeneran nuevos desarrollos teóricos. La manipulación de los
datos durante el análisis es ecléctica y eminentemente dialéctica. Por ello no existe un único camino correcto para acceder
al análisis e interpretación de información. El investigador debe explorar cuál es la vía más apropiada y sobre todo, cuál
es la más fructífera para acceder al conocimiento de su objeto de estudio. En definitiva, como lo reconocen los
metodólogos, la única garantía del investigador es lo que llaman su "sensibilidad teórica", es decir su capacidad para
descubrir relaciones, contradicciones, complejidades allí donde otros apenas ven información.

La búsqueda de casos negativos.

INDUCCIÓN ANALÍTICA . La inducción analítica es un procedimiento para verificar teorías y proposiciones basadas en
datos cualitativos.

Objeto de estudio. Verificar teorías, proposiciones.

Métodos de recogida de datos. Búsqueda activa de casos negativos que refuten la teoría o la proposición. Hay que buscar
informantes y escenarios que puedan proporcionar de forma inductiva los datos para refutar las teorías o proposiciones
o, en su caso, verificarlas.

Desarrollo conceptual abreviado. La inducción analítica es un procedimiento para verificar teorías y proposiciones
basado en datos cualitativos. Los pasos que incluye la inducción analítica son simples y directos:

1.Desarrollar una definición aproximada del fenómeno a explicar (tomada de la literatura o de otras investigaciones, de
la teoría o del conocimiento aceptado).

2.Formular una hipótesis para explicar dicho fenómeno (conforme a las fuentes citadas en el apartado anterior).

3.Estudiar un caso para ver si la hipótesis se ajusta.

4.Si la hipótesis no explica el caso, reformularla o redefinir el fenómeno.

LODOL, ALDANA MELINA 11


SEMINARIO DE INVESTIGACION. UNIDAD 7

5.Buscar activamente casos negativos que refuten el fenómeno.

6.Cuando se encuentren, reformular la hipótesis o redefinir el fenómeno.

7.Continuar hasta que se ha puesto a prueba adecuadamente la hipótesis examinado una amplia gama de casos.

La lógica básica subyacente en este método es útil en el análisis de datos cualitativos por tanto dirige la atención hacia
casos negativos. La inducción analítica obliga al investigador a refinar y matizar las teorías y proposiciones.

La Inducción Analítica es la mejor estrategia para combatir la «ilusión de transparencia» del analista, esa opción de
facilidad que hacíamos referencia al principio que a veces hace avanzar explicaciones que si no encuentran resistencia son
tomadas por su autor como válidas y definitivas. Este método, que fue formulado por Znaniecki en 1934 y refinado
posteriormente por otros autores, nos propone un ejercicio dialéctico para probar teorías mediante análisis cualitativo.

La prueba a la que se van a someter la hipótesis o las proposiciones teóricas se basa en una sistemática en la que tiene
especial importancia la búsqueda activa de casos negativos: se define el fenómeno a explicar, se formula una hipótesis, se
estudian tantos casos como sean necesarios para redefinir el fenómeno, se buscan casos negativos que refuten la hipótesis
y se reformula una y otra vez hasta que se establece una relación universal consistente. A diferencia de la teoría
fundamentada, la inducción analítica «busca » datos para probar una teoría ya existente y los utiliza para generalizar sus
resultados.

La teoría fundamentada: comparación constante, niveles de codificación y conceptualización orientada a la


construcción de teoría.

Teoría fundamentada. (Desgrabado de clases)

La teoría fundamentada permite la constitución o construcción de teorías, conceptos, partiendo directamente de los
datos de la realidad. ¿Cómo? Mediante la inducción: de ciertos datos de la realidad que se obtienen, se va construyendo
inductivamente teorías explicativas del fenómeno que vamos a estar indagando. Si este proceso se lleva a cabo
adecuadamente, al final del mismo, la teoría construida tiene que encuadrar con la realidad. Nace exclusivamente del
dato, de la realidad empírica, no hay influencia teórica, puesto que, si no nace estrictamente del dato objetivo, no es teoría
fundada.

¿Cuáles son las estrategias para esta técnica?

1)- Método comparativo: Consiste en la 1era fase de la teoría fundamentada.

En esta fase se analizan los datos de la realidad que tenemos, se los clasifica y sub-clasifica. Se exploran y evalúan las
diferencias que hay entre ciertos datos, como asi también las similitudes y posteriormente se categorizan y clasifican los
datos de la realidad empírica.

A medida que los datos son analizados, se identifican las similitudes y diferencias entre unos y otros. Allí comienzan a
esbozarse ciertos conceptos teóricos. En síntesis, fuimos a la realidad, obtuvimos datos, los evaluamos, clasificamos,
comparamos y organizamos por categorías y sub-categorías.

Una vez que tengamos los datos estructurados, comenzaremos a elaborar los conceptos o teorías.

LODOL, ALDANA MELINA 12


SEMINARIO DE INVESTIGACION. UNIDAD 7

La teoría fundamentada requiere que no existan pre-conceptos sobre el tema, ideas preconcebidas teóricas. ¿Por qué?
Justamente porque lo que buscamos es que las teorías hipótesis estén concebidas directamente estrictamente desde los
datos. Por eso decimos que se sugiere al momento de llevar adelante la investigación mediante estas técnicas que no haya
un conocimiento profundo teórico del tema, si lo suficiente para poder individualizar el problema de investigación y si lo
suficiente para saber e identificar índices, indicadores a donde podría buscar el dato en la realidad, lo suficiente para poder
llevar adelante una investigación, pero requiere no tener un conocimiento profundo, ¿Por qué? Porque por mas que no
se quiera inconscientemente estos conocimientos pueden influir en la constitución o elaboración de mi teoría, entonces
no va a ser estrictamente construida en base a los datos de la realidad. Por eso buscamos que no exista en lo posible
preconceptos e ideas preconcebidas antes de llevar a cabo una investigación mediante estas técnicas.

Mediante este tipo de técnicas, se percibe la generación de teorías, teorías formales, aportes a la ciencia, etc. Se parte
únicamente de los hechos para construir teoría: Hecho de la realidad = teoría. Ejemplo: investigación real, paper / un
artículo científico en el que el investigador expone o publicar avances de su investigación o conclusiones.

El dato no parte de la teoría sino de la realidad, y de ahí se van formando las hipótesis, conceptos, teorías, y el nombre.
Acá no hay conocimiento previo.

2)- Segunda etapa/fase dentro de lo que es la teoría fundada:

Consiste en ir relacionando los datos y agruparlos dentro de las categorías a las que corresponden (los datos dentro de
un mismo informante clave, y los datos entre los distintos informantes claves). Lo que se hace es tomar nuevamente el
dato, los distintos instrumentos, como por ej los formularios de entrevista, y volcar los datos en un cuadro donde se va a
codificar toda la información o dato relativo a las mismas categorías y sub-categorías

3)- Etapa/codificación selectiva:

Luego de estas dos etapas, una vez obtenido el dato, clasificados y sub-clasificados la toalidad de los datos de los
informantes claves, se van formando las conclusiones y se empiezan a sacar conclusiones, es decir, contenidos teóricos.

Se van a ir sacando conclusiones de las distintas sub categorías, y dependiendo de las subcategorías, voy a tener las
distintas conclusiones para cada una. Después se van a tener que converger las distintas conclusiones en una sola que es
la conclusión de la categoría. Hay que teorizar, primero mediante conclusiones por parte (sub-categorías) después de
obtener las distintas conclusiones, las voy a reunir en una sola conclusión, que va a hacer la conclusión de esa categoría.
Lo mismo se debe hacer con las distintas categorías que se tengan en la investigación.

Este proceso en el cual voy a empezar a elaborar conclusiones y conceptos teóricos, es la 3era etapa que se denomina
codificación selectiva. Reconstrucción teórica de la relación entre las categorías encontradas por el investigador en el
transcurso del proceso investigativo. Conclusión de cada categoría, que deviene de la sumatoria de cada sub-categoría. Y
de esas tres conclusiones generales voy a obtener una teoría general vinculada a ese tema de investigación. Obtener un
nombre del fenómeno estudiado/objeto.

(Apunte Guillermo). Permite construir teorías, hipótesis y conceptos, partiendo directamente de los datos y no de los
marcos teóricos existentes o investigaciones anteriores.

Hay un análisis recursivo de datos:

LODOL, ALDANA MELINA 13


SEMINARIO DE INVESTIGACION. UNIDAD 7

a. Se establece una mirada, ordenamiento de datos, reordenación de datos.

b. Hay una nueva mirada, un reordenamiento y una reelaboración.

Esta teoría fundamentada “trata de establecer significados simbólicos de los materiales, conductas e interacciones de
los sujetos”.

Interpreta significados subjetivos que tienen los gestos y palabras para los grupos sociales y como estos interactúan
entre ellos. Reconstrucción de acontecimientos, experiencias que los participantes interpretan como su realidad social.

Hay 3 premisas:

I. Que los seres humanos actúan con respecto a las cosas de acuerdo a los significados que estas tienen para ellos.
II. El significado de estas cosas se deriva, o surge, de la interacción social que tiene con los propios compañeros.
III. Estos significados se manejan en un proceso interpretativo utilizado por la persona al hacer frente a los casos que
encuentra y este proceso lo modifica.

Permite la construcción de teorías partiendo de los datos mediante la inducción. Genera una teoría explicativa de un
fenómeno estudiado. Tiene que nacer del dato, de la realidad, no hay hipótesis previa.

Pasos: 1) Recolección de datos; 2) Codificación y clasificación de datos; 3) Teoría; 4) Hipótesis; 5) Análisis; 6) Discusión y
conclusión; 7) Resultado

Tiene por estrategias principales al método comparativo constante, muestreo teórico, preguntas y el análisis. El análisis
recursivo implica que, a mayor observación de los fenómenos, mayor será la interpretación de los datos mismos, no debo
quedarme con la primera mirada del fenómeno.

En cuanto a las fuentes de información: se sitúan las entrevistas, observaciones, documentos de todo tipo y grabaciones
audiovisuales.

La crítica realizada a este método es que al analizar narraciones se atenta contra la compresión holística del discurso, es
necesario analizar las partes como componentes de un todo relacionado.

El concepto de muestreo teórico. Implica procesos progresivos y secuenciales de ampliación o reducción de la muestra
según las categorías teóricas que van emergiendo en el camino de la obtención y análisis de la información. El cierre se
hace por saturación.

Calidad y validez. (unidad 5) La fiabilidad se garantiza por la estandarización de las respuestas y la claridad en la
formulación de las preguntas. La validez se obtiene con la elección de indicadores aptos para los conceptos que se quieren
medir.

Elaboración de informes.

El informe de investigación. La argumentación como base para la elaboración de informes de investigación.

La estructura de una argumentación es una guía importante para la escritura de un informe de investigación. La
estructura de la argumentación según Booth y otros (2004) puede esquematizarse de la siguiente manera:

LODOL, ALDANA MELINA 14


SEMINARIO DE INVESTIGACION. UNIDAD 7

Cualquier argumentación se compone de estos cuatro elementos. Las flechas no indican secuencias necesarias
sino relaciones lógicas. Se puede iniciar una argumentación con una afirmación o concluir con ella, se pueden rebatir las
objeciones al comienzo de un argumento o al final, las justificaciones pueden iniciar un argumento, presentarse luego de
la afirmación o al final, lo mismo sucede con los condicionamientos.

Las respuestas a los interrogantes planteados constituyen el eje estructurante de la argumentación. Según Booth y otros
(2004) las respuestas deben ofrecer:

• Evidencia o fundamentos que la sustentan.

• Una justificación, un principio general que implica porque la evidencia es pertinente a la afirmación.

• Las condiciones que hacen que la afirmación y la evidencia sean más precisas

La justificación de una argumentación es un principio general o un supuesto que vincula la afirmación con la
evidencia de base, conectándolas en un par lógicamente relacionado. La justificación no responde preguntas sobre si la
evidencia es correcta, sino sobre si es pertinente para la afirmación.

Para explicar por qué los datos son pertinentes, hay que mostrar por qué los datos pueden considerarse como
una evidencia que sustenta una afirmación. La justificación es un principio general que crea un puente lógico entre una
evidencia y una afirmación. Las justificaciones, por lo general, se encuentran en las teorías que orientan la investigación y
en las definiciones de los términos teóricos empleados.

Cuando se expresa una justificación hay que formularla como una generalización que responde a la siguiente
pregunta: ¿Qué principio general considero creíble antes de aceptar la evidencia supuesta acerca de X?

Las justificaciones pueden formularse de muchas maneras, una de ellas es: cuando tenemos una evidencia como
X, podemos hacer una afirmación como Y.

Formular las justificaciones es un ejercicio útil para poner a prueba la base conceptual de los argumentos. Pensar
las justificaciones ayuda a encontrar puntos no fiables de los argumentos.

Aunque los investigadores articulan las justificaciones de diversas maneras, lo más útil para poder examinarlas es
descomponer la justificación en dos partes: una que expresa el tipo general de evidencia que la justificación admite y la
otra que expresa la afirmación. Una vez que se ha formulado la justificación en la forma “evidencia, entonces afirmación”,
se puede confirmar las mismas formulando versiones más amplias y más concisas.

Cuando formulamos una justificación demasiado restringida puede resultar que la justificación sea virtualmente
la misma que la evidencia ofrecida para sustentar la afirmación, entonces, se puede juzgar que el argumento da por
sentado lo mismo que se intenta probar.

Cada comunidad de investigación posee sus propias justificaciones. Hay casos, donde la justificación puede ser
rechazada porque es inapropiada para las prácticas de investigación de una determinada disciplina, por ejemplo, un
investigador que analiza un poema, podría argumentar la justificación de su evidencia diciendo “ Los sonidos de la primera
estrofa refuerzan la idea de un bosque tranquilo y reconfortante porque la mayoría de las vocales son bajas y las mayoría
de las consonantes son suaves y sonoras”, su justificación tácita es “ cuando escuchamos sonidos suaves, los asociamos

LODOL, ALDANA MELINA 15


SEMINARIO DE INVESTIGACION. UNIDAD 7

con imágenes suaves”, pero no sería una justificación aceptable para un historiador decir “ la narrativa histórica es como
la literaria, porque sus personajes son también producto de la ficción”.

Por último hay que preguntarse ¿cómo una justificación conecta válidamente cierta evidencia con una afirmación?
Lo que da cuenta de buenas investigaciones no son sólo la verdad de las conclusiones, sino la calidad del razonamiento
que llevó a ellas.

Por otro lado, es importante tener presente las posibles objeciones que otros investigadores pueden realizar a
nuestros argumentos. En éste sentido es elemental establecer los condicionantes de nuestras afirmaciones, es decir,
establecer los alcances y límites que tienen nuestras afirmaciones y la evidencia que las sustentan.

Hay cuatro modos de condicionar o limitar el alcance de las afirmaciones en la argumentación:

• Refutar objeciones equivocadas a la evidencia o justificación

• Conceder las objeciones que no se pueden rebatir.

• Estipular restricciones que condicionan la evidencia o limitan la aplicación de la justificación

• Estipular el alcance de la evidencia, justificación y afirmación

Existen cuatros tipos de objeciones que correspondería buscar deliberadamente:

 Plantear objeciones y alternativas a las afirmaciones que durante el curso de la investigación se consideraron,
pero se rechazaron.

 Anticipar las objeciones que se sabe que los lectores pueden plantear.

 Anticipar las alternativas que pueden ocurrírseles a los lectores.

 Anticipar las objeciones que podrían ocurrírseles a los lectores mientras leen.

Se pueden realizar objeciones sobre la base de las siguientes razones:

 Se definió términos claves de manera incorrecta.

 Se generalizó excesivamente con poca evidencia.

 No se consideraron contra ejemplos o casos especiales

El punto central en todo informe de investigación es la afirmación principal o tesis general. Esta afirmación
conviene que sea significativa, discutible y explícita.

Se considera que una afirmación es significativa en la medida en que es discutible. Una afirmación es debatible, si es
capaz de modificar algo en lo que se cree o puede aportar una nueva perspectiva de análisis.

Además, en un informe de investigación se espera que las afirmaciones estén formuladas en un lenguaje lo
suficientemente detallado y específico para que puedan reconocerse en ella los conceptos centrales que se desarrollarán
a lo largo del trabajo. Cuando no se sabe que esperar, los conceptos más importantes podrían pasar desapercibidos e
incluso juzgar que lo que leen no está enfocado, o es incoherente.

LODOL, ALDANA MELINA 16


SEMINARIO DE INVESTIGACION. UNIDAD 7

La afirmación es el corazón del informe y tiene que dar cuenta de la evidencia que la sustenta. Si la evidencia es
débil, la afirmación es juzgada como imprecisa, insuficiente, no autorizada, poco representativa o poco clara.

La evidencia tiene que ser precisa, los criterios para determinar cuando una evidencia es precisa varían de una
disciplina a otra. Hay que evitar palabras como: algunos, la mayoría, muchos, casi, frecuentemente, finalmente,
generalmente, etc. Estos calificativos pueden determinar los límites apropiados de una afirmación, pero también pueden
evadirlos.

Así como diferentes disciplinas juzgan la precisión de la evidencia de modo diferente, también difieren en la
evaluación de su suficiencia. En algunas ciencias, los investigadores basan su afirmación en la evidencia de un solo episodio
o caso de investigación, en otras, se considera que un caso no es suficiente para sustentar una afirmación. De todos modos,
es recomendable que la evidencia se presente de forma tal que se de cuenta que puede haber más evidencia disponible.

Con respecto representatividad de los datos, lo que se considera representativo varía también según la disciplina.
Sin embargo, un criterio común es considerar representativos los datos cuando su variedad refleja la diversidad del
conjunto del que fueron extraídos y acerca del cual se formula la afirmación.

En cuanto a las fuentes autorizadas, hay que tomar nota de las autoridades que los investigadores en su área
mencionan más frecuentemente, en que procedimientos confían y que tipos de registros mencionan regularmente.
Cuando se introducen citas de autoridad, hay que tener presente que ellas no hablan por sí mismas, deben ser
interpretadas y dar cuenta de la función que cumplen dentro del informe. Por lo tanto, hay que hacer evidente la
importancia de su utilización.

Por otra parte, un error común cuando se organiza el informe en torno a datos es basarse en las fuentes más de
lo que se debiera, en el sentido que puede resultar un informe que solo da cuenta de una organización y descripción de
datos.

Así, en una investigación bibliográfica hay que evitar construir un informe a partir de resúmenes y citas, cuando
esto sucede, el informe tiene la forma de un conjunto de citas de muchas fuentes que refleja que es muy poco el
pensamiento original del investigador. En una investigación de campo, el informe no puede contener simplemente
observaciones o reproducciones de citas de entrevistas, a lo largo del informe es importante que aparezcan los principios
o criterios de selección que se aplican a los datos. Esta selección permite organizar las observaciones de modo tal que
reflejen el análisis de lo que es relevante.

Si se organiza un informe en torno a preguntas que dan lugar a afirmaciones, se formula la afirmación o tesis
principal y se toman decisiones acerca de dónde se la mencionará: en la introducción o en la conclusión.

Así, lo primero que se necesita cuando se escribe el borrador de un informe es tener en cuenta la pregunta que
se formuló y una noción de su respuesta, algo que se pueda esquematizar con pocas palabras.

En algunos casos, es importante definir términos, repasar investigaciones previas, establecer justificaciones
importantes, fijar los límites de la investigación, ubicar el problema dentro de un contexto más amplio., etc.

Para planificar el cuerpo de la argumentación en un informe de investigación, el primer paso, es recordar que los
elementos del argumento pueden ser ordenados de distintas formas y que la información tiene que organizarse en un
orden que refleje las necesidades de lo que el investigador quiere demostrar.

LODOL, ALDANA MELINA 17


SEMINARIO DE INVESTIGACION. UNIDAD 7

Las posibilidades de organización son:

 Organizar de lo que ya se sabe a lo que se desconoce. Se puede responder a la pregunta: ¿qué es lo que en los
datos y los argumentos resulta mas familiar y que menos?

 De lo mas corto y simple a lo mas prolongado y complejo. La pregunta que nos orienta en éste sentido es: ¿qué
elementos de la argumentación los lectores comprenderán mas fácilmente y cuales con mayor dificultad?

 De lo menos a lo más discutible. Si la afirmación es polémica se pueden presentar varios argumentos que la
sustenten

Otro criterio de organización es establecer:

 Un orden cronológico

 Un orden lógico de la evidencia a la afirmación y viceversa.

 Concesiones y condiciones primero luego una objeción que se pueda rebatir y finalmente la propia evidencia
afirmativa, o viceversa

Un segundo paso, es realizar una revisión de la organización del informe y la estructura argumentativa del mismo.

El proceso de analizar y revisar la organización del informe consiste básicamente en los siguientes pasos:

Identificar los puntos principales del informe, que oración puntual es la principal en la introducción y cual en la
conclusión. En la introducción hay que subrayar cual es la oración que más se aproxima a formular la afirmación principal,
por lo general esa oración tiene que ser la última de la introducción. Luego hacer lo mismo con la conclusión, la oración
principal será aquella que expresa la esencia de la solución del problema. Por último, hay que comparar la idea puntual
de la introducción con la de la conclusión, las mismas no deben contradecirse ni ser incompatibles.

Identificar en las secciones principales del cuerpo del informe las oraciones puntuales de cada acción. Dividir el
cuerpo del ensayo en las secciones principales. Localizar y resaltar los puntos principales de cada sección. La oración
puntual de cada sección debería ser la última de una breve introducción a la sección siguiente. Una vez que se resaltan los
puntos se habrá elaborado un esquema que tendrá la siguiente apariencia

 Oración puntual al final de la introducción

 Oración Sub puntual 1

 Oración Sub puntual 2

 Oración Sub puntual 3

 Oración puntual principal en las conclusiones

Identificar en la introducción del estudio los conceptos temáticos centrales y seguirlos a lo largo del estudio. El
próximo paso es determinar si los puntos y sub puntos identificados están conectados conceptualmente. Primero, hay
que determinar si los puntos están unidos por varios conceptos temáticos claves. Estos últimos son las palabras que

LODOL, ALDANA MELINA 18


SEMINARIO DE INVESTIGACION. UNIDAD 7

expresan los conceptos centrales que deberían aparecer en todo el informe o ensayo desde la introducción, el cuerpo y la
conclusión.

Revisar el argumento evaluando las evidencias, las restricciones y las justificaciones. Verificar los datos y citas,
la vinculación de los mismos con la tesis o afirmación principal, y asegurarse de no haber omitido pasos intermedios en la
argumentación.

2. ESTRATEGIAS DE ANÁLISIS DE DATOS CUANTITATIVOS EN INVESTIGACIONES JURÍDICAS. PROCESAMIENTO DE LOS


DATOS. CONSTRUCCIÓN DE LA BASE DE DATOS. LA ESTRUCTURA LÓGICA DE LA MATRIZ DE DATOS. DISTRIBUCIONES,
TABLAS Y GRAFICOS. TABULACIÓN Y CODIFICACIÓN.

(APUNTE MARIANA)

Procesamiento de los datos. Construcción de la base de datos

Iniciado con el planteamiento de un problema de investigación que implica responder a interrogantes situados en la
frontera de los conocimientos existentes, se habrá de recorrer luego un largo camino donde será preciso atender,
simultáneamente, a dos niveles diferentes: el teórico y el empírico.

Para el primero de ellos nuestro trabajo se resumirá en la construcción del llamado marco teórico que,
convenientemente llevado a la práctica u operacionalizado, nos indicará en definitiva qué datos es preciso obtener para
satisfacer las interrogantes iniciales. En cuanto al nivel empírico nuestra aproximación a la realidad quedará concretada
en un cierto tipo de diseño, implementado a través de las técnicas de recolección que nos permitirán obtener los datos
requeridos.

El instrumento de recolección de datos sintetizará ambos planos y será la herramienta concreta que nos proporcione la
información que necesitamos. Se abre, a partir de ese momento, la etapa propiamente dicha de la recolección de datos,
que puede tener mayor o menor complejidad y duración. En ella se aplicarán los instrumentos a los objetos de estudio, lo
que nos proporcionará las informaciones que necesitamos, se completarán las lecturas, se procederá a realizar
efectivamente los experimentos, encuestas o estudios que sea menester.

Finalizadas las tareas de recolección el investigador quedará en posesión de un cierto número de datos, a partir de los
cuales será posible sacar las conclusiones generales que apunten a esclarecer el problema formulado en los inicios del
trabajo. Pero esa masa de datos, por sí sola, no nos dirá en principio nada, no nos permitirá alcanzar ninguna conclusión
si, previamente, no ejercemos sobre ella una serie de actividades tendientes a organizarla, a poner orden en todo ese
multiforme conjunto. Estas acciones son las que integran el llamado procesamiento de los datos.

Lo primero que suele hacerse con el conjunto de los datos obtenidos es dividirlos de acuerdo a un criterio bien elemental,
separando de un lado la información que es de tipo numérica de la información que se expresa verbalmente o mediante
palabras. Los datos numéricos quedarán como tales, cualquiera sea su naturaleza, y se procesarán luego para exponerlos
en forma clara y fácilmente asimilable. El objetivo final será construir con ellos cuadros estadísticos, promedios generales
y gráficos ilustrativos, de tal modo que se sinteticen sus valores y se pueda extraer, a partir de su análisis, enunciados
teóricos de alcance más general. Los datos que se presentan de forma verbal podrán sufrir dos destinos diferentes: se
convertirán en datos numéricos o quedarán como información no cuantificada, cualitativa. Así, si se ha realizado una serie

LODOL, ALDANA MELINA 19


SEMINARIO DE INVESTIGACION. UNIDAD 7

de entrevistas profundizadas, de tipo no estructurado, pueden cuantificarse algunos de los datos obtenidos el número de
entrevistados por sexo y edad, la respuesta a alguna pregunta específica en tanto que otras informaciones se mantendrán
en su forma verbal, como paradigmas o ejemplos de las opiniones de la muestra frente a ciertos problemas de interés.

El criterio a adoptar dependerá de circunstancias concretas: de los objetivos del trabajo, de la posibilidad de cuantificar
cada variable, del tamaño del universo o muestra considerados y de varios otros criterios. En todo caso se debe tener
presente que, siempre que tenga sentido, es preferible cuantificar en lo posible los datos obtenidos.

No existe, como pretenden algunos metodólogos parcializados, ninguna oposición entre datos cuantitativos y datos
cualitativos: lo que existe es un diferente grado de precisión y de complejidad en cada una de las variables que medimos,
de modo tal que siempre es posible abstraer de ellas algunos aspectos cuantitativos en tanto que otros, por su
complejidad, tendrán que permanecer como cualitativos. Una vez adoptado un criterio frente a cada categoría o
subconjunto de datos se podrán abordar ya, con mayor claridad acerca de nuestros objetivos, las tareas básicas del
procesamiento.

En primer lugar será preciso hacer una revisión detallada de todos los datos obtenidos, atendiendo en especial a su
coherencia. Si se trata de cuestionarios o de pautas de observación, de registros de tests, sociogramas, o de cualquier otro
instrumento de recolección, habrá que examinar cada uno de ellos para analizarlos internamente, buscando sus posibles
incongruencias, omisiones o errores, y enmendándolos si cabe hacerlo. Es decir, se revisará sistemáticamente toda la
información disponible, juzgando su calidad y el grado de confianza que merece, para determinar qué parte puede
incluirse en el informe de investigación, cual debe corregirse o modificarse en algo (acudiendo, llegado el caso, a una
nueva recolección de datos) y cual, por sus graves deficiencias, deberá ser excluidas sin más.

Por cada tipo de datos se procederá entonces como sigue: Los datos numéricos se procesarán agrupándolos en intervalos
y se tabularán. Luego se construirán con ellos cuadros estadísticos, calculándose además las medidas de tendencia central,
de dispersión o de correlación que resulten necesarias. Los datos verbales que se desea presentar como numéricos
sufrirán una primera operación que se denomina codificación. De allí en adelante se trabajarán al igual que los otros datos
numéricos, mediante la tabulación y el procesamiento en cuadros estadísticos.

Estructura lógica de la matriz de datos

Una matriz de datos tiene cuatro componentes:

1. Unidad de análisis; 2. Las variables; 3. Los valores; 4. Los indicadores

Llegados a este punto, estamos en condiciones de efectuar una primera aproximación al concepto de matriz de datos
tal cual lo conceptualizara Galtung. De acuerdo a este autor, la matriz de datos es una forma de ordenar los datos en una
disposición cuadrangular de manera que sea visible su estructura tripartita. En la misma, “las UdeA ocupan la dirección de
las hileras, las variables la de las columnas y los valores aparecerán en el cruce de hileras y columnas” (Samaja: 1996).

Una de las finalidades más importantes de la matriz de datos es la de sistematizar la información recolectada durante
una investigación científica con el objetivo de resolver el problema que se planteado por la misma. Desde este punto de
vista la matriz es una estructura sumamente útil en las últimas etapas de la investigación, cuando ya hemos recolectado
nuestros datos y debemos emprender la tarea de procesar y analizar los mismos.

LODOL, ALDANA MELINA 20


SEMINARIO DE INVESTIGACION. UNIDAD 7

Sin embargo, la comprensión de la estructura del dato científico es fundamental desde el inicio de una investigación,
dado que es el momento donde el investigador plantea cuales serán las unidades de análisis y los conceptos relevantes
en su investigación.

Estrategias de análisis de datos cuantitativos en investigaciones jurídicas. Procesamiento de los datos. Construcción
de la base de datos. La estructura lógica de la matriz de datos.

Recopilados los datos, revisados -detectando posibles errores u omisiones- se procede a grabarlos o a su tabulación
manual. Una vez definidos los indicadores, con los cuales se van a "medir" las variables, podemos usar un esquema
denominado "matriz de datos", de acuerdo con Samaja (1994:162), que es una estructura válida para el análisis.

Todos los datos de todas las investigaciones científicas de todas las disciplinas poseen esta estructura invariante que se
puede llamar matriz de datos. Una matriz de datos tiene cuatro componentes, a saber: 1- unidad de análisis, 2- las
variables, 3- los valores y 4,- los indicadores (Samaja, 1994:158).

Un indicador toma distintos valores, según cada individuo. Actualmente hay programas estadísticos especializados que
permiten trabajar con variadas técnicas de análisis de la información, en forma más rápida y precisa. Uno de ellos es el
SPAD (Systeme Portable pour l’Annalysse des Dones), que realiza el análisis multidimensional de los datos.

Del análisis y la interpretación pueden surgir representaciones, a través de los métodos factoriales: que producen las
representaciones gráficas sobre las cuales las cercanías entre los puntos líneas y los puntos columnas traducen las
asociaciones estadísticas entre líneas y columnas y los métodos de clasificación que realizan los reagrupamientos en clase
de las líneas o de las columnas. Con estos reagrupamientos también llamados tipologías o clusters de individuos con
características semejantes se puede obtener una visión macroscópica de la información (Moscoloni, 2005:98).

El SPAD, si bien es un software adaptable a los datos, incluido el análisis de discursos en Ciencias Sociales, es de carácter
cuantitativo. El SPSS es un Programa Estadístico para Ciencias Sociales. Su característica es que es sencillo para el usuario
y tiene un rápido acceso a las técnicas estadísticas tradicionales, incluidos los test no paramétricos (que son los que se
usan en Ciencias Sociales, espacialmente en Psicología). Un programa para procesar datos cualitativos -incluyendo
también imágenes, gráficos y sonido- es el ATLAS.Ti. El programa se basa en el enfoque de la teoría fundamentada y de la
codificación teórica según Strauss. La mayoría de los autores clasifican este programa en la categoría de "los constructores
de redes conceptuales". Ayuda en operaciones en el nivel de textos y el conceptual: se forma una unidad hermenéutica
en la pantalla que unifica el texto primario (por ejemplo, la entrevista que debe interpretarse) y las interpretaciones o las
codificaciones.

El programa muestra el texto primario con todos los códigos asignados a él y los comentarios en ventanas diferentes en
la pantalla. Ofrece algunas funciones, que están presentes en la pantalla en forma de símbolos (recuperar, cortar, codificar,
formar redes, etcétera). Aparte de la recuperación de secuencias de palabras en el texto y la asignación de códigos, es útil
la presentación de los códigos y las categorías en redes conceptuales (Flick, 2004:273).

Distribuciones, tablas y graficos.

Para presentar datos de una manera abreviada, que favorezca una interpretación fácil y rápida, se pueden emplear
elementos visuales tales como las tablas y los gráficos.

LODOL, ALDANA MELINA 21


SEMINARIO DE INVESTIGACION. UNIDAD 7

Las tablas:

Los datos se suelen organizar bajo unas cabeceras que se disponen en la parte superior del cuadro, en la parte lateral, o
en ambas a la vez.

Los gráficos:

Son medios popularizados y los más convenientes para presentar los datos relativos a una información de forma visual
clara y esquemática. Se suelen representar de distintas formas de tal modo que se puedan apreciar fácilmente los hechos
esenciales y sean fáciles de
comparar entre sí.

Los gráficos representan cantidades o datos mediante dibujos, esquemas o coordenadas.

Pueden clasificarse en 3 grandes grupos:

• Gráficos espaciales: Que utilizan para transmitir la información diversos recursos como volúmenes o figuras.

• Gráficos lineales: Son diagramas semejantes a representaciones de funciones, como por ejemplo el gráfico de barras.

• Gráficos superficiales: Utilizan áreas de rectángulos o círculos para la representación de datos.

Por ejemplo las pirámides de población.

La importancia de las tablas y los gráficos es que con ellos se aprende a tomar conciencia de conocimientos previos
relativos a un texto, organizar nueva información relacionándola con los temas anteriores y elaborar resúmenes y síntesis
diferenciando lo fundamental de lo
accesorio. Todo esto se convierte en una herramienta para facilitar el recuerdo de todo lo relevante en un texto.

Tabulación y codificación.

La etapa esencial de la investigación social siguiente a la observación es la clasificación, es decir, la agrupación de los
datos recogidos referentes a cada variable objeto de estudio y su presentación conjunta.

El objeto de la clasificación es reflejar la dimensión colectiva de los datos recogidos en la observación y con ellos poner
de manifiesto las semejanzas y diferencias de los fenómenos sociales. Mediante la clasificación se pasa del dato en bruto
al dato procesado.

Antes de empezar la codificación, es necesario realizar una operación previa llamada “editing”.

Esta consiste en la revisión detenida de los cuestionarios o cuadros para detectar y eliminar los errores y omisiones que
se puedan presentar.

La clasificación comprende dos operaciones fundamentales: la codificación y la tabulación, siendo la transferencia y la


perforación accesorias de ellas.

La codificación: Es previa a la tabulación, pero tiene su razón de ser en esta. Trata de identificar de manera inequívoca
cada categoría de datos contenidos en los documentos de observación. El objeto de la codificación es hacer representar
o traducir cada respuesta de los cuestionarios y cada dimensión de los cuadros por códigos o indicaciones numéricas.

LODOL, ALDANA MELINA 22


SEMINARIO DE INVESTIGACION. UNIDAD 7

Es una labor instrumental, pero de su perfecta realización depende que en la tabulación no haya errores ni resulte
falseada o viciada al atribuir los datos a grupos que no les corresponda.

La Tabulación: En ella se hace reaparecer los datos bajo una forma a través de las maquinas o manualmente. Esta
tabulación se realiza en tablas, que sirven para presentar en forma sistemática a los totales de los datos. La formación de
tablas ordena los resultados cuantitativos y ofrece una visión numérica, sintética y global del fenómeno.

La palabra tabulación deriva etimológicamente del latín tabula, y significa hacer tablas, listados de datos que los
muestren agrupados y contabilizados. Para ello es preciso contar cada una de las respuestas que aparecen,
distribuyéndolas de acuerdo a las categorías o códigos previamente definidos. Cada una de las preguntas de un
cuestionario o de una hoja de observación tendrá que ser tabulada independientemente, por lo que es preciso hacer
previamente un plan de tabulación que prepare adecuadamente la tarea a realizar.

3. ANÁLISIS ESTADÍSTICO DESCRIPTIVOS E INFERENCIAL. DIVERSOS TESTEOS Y PRUEBAS SOBRE LAS REGULARIDADES
EMPÍRICAS Y PATRONES DE COMPORTAMIENTO DE LOS DATOS. INFERENCIAS TEÓRICAS A PARTIR DE LOS DATOS. LA
EXPLICACIÓN DE LOS DATOS A TRAVÉS DEL ANÁLISIS UNI, BI Y MULTIVARIADO. LA LECTURA DE LOS CUADROS.

análisis estadístico descriptivos e inferencial.

La estadística descriptiva e inferencial forman parte de las dos ramas fundamentales en las que se divide la estadística,
la ciencia exacta que se encarga de extraer información de diversas variables, midiéndolas, controlándolas y
comunicándolas en caso de que haya incertidumbre.

De esta manera, la estadística tiene como objetivo cuantificar y controlar comportamientos y eventos tanto científicos
como sociales.

La estadística descriptiva se encarga de resumir la información derivada de los datos relativos a una población o muestra.
Su objetivo es sintetizar dicha información de forma precisa, sencilla, clara y ordenada (Santillán, 2016).

Es así como la estadística descriptiva puede señalar los elementos más representativos de un grupo de datos, conocidos
como datos estadísticos. En pocas palabras, este tipo de estadística se encarga de hacer descripciones de dichos datos.

Por su parte, la estadística inferencial se encarga de hacer inferencias sobre los datos recogidos. Arroja conclusiones
diferentes a lo mostrado por los datos en sí.

Este tipo de estadística va más allá de la simple recopilación de información, relacionando cada dato con fenómenos que
pueden alterar su comportamiento.

La estadística inferencial llega a conclusiones relevantes sobre una población a partir de análisis de una muestra. Por lo
tanto, siempre debe calcular un margen de error dentro de sus conclusiones.

Estadística descriptiva

Es la rama de la estadística más popular y conocida. Su principal objetivo es el de analizar variables y posteriormente
describir los resultados obtenidos de dicho análisis.

LODOL, ALDANA MELINA 23


SEMINARIO DE INVESTIGACION. UNIDAD 7

La estadística descriptiva busca describir un grupo de datos con el objetivo de señalar de forma precisa las características
que definen a dicho grupo (Fortun, 2012).

Se puede decir que esta rama de la estadística es la responsable de ordenar, resumir y clasificar los datos resultantes del
análisis de la información derivada de un grupo.

Algunos ejemplos de la estadística descriptiva pueden incluir los censos de población de un país en un año determinado
o el número de personas que fueron recibidas en un hospital dentro de un margen de tiempo determinado.

Categorías

Existen ciertos conceptos y categorías que forman parte exclusivamente del campo de la estadística descriptiva. Algunos
se listan a continuación:

– Dispersión: es la diferencia que existe entre los valores incluidos dentro de una misma variable. La dispersión también
incluye el promedio de dichos valores.

– Promedio: es el valor que resulta de la sumatoria de todos los valores incluidos en una misma variable y la posterior
división del resultado por el número de datos incluidos en la sumatoria. Se define como la tendencia central de una
variable.

– Sesgo o curtosis: es la medida que indica qué tan inclinada es una curva. Es el valor que indica la cantidad de elementos
que se encuentran más próximos al promedio. Existen tres tipos diferentes de sesgo (leptocúrtica, mesocúrtica y
platicúrtica), cada uno de ellos indica qué tan alta es la concentración de datos alrededor del promedio.

– Gráficos: son la representación gráfica de los datos obtenidos del análisis. Usualmente, son utilizados diferentes tipos
de gráficos estadísticos, incluidos los de barras, circulares, lineales, poligonales, entre otros,

– Asimetría: es el valor que muestra la manera como los valores de una misma variable se encuentran repartidos con
relación al promedio. Puede ser negativa, simétrica o positiva (Formulas, 2017).

Estadística inferencial

Es el método de análisis utilizado para hacer inferencias sobre una población, teniendo en cuenta los datos arrojados
por la estadística descriptiva sobre un segmento de la misma muestra. Dicho segmento debe ser elegido bajo criterios
rigurosos.

La estadística inferencial se vale del uso de herramientas especiales que le permiten hacer afirmaciones globales sobre
la población, a partir de la observación de una muestra.

Los cálculos llevados a cabo por este tipo de estadística son aritméticos y siempre dan cabida a un margen de error, cosa
que no sucede con la estadística descriptiva, que se encarga de analizar a la totalidad de la población.

Por tal motivo, la estadística inferencial requiere de hacer uso de modelos de probabilidades que le permiten inferir
conclusiones sobre una población amplia basándose únicamente en lo que una parte de ella le indica (Vaivasuata, 2015).

Según la estadística descriptiva es posible obtener datos de una población general a partir del análisis de una muestra
conformada por individuos seleccionados de forma aleatoria.

LODOL, ALDANA MELINA 24


SEMINARIO DE INVESTIGACION. UNIDAD 7

Categorías

La estadística inferencial puede ser clasificada en dos grandes categorías descritas a continuación:

– Pruebas de hipótesis: como su nombre lo indica, consiste en poner a prueba aquello que se concluyó sobre una
población a partir de los datos arrojados por la muestra.

– Intervalos de confianza: estos son los rangos de valores señalados dentro de la muestra de una población para
identificar una característica relevante y desconocida (Minitab Inc., 2017). Por su naturaleza aleatoria, son los que
permiten reconocer un margen de error dentro de cualquier análisis estadístico inferencial.

Diferencias entre la estadística descriptiva y la inferencial

La principal diferencia entre la estadística descriptiva y la inferencial radica en que la primera busca ordenar, resumir y
clasificar los datos derivados del análisis de variables.

Por su parte, la estadística inferencial, lleva a cabo deducciones con base a los datos previamente obtenidos.

Por otro lado, la estadística inferencial depende del trabajo de la estadística descriptiva para llevar a cabo sus inferencias.

De este modo, la estadística descriptiva constituye la base sobre la que posteriormente la estadística inferencial llevará
a cabo su trabajo.

También es importante señalar que la estadística descriptiva se utiliza para analizar tanto poblaciones (grupos
numerosos) como muestras (subconjuntos de las poblaciones).

Mientras que la estadística inferencial se encarga de estudiar muestras a partir de las cuales busca llegar a conclusiones
sobre la población general.

Otra diferencia entre estos dos tipos de estadística radica en que la estadística descriptiva únicamente se centra en la
descripción de los datos obtenidos, sin asumir que estos tengan ninguna propiedad relevante.

Ésta no va más allá de lo que los mismos datos obtenidos puedan señalar. Por su parte, la estadística inferencial cree
que todos los datos derivados de cualquier análisis estadístico dependen de fenómenos externos y aleatorios que pueden
alterar su valor.

FUENTE: https://www.lifeder.com/estadistica-descriptiva-inferencial/

Diversos testeos y pruebas sobre las regularidades empíricas y patrones de comportamiento de los datos. Inferencias
teóricas a partir de los datos.

Los supuestos de la investigación cuantitativa y cualitativa

El paradigma es la orientación general de una disciplina, que define el modo de orientarse y mirar aquello que la
propia disciplina ha definido como su contenido temático sustantivo. En ciencias sociales conviven diversos paradigmas,
que compiten en su modo de comprender sus disciplinas y problemas. Estos paradigmas tienen diferentes supuestos
ontológicos, epistemológicos, axiológicos y metodológicos, que dan cuenta del andamiaje que sustentará el desarrollo de
la investigación. Asimismo, los paradigmas en ciencias sociales aparecen asociados con determinadas metodologías: el

LODOL, ALDANA MELINA 25


SEMINARIO DE INVESTIGACION. UNIDAD 7

Positivismo y Post-positivismo son vinculados con las metodologías cuantitativas; mientras que al Constructivismo,
naturalista e interpretativo, se lo relaciona a las metodologías cualitativas (Creswell 1994; 1998; Denzin y Lincoln, 2005).

Cuadro 1.3

Características de los diferentes paradigmas de investigación social

Supuestos Paradigma Positivista/ Post- Paradigma Constructivista


positivista
(metodología cualitativa)
(metodología cuantitativa)

Ontológicos - La realidad es objetiva. - La realidad es subjetiva y


múltiple.
¿Cuál es la naturaleza
de la realidad?

Epistemológicos - Separación entre el investigador - El investigador está inmerso en


(sujeto) y el objeto de estudio. La el contexto de interacción que
¿Cuál es la relación
distancia frente a aquello que se desea investigar. Se asume que la
entre el investigador y
pretende investigar es vista como interacción entre ambos y la mutua
aquello que investiga?
condición necesaria para alcanzar un influencia son parte de la
conocimiento objetivo. investigación.

Axiológicos - El investigador busca desprenderse de - El investigador asume que sus


sus propios valores, de su orientación valores forman parte del proceso
¿Qué papel juegan los
político-ideológica, sus concepciones de conocimiento y reflexiona acerca
valores en la
acerca del bien y el mal, de lo justo y lo de ello (reflexividad).
investigación?
injusto, de lo que deseamos para
nosotros y los otros, etcétera.

Metodológicos - Utilización de la deducción en el - Conceptos y categorías


diseño y la inducción en el análisis. emergentes en forma inductiva a lo
¿Cuáles son los
largo de todo el proceso de
procedimientos que se - Modelos de análisis causal.
investigación.
utilizan para construir la
- Operacionalización de conceptos
evidencia empírica, y - Múltiples factores se influencian
teóricos en términos de variables,
cómo se relacionan mutuamente.
dimensiones e indicadores y sus
lógicamente con el resto
categorías. - Diseño flexible e interactivo.
de las etapas del
diseño? - Utilización de técnicas estadísticas. - Se privilegia el análisis en
profundidad y en detalle en relación
- Fuerte papel de la teoría en el diseño
al contexto.
del estudio.

LODOL, ALDANA MELINA 26


SEMINARIO DE INVESTIGACION. UNIDAD 7

- Generalizaciones en términos de - Confianza y autenticidad.


predictibilidad.

- Confiabilidad en los resultados a


partir de estrategias de validación
internas.

Los niveles de abstracción en la construcción de un marco teórico

El objetivo de investigación se deriva de nuestros razonamientos teóricos. A veces empezamos a pensar desde lo
empírico y armamos el anclaje teórico; otras veces podemos reflexionar desde las teorías más generales.Todos los
planteos teóricos son válidos. Sólo es conveniente reflexionar sobre ese vínculo teórico con el objetivo de investigación
(teoría sustantiva y general).

Regularidades empíricas en la investigación social

La regularidad empírica expresa una relación entre variables con un alto contenido observacional (menos abstractas).
Estas regularidades pueden formar parte del marco teórico de una investigación, o ser un hallazgo a partir del análisis de
los datos. A su vez, las regularidades resultantes de nuestra propia investigación pueden formar parte del sustento teórico
de futuros trabajos. Uno de los atributos principales de las regularidades es el testeo reiterado de estas con datos
cuantitativos. Las mismas expresan tendencias presentes en la sociedad analizada, como puede ser la regularidad: “a
mayor nivel educativo mayor participación económica femenina”. Esta regularidad en sí misma no nos dice mucho, ya que
la interpretación de los datos es siempre teórica. En el siguiente cuadro podemos observar las proposiciones teóricas más
abstractas que podrían explicar la regularidad antes mencionada.

LODOL, ALDANA MELINA 27


SEMINARIO DE INVESTIGACION. UNIDAD 7

La explicación de los datos a través del análisis uni, bi y multivariado. Lectura de cuadros.

ANALISIS UNIVARIADO: SUS ALCANCES Y FUNCIONES

El trabajo de análisis de los datos cuantitativos comienza necesariamente con el examen de la información de cada una
de las variables, lo que se denomina análisis univariado. Este consiste en la valoración de las variables que fueron
evaluadas y es el paso básico para cualquier análisis posterior.

El análisis univariado posee una función clave en el proceso general de análisis e interpretación de la información:
permite la evaluación preliminar de la calidad de los datos recolectados en el trabajo de campo, la selección de las variables
más adecuadas para pasar a otros análisis de mayor complejidad y la caracterización descriptiva de las variables del
estudio.

Pese a su importancia, la mayoría de los investigadores noveles tienden a pasarlo por alto, interesados por análisis más
complejos. Por otra parte, debe decirse que generalmente, la lectura y las manipulaciones procedimentales de los datos
que pueden realizarse en esta instancia son parte del trabajo de escritorio y por regla no se incluyen en el informe o
reporte de la investigación. En el caso de las tesis, se informan los procedimientos de transformación efectuados a los
datos de las variables principales del estudio sea en la sección metodológica o en un Anexo. En los demás formatos de
publicación científica, la información que se obtiene del análisis univariado apenas se menciona.

En definitiva, el análisis univariado es una tarea necesaria y relevante como primer paso del análisis cuantitativo, aunque
quede invisibilizado en la presentación y comunicación de los datos. Se debe enfatizar que el análisis univariado posee un
valor metodológico en sí mismo y no es solo un procedimiento que debe cumplimentarse para pasar a otras instancias
"más importantes" del análisis de la información.

A continuación se detallan las funciones metodológicas que tiene el análisis univariado.

LODOL, ALDANA MELINA 28


SEMINARIO DE INVESTIGACION. UNIDAD 7

* Determinar si se han producido errores en la carga de los datos El carácter mecánico y casi monótono que tiene la
carga de datos hace que muchas veces de modo involuntario se produzca errores. Cuando la base de datos es cargada por
diferentes personas o la cantidad de casos es muy elevada aumentan las probabilidades de la ocurrencia de errores. Cada
variable tiene un conjunto de valores posibles, los que deben ser contrastados con los valores que aparecen en la
distribución de frecuencias.

En definitiva, el análisis univariado es una forma de chequeo de la calidad de la información y contribuye en la función
correctiva de datos erróneos.

* Establecer si los datos relevados reúnen las condiciones básicas para poder avanzar en análisis posteriores. El análisis
de cada una de las variables incluidas en el estudio permite determinar lo que técnicamente se denomina variabilidad.

Variabilidad: en términos genéricos designa las variaciones observadas en los valores de una variable. En términos
estadísticos indica la dispersión de los datos en la escala de medición utilizada.

El término variabilidad se refiere al grado de dispersión de un conjunto de puntajes. Si todos los puntajes en una
distribución tienen el mismo o un valor similar, puede concluirse que la distribución tiene poca variabilidad. La variabilidad
es un atributo que puede determinarse para variables de cualquier tipo de nivel de medición, aunque como veremos
seguidamente con procedimientos diferentes.

Si en el análisis de una variable no se observa variabilidad, ésta debe ser descartada para análisis subsiguientes. Los datos
de una variable con escasa variabilidad deben llamar la atención de los investigadores en tanto revelan posibles errores
cometidos en las fases previas; estos pueden ser la resultante de una selección inadecuada de la muestra o de la escasa
sensibilidad del instrumento utilizado para generar respuestas variables (p.e. por la obviedad de la pregunta incluida en
un cuestionario o por la inclusión de un sistema inadecuado de respuestas precodificadas).

¿Por qué debe descartarse la información de una variable que muestra escasa variabilidad? En primer lugar, como
sugerimos anteriormente es probable que la falta de variabilidad denote problemas en la validez del instrumento utilizado
y, por lo tanto, la calidad de la información obtenida con él podría ser poco confiable. En segundo lugar, si encontramos
los datos concentrados en alguno de los valores posibles de la variable lo que no observamos son las variaciones que
supuestamente presenta el atributo del objeto de estudio que hemos examinado. Si los datos poseen una fuerte
concentración en algún punto de la escala es obvio que no nos servirán para poner a prueba posteriormente ninguna
hipótesis.

* Seleccionar las variables que ofrezcan buena información y que sean relevantes para continuar y profundizar análisis
posteriores.

Una vez que se ha determinado qué variables tienen variabilidad adecuada y cuáles no, se procede a descartar éstas
últimas y a preparar las primeras para futuros análisis. Borsotti (2006) sugiere que para el análisis se proceda examinando
primero las variables independientes, luego las intervinientes y finalmente la/s dependientes. Si las variables
independientes ofrecen variabilidad podrá proseguirse con un análisis que permita establecer la posible asociación o el
grado de influencia de éstas respecto a la/s demás variables. Si en la variable observada o dependiente encontramos que
la información posee la variabilidad necesaria luego podrá examinarse si existe alguna asociación con otras variables que
operan como causales, predictoras o independientes.

LODOL, ALDANA MELINA 29


SEMINARIO DE INVESTIGACION. UNIDAD 7

Una de las transformaciones más comunes consiste en la reducción de los valores de la variable en un procedimiento
que algunos autores también llaman de compactación de la variable. Mediante este procedimiento se generan datos
agregados que reducen la cantidad de valores a un rango mucho más reducido. Pueden compactarse variables ordinales
y continuas. No obstante, la compactación genera una pérdida de precisión en los datos.

* Describir las variables principales de la investigación El análisis univariado permite la caracterización de las variables
centrales del estudio, información que en algunos tipos de investigación es básica para la descripción general de los sujetos
estudiados. La descripción de las variables principales es lo único que luego se incluirá en la comunicación de los
resultados.

RECURSOS PARA EL ANALISIS UNIVARIADO

Como se ha señalado previamente, lo propio del análisis univariado es el examen de todas las variables que fueron
relevadas en la investigación y que ya fueran ordenadas y preparadas para su lectura a través de la aplicación de ciertas
técnicas estadísticas básicas.

Debe recordarse que cada nivel de medición posee propiedades aritméticas diferentes lo que posibilita disponer de
técnicas de análisis de diferente calidad estadística. Las propiedades aritméticas de los diferentes niveles de medición son
inclusivas de los niveles precedentes, por lo que las variables de razón además de poseer las propiedades estadísticas
propias de ese nivel de medición incluyen las propiedades de las escalas intervalares, ordinales y nominales.

Al final de la sección se ofrece un cuadro en el que los lectores pueden identificar otros recursos de análisis para ser
aplicados a variables intervalares y de razón.

1. LA DISTRIBUCION DE FRECUENCIAS

La base del análisis univariado es la distribución de frecuencias, es decir la cantidad de respuestas encontradas para cada
uno de los valores de la variable estudiada. De acuerdo al nivel de medición de las variables, el tamaño de la muestra que
se ha tomado y la forma en que se ha cargado la información en la base de datos, el investigador debe encontrar el modo
más apropiado de obtener la información para el examen univariado.

En general, los estudiantes e investigadores noveles poseen interés en lo que llaman "la cantidad de casos" que
respondieron información de su interés (y en el sentido que ellos esperan que respondan). Ese interés debe ser
capitalizado por los orientadores, consejeros y profesores para que aprendan a hacerse un panorama general de la
información obtenida en el trabajo de campo.

Para ese aprendizaje es fundamental comprender algunas cuestiones básicas de la distribución de frecuencias y conocer
algunos procedimientos generales de preparación de esa información para que sea útil a los fines analíticos. En lo que
sigue se exponen los procedimientos más sencillos que, por obvios, muchas veces no son enseñados sistemáticamente.

 Distribución de frecuencias absoluta. Indica la cantidad de casos observados o evaluados (en términos
metodológicos) registrados en cada uno de los valores o categorías de las variables bajo estudio. Cuando se trata de
variables nominales y ordinales se presenta la cantidad de casos que corresponde a cada valor de la variable. En el caso
de las variables intervalares y de razón que poseen muchos valores posibles (suponga la evaluación del año de nacimiento
de los habitantes de una gran ciudad) la información sobre la distribución de frecuencias absoluta se presenta a través de
datos agregados y se apela a las medidas de tendencia central y de variabilidad. En general, para los lectores es difícil

LODOL, ALDANA MELINA 30


SEMINARIO DE INVESTIGACION. UNIDAD 7

retener información expresada en valores absolutos y más aún cuando se trata de números de varios dígitos, por ello se
suelen transformar los valores absolutos a través del cálculo de las frecuencias relativas.
 Distribución de frecuencias relativas (porcentajes) Se basa en la transformación de las frecuencias absolutas a un
conjunto de valores que permiten comprender con mayor facilidad la información. La operación estadística que se efectúa
es el cálculo de proporciones o porcentajes de cada uno de los valores de la variable, tomando como base de cálculo la
cantidad de casos que constituyen la población del estudio. Los porcentajes son útiles en tanto poseen una función
simplificadora de la información ya que son más fáciles de interpretar que los valores absolutos. En ese sentido, ayudan a
descubrir las diferencias entre las distintas categorías o valores de una variable a través de la comparación de sus
proporciones y a esclarecer ciertas relaciones entre números absolutos o entre proporciones. También son un recurso de
mucha utilidad en el campo de la investigación empírica en tanto permiten comparar resultados provenientes de bases
diferentes.
 Distribución de frecuencias acumuladas (absolutas y relativas): Una forma rápida de analizar la información
descriptiva de cada variable es la observación de las frecuencias acumuladas, sea en números absolutos o en valores
relativos. Como su nombre lo indica este procedimiento consiste en ir acumulando a través de la suma, los valores
absolutos o los porcentajes obtenidos para cada valor de la variable. ¿Cuál es la utilidad de las frecuencias acumuladas?
Permiten tomar decisiones para las operaciones de compactación o reducción de los valores de una variable en tanto nos
informan acerca de la cantidad de casos o el porcentaje de respuestas que pueden ser integrados en agrupamientos más
amplios. Además, si interesa formar grupos de comparación ex post facto, las frecuencias acumuladas nos permiten
reagrupar la información en rangos aproximados de partición.

ALGUNOS INTERROGANTES EN EL USO DE PORCENTAJES PARA EL ANALISIS UNIVARIADO

¿Cómo se computan las respuestas de casos perdidos en el cálculo de porcentajes para el análisis univariado? Uno de
los problemas muy comunes en el análisis de datos cuantitativos, especialmente aquellos provenientes de encuestas es
el tratamiento de los datos correspondientes a las categorías no sabe y no responde. En el caso de los cuestionarios
autoadministrados, el problema es mayor cuando el investigador se encuentra con que algunos sujetos no han respondido
nada, es decir que el ítem evaluado está en blanco.

Frente a esas situaciones ¿Cómo debe procederse en el análisis de las frecuencias relativas para cada variable? La regla
básica es que en el análisis univariado deben incluirse todas las frecuencias observadas. Es decir que además de la
información sobre cada categoría o valor de la variable, deben considerarse las respuestas en blanco y las respuestas al
ítem que suele incluirse en las encuestas de no sabe/no contesta. Por ello, la base de cálculo de la variable coincidirá con
el total de casos de la población o de la muestra de la que se han obtenido los datos, independientemente de cuantos
hayan respondido a la demanda de información de cada variable.

¿Por qué es importante esta información? Desde la función evaluativa de la información que es propia del análisis
univariado, la detección del nivel de respuesta a una variable es en sí mismo un dato relevante para la investigación.
Debemos recordar aquí que la forma de preguntar, la pertinencia de la indagación o el nivel de involucramiento personal
implicado en la respuesta, hacen que los sujetos respondan de un modo u otro, o no respondan.

La proporción de casos sin respuesta es un dato que el investigador debe considerar en tanto pone en cuestión la validez
del instrumento utilizado y, por lo tanto, obliga a tener ciertos recaudos posteriores en el análisis de la información
obtenida. Cuando la pérdida de información en una variable es importante, el investigador debe tener muy buenos
argumentos para incluirla en análisis subsiguientes ya que la información que va a utilizar puede estar sesgada. Asimismo,

LODOL, ALDANA MELINA 31


SEMINARIO DE INVESTIGACION. UNIDAD 7

está obligado a hacer un análisis de las principales características de los casos perdidos a fin de ponderar los posibles
sesgos que encuentra en la información.

¿Cómo se calculan los porcentajes en el caso de respuestas múltiples? Cuando en una investigación se permite que los
sujetos seleccionen varias alternativas de respuesta a una misma pregunta, suele plantearse el dilema de cómo debe
efectuarse el cálculo de proporciones ya que puede haber dos bases de cálculo diferentes. Por un lado pueden tomarse
los casos estudiados y por otro la cantidad de respuestas dada al estímulo.

¿Cómo se presenta la información expresada en porcentajes? Cuando se utilizan las calculadoras electrónicas para el
cálculo de porcentajes se obtiene una cifra que contiene más de veinte números decimales. Si como hemos dicho
previamente, la justificación de este recurso matemático es que su utilización permite simplificar la lectura y comprensión
de la información, el investigador debe decidir cuantos decimales incluirá. La primera regla que debe atenderse es: respete
los usos propios del campo disciplinar respecto a la inclusión de decimales.

LA PRESENTACIÓN DE LOS DATOS DE UNA DISTRIBUCIÓN DE FRECUENCIAS.

En estudios exploratorios y descriptivos es común presentar la información sobre cada una de las variables a fin de
caracterizar los principales atributos del objeto de estudio. Una de las decisiones problemáticas que suele plantearse a los
investigadores noveles es cómo presentar la información. La utilización de recursos informáticos facilita la elaboración de
cuadros, tablas y gráficos ofreciendo al investigador varias posibilidades diferentes. Generalmente la lógica que predomina
en este proceso decisorio suele estar orientado por criterios estéticos (que se vea bonito), por el supuesto de que se debe
presentar la misma información bajo diferentes formatos a fin de darle más entidad al trabajo y muchas veces por la
creencia de que el valor de un informe radica en su extensión por lo que para llenar páginas se incluyen cuadros y gráficas
cuyo contenido suele reproducirse en el análisis posterior.

1) La presentación de la información debe estar guiada por los siguientes criterios:

 Economía: sólo se debe incluir alguno de los formatos de presentación ya que la información que contiene una tabla o
un gráfico son equivalentes. La redundancia de datos agobia al lector y muchas veces es un obstáculo para la comprensión.
Si la información es sencilla y puede ser descrita en un párrafo no es necesario exponer una tabla o un gráfico.

 Claridad: la información debe ser presentada de modo tal que permita una rápida comprensión de los datos y de su
significado.

 Relevancia: se deben presentar solamente aquellos datos considerados relevantes para los propósitos y objetivos del
estudio y que tengan una directa relación con la sección en la que se exponen.

2) Cuando los datos que se presentan han sido obtenidos de una muestra no deben presentarse los valores de las
frecuencias absolutas. La tabla se arma entonces con los porcentajes que representan los valores de cada categoría y en
la línea de los totales de columna se agrega entre paréntesis la frecuencia de casos que se ha utilizado como base de
cálculo.
3) Si por alguna razón de interés se quisieran incorporar las cifras de las frecuencias absolutas y de los porcentajes
se recomienda la utilización de elementos paratextuales que permitan diferenciar la naturaleza de cada uno de los datos.

OTROS RECURSOS PARA EL ANALISIS UNIVARIADO

LODOL, ALDANA MELINA 32


SEMINARIO DE INVESTIGACION. UNIDAD 7

Como se ha señalado previamente, el análisis de cada variable debe efectuarse cualquiera sea su nivel de medición. Sin
embargo, dado que cada nivel de medición posee propiedades aritméticas diferentes el investigador debe aplicar la
técnica de análisis adecuada. En este apartado se presentan los recursos analíticos más utilizados en la investigación,
ordenados según el nivel de medición de las variables. Dada la naturaleza de este libro de texto, no se indican los
fundamentos estadísticos, ni los procedimientos de análisis propios de cada técnica. No obstante es necesario que antes
de iniciar cualquier proceso de análisis de datos el investigador tenga claro cuál es el nivel de medición de cada una de las
variables relevadas para poder seleccionar la herramienta de análisis más apropiada y, si es necesario, pueda solicitar
ayuda y consejo a otros investigadores, tutores o profesores de estadística acerca de su utilización. Así como existen
recursos que ofrece la estadística, también las diferentes representaciones gráficas permiten tener una rápida visión de
la distribución de un conjunto de datos.

EL ANALISIS BIVARIADO: SUS ALCANCES Y FUNCIONES

Una vez que conocemos el potencial analítico de cada una de las variables podemos iniciar otra etapa conocida como
análisis bivariado. Como su nombre lo indica, se trata de descubrir y describir las relaciones entre dos variables.

La mayor parte de las investigaciones pretende describir los aspectos más relevantes de los fenómenos bajo estudio.
Todo tipo de fenómenos que podemos abordar como objeto de conocimiento no es unidimensional, sino que posee una
variedad de atributos que los constituyen como tal. Por ello, el trabajo científico busca dar cuenta de la
multidimensionalidad de los fenómenos a través del estudio de las relaciones y covariaciones que se producen entre
diferentes variables.

El análisis bivariado cumple varias funciones en el análisis de datos científicos. Como en todos los tipos de análisis de
información numérica, las posibilidades del análisis bivariado están en estrecha relación con el nivel de medición de los
datos. En principio, se pueden comparar dos variables que tengan diferentes niveles de medición, aunque la introducción
de variables de tipo nominal y ordinal limita la posibilidad de utilizar herramientas estadísticas más avanzadas. De hecho,
en el campo de la estadística se encuentran numerosos procedimientos que contribuyen al logro de diferentes objetivos
analíticos de relaciones entre variables, los cuales pueden consultarse en los manuales especializados.

El concepto metodológico relaciones entre variables no debe limitarse a la noción de causalidad. En otras palabras, el
análisis bivariado no es sólo para establecer relaciones de causa-efecto entre dos variables ya que para poder sustentar
ese tipo de análisis se requieren datos de nivel intervalar o de razón y la aplicación de técnicas estadísticas avanzadas en
un marco de supuestos y condiciones metodológicas muy exigentes propias de los diseños experimentales. Para
comprender las diferentes posibilidades del análisis bivariado es necesario comprender que la noción relaciones entre
variables incluye formas de covariación, de asociación y de causalidad entre ellas.

El término covariación sugiere que puestas en relación dos variables se va a observar que cuando se modifica el valor de
una variable se van a observar variaciones en la segunda. En otras palabras, se habla de covariación cuando conociendo
la distribución de los valores de una variable en un grupo o población se observa una distribución u ordenamiento similar
de los datos en otra variable.

El término asociación alude a la presencia de una relación estadísticamente significativa entre dos variables. La
asociación es conocida en términos estadísticos como correlación, para cuyo análisis se cuenta con numerosas técnicas
que se engloban en la denominación métodos correlacionales. Estos son utilizados para determinar el grado de relación
entre dos variables en un mismo grupo o poblaciones. En un análisis de correlaciones sólo es posible establecer en qué

LODOL, ALDANA MELINA 33


SEMINARIO DE INVESTIGACION. UNIDAD 7

medida dos variables pueden estar relacionadas, especialmente a través de la determinación de la fuerza de esa relación.
De acuerdo al nivel de medición de las variables que se pretende relacionar, el investigador cuenta con diferentes técnicas
estadísticas para el análisis de correlaciones. En general, estas medidas permiten establecer tanto la dirección de la
relación como la intensidad o fuerza de la asociación. Lo que de ninguna manera permiten es inferir por qué existe la
relación entre variables o afirmar una relación de causalidad entre ellas. El análisis de correlación nos permite saber que
la variable A y B están relacionadas, cual es la dirección y la intensidad de la asociación, pero no podremos afirmar que A
es la causa de B, ni B de A. Puede ser que la relación encontrada obedezca a la presencia de otra variable C.

Significatividad estadística: se refiere a que la relación entre las variables estudiadas no ocurre por casualidad o por
una combinación azarosa de los datos, sirio que estos expresan una relación "real".

El concepto de causalidad se utiliza para designar fenómenos de interacción de causa-efecto entre dos variables. La
causalidad puede considerarse como un cambio de sentido en una variable al ponerse en relación con otra. Como
señalamos anteriormente, para establecer la causalidad entre dos variables son necesarias una serie de condiciones, entre
ellas:

a) Que la variable causal o independiente ocurra o se presente antes que las variables explicadas (dependientes e
intervinientes).

b) Que se pueda establecer fehacientemente que el efecto ha sido producido por los factores causales y que no hayan
intervenido otros.

c) Que exista una relación estadísticamente significativa entre las variables estudiadas.

d) Que el diseño del estudio sea de tipo experimental, ya que son los únicos que permiten hacer inferencias sobre
causalidad.

El análisis de relaciones causales permite explicar no sólo cuál es la variable que "produce" transformaciones sobre otra,
sino también determinar la magnitud del cambio. La magnitud hace referencia a la posibilidad de predecir que el cambio
en una unidad de medida en la variable causal va a producir una X transformación en los valores de la variable
dependiente.

Funciones del análisis bivariado:

 Describir conjuntamente los datos de dos variables.


 Determinar la relación entre dos variables.
 Establecer la magnitud de la relación entre las variables examinadas.
 Analizar las relaciones entre varios atributos de una población muestral.
 Comparar el comportamiento de diferentes grupos frente a la presencia de una misma variable.
 Seleccionar variables que muestren relaciones significativas para efectuar otros análisis o ponerlas a prueba en
un experimento.

ACERCA DEL USO DE PORCENTAJES PARA EL ANALISIS DE RELACIONES.

Uno de los recursos analíticos más utilizados en la investigación emprendida por investigadores noveles es la utilización
de tablas de contingencia. Estas consisten en un cuadro que "relaciona dos o más factores entre sí" generalmente a través
del cálculo de porcentajes. Pese a que en la mayoría de los cursos de estadística universitaria se enseña a los estudiantes
LODOL, ALDANA MELINA 34
SEMINARIO DE INVESTIGACION. UNIDAD 7

otras técnicas estadísticas más refinadas para el análisis de relaciones entre variables, hay un claro predominio del uso de
las tablas de contingencia. En lo que sigue se desarrollan algunos criterios para la construcción y lectura de la información
obtenida a partir de esta técnica de análisis.

¿CÓMO SE CONSTRUYE UNA TABLA DE CONTINGENCIA?

En principio debemos decir que una tabla de contingencia no es otra cosa que un cuadro de doble entrada que contiene
la información sobre dos o más variables (para el análisis bivariado o multivariado, respectivamente) en la que se registran
las frecuencias absolutas de casos que presentan la misma combinación de atributos. Una vez que se obtienen las
frecuencias absolutas se efectúa el cálculo de las proporciones o porcentajes que informarán acerca de lo que representan
los valores de cada una de las celdas.

Variable dependiente: es la que se trata de explicar y se supone influida por otro factor o combinación de factores, o
que depende de él o es explicada por él. Sus categorías se indican en las filas del talón principal (Benson, 15).

Variable independiente: es el factor con el que se trata de explicar la variación de la variable dependiente. Sus categorías
se indican en las columnas.

Al elaborar tablas bivariadas la convención aceptada consiste en indicar la variable dependiente en las filas y la variable
independiente en las columnas. Luego se calculan los porcentajes para cada columna y se interpreta horizontalmente a lo
largo de las filas. La combinación de las categorías o valores de ambas variables se expresan en las celdas. Siempre una
tabla bivariada debe informar los totales de la columna, denominados marginales de columna. Por el contrario, los totales
de las filas -indicados en los marginales de fila- generalmente no se incluyen en el cuadro, a excepción de aquellos
destinados a la presentación general de la/s variable/s dependiente/s.

Una tabla-de contingencia es una herramienta para el análisis de datos cuantitativos que puede fundamentarse apelando
al concepto propuesto por Lazarsfeld (1984) de espacio de propiedades. Este autor propone que se considere la
disposición en un cuadro de individuos u objetos como un proceso similar a la localización de puntos en un espacio, es
decir que la tabla podría equipararse a una gráfica de dispersión en la que se distribuyen los valores de una población en
un plano delimitado por los valores posibles de la variable. El espacio de propiedades puede ser unidimensional,
bidimensional o multidimensional, según contenga información relativa a una variable, a dos variables o a más de dos
variables.

La noción de espacio de propiedades es útil para comprender que las representaciones gráficas no son otra cosa que
traducciones geométricas de los puntos aritméticos contenidos en los datos. Benson sostiene que "cada atributo o
propiedad que se ha de tabular exige una dimensión propia: cualquier variable o propiedad puede considerarse como un
eje en una graficación de n dimensiones. La colocación del individuo u objeto sobre ese eje se realiza situándolo en una
de las categorías, con escala o sin ella, en que el investigador haya dividido los datos vinculados con esa variable". Dicho
de otro modo, el espacio de propiedades se establece por el trazado de coordenadas, cada una de las cuales representa
una variable. Sobre el eje horizontal se representa la variable independiente mientras que en el vertical se colocan las
categorías de la variable dependiente. En el espacio gráfico definido por la intersección de ambas variables (si hablamos
de análisis bivariado) es posible distribuir todos los datos respectivos a ellas.

En otras palabras, un cuadro se define por una determinada cantidad de espacios, que resultan de la combinatoria de
valores de las diferentes categorías que se ponen en relación. Desde esa perspectiva, la información sobre cada uno de

LODOL, ALDANA MELINA 35


SEMINARIO DE INVESTIGACION. UNIDAD 7

los sujetos u objetos que hayan sido evaluados o medidos tiene que poder incluirse en alguna de las celdas del cuadro. La
cantidad de casos que quedan en cada una de las celdas representa la frecuencia con que en la población muestral se han
encontrado sujetos u objetos que poseen las mismas combinatorias entre las diferentes categorías de las variables
analizadas conjuntamente.

El espacio de propiedades de un cuadro se define por la multiplicación de las categorías de cada una de las variables que
se desea poner en relación. Dicho de otro modo, el espacio de propiedades revela las posibilidades de partición que tienen
los datos de una población muestral cuando se analizan conjuntamente dos o más variables. Mientras más celdas tiene
un cuadro, mayor deberá ser el tamaño de la muestra

PAUTAS PARA LA ELABORACION DE TABLAS BIVARIADAS.

La elaboración de un cuadro tiene como fin primordial transmitir información sobre un proceso o relación. Un cuadro
tiene que brindar la mayor cantidad posible de información de modo sintético, a la vez que expresa la organización
dispuesta por el autor en un ordenamiento significativo de los datos reunidos en el trabajo de campo.

En el apartado anterior se subrayó el carácter intencional que posee la construcción de un cuadro en tanto que obedece
a la intención del investigador de describir y mostrar las relaciones entre las variables que estudia orientado por unos
objetivos que guían el análisis. El cuadro es una herramienta para el análisis y, por lo tanto, su elaboración es necesaria
para poder interpretar los datos. Pero también, un cuadro es una herramienta que facilita la presentación y comunicación
de la información obtenida en el trabajo de campo y, por lo tanto, la mayor parte de las investigaciones empíricas incluyen
cuadros o tablas que cumplen una función de presentación de los datos a los potenciales lectores. Por diferentes motivos,
no todos los cuadros que se construyen en la fase de análisis e interpretación se incluyen luego en un escrito científico.

Atendiendo a ambos fines, se pueden aportar una serie de convenciones que deben respetarse cuando se elabora un
cuadro o tabla de contingencia. En primer lugar, hay que diferenciar entre el cuerpo de la tabla (que contiene la
información en sí misma tal como se ha mostrado en el apartado anterior) y los elementos de presentación (que
contribuyen a la interpretación del contenido del cuadro).

Elementos de presentación del cuadro: cualquier cuadro que se presente en un escrito debe contar con un conjunto de
elementos que ofrecen información que contribuye a esclarecer el significado de los datos; alertar sobre aspectos
procedimentales o de manipulación de la información; indicar las fuentes de información utilizadas, etc. Entre los
elementos de presentación se destacan como necesarios:

 Número del cuadro: debe identificarse de modo unívoco cada cuadro, sea mediante un número sólo o en combinación
con el del capítulo. El número correlativo facilita la búsqueda en el índice de cuadros que debe elaborarse luego. En el
caso de tesis o informes puede numerarse él cuadro de la siguiente manera: el primer número indica el capítulo en el que
se inserta el cuadro y el segundo número (separado por un punto) designa el orden correlativo del cuadro en ese capítulo.
(Ej. Cuadro 2.3., el primer número indica que ese cuadro pertenece al capítulo 2 y el segundo número indica que es el
tercero que se incluye en el mismo).

 Título del cuadro: el título es la clave principal para entender el contenido de un cuadro. El lector debe comprender el
título sin tener que recurrir al texto. En la redacción del título es preferible que se mencione en primer lugar la variable
dependiente y luego la independiente o causal. De ese modo, en la presentación de cuadros relacionados entre sí podrán
exponerse las relaciones entre la variable dependiente y diferentes variables causales. Si el cuadro presenta más de una

LODOL, ALDANA MELINA 36


SEMINARIO DE INVESTIGACION. UNIDAD 7

variable causal, los autores sugieren, por razones de estilo, enumerarlas en orden inverso al de su aparición en el cuadro.
En ese caso, la redacción del título debe enlazar la variable dependiente con la independiente mediante la preposición
por y a esta con la siguiente variable independiente a través de la preposición según.

 Notas al pie del cuadro: se utilizan para ofrecer al lector información adicional referida a aspectos particulares del
cuadro, tales como detalles sobre la categorización de las variables, el muestreo, el método y las unidades de medición
utilizadas o alguna indicación que facilite la comprensión de la información. Las notas al pie del cuadro sólo se justifican
en aquellos casos en que esa información sea necesaria para efectuar un adecuado análisis de ella. Estas notas al pie del
cuadro se deben escribir en un tipo de letra inferior al utilizado en el cuerpo de la tabla y se anotan debajo de ésta, nunca
dentro de ella. Si se realizan varias notas al pie del cuadro, cada una de ellas debe ir precedida por una letra (subíndice)
que también se debe incluir en el cuerpo del cuadro.

¿CÓMO SE ANALIZA E INTERPRETA LA INFORMACIÓN DE UNA TABLA BIVARIADA?

La regla habitual consiste en calcular los porcentajes en la dirección del factor explicativo o sea de la que se considera
variable independiente o causal. En cambio, la lectura de los datos contenidos en una tabla debe realizarse en forma
horizontal, es decir en la dirección de las filas.

El analista de una tabla tiene que comenzar con la lectura de los marginales de fila y de columnas, ya que esos serán los
valores de referencia en tanto indican las frecuencias absolutas y relativas que tiene en una población muestral cada uno
de los valores de las variables relacionadas.

La lectura de las celdas que componen el cuerpo de la tabla debe realizarse en forma horizontal, es decir comparando
los datos que aparecen en la fila. La comparación horizontal permite determinar la presencia o no de variaciones de interés
entre los datos que fueron ordenados en cada columna. Si los porcentajes en la fila no presentan variaciones entre sí se
puede establecer que esa categoría de la variable dependiente. no muestra cambios cuando es tabulada en relación a la
variable independiente. Si los datos de la fila muestran un gradiente en el que las proporciones aumentan o disminuyen
sucesivamente a través de las columnas, puede inferirse una posible asociación entre las variables estudiadas. Los datos
del marginal de fila sirven como valor de comparación ya que ellos muestran como es la distribución de los valores de la
variable dependiente para el total de la población. Si se compara el valor del marginal con los valores de la fila y se observa
que estos últimos son similares (con una variación porcentual de no más de 5 puntos) al del marginal, se puede establecer
que la variable independiente no produce covariación sobre la dependiente. Por el contrario, si la diferencia entre el
marginal y las columnas presentan diferencias y estas entre sí, se puede afirmar la presencia de una tendencia que muestra
que ambas variables están relacionadas.

De la literatura metodológica puede extraerse dos claves que ayudan a revisar rápidamente la información de una tabla
bivariada. Cuando la tabla pone en relación variables dicotómicas (tablas 2 x 2) que tienen indicios de relación, se
encontrará que las celdas que aparecen en diagonal presentan valores similares cuyas proporciones se diferencian en
sentido inverso a los datos que aparecen en la otra diagonal.

Cuando se analiza una tabla bivariada que incluye variables no dicotómicas (2x3 o 2x4 o 3x3 o 6x5) se trata de establecer
si se presenta un gradiente en los datos de las filas y luego se debe comparar las variaciones entre las filas a fin de
establecer la dirección de la relación.

LODOL, ALDANA MELINA 37


SEMINARIO DE INVESTIGACION. UNIDAD 7

Pese a que las tablas de contingencia son útiles para establecer la presencia de relaciones entre variables y que las claves
de lectura que hemos ofrecido son útiles, se debe advertir que esta herramienta de análisis por sí misma no ofrece
garantías respecto a la comprobación de relaciones o la intensidad de la asociación de variables, sino que para ello se
tienen que utilizar otros recursos estadísticos. Las tablas de contingencia ayudan a comprender la tendencia de las
relaciones entre variables y la posibilidad de que entre ellas exista alguna forma de covariación o asociación. Si bien son
sumamente útiles en los estudios exploratorios, descriptivos y correlacionales, su utilización como herramienta de análisis
requiere mesura en la interpretación de la información que ofrece.

Los investigadores cuentan con los recursos de numerosas técnicas estadísticas para el análisis de relaciones, según el
nivel de medición de las variables que desean poner en relación. El siguiente cuadro ofrece una descripción sumaria de
ellas.

REDACCIÓN DE LOS RESULTADOS OBSERVADOS EN UNA TABLA

Los datos no sólo deben ser presentados en forma de tablas o gráficos, sino que deben ser descritos por el investigador.
No todos los datos que se obtienen en una investigación son sometidos a algún tratamiento analítico, ni todos los datos
que se analizan son incluidos en los informes de investigación. Por ello, la descripción de los resultados de las tablas debe
ser pertinente y responder a los propósitos informativos que el investigador propone para cada sección que conforma la
estructura del informe o de la tesis.

La presentación y exposición de los datos de una investigación debe responder a una secuencia expositiva que permita
a los lectores comprender cual es el sentido de una tabla en el contexto discursivo en que lo incluye. Esa secuencia requiere
ser establecida en función de los objetivos generales y específicos planteados, por lo que en la presentación debe quedar
explicitada la relación entre la información descrita y el objetivo respectivo.

El lector debe comprender las razones por las que el investigador ha incluido las tablas en determinadas partes del texto,
es decir debe ofrecérsele información contextual que ayude a comprender el sentido y alcance de los datos en el marco
de la exposición del informe de investigación. En este sentido, pueden plantearse dos preguntas que hay que esclarecerle
al lector potencial: ¿Por qué se elaboró el cuadro que se está presentando? ¿Qué motivos hay para incluirlo en esa parte
del texto? El investigador debe considerar estas preguntas para conducir la exposición de los datos de un modo claro y
sistemático.

Al lector también le interesará conocer qué representan los datos que se presentan en las tablas, para lo cual el
investigador debe explicitar el significado obvio (que pueden visualizarse en una lectura atenta de los datos) y el significado
intrínseco que poseen desde los supuestos teóricos asumidos por el estudio. Para la descripción de los datos contenidos
en la tabla se eligen aquellos más significativos para que el texto expositivo no sea redundante a nivel informativo. De
igual manera, si en el informe se incluye una tabla, no se incluye la representación gráfica de la misma información.

No se debe repetir la información del cuadro, sino que debe recuperarse la información significativa que puede ser
presentada apelando a algunos recursos narrativos tales como:

 Indicar la tendencia general que sugieren los datos. Recuerde que el análisis se focaliza sobre la variable dependiente
y por lo tanto tiene que describirse cual es su comportamiento cuando se la pone en relación con otras variables.

 Efectuar comparaciones entre las categorías sin repetir los porcentajes. Para ello puede utilizarse proporciones
equivalentes que ilustran al lector y hacen más fluida la lectura. Decir que dos de cada diez estudiantes opina que la

LODOL, ALDANA MELINA 38


SEMINARIO DE INVESTIGACION. UNIDAD 7

educación recibida en la escuela a la que asistieron es regular, es equivalente a afirmar que la quinta parte de los
encuestados calificó como regular la educación recibida en la institución a la que asiste. Ambos enunciados se basan en el
20 % de estudiantes de la muestra que eligió la opción regular en la pregunta respectiva.

 Cuando se efectúan comparaciones entre datos dispuestos en columnas diferentes se deben respetar dos reglas:

 El enunciado debe expresarse siempre en porcentajes o relaciones. En la lectura y descripción de un cuadro no se


vuelve a los valores absolutos.

 El enunciado debe expresarse con los mismos términos que se hayan utilizado en los títulos de las columnas.

 También tienen que enunciarse aquellos datos que resultan llamativos o disonantes en relación con la tendencia
general encontrada, ya que será necesario luego encontrar explicaciones adecuadas para ellos a través de hipótesis ad
hoc.

 Es conveniente que luego de la descripción de los datos se formulen sintéticamente una serie de conclusiones parciales
en las que el investigador orienta al lector respecto al significado de esa información en el contexto de su estudio. Estas
conclusiones parciales no deben ser un resumen de la descripción, como muchas veces ocurre, sino que se trata de breves
interpretaciones que ayudan a esclarecer el significado de los datos.

La elaboración de un cuadro tiene como fin primordial transmitir información sobre un proceso o relación. Un cuadro
tiene que brindar la mayor cantidad posible de información de modo sintético, a la vez que expresa la organización
dispuesta por el autor en un ordenamiento significativo de los datos reunidos en el trabajo de campo.

La construcción de un cuadro obedece a la intención del investigador de describir y mostrar las relaciones entre las
variables que estudia orientado por unos objetivos que guian el análisis.

LODOL, ALDANA MELINA 39

También podría gustarte