Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Material de cátedra
Elaborado por la Dra. Roxana Ynoub.
UBA/UNMdP/UNNE
A los efectos de recordar el lugar que esta fase volvamos a ubicarlo en el diagrama que
describe el proceso total de una investigación:
Fase 1 |
Fase ideatoria Fase 2
Objetivos
Intuición a Fase analítica
conceptualización Operacionalización a
instrumentalización
Hipótesis de
trabajo
Conceptos Datos
Fase 3
Fase sintética
Tratamiento e
Interpretación
La denominamos fase sintética porque precisamente se consuman en ella todas las
actividades vinculadas a integrar los elementos teóricos (propios de la Fase 1) con los
componentes empíricos (provenientes de la Fase 2).
Kant, llamaba “sintética” a nuestra facultad de juzgar. Sostenía que cuando conocemos
algo, lo que hacemos es organizar de cierta manera lo que nos informan los sentidos. Esa
organización surgiría de las estructuras de nuestro intelecto, las que, según él, podían ser
reducidas a un conjunto de doce juicios/categorías1.
Algo semejante le ocurre a un juez (adviértase que precisamente lo que el juez hace es
¡juzgar!): su tarea consiste en “encuadrar el hecho a derecho”.
Su función, por lo tanto, será la de dar un veredicto, es decir, transformar en “cosa
juzgada” esos hechos, para hacerlos interpretables por el derecho (lo que permitirá, entre
otras cosas, dictaminar si hay culpables, estipular penas o sanciones, entre otras
cuestiones)2.
Son estas operaciones del juicio las que está comprometido en la Fase 3 del proceso.
1
A su turno, estas estructuras/categorías se derivarían de la estructura de la acción que
está apoyada en la misma sensibilidad: es decir, en nuestra experiencia espacio-
temporal. El tratamiento de este asunto excede los objetivos de este trabajo, por lo que
sólo lo mencionamos tangencialmente.
2
La gran diferencia entre el dominio de la experiencia jurídica, y el dominio de la
experiencia cognitiva que examina Kant, estriba en que el filósofo se ocupa de
identificar las grandes estructuras que organizan nuestro intelecto cualquiera sea el
contenido que las ocupe. Dicho de otro modo, Kant se ocupa de identificar aquellas
estructuras sin las cuales no podemos pensar (o tener) experiencias. Al menos
experiencias intersubjetivamente compartibles como las que gobiernan la cognición
epistémica. Es por eso que concibe a este examen como un examen trascendental, es
decir, un examen de las condiciones de posibilidad del conocimiento. Su propia
naturaleza trascendental hace que estos organizadores cognitivos se nos trasparenten,
no están ante nosotros como parte de nuestra experiencia, porque ellas sólo constituyen
las formas en que se estructura nuestra experiencia. En cambio, el jurista, tiene ante sí el
código, como asunto tematizado y tematizable cada vez que se aplica el derecho. Este
código puede ser discutido, revisado, modificado. De cualquier modo, el código jurídico
también funciona como condición de posibilidad para tener experiencias jurídicas, es
decir, para que ciertos hechos se constituyan en “hechos lícitos o ilícitos”.
En lo que sigue consideraremos con algún detalle cada uno de los componentes que
conforman esta fase como sus mutuas dependencias.
Para ubicar el alcance de las operaciones comprometidas en esta fase, interesa recordar
que todo objeto de investigación constituye un sistema complejo es decir un sistema
cuasi-descomponible en el que se distinguen –o pueden distinguirse- partes
componentes -o subsistemas constitutivos- y contextos –o supra-sistemas regulativos-.
Esquemáticamente esas dos fases y los supuestos implicados en cada una se podrían
expresarse de la siguiente manera:
con alta probabilidad los investigadores producirán información referente a las familias
de estos niños (eventualmente comparada con información proveniente de familias de
niños no desertores), información referida a los miembros familiares y a los niños
desertores, información referida al sistema escolar, etc.. El resultado de la investigación
no será (o deseablemente no se espera que sea) la compilación desagregada de toda la
información relevada; sino una síntesis que arroje algún nuevo saber sobre el objeto –
entendido como unidad de diversas determinaciones.
Con la metáfora de la compactación se evoca la tarea que tiene entre manos quién se
propone avanzar en la sistematización y síntesis de sus datos.
Como ya lo adelantamos, si en el paso de las hipótesis a la operacionalización se trata
de ir desde la unidad de síntesis a las unidades de análisis; en el tratamiento de los
datos el procedimiento involucrado es exactamente el inverso: desde las unidades de
análisis a las unidades de síntesis. Eso significa agregar, reducir la información
conforme a una lógica que la torne aprehensible de manera configurada y sintetizada –
iluminando aquellas relaciones y determinaciones que se pretendían explorar o probar
con la hipótesis.
Interesa señalar que Galtung propone un tercer criterio que llama Análisis combinado
pero del que no reconoce una lógica diferenciada, sino algo así como una
“combinatoria” de los otros dos:
“En este caso –señala- hay muchas posibilidades, pero realmente no existe
ninguna teoría general. (...) El análisis combinado vertical y horizontal puede
tomar muchas formas, según cómo se proceda. Por ejemplo, se puede elegir
comenzar con algún análisis horizontal, construyendo índices basados en
algunos conjuntos de variables. A partir de esto se puede hacer algún análisis
vertical, agregando los valores del índice como nuevas columnas a la matriz de
datos y combinándola con las otras variables, y así sucesivamente”. (op. cit. :
219).
Samaja, en cambio, avanza en un criterio formal para describir un tercer tipo de análisis
al incluir el concepto de nivel de integración y sistemas de matrices de datos. Este
tercer criterio lo define como centramiento en el valor (cfr. Samaja, J. op. cit.: Parte III y
IV) y lo presenta esquemáticamente de la siguiente manera:
3
Cfr. Samaja, J. (1993).
Este nuevo centramiento remite ya no sólo a la estructura de la matriz de datos, sino a la
relación entre matrices de distintos niveles de concreción: el nivel llamado “sub-
unitario” se refiere, precisamente, a la información que oficia de insumo o nutriente
para la construcción de las categorías que conforman las variables del nivel de anclaje
(es decir, el nivel considerado focal en un determinado momento del proceso de
investigación). El análisis centrado en el valor puede combinar –lógicamente- los
tratamientos “verticales” y “horizontales”, pero metodológicamente cumple una función
distinta a la del centramiento en la variable y la unidad de análisis respectivamente: se
refiere a la construcción de un sistema de clasificación o variable; tarea que implica el
tratamiento de los valores del nivel sub-unitario.
Teniendo presentes estos criterios examinaré en lo que sigue los fines o funciones que
persigue el tratamiento de datos en los distintos casos
VI.3.1. Tratamiento de datos desde la perspectiva funcional: fines a los que sirve
cada tipo de tratamiento.
La diferencia entre estas dos ramas de la estadística estriba en que en el primer caso, los
cálculos se destinan a caracterizar la muestra o población de la que se obtiene la
información empírica. En el segundo caso, en cambio, se trata de utilizar esa
información empírica para estimar o inferir –en base a teoría de probabilidades- valores
de una población o universo al que no se accede de modo directo. La estadística
inferencial permite estimar, por ejemplo, con qué probabilidad los valores obtenidos en
una muestra (aquellas medidas síntesis a las que nos referimos previamente),
representan, o se corresponden con un valor no conocido de una población de referencia
(a esto se lo llama “estimación de parámetros”). De igual modo, permite inferir si la
variación que presentan dos o más variables consideradas conjuntamente, resulta
probable o improbable. Es decir, permite estimar si su variación puede atribuirse al
mero azar, o por el contrario, parecen ser concomitantes, y por lo tanto puede
sospecharse que miden un mismo asunto o están determinándose de algún modo unas a
otras (esta es la base de lo que usualmente se conoce como “prueba de hipótesis”).
Una vez producido ese tratamiento la tarea consiste en interpretarla. Esto vale incluso en
aquellas investigaciones que se inscriben en el llamado paradigma cualitativo en el que
la construcción del dato, surge en el mismo momento en que es analizado. En ese caso,
se deben distinguir dos momentos “interpretativos” con funciones muy distintas. Por
una parte, lo que podríamos llamar “micro-interpretaciones” que van permitiendo
categorizar o clasificar la información (como cuando se “rotula” una frase o se le
adscribe una categoría interpretativa en el tratamiento de material discursivo o
equivalente). Otro momento corresponde al análisis e interpretación más integral, en la
que esos fragmentos previamente interpretados y transformados en dato, cobran nuevo
sentido en mapas, redes semánticas o cuadros más abarcativos, a partir de los cuales
emergen hipótesis de interpretación.
Si se señala con el dedo en una cierta dirección; ese gesto será efectivamente un signo si
la mirada no se detiene en el dedo y se dirige a la cosa señalada 4. Si en cambio, en vez
de dirigir la mirada a lo señalado se la dirige al dedo, “cae” la función de signo.
Lo mismo ocurre con los datos: el análisis de datos supone ir más allá de ellos
transformándolos en signos o material significante. Este más allá surge de las prácticas
disciplinarias y las tradiciones teóricas que iluminan dichos datos. Si al presentar los
datos “sólo se ven los datos” entonces han fracaso en su función.
4
El signo debe opacare y transparentarse al mismo tiempo: es decir, debe ser percibido
y debe no ser percibido simultáneamente para que cumpla su función de signo (cfr.
Recanati, 1981).
5
La pirámide de población es una representación gráfica de varias generaciones que
refleja los patrones de natalidad y mortalidad y el efecto de los procesos migratorios,
tanto pasados como presentes.
demográfico se pueden inferir un conjunto de otros atributos o características de esa
población.
1 2
Para un especialista estos gráficos tienen valor significante, es decir, ve allí “algo más”
y algo distinto a lo que ve un lego (que sólo se “informa” del número o el porcentaje de
población por edad y sexo). Estos gráficos le indican, por ejemplo, que la tasa de
fecundidad es elevada en el primer caso, estable en el segundo y baja en el tercero (en
este último podrá anticipar que no supera a los 2 hijos por mujer al final de la vida
fértil). Que en el primer caso tendrán seguramente un peso muy importante las
enfermedades infecto-contagiosas, mientras que en el tercero predominarán las
enfermedades degenerativas. Que con alta probabilidad el patrón distributivo de
ingresos es inequitativo en el primer caso, lo que se traduce en mayor pobreza,
intermedio en el segundo, y más equitativo en el tercero. Comparando gráficos como
estos pueden estimarse diferencias poblacionales (demográficas y sociales) entre
distintas unidades territoriales de un mismo país o una misma región. Se puede todavía
ir más lejos y hablar –como lo hace también la demografía- de transiciones
demográficas asociadas a grandes estadios en el desarrollo social (según ciclos de
desarrollo industrial, epidemológicos, etc.).
a) por una parte, de la “intertextualidad” que domine el analista de estos datos (sea
o no demógrafo/a de profesión).
De manera general podría enunciarse una ley general según la cual el análisis de datos
tiene como tarea invariante:
Así por ejemplo, una mera “distribución de frecuencias” sólo tiene sentido para el
analista –con interés científico- si está en condiciones de comparar esa distribución
(existente o dada) con algún modelo o patrón (ideado o inferido); para estimar hasta qué
punto ella coincide o no con lo esperado: es decir, para evaluar hasta qué punto la
diferencia que observa puede estimarse como contingente o necesaria desde la
perspectiva del asunto que investiga.
A modo de ejemplo, si se tienen tres unidades para un espacio con R=2, se obtienen
cuatro distribuciones posibles o particiones de tres en dos partes:
Distribuciones “posibles”
(de N en R)
R f1 f2 F3 f4
S 0 3 1 2
N 3 0 2 1
Supongamos que estas son distribuciones de “respuestas a un test” (N=3, es decir tres
casos de respuesta) con dos valores posibles (r1=”positivo” o r2=”negativo”); cada tipo
de distribución se debería leer entonces de la siguiente manera:
Ante una distribución empírica o dada (cualquiera de las cuatro), el analista deberá
juzgarla por referencia a las distribuciones lógicamente posibles, para evaluar luego si
se corresponde con lo esperado (conforme a algún modelo o hipótesis).
3 1 4 10 20 35 .
4 1 5 15 35 70 .
5 1 6 21 56 126 .
. .
. .
. .
10 1 92378
De igual modo ocurre con la estadística inferencial. Los resultados empíricos se deben
juzgar por referencia a su ubicación en el espacio que de una función continua de
probabilidades. Este espacio define el conjunto de posibilidades. Dicho de otro modo, el
valor que se ha obtenido empíricamente es “uno” entre un conjunto de posibles valores
que se podrían haber obtenido con una muestra aleatoria de tamaño “n” (los que
considerados conjuntamente constituyen la totalidad de ese espacio de probabilidades).
La decisión estadística depende de cómo se juzgue ese valor por referencia a los valores
posibles que podrían haberse obtenido, y cómo se defina la zona de alta o baja
probabilidad.
Ahora bien, el alcance de esa decisión, que tendrá consecuencias en lo que se llama
“significación estadística” no define ipso facto la “significación sustancial” de un dato.
Se requiere para ello juzgar esos resultados a la luz de un modelo, una teorización que le
confiera la significación disciplinaria específica. Y esta significación no se deriva nunca
de una mera aplicación técnica, sino de los modelos en el que ese hallazgo pueda ser
integrado.
Por lo demás, interesa señalar que estos principios no son privativos del análisis e
interpretación de datos cuantitativos. Podrían aplicarse de igual modo en aquellas
investigaciones de orientación interpretativa o hermeneútica.
Así, por ejemplo, cuando Sigmund Freud analiza “la técnica del chiste”, su estrategia
consiste en examinar lo “empíricamente dado” a la luz de lo “lógicamente posible” (o
esperable); para luego examinar en base a ello su carácter necesario en el marco de su
teoría interpretativa.
A los efectos de examinar la “técnica del chiste”, lo primero que propone es explicitar lo
que queda implícito en él, es decir, lo que hubiese sido esperable en el contexto del
discurso. Lo señala en los siguientes términos:
Al explicitar el contenido latente del chiste, Freud advierte que pierde así su efecto
cómico. Considera entonces que dicho efecto proviene de la forma del enunciado antes
que de su contenido.
“Es, pues, la nueva palabra una formación mixta de los dos componentes
«familiarmente» y «millonario» y podemos representar gráficamente su génesis
en la forma que sigue:
FAMILI ÄR
MILIONÄR
-----------------------------
FAMILIONÄR
Ahora bien, para que estos mecanismos adquieran carácter necesario, debe mostrar su
regularidad en el marco del fenómeno que se describe; deben iluminarse a partir de un
modelo de alcance más amplio.
Eso ocurre al menos de dos maneras en el desarrollo del trabajo de Freud. Por una parte,
una vez identificado el mecanismo en el análisis de un caso, se pregunta si ese
mecanismo puede hacerse extensivo a un conjunto más amplío de ejemplares
semejantes:
Conforme con ello, el alcance del análisis de datos estará fuertemente determinado por
el cuerpo conceptual o teórico que guía la investigación; del que emanan los modelos y
las hipótesis que iluminan las intepretaciones disponibles para el analista. Mientras que
éstas hunden sus raíces en los métodos pre y protocientíficos al que nos hemos referido
al tratar el tema de hipótesis: es decir, en sus intuiciones y representaciones
práxicamente pregnantes.
Analizando registros estadísticos Emilio Durkheim interpretó las tasas de suicidio como
expresión de distintos tipos de solidaridad social: la distinta propensión al suicidio
entre diferentes grupos religiosos, institucionales, familiares, etc. expresaría diferentes
formas de integración del individuo al grupo:
“La causa [del suicidio] no puede encontrarse más que en una propiedad que todos
estos grupos sociales tienen en común, aunque tal vez en diferentes grados. Ahora
bien, la única que satisface esta condición es la de que todos ellos son grupos
sociales, fuertemente integrados. Llegamos así a esta conclusión general: el
suicidio varía en razón inversa del grado de integración de los grupos sociales de
que forma parte el individuo. (…) del grado de integración de la sociedad religiosa,
doméstica y política. (1965:164).