Está en la página 1de 16

PARTE VI.

DE LA DISECCIÓN A LA REVITALIZACIÓN: EL TRATAMIENTO


Y EL ANÁLISIS DE DATOS.

Material de cátedra
Elaborado por la Dra. Roxana Ynoub.
UBA/UNMdP/UNNE

VI.1. Presentación de los componentes de la Fase 3: de la teoría y los datos a la


síntesis e interpretación.

El proceso de investigación reconoce una dinámica que avanza desde la identificación


conceptual del objeto o tema a investigar (fase 1) a su posterior disección o
diferenciación operacional (Fase 2). En esta segunda fase, se diferencian y distinguen
las partes componentes de dicho objeto con el fin de abordarlo empíricamente. Se trata
de examinar detalladamente el comportamiento de ellas y –bajo cierta perspectiva-
desarticularla de su unidad funcional (o “viviente”).

El tratamiento e interpretación de datos es el que hace posible, entonces, restituir la


unidad del objeto, de modo tal que el resultado de este análisis arroje una nueva versión
–deseablemente más rica- del objeto previamente diseccionado. Esa restitución se
realiza a la luz de algún cuerpo de hipótesis interpretativas, que provienen de -y
conducen a- los modelos, las tradiciones y los marcos conceptuales en el que se inscribe
la investigación.

A los efectos de recordar el lugar que esta fase volvamos a ubicarlo en el diagrama que
describe el proceso total de una investigación:

Fase 1 |
Fase ideatoria Fase 2
Objetivos
Intuición a Fase analítica
conceptualización Operacionalización a
instrumentalización
Hipótesis de
trabajo

Conceptos Datos

Fase 3
Fase sintética
Tratamiento e
Interpretación
La denominamos fase sintética porque precisamente se consuman en ella todas las
actividades vinculadas a integrar los elementos teóricos (propios de la Fase 1) con los
componentes empíricos (provenientes de la Fase 2).

Kant, llamaba “sintética” a nuestra facultad de juzgar. Sostenía que cuando conocemos
algo, lo que hacemos es organizar de cierta manera lo que nos informan los sentidos. Esa
organización surgiría de las estructuras de nuestro intelecto, las que, según él, podían ser
reducidas a un conjunto de doce juicios/categorías1.

Algo semejante le ocurre a un juez (adviértase que precisamente lo que el juez hace es
¡juzgar!): su tarea consiste en “encuadrar el hecho a derecho”.
Su función, por lo tanto, será la de dar un veredicto, es decir, transformar en “cosa
juzgada” esos hechos, para hacerlos interpretables por el derecho (lo que permitirá, entre
otras cosas, dictaminar si hay culpables, estipular penas o sanciones, entre otras
cuestiones)2.

Son estas operaciones del juicio las que está comprometido en la Fase 3 del proceso.

Ocurre, sin embargo, que el alcance de esa síntesis dependerá de la naturaleza de la


investigación, del esquema en el que ella transite. En algunos casos, los modelos de los que
se parten, constituyen ya genuinas teorías y la integración de los datos se parece más a una
operación de subsunción o encuadre del tipo diagnóstico (en estos casos prima la
inferencia abductiva). Mientras que en otras situaciones, especialmente en aquellas
investigaciones teóricamente más innovadoras, el trabajo interpretativo se encamina
precisamente a la construcción, ampliación o especificación de los cuerpos teóricos ya
existentes. Se esperaría que en estos casos predominen inferencias analógicas por recurso
a modelos menos sistematizados teóricamente.

1
A su turno, estas estructuras/categorías se derivarían de la estructura de la acción que
está apoyada en la misma sensibilidad: es decir, en nuestra experiencia espacio-
temporal. El tratamiento de este asunto excede los objetivos de este trabajo, por lo que
sólo lo mencionamos tangencialmente.

2
La gran diferencia entre el dominio de la experiencia jurídica, y el dominio de la
experiencia cognitiva que examina Kant, estriba en que el filósofo se ocupa de
identificar las grandes estructuras que organizan nuestro intelecto cualquiera sea el
contenido que las ocupe. Dicho de otro modo, Kant se ocupa de identificar aquellas
estructuras sin las cuales no podemos pensar (o tener) experiencias. Al menos
experiencias intersubjetivamente compartibles como las que gobiernan la cognición
epistémica. Es por eso que concibe a este examen como un examen trascendental, es
decir, un examen de las condiciones de posibilidad del conocimiento. Su propia
naturaleza trascendental hace que estos organizadores cognitivos se nos trasparenten,
no están ante nosotros como parte de nuestra experiencia, porque ellas sólo constituyen
las formas en que se estructura nuestra experiencia. En cambio, el jurista, tiene ante sí el
código, como asunto tematizado y tematizable cada vez que se aplica el derecho. Este
código puede ser discutido, revisado, modificado. De cualquier modo, el código jurídico
también funciona como condición de posibilidad para tener experiencias jurídicas, es
decir, para que ciertos hechos se constituyan en “hechos lícitos o ilícitos”.
En lo que sigue consideraremos con algún detalle cada uno de los componentes que
conforman esta fase como sus mutuas dependencias.

VI.2. Aspectos sustanciales vinculados al tratamiento e interpretación de datos.

Para ubicar el alcance de las operaciones comprometidas en esta fase, interesa recordar
que todo objeto de investigación constituye un sistema complejo es decir un sistema
cuasi-descomponible en el que se distinguen –o pueden distinguirse- partes
componentes -o subsistemas constitutivos- y contextos –o supra-sistemas regulativos-.

El proceso de construcción y delimitación del objeto de investigación, consiste,


precisamente, en identificar las entidades o elementos focales del estudio (supuesto de
individuación), en identificar las partes o aspectos que se tomarán en cuenta de estas
entidades (supuestos de partición) y en determinar los contextos en que las entidades o
elementos focales se integran (supuesto de participación) (cfr. Samaja, J.; 1993:255).

De modo que, concomitantemente, podríamos postular que el tratamiento y análisis de


datos está llamado a precisar los vínculos o determinaciones de las entidades que
integran el sistema focal (supuesto de vinculación), a restituir la relación de las partes
componentes con el sistema focal (supuesto de rdeterminación) y a incorporar los
distintos subsistemas en una unidad sintetizadora (supuesto de reintegración o
totalización).

Esquemáticamente esas dos fases y los supuestos implicados en cada una se podrían
expresarse de la siguiente manera:

Principios implicados en:

Fase analítica Fase sintética


(operacionalización) (integración de datos)

a) Supuesto de individuación a) Supuesto de vinculación


(entidades) (entre entidades)
b) Supuesto de partición b) Supuesto de determinación
(dimensiones) (entre dimensiones)
c) Supuesto de participación c) Supuesto de reintegración
(contextos) (entre niveles)

Por ejemplo, si se investigara un asunto como

Las determinaciones familiares en los procesos de deserción escolar.

con alta probabilidad los investigadores producirán información referente a las familias
de estos niños (eventualmente comparada con información proveniente de familias de
niños no desertores), información referida a los miembros familiares y a los niños
desertores, información referida al sistema escolar, etc.. El resultado de la investigación
no será (o deseablemente no se espera que sea) la compilación desagregada de toda la
información relevada; sino una síntesis que arroje algún nuevo saber sobre el objeto –
entendido como unidad de diversas determinaciones.

Esta actividad de síntesis y restitución de un nuevo sentido es la que está llamada a


cumplir el tratamiento de los datos.
Más específicamente, es a partir de él que deberán medirse las hipótesis de la
investigación: sea por su puesta a prueba, sea por su emergencia o descubrimiento a
partir de los datos.

VI.3. Diferenciación e integración entre la interpretación y el tratamiento de datos.

Aunque se trata de actividades mutuamente vinculadas el tratamiento y la


interpretación conviene considerarlos de manera diferenciada:

a) el tratamiento se refiere a las actividades de manipulación, síntesis e integración


de resultados. Vamos a proponer dos dimensiones o perspectivas en las que
puede concebirse este tratamiento:

a.1. La perspectiva formal: es decir, examinando los distintos tipos de


“compactación” de los datos; bajo el supuesto de que “tratar datos” es
reducir, compactar o sintetizar información, y,

a.2. La perspectiva funcional: atendiendo a los fines a los que sirve el


tratamiento, los que están vinculados a los esquemas, diseños y objetivos de
investigación.

b) El análisis o interpretación por su parte, se refiere a los procesos de interpretación


por los cuales los datos se integran al cuerpo de la teoría conforme a las hipótesis,
objetivos y marcos conceptuales de la investigación. Como vamos a examinarlo luego,
interpretar datos es “ir más allá de los datos”: es decir, transformarlos en material
significante para extraer algún significado de ellos.

Veamos cada uno de estos aspectos con algún detenimiento.

VI.3.1. Tratamiento de datos desde la perspectiva formal: la compactación de datos


según direcciones o centramientos de los componentes de la matriz.

En la tradición inaugurada por John Galtung (1973) –continuada y ampliada por


Samaja, J. (1993)- se clasifican los distintos tratamientos de datos por referencia a
distintos direccionamientos en la “compactación” de la información que conforma la
matriz de datos (o matrices de datos) de la investigación (cfr. Cap. III).

Con la metáfora de la compactación se evoca la tarea que tiene entre manos quién se
propone avanzar en la sistematización y síntesis de sus datos.
Como ya lo adelantamos, si en el paso de las hipótesis a la operacionalización se trata
de ir desde la unidad de síntesis a las unidades de análisis; en el tratamiento de los
datos el procedimiento involucrado es exactamente el inverso: desde las unidades de
análisis a las unidades de síntesis. Eso significa agregar, reducir la información
conforme a una lógica que la torne aprehensible de manera configurada y sintetizada –
iluminando aquellas relaciones y determinaciones que se pretendían explorar o probar
con la hipótesis.

Esa tarea de compactación puede hacerse entonces en torno a los elementos de la


matriz, resultando –en principio- dos direcciones de síntesis-: la dirección de la variable
(que Galtung identifica con la metáfora espacial de la dirección vertical); y la dirección
de la “unidad de análisis” (a la que hace coincidir con la dirección horizontal). Estos
son los dos centramientos que identifica Galtung; conforme a un esquema como el
siguiente3:

Interesa señalar que Galtung propone un tercer criterio que llama Análisis combinado
pero del que no reconoce una lógica diferenciada, sino algo así como una
“combinatoria” de los otros dos:

“En este caso –señala- hay muchas posibilidades, pero realmente no existe
ninguna teoría general. (...) El análisis combinado vertical y horizontal puede
tomar muchas formas, según cómo se proceda. Por ejemplo, se puede elegir
comenzar con algún análisis horizontal, construyendo índices basados en
algunos conjuntos de variables. A partir de esto se puede hacer algún análisis
vertical, agregando los valores del índice como nuevas columnas a la matriz de
datos y combinándola con las otras variables, y así sucesivamente”. (op. cit. :
219).

Samaja, en cambio, avanza en un criterio formal para describir un tercer tipo de análisis
al incluir el concepto de nivel de integración y sistemas de matrices de datos. Este
tercer criterio lo define como centramiento en el valor (cfr. Samaja, J. op. cit.: Parte III y
IV) y lo presenta esquemáticamente de la siguiente manera:

3
Cfr. Samaja, J. (1993).
Este nuevo centramiento remite ya no sólo a la estructura de la matriz de datos, sino a la
relación entre matrices de distintos niveles de concreción: el nivel llamado “sub-
unitario” se refiere, precisamente, a la información que oficia de insumo o nutriente
para la construcción de las categorías que conforman las variables del nivel de anclaje
(es decir, el nivel considerado focal en un determinado momento del proceso de
investigación). El análisis centrado en el valor puede combinar –lógicamente- los
tratamientos “verticales” y “horizontales”, pero metodológicamente cumple una función
distinta a la del centramiento en la variable y la unidad de análisis respectivamente: se
refiere a la construcción de un sistema de clasificación o variable; tarea que implica el
tratamiento de los valores del nivel sub-unitario.

Teniendo presentes estos criterios examinaré en lo que sigue los fines o funciones que
persigue el tratamiento de datos en los distintos casos

VI.3.1. Tratamiento de datos desde la perspectiva funcional: fines a los que sirve
cada tipo de tratamiento.

El criterio formal puede considerarse a su turno, atendiendo a lo que vamos a


denominar, el criterio funcional, es decir, considerando los fines a los que sirve el
tratamiento.

De acuerdo con ello es posible reconocer que el centramiento en la dirección de la


variable tiene como objeto “computar” datos, en la perspectiva de agregar la
información según los distintos valores de las variables para identificar las
distribuciones de esos valores en la población o la muestra estudiada. De igual modo, el
conjunto de “medidas síntesis” –como las llamadas medidas de posición y de tendencia
central constituyen información que ofician de descriptores del conjunto de casos o
unidades considerando a este conjunto como una nueva totalidad o unidad (sea muestral
o poblacional).

De modo tal que el capítulo correspondiente al centramiento en la dirección de la


variable corresponde a lo que usualmente trata la estadística descriptiva y la estadística
inferencial.

La diferencia entre estas dos ramas de la estadística estriba en que en el primer caso, los
cálculos se destinan a caracterizar la muestra o población de la que se obtiene la
información empírica. En el segundo caso, en cambio, se trata de utilizar esa
información empírica para estimar o inferir –en base a teoría de probabilidades- valores
de una población o universo al que no se accede de modo directo. La estadística
inferencial permite estimar, por ejemplo, con qué probabilidad los valores obtenidos en
una muestra (aquellas medidas síntesis a las que nos referimos previamente),
representan, o se corresponden con un valor no conocido de una población de referencia
(a esto se lo llama “estimación de parámetros”). De igual modo, permite inferir si la
variación que presentan dos o más variables consideradas conjuntamente, resulta
probable o improbable. Es decir, permite estimar si su variación puede atribuirse al
mero azar, o por el contrario, parecen ser concomitantes, y por lo tanto puede
sospecharse que miden un mismo asunto o están determinándose de algún modo unas a
otras (esta es la base de lo que usualmente se conoce como “prueba de hipótesis”).

De cualquier modo, en ambas ramas de la estadística se trata de centramientos en las


variables, aunque con fines diferenciables conforme a lo que acabamos de señalar.

En lo que respecta al centramiento en la dirección de la unidad de análisis el


tratamiento consiste en la combinación de valores entre las distintas variables para cada
unidad. Tiene como finalidad la identificación de pautas, tipologías e índices. En esos
casos, más que computar o agregar la información, se trata de combinarla, ya que se
consideran conjuntamente los valores provenientes de distintas variables, para las
distintas unidades. Esas pautas o perfiles manifiestos, pueden a su turno, considerarse en
términos de propiedades latentes de las unidades, lo que permite hacer de las tipologías
construidas indicadores de nuevas variables.

Finalmente, el tratamiento centrado en la dirección del valor corresponde a todos


aquellas técnicas dirigidas a la construcción de dimensiones de análisis, desde
información originalmente no categorizada. Un ejemplo de este tipo de tratamiento es el
que se ha propuesto bajo el rótulo de “método comparativo-constante”, destinado
precisamente a categorizar, clasificar material originariamente no estructurado.

Esquemáticamente esto se podría presentar en los siguientes términos:

Centramiento en: Tratamiento: Fines:


Variable Cómputo de valores por Describir el
agregación. comportamiento de las
variables, y/o sus co-
variaciones, estimando
la determinación o el
efecto que unas
producen sobre otras.

Unidad de Comparación de valores, Construir tipologías o


análisis vector de valores o estructura identificar pautas.
de valores.
Identificar
isomorfismos entre
valores manifiestos y
latentes.

Valores Comparación y/o computación Codificación o


/variable de valores de niveles sub- categorización.
unitarios.

VI.4. El análisis o la interpretación: ir “más allá de los datos”.

El tratamiento de datos permite “compactar” o agregar la información producida de


modo de tornarla manejable e interpretable.

Una vez producido ese tratamiento la tarea consiste en interpretarla. Esto vale incluso en
aquellas investigaciones que se inscriben en el llamado paradigma cualitativo en el que
la construcción del dato, surge en el mismo momento en que es analizado. En ese caso,
se deben distinguir dos momentos “interpretativos” con funciones muy distintas. Por
una parte, lo que podríamos llamar “micro-interpretaciones” que van permitiendo
categorizar o clasificar la información (como cuando se “rotula” una frase o se le
adscribe una categoría interpretativa en el tratamiento de material discursivo o
equivalente). Otro momento corresponde al análisis e interpretación más integral, en la
que esos fragmentos previamente interpretados y transformados en dato, cobran nuevo
sentido en mapas, redes semánticas o cuadros más abarcativos, a partir de los cuales
emergen hipótesis de interpretación.

En tal sentido la función de interpretación de datos propia de la fase 3 implica, como ya


lo adelantamos “ir más allá de los datos” para integrarlos al cuerpo de una teoría o
concepción teórica más amplia.

El concepto de intepretación tiene un alcance específico en semiótica: interpretar un


signo es poner algo en reemplazo de él. La definición peirciana de signo, dice que:
“signo es algo que se pone en lugar de otra cosa, en algún aspecto o capacidad
suya para alguien”.

Si se señala con el dedo en una cierta dirección; ese gesto será efectivamente un signo si
la mirada no se detiene en el dedo y se dirige a la cosa señalada 4. Si en cambio, en vez
de dirigir la mirada a lo señalado se la dirige al dedo, “cae” la función de signo.

Lo mismo ocurre con los datos: el análisis de datos supone ir más allá de ellos
transformándolos en signos o material significante. Este más allá surge de las prácticas
disciplinarias y las tradiciones teóricas que iluminan dichos datos. Si al presentar los
datos “sólo se ven los datos” entonces han fracaso en su función.

Veámoslo a la luz de un ejemplo sencillo. La demografía ha diseñado una estrategia de


presentación de datos que resultan significativas para representar la “estructura de
poblaciones según sexo y edad” bajo la forma de lo que llama “pirámide poblacional”5:

En esta “pirámide” cada escalón representa una cohorte de nacimientos, en sentido


vertical, usualmente en tramos quinquenales o por decenio de edad. Del lado izquierdo
se presentan los valores correspondientes a varones y del lado derecho a mujeres. El
largo de cada escalón (en el sentido horizontal) expresa el porcentaje (o el número de
casos) correspondiente a cada grupo. La pirámide siempre refiere a una unidad (de
análisis) territorial: un país, una región, una provincia, etc.

Empíricamente se observa que distintas configuraciones de esta pirámide remiten a


distinto nivel de desarrollo de un grupo poblacional, de modo tal que, a partir del patrón

4
El signo debe opacare y transparentarse al mismo tiempo: es decir, debe ser percibido
y debe no ser percibido simultáneamente para que cumpla su función de signo (cfr.
Recanati, 1981).
5
La pirámide de población es una representación gráfica de varias generaciones que
refleja los patrones de natalidad y mortalidad y el efecto de los procesos migratorios,
tanto pasados como presentes.
demográfico se pueden inferir un conjunto de otros atributos o características de esa
población.

En los siguientes ejemplos se observan representaciones de tres tipos empíricamente


frecuentes de pirámide poblacional: 1) la primera corresponde a una población en
expansión (alta natalidad, alta mortalidad); 2) la segunda a una población estable
(natalidad moderada y distribución relativamente homogénea entre los distintos grupos
de edad); 3) y la tercera a lo que se llama una población en declinación (baja natalidad,
alta esperanza de vida).

1 2

Para un especialista estos gráficos tienen valor significante, es decir, ve allí “algo más”
y algo distinto a lo que ve un lego (que sólo se “informa” del número o el porcentaje de
población por edad y sexo). Estos gráficos le indican, por ejemplo, que la tasa de
fecundidad es elevada en el primer caso, estable en el segundo y baja en el tercero (en
este último podrá anticipar que no supera a los 2 hijos por mujer al final de la vida
fértil). Que en el primer caso tendrán seguramente un peso muy importante las
enfermedades infecto-contagiosas, mientras que en el tercero predominarán las
enfermedades degenerativas. Que con alta probabilidad el patrón distributivo de
ingresos es inequitativo en el primer caso, lo que se traduce en mayor pobreza,
intermedio en el segundo, y más equitativo en el tercero. Comparando gráficos como
estos pueden estimarse diferencias poblacionales (demográficas y sociales) entre
distintas unidades territoriales de un mismo país o una misma región. Se puede todavía
ir más lejos y hablar –como lo hace también la demografía- de transiciones
demográficas asociadas a grandes estadios en el desarrollo social (según ciclos de
desarrollo industrial, epidemológicos, etc.).

Por supuesto que el alcance o la riqueza interpretativa no surge de la sola “pirámide


poblacional”, esa riqueza dependerá de por lo menos dos tipos de cuestiones:

a) por una parte, de la “intertextualidad” que domine el analista de estos datos (sea
o no demógrafo/a de profesión).

b) por la otra, de las tradiciones disciplinarias que abonen la evidencia empírica en


relación al uso de este tipo de datos.

De manera general podría enunciarse una ley general según la cual el análisis de datos
tiene como tarea invariante:

-la comparación de un estado de cosas existente (o dado empíricamente) con


-un estado de cosas posible
-en el marco de un modelo (o presunción) asumida como necesaria.

Dicho de otro modo, se trata de:

• Examinar lo empíricamente encontrado,

• En el marco de lo lógicamente posible, para

• Determinar su grado de “necesariedad”

Así por ejemplo, una mera “distribución de frecuencias” sólo tiene sentido para el
analista –con interés científico- si está en condiciones de comparar esa distribución
(existente o dada) con algún modelo o patrón (ideado o inferido); para estimar hasta qué
punto ella coincide o no con lo esperado: es decir, para evaluar hasta qué punto la
diferencia que observa puede estimarse como contingente o necesaria desde la
perspectiva del asunto que investiga.

Veámoslo de manera más precisa (en base a un ejemplo desarrollado en Galtung, J. –


1973): una distribución es una partición de N unidades en R partes. Entendiendo por R
un espacio-resultado conformado por el número de valores en los que potencialmente
pueden ir a parar las N unidades analizadas. Si el espacio-resultado es unidimensional R
es igual a r (es decir, al número de valores de la variable) si es bi-dimensional R=r1 x r2 ;
si es n dimensional R= r1 x r2 …rn.).

A modo de ejemplo, si se tienen tres unidades para un espacio con R=2, se obtienen
cuatro distribuciones posibles o particiones de tres en dos partes:
Distribuciones “posibles”
(de N en R)

R f1 f2 F3 f4

S 0 3 1 2

N 3 0 2 1

Supongamos que estas son distribuciones de “respuestas a un test” (N=3, es decir tres
casos de respuesta) con dos valores posibles (r1=”positivo” o r2=”negativo”); cada tipo
de distribución se debería leer entonces de la siguiente manera:

1. “tres respuestas positivas y ninguna negativa”


2. “dos respuestas positivas y una negativa”
3. “una respuesta positiva y dos negativas”.
4. “ninguna respuesta positiva y tres respuestas negativas”

Ante una distribución empírica o dada (cualquiera de las cuatro), el analista deberá
juzgarla por referencia a las distribuciones lógicamente posibles, para evaluar luego si
se corresponde con lo esperado (conforme a algún modelo o hipótesis).

Si aumentan N y R el número de posibles particiones de N en R se torna inmanejable.


Galtung presenta al respecto la siguiente tabla (op.cit.: 229):

Tamaño del espacio-resultado R


1 2 3 4 5 ……. 10
1 1 2 3 4 5 .
2 1 3 6 10 15 .
NTamaño de la muestra

3 1 4 10 20 35 .
4 1 5 15 35 70 .
5 1 6 21 56 126 .
. .
. .
. .
10 1 92378

Si un investigador maneja –por caso- una muestra de 120 unidades; potencialmente


distribuibles en dos variables dicotómicas (lo que da un espacio-resultado de 4) no tiene
que conocer (y aunque quisiera le sería prácticamente imposible hacerlo) todas las
distribuciones en que potencialmente podrían presentarse los casos. Pero sin duda debe
saber que la distribución que ha obtenido (empíricamente) es una entre unas cuantas
distribuciones lógicamente posibles. Usualmente el camino que se sigue es el inverso:
se postula cierto comportamiento esperado (conforme a alguna presunción o modelo) y
se juzga lo dado (empíricamente) para saber si las variaciones o diferencias entre lo
dado empíricamente y lo postulado teóricamente son o no relevantes.

De igual modo ocurre con la estadística inferencial. Los resultados empíricos se deben
juzgar por referencia a su ubicación en el espacio que de una función continua de
probabilidades. Este espacio define el conjunto de posibilidades. Dicho de otro modo, el
valor que se ha obtenido empíricamente es “uno” entre un conjunto de posibles valores
que se podrían haber obtenido con una muestra aleatoria de tamaño “n” (los que
considerados conjuntamente constituyen la totalidad de ese espacio de probabilidades).
La decisión estadística depende de cómo se juzgue ese valor por referencia a los valores
posibles que podrían haberse obtenido, y cómo se defina la zona de alta o baja
probabilidad.
Ahora bien, el alcance de esa decisión, que tendrá consecuencias en lo que se llama
“significación estadística” no define ipso facto la “significación sustancial” de un dato.
Se requiere para ello juzgar esos resultados a la luz de un modelo, una teorización que le
confiera la significación disciplinaria específica. Y esta significación no se deriva nunca
de una mera aplicación técnica, sino de los modelos en el que ese hallazgo pueda ser
integrado.

Por lo demás, interesa señalar que estos principios no son privativos del análisis e
interpretación de datos cuantitativos. Podrían aplicarse de igual modo en aquellas
investigaciones de orientación interpretativa o hermeneútica.

Así, por ejemplo, cuando Sigmund Freud analiza “la técnica del chiste”, su estrategia
consiste en examinar lo “empíricamente dado” a la luz de lo “lógicamente posible” (o
esperable); para luego examinar en base a ello su carácter necesario en el marco de su
teoría interpretativa.

Así comenta, el caso de un chiste que lo inspira en esta dirección:

En el fragmento de los Reisebilder titulado «Los baños de Lucas» nos presenta


Heine la regocijante figura de Hirsch-Hyacinth, agente de lotería y extractador
de granos, que, vanagloriándose de sus relaciones con el opulento barón de
Rotschild, exclama: «Tan cierto como que de Dios proviene todo lo bueno, señor
doctor, es que una vez me hallaba yo sentado junto a Salomón Rotschild y que
me trató como a un igual suyo, muy «famillionarmente» (familionär)».

A los efectos de examinar la “técnica del chiste”, lo primero que propone es explicitar lo
que queda implícito en él, es decir, lo que hubiese sido esperable en el contexto del
discurso. Lo señala en los siguientes términos:

“Intentemos expresar con la mayor fidelidad el mismo pensamiento en palabras


distintas. (…) No alteraremos en nada este sentido, dando al pensamiento otra
forma que quizá se adapta más a la frase de Hirsch-Hyacinth: «Rotschild me
trató como a su igual, muy familiarmente, aunque claro es que sólo en la
medida en que esto es posible a un millonario». «La benevolencia de un rico es
siempre algo dudosa para aquel que es objeto de ella», añadiríamos nosotros”.

Al explicitar el contenido latente del chiste, Freud advierte que pierde así su efecto
cómico. Considera entonces que dicho efecto proviene de la forma del enunciado antes
que de su contenido.

En el examen de esa forma, encuentra dos mecanismos comprometidos en la estructura


discursiva del chiste: los denomina proceso de condensanción y formación sustitutiva.
En el caso del ejemplo, la palabra famillionarmente» (familionär) –la que no tiene
ninguna significación en el código lingüístico- condensa en una sola expresión dos
términos: familiarmente y millonario. De modo tal que ella sola sustituye a ambos:

“Es, pues, la nueva palabra una formación mixta de los dos componentes
«familiarmente» y «millonario» y podemos representar gráficamente su génesis
en la forma que sigue:
FAMILI ÄR
MILIONÄR
-----------------------------
FAMILIONÄR

Ahora bien, para que estos mecanismos adquieran carácter necesario, debe mostrar su
regularidad en el marco del fenómeno que se describe; deben iluminarse a partir de un
modelo de alcance más amplio.

Eso ocurre al menos de dos maneras en el desarrollo del trabajo de Freud. Por una parte,
una vez identificado el mecanismo en el análisis de un caso, se pregunta si ese
mecanismo puede hacerse extensivo a un conjunto más amplío de ejemplares
semejantes:

“Nuestra esperanza de que la técnica del chiste no podía por menos de


revelarnos la íntima esencia del mismo nos mueve, ante todo, a investigar la
existencia de otros chistes de formación semejante a la del anteriormente
examinado”.

Pero además, estos mecanismos se irán develando progresivamente como un modo de


funcionamiento típico de los procesos inconscientes. Como una regla general de su
funcionamiento, dado que la vuelve a encontrar en otras “formaciones del inconsciente”
como los actos fallidos o los sueños. Y la justificación y comprensión de ellos, no
vendrá sólo de la descripción de su forma (o de la “técnica del chiste” –como la llama
en este trabajo-) sino también de la identificación de su funcionalidad y de los fines a
los que sirven según el modelo teórico que desarrolla: su teoría general del psiquismo
humano (como por ejemplo, en el marco de su tesis sobre la represión y ocultamiento de
experiencias o representaciones que deben mantenerse alejadas de la conciencia). Dicho
de otra manera, deberá mostrar no sólo la consistencia de estas interpretaciones para
caracterizar los hechos (en este caso, los chistes que analiza) sino también la coherencia
interna que estas interpretaciones guardan con el cuerpo más amplío de una teoría que
las integra y les confiere su carácter retóricamente convincente.
Esta doble exigencia –entre consistencia entre el modelo y los datos; y, coherencia
interna del modelo- parece ser un principio general que vale para cualquier tipo de
tratamiento e interpretación de datos.

La coherencia interna en el marco del proceso de investigación requiere integrar los


resultados en un mapa nomológico que recupere los desarrollos del marco conceptual,
de los objetivos asumidos y los problemas e hipótesis planteados.

Conforme con ello, el alcance del análisis de datos estará fuertemente determinado por
el cuerpo conceptual o teórico que guía la investigación; del que emanan los modelos y
las hipótesis que iluminan las intepretaciones disponibles para el analista. Mientras que
éstas hunden sus raíces en los métodos pre y protocientíficos al que nos hemos referido
al tratar el tema de hipótesis: es decir, en sus intuiciones y representaciones
práxicamente pregnantes.

El alcance y la riqueza de esa interpretación no depende de que la información sea


densa o analítica, cualitativa o cuantitativa, discursiva o estadística: depende, por el
contrario, de la profundidad y riqueza de los modelos y marcos conceptuales que
maneja el equipo de investigación; de la capacidad que esos marcos tengan para “hacer
hablar” a esa información.

Analizando registros estadísticos Emilio Durkheim interpretó las tasas de suicidio como
expresión de distintos tipos de solidaridad social: la distinta propensión al suicidio
entre diferentes grupos religiosos, institucionales, familiares, etc. expresaría diferentes
formas de integración del individuo al grupo:

“La causa [del suicidio] no puede encontrarse más que en una propiedad que todos
estos grupos sociales tienen en común, aunque tal vez en diferentes grados. Ahora
bien, la única que satisface esta condición es la de que todos ellos son grupos
sociales, fuertemente integrados. Llegamos así a esta conclusión general: el
suicidio varía en razón inversa del grado de integración de los grupos sociales de
que forma parte el individuo. (…) del grado de integración de la sociedad religiosa,
doméstica y política. (1965:164).

El lector/a interesado puede ampliar con provecho el texto de Durkheim en la fuente de


referencia. Sin duda es una obra enormemente instructiva para comprender el proceso
de tratamiento y análisis de datos. Sus hipótesis interpretativas se dirigen a
comprender el metabolismo representacional (y moral) de las sociedades que analizó
(aunque no trabajó con discursos sino con registros estadísticos). Buscaba identificar
patrones que permitieran enunciar comportamientos regulares (no coyunturales); tal
como lo tiene planteado todo trabajo con vocación científica. No presentó los índices de
suicidio como lo puede hacer la noticia periodista -para horrorizar o para sorprender a
nadie-: se proponía identificar alguna regularidad, que pudiera luego ser corroborada o
refutada por otros estudios6.
6
En esa dirección interesa diferenciar también el alcance del tratamiento y análisis de
datos en los estudios diagnósticos (sean éstos poblacionales, clínicos o de laboratorio)
de los estudios científicos propiamente dichos. Sin duda que la elaboración de un buen
diagnóstico exige seguir el método científico, pero los resultados producidos en el
marco de dichos diagnósticos no tienen la pretensión de ir más allá que la de informar
sobre un estado de situación, por referencia a un marco de categorías e indicadores ya
Bibliografía de referencia.
Durkheim, E. (1965) -El suicidio. Estudio de Sociología. Ed. Shapire, Buenos Aires.
Galtung, J. (1973) Teoría y Técnicas de la investigación social. Buenos Aires.
EUDEBA, Tomo I y II.
Glasser y Strauss (1967) The discovery of grounded theory. Strategy for qualitative
reaserch. New York, Ed. Aldine (Traducción inédita de Floreal Forni).
Lazarsfeld, P. (1966), "De los conceptos a los índices empíricos", en Boudon y Lazarsfeld,
Metodología de las Ciencias Sociales, Vol. I y II, Barcelona, Ed. Laia, 1979.
Pereda, S. (1987) Psicología experimental. I. Metodología. Ed. Piramide. Madrid, Cap.
2 pto. 5.3. “El método experimental” (60 a 66) Cap. 7 pto. 5 “Las variables relevantes”
(pág. 145 a 168) Cap. 8
Récanati, F.; 1981. La transparencia y la enunciación. Introducción a la pragmática, Ed.
Hachette, Buenos Aires.
Samaja, J. (1993) Metodología y Epistemología. Buenos Aires, Ed. Eudeba.
Torrado, S. (1998) Familia y diferenciación social. Cuestiones de Método. Buenos
Aires, Ed. Eudeba.

establecidos. Así, por ejemplo, si se estudia la “incidencia de pobreza en la población


Argentina a lo largo de la última década”, el resultado de ese informe puede reducirse a
estimar distribuciones de población pobre; medida con algún indicador ya consagrado
como el NBI (Necesidades Básicas Insatisfechas) o LP (Línea de Pobreza) según edad,
sexo, composición familiar, etc., etc., etc. sin aportar pese a ello ninguna novedad
relevante al cuerpo conceptual de la teoría social; aún cuando la información producida
pueda ser muy útil para la planificación de políticas o la intervención social. Si en
cambio el estudio se dirige a crear indicadores para la evaluación de la pobreza –o para
discutir el alcance conceptual y eventualmente operacional del concepto de «pobreza»-
entonces sí puede hablarse de investigación científica en sentido estricto: y el
tratamiento y el análisis de datos tienen entonces planteada otra tarea y otra exigencia de
validación y justificación.

También podría gustarte