Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Evolución humana y conocimiento. La ciencia. La verdad científica. La relación dialéctica con la tecnología.
Ciencia y universidad: Los modelos humboltiano, napoleónico, norteamericano y reformista. Síntesis de las
políticas científicas en argentina.
con cerebro (intelecto) para generar conocimiento. Si bien todas las especies se comunican de alguna manera,
ninguna lo hace con la complejidad que lo hacemos nosotros.
2. Con los primeros homínidos (según los antecedentes, personas parecidas a nosotros), aparece la nueva estructura
de la figura humana:
a. La bipedación (posibilidad de pararnos sobre los pies). Unos 100.000 años después de la aparición de los primates,
el hombre desarrolla la bipedestación, consistente en la habilidad de caminar con las manos libres, lo que permite
utilizarlas para la fabricación de herramientas, que posibilitaron la obtención de alimentos.
b. Nuestro cuerpo no está cubierto de escamas, plumas o pelajes que nos permitan protegernos del frio o del calor.
Conforme a estas circunstancias, podemos ver que somos biológicamente más vulnerables. Entonces, ¿Cómo es
posible que la especie más vulnerable sea la que domina el planeta? Esto se debe a que hemos tenido la enorme
capacidad de desarrollar Cultura-Conocimiento, es decir que el conocimiento es nuestra principal estrategia de
supervivencia, a diferencia de los demás seres vivos cuya estrategia de supervivencia es biológica o puramente
genética.
Así, por ejemplo, el hombre de cromañón (un hombre primitivo encontrado en Francia hace 50.000 años), tenía el
mismo cerebro que nosotros tenemos, y la misma capacidad para procesar información. Esto se debe a que en esos
50.000 años la cultura humana se ha desarrollado de manera fenomenal, es decir que el conocimiento humano ha
crecido y nosotros como especie hemos construido cultura, que nos permitió entre otras cosas, formar familias,
lenguajes, etc.
El hombre de cromagnon fue el primer representante del hombre actual (homo-sapiens). Se valían de trampas,
piedras y lanzas para cazar en grupo a los pequeños, mientras que las mujeres recolectaban frutos. Su adaptación y
capacidad física y cultural era muy superior a la del hombre de Neanderthal. Vemos aparecer en estas primeras
comunidades humanas una serie de rasgos desconocidos para cualquier forma de vida anterior a ellas. Entre ellas se
hallan:
a. Elaboración de herramientas que requieren procesos complejos de fabricación (tallado, pulido, grabado).
b. Ritos funerarios y culto a los muertos.
c. Creencias mágico religiosas.
d. Lenguaje y narraciones mitológicas.
e. Parentesco como sistema simbólico que rige las prescripciones y las prohibiciones de alianzas dentro del grupo.
Todos estos elementos nos hablan de una nueva forma de inteligencia, cuyo objetivo ya no es solo la supervivencia
biológica, sino la supervivencia del grupo y de las tradiciones de la cultura (al seguir las costumbres mantenemos viva
la cultura).
3. Ampliación del espacio vital. Con la ampliación del espacio vital se dan como consecuencia los problemas, y a su
vez a necesidad de conocer y responder a dichos problemas. En eso aparece el problema del conocimiento: la
ampliación del espacio vital implica la necesidad de conocer, y la necesidad de conocer envuelve que es lo real y que
es lo verdadero.
EVOLUCIÓN DEL CONOCIMIENTO.
1. Conciencia primitiva.En el primer estado de nuestro conocimiento, los homínidos tomaron conciencia de su
existencia: sabían que vivían y que se morían. Gracias al desarrollo del cerebro, comenzaron a utilizar
algunos elementos del intelecto, de la inteligencia y de la intuición con el propósito de lograr los primeros
conocimientos sobre algo muy básico:
a. Identificar alimentos (cuales hacen bien, mal o son sanadores)
b. Distinguir semejantes de predadores, con el propósito de poder defenderse.
c. Crear herramientas, hacer flechas, cazar.
d. Desarrollar arte, ritos, tradiciones y estrategias para transmitir a los descendientes conocimientos del pasado.
Al ser una especie que comía de manera salteada, se vio obligada a ser eficaz tanto en la utilidad de las manos como
en la transmisión de información a las nuevas generaciones sobre cómo hacer las cosas.
Con el paso del tiempo comenzaron a dominar los elementos de la naturaleza, emprender la agricultura, controlar la
producción que surge de la tierra y a domesticar animales. Como consecuencia de ello pudieron ir estableciéndose
en determinados lugares y vivir más tiempo (anteriormente la expectativa de vida no superaba los 20-25 años,
promedio que se prolongó a 35)
2. Saber mítico y religiosoUna vez que el ser humano logra dominar los elementos de la naturaleza,
establecerse en lugares donde hay agua, domesticar a los animales para luego comerlos, construir sus casas
y trabajar la tierra para obtener alimentos, amplía su espacio y su tiempo vital, surgiendo así dos tipos de
problemas:
a. Por un lado surgen las dudas existenciales: comienzan a plantearse el porqué de las cosas.
b. Y por otro lado surge la necesidad de organizarse como una comunidad: ya no eran nómades, sino pequeñas
aldeas y pueblos que requerían una organización.
Aparecen así en escena un conjunto de saberes mitológicos y religiosos que establecen normas de conducta que nos
permiten vivir en armonía, satisfaciendo la necesidad de organizarnos, a través de un sistema de premios o castigos,
y a su vez, respondiendo a las dudas existenciales centrales, enseñando y promoviendo pautas de comportamiento
colectivo.
La creencia en los dioses y en las religiones no solo establecían explicaciones y respuestas a las dudas centrales, sino
que también permitían la organización de las comunidades mediante los sistemas de premios o castigos según las
conductas de sus creyentes. Asi por ejemplo, si se comportaban de una determinada manera irían al cielo o no.
Cualquier religión parte de la existencia de un Dios, con el propósito de explicar todas las dudas existenciales y al
mismo tiempo organizar socialmente a las comunidades. Estas pequeñas aldeas y pueblos se fueron transformando,
a partir de lo cual ya no solo producían para comer, sino que lo hacían en exceso, posibilitándose el intercambio y la
relación con otras ciudades.
La necesidad de fuerza de trabajo hace aparecer la modalidad de producción esclavista. La sociedad se dividía en
esclavos, quienes trabajaban en la producción, otro grupo guerrero-militar y por ultimo un grupo reducido de
propietarios, varones mayores de edad que se transformaban en intelectuales (eran gente poderosa que había
nacido con cierta fortuna, la cual no trabajaba y tampoco era militar)
3. Saber filosófico.En esta etapa se produce la dedicación al ocio creativo: comenzaban a cuestionarse las cosas
y aparecen grandes iluminarios que discutían los problemas de la historia. Ya no bastaba con la respuesta
que daba la religión a las incógnitas de circunstancias socioeconómicas, y es así como aparece el “saber
filosófico”, donde se necesitaban más fundamentos para pensar.
El conocimiento se vuelve más meditado e impone una enorme racionalidad, dejando de haber dogmas para que
haya fundamentos y justificaciones.
Aparecen los políticos y con ellos la legislación.
El conocimiento parte de la idea del racionalismo, a diferencia de la idea de la religión que no tiene más justificación
que de la autoridad. En el racionalismo la búsqueda de la verdad se efectúa mediante convicciones lógicas,
razonables y fundadas, y no a partir de meras imposiciones dogmáticas.
Se cambia la idea de pensar que lago es real porque quien lo dice es considerado una autoridad, por el principio de la
experiencia, a partir del cual algo es real porque se puede demostrar o probar.
Cabe destacar que después del impulso de la filosofía gana gran lanzamiento la religión, quedando la anterior
reducida a los ámbitos intelectuales dominantes de la época, pero minoritarios.
La roma imperial toma la decisión de dejar de lado gran parte del conocimiento filosófico y se impone el
conocimiento mayoritario religioso.
Se produce un cambio del dodo de producción esclavista al feudal.
La religión tiene explicación para todo, para la existencia, la forma del comportamiento, etc. Por lo cual no había
necesidad de plantearse nuevos desafíos racionalistas.
4. Saber científico.El saber científico no aparece de manera espontánea. Durante los siglos XV y XVI suceden
acontecimientos que golpean el saber hegemónico religioso, dándose una etapa de florecimiento de la
filosofía, la cual luego se apaga, imperando nuevamente la religión y apagándose esta con la posterior
aparición de la ciencia como nuevo saber.
a. En el siglo XV se da el renacimiento europeo: aparecen nuevos cuestionamientos y con ellos nuevas vertientes de
reflexión humana. Nacen nuevos artistas, científicos, pensadores y filósofos que importan un cambio.
b. En el mismo siglo se produce el descubrimiento de américa, algo que no estaba previsto y da un nuevo panorama
de lo que era el mundo.
c. En el siglo XVI, se da una crisis de las instituciones religiosas, debido a que un conjunto de cristianos cuestionaba la
vinculación del Papa con los gobiernos de Europa. Como consecuencia de ellos la iglesia se parte en dos grupos: los
católicos y los protestantes.
d. Aparecen las revoluciones burguesas: se producen grandes cambios a nivel económico, político y social. En lo
económico, se abandona el modo de producción feudal por el sistema capitalista, el cual tiene como eje el
intercambio y la producción de bienes y servicios. En cuanto a la política, esta se encontraba dominada por la
monarquía, aristocracia y el clero, situación de la cual la burguesía renegaría y decidiría no seguir soportando. Se da
la revolución inglesa de 1960, la norteamericana, la francesa de 1789, y a partir de allí la burguesía pasa a tomar las
riendas del poder político, implicando el cambio de un estado monárquico a un estado de derecho como modo de
organización, produciéndose en ese contexto el nacimiento de la ciencia moderna.
e. Hasta ese momento funcionaba la infalibilidad de la iglesia: es decir que la verdad era lo que la iglesia decía. Al ser
despojada por la burguesía se establecen conocimientos cono el saber científico. La verdad es verdad porque puede
ser probada. Es decir que la ciencia es la aproximación a lo cierto o probado por el método científico, apoyado en
evidencia empíricas.
La filosofía puede dar definiciones, reflexiones del ser, pero no puede probar al igual que la ciencia. Por otro lado, la
religión no tiene como base la experiencia sino la creencia.
Galileo Galilei destruye la escuela religiosa y la académica, es decir que la teoría de la autoridad, que establece que
algo es real porque quien lo dice es considerado una autoridad, se dio hasta el siglo XV, donde cambia dicho
principio por el de la experiencia, donde algo es real porque puedo demostrarlo, probarlo, a través de la
comprobación.
TIPOS DE CONOCIMIENTO.
a. Conocimiento vulgar. Es el conocimiento ordinario y cotidiano, como, por ejemplo: andar en bicicleta, encender
fuego, etc. No son metódicos, y se obtienen por la experiencia cotidiana mediante la simple observación de la
realidad, o mediante la imitación de la conducta de otros. Se adquiere de los fenómenos que circundan al ser
humano sin profundizar en sus causas. Puede ser transmitido de generación en generación y se nutre de la
experiencia humana y social.
b. Conocimiento filosófico. Surge de las propias indagaciones respecto al origen del universo y el destino final de los
hombres. Tiene la pretensión de ser universal: valido en todo tiempo y lugar; y no parte de supuestos previos. Es un
saber general que atiende a descubrir la esencia universal de los fenómenos independientes de las circunstancias
espacio-temporales.
c. Conocimiento de divulgación. Es el que se transmite a través de un medio impreso o grabado, a diferencia del
conocimiento científico original o de primera mano, donde la información se transmite a través de revistas o libros.
El conocimiento de divulgación popular es aquel que ha sido sometido a un cambio para fines específicos, así la
información pierde su aporte original y pasa a tener un nivel científico muy bajo.
d. Conocimiento científico. Según De la Mora, el conocimiento es todo aquello que capta la mente humana de los
fenómenos que lo circundan.
Se entiende por conocimiento al conjunto de enunciados que denotan o describen objetos. Dichos enunciados son
llamados “denotativos” susceptibles de ser declarados verdaderos o falsos (quedan excluido del conocimiento otro
tipo de enunciados).
Ahora bien, no todo conocimiento es “científico”, o dicho de otro modo, no todo enunciado denotativo es científico.
Si bien el conocimiento científico este compuesto de enunciados que informan algo acerca de objetos o sucesos,
estos deben presentar además dos condiciones:
1. Los objetos a los que se refieren deben ser accesibles, de modo recurrente directa o indirectamente, en
condiciones de observación explicitas.
Así por ejemplo, “Dios existe”, es un enunciado denotativo, pero se refiere a un objeto inaccesible a la observación,
por lo tanto no es un enunciado de la ciencia. En cambio, “Las ballenas son mamíferos”, es un enunciado que denota
un objeto que se puede conocer mediante observaciones y por tanto validarse en la experiencia.
2. Se tiene que poder decidir si los enunciados pertenecen o no al lenguaje considerado pertinente por los
científicos.
Es así que cada disciplina define los requisitos con los que deben consistirse los enunciados para formar parte de
ellas, excluyendo a los que no los reúnen. Así por ejemplo 2+2=4 puede formar parte del discurso de la matemática,
pero no E=MC2, enunciado que responde a las reglas del discurso de la física. Estas reglas están sujetas a cambios
históricos.
LA CIENCIA.
Klimovsky define a la ciencia como un acopio de conocimientos que utilizamos para comprender el mundo y
modificarlo. Etimológicamente la palabra ciencia deriva del latín “Scientia” que significa saber, conocer, en el sentido
de tener noticia, de estar informado. La ciencia, en su sentido general alude a toda clase de saber.
En la actualidad, el termino ciencia se entiende:
a. Como proceso: Cuando se utiliza para designar un conjunto de actividades, cuya esencia es investigar problemas.
b. Como metodología cognoscitiva: Cuando se la utiliza para referirse a los métodos y procedimientos que emplean
los científicos.
c. Como producción de conocimientos: Cuando se la emplea para aludir al resultado de esos métodos y
procedimientos.
d. Como cuerpo sistemático: Cuando se la utiliza para designar un cuerpo sistemático de conocimientos, teorías y
leyes.
En términos generales, cuando se habla de Ciencia, se hace referencia a un conjunto de conocimientos razonables,
de tipo conjetural, que pueden ser verdaderos o falsos (nunca se tiene certeza absoluta), y que se obtienen de una
manera metódica, y se verifican en su validez y fiabilidad mediante la constatación empírica. A medida que la ciencia
evoluciona, los conocimientos se modifican y corrigen, lo que implica la posibilidad de biodegradabilidad de todo
enunciado científico.
CARACTERES
a. Conocimiento racional: No todo conocimiento es racional (existe el poético, intuitivo, etc.), pero cuando se trata
de la ciencia, el tipo de conocimiento propio es el racional, en el que se da una sistematización coherente de
enunciados fundados y contrastables. Este tipo de conocimiento exige la racionalidad, que consiste en la aplicación
de principios de coherencia a los datos aportados por la experiencia.
b. De tipo conjetural y probabilístico, que puede ser verdadero o falso. La ciencia no es un conjunto de verdades
definitivas, sino que aspira a una verdadera descripción del mundo o de algunos de sus aspectos, pero nunca se
puede saber con certeza si sus hallazgos son verdaderos, aunque a veces se pueda demostrar razonablemente que
una teoría es falsa. Ninguna conclusión es definitiva, sino que ofrece conocimientos probables mas que totalmente
demostrados. Son conocimientos conjeturales y probabilísticos, ya que su certeza se funda en datos verificados
empíricamente, aptos para describir fenómenos y hacer predicciones. Son verdades parciales sujetas a corrección
cuando nuevos datos o experiencias demuestran la necesidad de ratificación o rechazo.
c. Obtenidos mediante la aplicación del método científico. La ciencia posee exigencias metódicas que ofrecen
mayores posibilidades de garantizar la verdad relativa del saber científico. No son conocimientos adquiridos al azar,
sino de manera sistemática y controlable. Son sistemáticos ya que posee técnicas y procedimientos para dar con las
respuestas a los interrogantes, y controlable ya que su validez se verifica empíricamente por la evidencia fáctica y la
coherencia interna.
d. Verificados en su contrastación con la realidad.La ciencia solo se ocupa de los fenómenos o hechos que son
comprobables, contrastables y refutables empíricamente en la realidad, a través de condiciones experimentales
precisas, procedimientos rigurosos y de lenguaje claro y exacto. Las afirmaciones o enunciados que no pueden ser
observados de manera clara, repetible y bien definida, es decir que no puedan ser sometidos a pruebas de
verificación o refutación no entran en el ámbito de la ciencia
e. Cuerpo de conocimientos orgánicamente sistematizados. No se trata de conocimientos dispersos, sino de un
cuerpo de conocimientos ordenados lógicamente, constituyendo un sistema de generalizaciones y principios que
relacionan los hechos entre si, explicando determinados acontecimientos. Los conocimientos se incorporan como
parte de un sistema tridimensional, que contempla los hechos fenoménicamente, analíticamente y temáticamente.
f. Relativos a hechos y fenómenos de una misma naturaleza. Hace referencia a objetos pertenecientes a un
determinado aspecto de la realidad, que guardan entre si caracteres de homogeneidad, y acerca de los cuales se
afirma algo.
g. Modificable y corregible. Nunca un conocimiento es definitivo. Lo verificado y verificable hoy, no necesariamente
revela toda la verdad acerca de esa parte de la realidad expresada en un enunciado científico. Cuando más se avanza
en la adquisición de certezas, más amplio es el horizonte de la incertidumbre. La ciencia tiene conciencia de su
propia insuficiencia.
h. Susceptibles de ser transmitidos. Los conocimientos o contenidos de una ciencia deben ser transmisibles a través
de un lenguaje o vocabulario que le sea propio, respondiendo a las exigencias de rigor, coherencia y precisión. El
desarrollo de la ciencia debe ser transparente, para facilitar que sus enunciados y aserciones puedan ser refutados.
No debe tratarse de expresiones poeticas y literarias que no tienen contenido o son parloteos sin sentido, donde
falta la claridad y exactitud exigidas por el trabajo científico.
CLASIFICACIÓN
Las ciencias se clasifican en Formales (matemática, lógica), y en fácticas, que a su vez se subdividen en naturales
(biología, física, química, astronomía, psicología, medicina) y sociales (historia, geografía, sociología, psicología,
antropología)
Cabe aclarar que posteriormente nos referiremos al “Método” como el camino para llegar a un resultado. Ello es así
porque para lograr un conocimiento científico, es preciso seguir determinados procedimientos que nos permitan
alcanzar el fin que nos proponemos, es decir, es necesario seguir un método, un camino que nos aproxime a esa
meta determinada.
Ciencias formales.
Las ciencias formales son aquellas que se ocupan de cuestiones que solo existen como productos racionales, creados
por la mente de los hombres.
a. Objeto: El objeto de esta ciencia son entes formales, que solo tienen existencia ideal (como por ejemplo, números,
figuras geométricas, etc.). No son entidades captadas por la experiencia sensible, sino por la mente humana, la cual
va descubriendo sus relaciones y propiedades.
b. Enunciados: Son relaciones entre signos vacíos de contenido empírico. Son tautológicos: su valor de verdad se
extrae del simple análisis de su forma gramatical.
c. Método: El método esencial de conocimiento es la deducción, con lo que se logra la demostración racional de sus
postulados sin apoyo alguno en la experiencia.
El método utilizado es la demostración lógica. Se muestra como un enunciado se deduce de otros por inferencias
lógicas. Los postulados, definiciones y reglas de inferencia son necesarias y suficientes para la puesta a prueba de sus
enunciados.
d. Para hallar la verdad, debe darse la coherencia del enunciado dado, con el sistema de ideas admitido
previamente. Un enunciado es coherente cuando lo que afirma no entra en contradicción con otras proposiciones
admitidas dentro de un sistema de ideas y se infiere de ellas.
Ciencias fácticas
Las ciencias fácticas son aquellas que se ocupan de cosas y hechos que se verifican en la realidad tangible.
a. Objeto: El objeto de estas ciencias son los entes materiales (hechos, objetos, procesos), que poseen existencia
independiente de la mente humana, y que son directa o indirectamente captables a través de la experiencia. Elabora
conceptos teóricos con los que explica los fenómenos.
b. Enunciados: Son denotativas, se refieren a sucesos y procesos facticos. Se remite a un contenido empírico. Su
valor de verdad necesita ser confrontado con la experiencia.
c. Método: El método utilizado es la confirmación o refutación a través de observaciones y experimentos. Se
contrastan los enunciados con los hechos para determinar si dichos enunciados son verdaderos o falsos.
d. Para hallar la verdad, se requiere el uso de la coherencia más la verificación empírica. La verificación de la
hipótesis siempre es incompleta y temporaria. Nunca se está seguro de la verdad, puesto que futuras observaciones
pueden refutarla.
Dentro de las ciencias fácticas se pueden distinguir dos grupos:
a. El de las ciencias naturales (que se ocupan del conocimiento de los cuerpos materiales, es decir, de los entes con
existencia material en la naturaleza). Estudian al mundo físico y biológico.
El método de conocimiento de las ciencias naturales es la experimentación, por lo que también se las denomina
empíricas, fácticas o experimentales, en razón de que sus postulados, son resultados de la observación que pueden
comprobarse en la realidad por medio de experiencias que pueden repetirse a voluntad en razón del determinismo
propio de las leyes de la naturaleza.
b. El de las ciencias sociales (que estudian el comportamiento del hombre en sociedad y sus productos culturales).
Son aquellas que se ocupan de los hechos creados por los propios hombres como consecuencia de su acción en
comunidad, es decir, como producto de la cultura: lenguajes, costumbres, religión, derecho, etc. Las ciencias sociales
estudian las organizaciones humanas y sus actividades. Todas las instituciones que estudian al hombre no en tanto
ser biológico, sino en poseedor de habla, libertad y cultura, son ciencias sociales. Su objeto de estudio es el
fenómeno humano, entendiendo al hombre como individuo o como parte de un sistema social.
LA VERDAD CIENTÍFICA.
La verdad se emparenta en cosas que son reales.
Con el surgimiento de la ciencia, se deja de lado el principio de la autoridad (que establece que algo es “real” porque
quien lo dice es considerado una autoridad), por el principio de la experiencia (a partir del cual algo es “real” porque
se puede demostrar o probar”. La posibilidad de creer que algo es cierto o verdadero surge de la prueba de los
fenómenos. Para que algo sea verdadero debe probarse en la experiencia, rompiendo así la ciencia el principio de la
autoridad por el de la experiencia.
Hay verdades mentales o subjetivas y verdades reales u objetivas: por un lado, tenemos la apariencia, o lo percibido,
y por otro la esencia o lo real de los fenómenos. Ejemplo: la puesta del sol o la salida de la luna. Todas las tardes
presenciamos con nuestros propios sentidos como el sol se pone. Pese a que subjetivamente lo observamos tal cual,
es decir que el fenómeno se presenta como una realidad objetiva ante nuestro sentido común, no existe la puesta
del sol en términos reales. En la realidad, el sol no se pone y la luna no sale, sino que lo que causa tal percepción es
que la tierra está en constante rotación sobre su eje y a cierta hora del día este movimiento nos da la impresión de
que se está poniendo el sol o que está saliendo la luna. Se evidencia que por un lado se da la realidad mental
(percibido) y por otro la realidad objetiva.
El conocimiento científico sirve para conocer el mundo real, tal como objetivamente existe y opera.
La ciencia no es un conjunto de verdades definitivas, sino que aspira a una verdadera descripción del mundo o de
algunos de sus aspectos, pero nunca se puede saber con certeza si sus hallazgos son verdaderos, aunque a veces
pueda demostrar razonablemente que una teoría es falsa. Ninguna conclusión es definitiva, sino que ofrece
conocimientos probables más que totalmente demostrados. Son verdades parciales sujetas a corrección cuando
nuevos datos o experiencias demuestran la necesidad de ratificación o rechazo.
La ciencia reconoce la posibilidad de equivocación, autocorrección y superación, y abandona la idea de verdades
absolutas y finales por verdades provisoriamente definitivas, sujetas a revisión y discusión.
● Por correspondencia (Aristóteles): entendía que algo es verdadero cuando la idea de verdad coincide con la
idea de ese algo, es decir, la coincidencia entre lo que se dice o juzga y lo que sucede o lo que de hecho es. Esto es
por el principio de identidad. Para Aristóteles solo es verdad lo real, y es real aquello a lo que tengo acceso (cosas
materiales, banco, silla, mesa) así por ejemplo como las sirenas no existen en ningún lado no son reales.
● Por coincidencia (Kant): hay un concepto social de lo que es un objeto, un acuerdo entre todos de llamarlo
así. Sostiene que aquello que existe, existe porque el hombre ha alimentado esa existencia, sostiene que no solo
existe aquello a lo que tenemos acceso sino también aquello que inventamos, como por ejemplo los números. No
solo todo lo que existe es verdadero, hay cosas que no existen por sí mismas pero son verdaderas, como por ejemplo
los sentimientos.
● Como ilusión (Nietzche): dice que nosotros entendemos "la verdad" por medio del lenguaje, y las palabras
no son más que metáforas que no tienen ninguna relación directa ni necesaria con la realidad. Afirma que todo el
conocimiento que tenemos no es más que un castillo de papel que flota sobre la mar. La verdad vendría a ser
entonces como lo socialmente conveniente, o lo individualmente consolador. La realidad es imposible de abstraer,
por lo tanto si la palabra verdad designa lo que realmente ocurre o es la realidad, entonces la verdad es un
imposible. Y si la palabra verdad designa a todo aquello de lo cual estamos convencidos por costumbre, entonces no
tiene mayor importancia. Lo verdadero no existe, depende de una construcción social.
● Como Hermenéutica (Gadamer): como interpretación, no hay verdades en sí, tomo algo y lo interpreto y de
ahí surge la utilización de métodos. Son interpretaciones apegadas a los hechos, puede haber disparidad de
verdades.
● Como revolución (Marx): hay mundo objetivo y detrás de ese mundo hay un velo que oculta, al velo llama
falsa consciencia y como eso es encontrar la verdad, lo único verdadero es la revolución.
● Pragmática (Rorty): discute sobre la utilidad, si algo es útil es verdadero. Si algo no es útil se desecha.
● Dialogo (Habermas): consensuada, sigue la tradición de Marx, plantea un conocimiento científico de acuerdo
a intereses.
a posibles aplicaciones prácticas. Se la puede planificar, pero no es libre de elegir sus problemas de investigación, ya
que estos surgen de las necesidades y demandas de la sociedad.
Se llama tecnología al uso de las teorías científicas para su adaptación a determinados fines, a la producción de
artefactos útiles. Para la tecnología el conocimiento científico es un medio para modificar la realidad. Desde el punto
de vista técnico, la ciencia como búsqueda de saber no constituye un fin en si mismo. La tecnología se propone
resolver problemas prácticos y controlar sectores de la realidad con ayuda de conocimientos de todo tipo. No busca
producir conocimientos sino artefactos o planes de acción entre otras posibilidades. Ejemplos de artefactos:
computadoras, vacunas, etc. Ejemplos de planes de acción: técnicas de enseñanza, estrategias psicoterapeutas, etc.
El movimiento estudiantil se constituyó en un actor político protagonista de su tiempo. Este clima de época, imbuido
de las ideas democráticas, liberales y de libre pensamiento, que se respiraba a principios del siglo XX, se extendió a
las federaciones estudiantiles que comenzaban a formarse en todo en América Latina y el Caribe.
Las demandas por universidades democráticas hicieron eclosión en Córdoba, el 15 de junio de 1918. El movimiento
se extendió de inmediato a las demás universidades del país, impulsado principalmente por el movimiento
estudiantil organizado en la recién creada Federación Universitaria Argentina (FUA), y a varias universidades de
América Latina, produciendo reformas en los estatutos y leyes universitarias, que consagraron la autonomía
universitaria, el cogobierno, la extensión universitaria, la periodicidad de las cátedras, los concursos de oposición y el
acceso para todos a los estudios universitarios.
(filosofía). Para estos intelectuales la conciencia nacional era el punto de partida para desarrollar la actividad
científica y tecnológica.
Ambas corrientes ideológicas y políticas están vigentes en la actualidad y sostenemos a modo de hipótesis, que el
reformismo tradicional corre el peligro de tornarse una concepción regresiva para el desarrollo nacional. Dentro del
REFORMISMO no se producen debates demasiado profundos sobre un modelo científico nacional. El reformismo
izquierdista ve en la universidad y en la estructura científica un medio para extraer militantes y no un instrumento
para desarrollar la nación.
En la actualidad el PERONISMO sigue siendo el sector más dinámico para la organización científica y técnica, ya que
propone industrializar el país e implementar a partir de aquí, una acción intelectual y de innovación tecnológica
integral. En la política científica iniciada en el año 2003 coexisten ambas tradiciones y es innegable, que en varias
universidades y en organismos como el CONICET, siguen predominando prácticas caracterizadas por su desconexión
con el modelo nacional de desarrollo.
Estas dos tendencias y tomando distancia de los estudios académico en educación superior, no dividen al campo
intelectual entre los supuestos promotores de los modelos humboltianos o napoleonicos. La forma en que se
construye la historia de la ciencia y de la educación argentina es una de las manifestaciones de nuestra dependencia
cultural: queremos encorsetar nuestras prácticas a los sucesos europeos desconociendo los procesos nacionales. Ni
la ciencia, ni la política argentina son asimilables linealmente a los modelos de Alemania o a Francia.
2. El conocimiento de la realidad jurídica como un proceso de investigación. Reflexión y formulación del tema,
selección del texto jurídico y planteamiento del problema de investigación en derecho. Primeras indagaciones
sobre el conocimiento acumulado disponible: antecedentes, revisión de la literatura y estado del arte.
a. El asunto o sus condiciones de realización (es el conjunto de conocimientos, creencias, contextos institucionales y
técnicos que preceden y ponen las condiciones de contorno de todo proceso de investigación. Estas condiciones de
realización proveen la materia prima y los medios para el proceso científico)
b. Los cursos de acción (El curso de acción hace referencia a los procedimientos científicos que deben llevar a cabo
para lograr un doble objetivo: Descubrir aspectos desconocidos de los objetos; demostrar la verdad de un
conocimiento que ya se cree tener). Presentan dos modos de operación:
1. Modo de descubrimiento: Destinado a encontrar respuestas a nuevas preguntas.
2. Modo de validación: Cuyo fin es encontrar, proveer y organizar las pruebas para validar ante la comunidad
científica y la sociedad política las respuestas que se creen son verdaderas. (se buscan validar cuatro tipos de
hipótesis diferentes: sustantivas, indicadoras, de generalización y retoricas.
En este componente del proceso se encuentran los temas y concepto específicos de la metodología como disciplina
científica
c. El producto (Como resultado, el científico logra un producto que hace referencia a las descripciones y
explicaciones que pretende lograr como resultado de las operaciones de investigación. Este resultado pasará a
integrar el acervo de conocimientos consagrados como científicos y en consecuencia se transformará en punto de
partida para nuevos procesos de investigación)
REFLEXIÓN Y FORMULACIÓN DEL TEMA, SELECCIÓN DEL TEXTO JURÍDICO Y PLANTEAMIENTO DEL PROBLEMA DE
INVESTIGACIÓN EN DERECHO.
a. Reflexión y formulación del tema
El tema de investigación es un interés a saber, que se expresa en una frase o formulación (enunciado o proposición).
Dicho enunciado constituye en rigor el tema de investigación.
La primera fase del proceso de investigación es la elección del tema, que consiste en determinar qué es lo que vamos
a investigar. Eso que vamos a estudiar consiste en un problema, un interrogante que nace de las diferentes causas-
visiones-subjetivas del investigador.
Formular un tema de investigación consiste en elegir un tema y conocerlo. Como punto de partida el investigador
debe conocer en profundidad el tema para realizar la investigación, debe realizar una búsqueda de conocimiento
amplio sobre el tema, mediante la revisión de la bibliografía, contacto con expertos, etc.
Pero antes de formular/seleccionar el tema, debemos preguntarnos si es útil (si constituye un aporte nuevo y
original); si es factible (si vale la pena gastar energía, tiempo y recursos en el mismo), y por último, si tendrá
contribuciones significativas para la ciencia.
1) Buscar un problema de investigación que resulte de real interés:
La práctica de la investigación nos enfrenta a dificultades que generan ansiedad, tareas rutinarias que se pueden
volver tediosas, a un esfuerzo intenso y sostenido. Por ello es conveniente que sintamos una verdadera curiosidad
por lo que vamos a estudiar, así tendremos la motivación para desplegar los mejores esfuerzos para superar los
inevitables inconvenientes que enfrentaremos.
Cabe aclarar que el interés de conocimiento puede originarse de dos maneras. La primera se da cuando una
institución establece de manera obligatoria al investigador la realización de un determinado estudio (esto sucede
generalmente en universidades e instituciones, donde los estudiantes deben llevar a cabo investigaciones científicas
como parte de la estructura curricular de la institución); Otro caso es el de las grandes empresas, por ejemplo, los
laboratorios donde el empleado cumple con un perfil laboral. Otras veces el interés de conocimiento no deriva de
una obligación institucional, sino que se origina en el investigador por un impulso exploratorio personal (curiosidad).
2) Escoger una temática conocida:
No se puede pretender aportar nuevos conocimientos si no se tiene una idea bien definida acerca de los cuales son
los ya existentes. Conviene centrar el problema de investigación dentro de un área que nos resulte familiar. Por más
que haya muchos posibles temas de interés que excitan la curiosidad del investigador, éste no puede trabajar sobre
áreas del conocimiento que apenas si conoce superficialmente o de las cuales no ha obtenido aún la información
básica.
3) Buscar áreas de trabajo en las que pueda contarse con una ayuda efectiva.
Se requiere ayuda efectiva para que no se nos presente una muralla imposible de escalar. Debe haber presencia
activa de un tutor, que es la persona capaz de orientar al tesista en su trabajo.
4) Seleccionar un tema bien concreto y accesible: No se puede alcanzar un conocimiento sobre temas amplios y
complejos en la primera o segunda práctica como investigador, es por ello preferible definir un tema concreto, bien
delimitado y preciso, sobre el que pueda encontrarse suficiente bibliografía y sea factible recoger datos de interés.
b. Selección del texto jurídico
Cabe aclarar que la ciencia se concentra en ciertos temas y explora hasta el final algunos interrogantes, dejando a
algunos otros en la penumbra y se desentiende casi por completo de los demás. Esta selección del tema de estudio
no es un producto del azar, sino que obedece a causas personales y sociales, a los conocimientos previos y a las
distintas inquietudes que se dan en cada época y que adquieren predominio en la comunidad científica.
Al formular el investigador su tema de investigación científica, nombra y escoge automáticamente un fenómeno
entre la infinidad de fenómenos del universo y lo hace resaltar. Es decir, al seleccionar el investigador su tema de
investigación, selecciona una parcela o un aspecto de la realidad mundial y la enfatiza por encima de todos los
demás fenómenos. Al enunciar el investigador, por ej. El tema “el aborto en Argentina en 2019”, excluye o niega por
el mismo acto, todos los demás fenómenos del cosmos como objetos de su atención.
Con respecto a la selección del texto jurídico, dependerá de la multiplicidad de intereses de conocimiento que se
expresan en oraciones tópicas. Así, por ejemplo, en el tema “el aborto en argentina en 2019”, para entender el
fenómeno a fondo, el estudiante debe revisar todas las obras pertinentes a la teoría medica en general y gineco-
obstetrica en particular. Si le interesa el aspecto legal, la legislación y jurisprudencia argentina. Si se agrega el
aspecto moral, se necesita estudiar la doctrina anti-aborto de la iglesia católica.
b. El segundo paso en la delimitación semántica, después de haber subrayado y enumerado por grado de dificultad,
es consultar enciclopedias, diccionarios o textos especializados en la temática, empezando por los conceptos más
sencillos.
c. El tercer paso consiste en la selección definitiva de las definiciones o conceptualizaciones que más se adecuan a
sus objetivos de indagación. Tal decisión puede que trascienda su nivel de conocimiento y capacidad de decisión, por
lo cual puede ser necesaria la consulta al docente para que lo asesore. En el caso de que no encuentre una definición
que lo satisfaga, tiene que formular una propia para mejorar la deficiente, tarea para la cual también puede requerir
la colaboración del docente.
d. Por último, es necesaria la reflexión sobre las relaciones sintácticas posibles y permitidas entre las palabras y
signos que forman el tema (enunciado) de investigación.
4) Formulación de las oraciones tópicas.
La oración tópica es un enunciado sobre el tema de investigación que expresa en forma breve cual es la intención de
conocimiento científico del investigador, respecto al objeto de investigación. Ayuda al investigador a clarificar su
interés o sus intereses de conocimiento. El texto debería comenzar así: el propósito de esta investigación es:
“Conocer, analizar, saber”, etc.
Mientras el tema de investigación nos indica el interés de conocimiento general que tenemos, las oraciones tópicas
expresarían intereses de conocimiento particulares, es decir, a cada interés específico de saber corresponde una
oración tópica. Por ejemplo, para el tema “abortos en Argentina en el año 2019”, el investigador podría formular las
siguientes oraciones típicas:
-O.T 1: “El propósito de esta investigación es conocer aproximadamente la cantidad de abortos realizados en
Argentina en el año 2019.”
-O.T 2: “El propósito de esta investigación es saber en qué mes se dio la concentración más alta de abortos en
Argentina en el año 2019.”
-O.T 3: “El propósito de esta investigación es, conocer las causas fundamentales que llevan a las mujeres a
practicarse el aborto en Argentina en el año 2019”.
Luego, se debe seleccionar entre esos múltiples intereses particulares aquellos que son factibles de ser indagados
teniendo en cuenta el tiempo y los medios investigativos que posee el investigador a su alcance.
Hay dos tipos de oraciones tópicas:
a. Oraciones tópicas de primer grado: Son aquellas que pretenden averiguar la presencia o ausencia de un
fenómeno, o de una característica o propiedad de un fenómeno.
b. Oraciones tópicas de segundo y tercer grado / de relación causal y de relación estadística: Son aquellas que se
formulan para conocer la causa de un efecto o una asociación entre dos variables, es decir, se refieren a una relación
entre factores.
El tema/objeto de investigación, aun después de delimitado, tiene tantos aspectos potenciales de investigación, que
puede abarcar varios enunciados temáticos, tanto de primer grado como de segundo y tercer grado. De este modo,
el investigador se da cuenta que el tema/objeto de investigación pierde cada vez más su extensión y generalidad,
para volverse cada vez más específico.
5) La determinación de los recursos disponibles.
El ultimo procedimiento para depurar el tema/objeto de investigación consiste en un inventario de los recursos
disponibles para el trabajo a realizar. El más importante es la fuerza de trabajo disponible (cantidad de
personas/tiempo que participan en la investigación y su calidad en cuanto a conocimientos, habilidades, disposición
y disciplina pertinentes para el trabajo.
ANTECEDENTES
Al seleccionar el estudiante su tema/objeto de investigación, delimita el tiempo del objeto que le interesa (como por
ej. “El aborto en Argentina en 2019”), de este objeto de investigación, delimitado en el tiempo y el espacio y el
significado, se deriva el marco teórico.
Ahora bien, todos los conocimientos sobre el fenómeno que no pertenecen a su marco teórico, y que se refieren al
objeto antes de 2019, constituyen su marco histórico, es decir, los conocimientos del marco histórico se definen por
dos elementos: a. no son parte del marco teórico; b. se refieren a tiempos del objeto de investigación que son
anteriores a los tiempos definidos en el tema de investigación.
En síntesis, los conocimientos existentes sobre el pasado del tema/objeto de investigación, partiendo de la fecha
hacia atrás, constituyen los antecedentes históricos del objeto, es decir, los conocimientos existentes sobre su
pasado.
Esta extensión de los antecedentes históricos del objeto, dependerán de los intereses y recursos de conocimiento
del investigador.
REVISIÓN DE LA LITERATURA.La idea detrás de la revisión de la literatura, es que, para producir un conocimiento
científico nuevo, más avanzado que el existente, hay que estar a la altura de los conocimientos teóricos
metodológicos actuales, y tomarlos como punto de partida para la investigación propia. Es decir que hay que
dominar el conocimiento científico más reciente cuando se pretende investigar un aspecto de la realidad a fin de
aportar nuevos saberes. Consiste en la realización de una revisión de la literatura especializada, que contiene el
saber imprescindible para profundizar nuestro conocimiento del objeto de investigación.
La revisión de la literatura, en síntesis, consiste en revisar, evaluar y sintetizar el conocimiento producido por otros
para construir el punto de partida del propio estudio. La clave del éxito es seleccionar una sensata y actualizada, no
necesariamente siendo exhaustiva, en un sentido amplio, bibliografía.
Cabe aclarar que para Dieterich, el procedimiento de la revisión de la literatura, se entiende como sinónimo de la
construcción del marco teórico.
ESTADO DE ARTE.
El estado de arte no es un marco teórico. Consiste en una compilación de resultados de otras investigaciones que se
han realizado sobre el tema de investigación escogido. Tiene el propósito de mostrar el estado de conocimiento
acumulado en sobre un tema, es decir establecer que se ha hecho recientemente sobre el mismo. Son conclusivos,
deben establecer que se investigó, a través de que metodología y que resultados se obtuvieron.
Al revisar otras investigaciones respecto del tema escogido, se puede establecer de que formas otros investigadores
han estudiado el tema y así saber cómo abordarlo. Sirve para no repetir temas de investigación, definir
metodologías, etc.
En este “estado de arte”, en síntesis, nos damos cuenta de todo lo que se conoce acerca del fenómeno estudiado. Su
propósito, una vez definido el objeto de investigación, es ver como este se ubica en una línea o programa de
investigación, mostrando las discusiones o diferencias respecto de otras. Permite evaluar la “actualidad” del tema u
objeto de investigación
El Marco Teórico, es pues un instrumento conceptual metodológico que se construye sobre la base de la información
pertinente al problema de investigación, más precisamente con la o las teorías que dieron sustento a otras
investigaciones.
A la información seleccionada que nos muestra el avance de lo logrado en investigaciones anteriores y que están
relacionadas con el problema de investigación, se le denomina, Estado del Arte, y será el que sirva de base para la
construcción del Marco Teórico. En el Estado del Arte se precisa saber cuál será la teoría que servirá de base para
sustentar el trabajo en cuestión.
¿Cómo se hace un estado del arte? En primer lugar hay que hacer una selección de bibliografía, se debe recurrir a
otros investigadores, docentes y asesores, para establecer un primer cuadro de referencias bibliográficas,
recurriendo a documentos científicos como tesis y trabajos de grado, artículos de carácter científico, libros y
publicaciones científicas, etc. En segundo lugar hay que clasificar las investigaciones, establecer criterios de
organización de la información seleccionada. También hacer un cuadro con las referencias bibliográficas, bien
organizado anotando todos los referentes posibles con los datos pertinentes. Hay que evitar referencias de páginas
web, blogs, y fuentes no científicas. Hay que saber sintetizar, evitando comentarios anecdóticos, que no aportan
nada al tema escogido. Hay que leer en diagonal, no se trata de leerlo todo, la mayoría de los documentos científicos
tienen un resumen y una introducción en la que explican claramente lo que se requiere para un estado del arte.
Sirve para: no repetir temas de investigación, definir metodologías, concluir.
Se hace a través de: una buena selección bibliográfica y mediante la clasificación de las investigaciones.
Se recomienda: hacer un buen cuadro de referencias bibliográficas, leer en diagonal, y sintetizar.
1. Elaboración del marco teórico. La epistemología jurídica y la relación del derecho con la moral y la política. El
iusnaturalismo como ruptura epistemológica. El iuspositivismo como primera escuela científica. El conocimiento
jurídico en la teoría pura de Kelsen, en las teorías formalistas, realistas y críticas. Los aportes teóricos y
metodológicos de Dworkin, Rawls, Bobbio, Nino y Habermas.
Marco teórico.
Según dieterich, el marco teórico es el resultado de la selección de teorías, conceptos y conocimientos científicos,
métodos y procedimientos, que el investigador requiere para describir y explicar o comprender el objeto de
investigación. Pero para el conocimiento profundo que queremos adquirir mediante el marco teórico, ya no son
suficientes los datos y aclaraciones que hemos tomado de las enciclopedias generales durante la delimitación
semántica del objeto de investigación. Esta presento una aproximación importante y nos sirvió de punto de partida,
pero hay que pasar ahora a la literatura especializada, que contiene el saber imprescindible para profundizar nuestro
conocimiento del objeto de investigación. ¿De dónde voy a seleccionar las teorías que necesito? ¿Quién me indica
cuales me sirven y cuáles no? La respuesta es sencilla, ya que es el mismo objeto de investigación quien le dice al
investigador cuales son las teorías que ha de utilizar en el análisis.
1. El universo constituye la totalidad de los fenómenos existentes.
Al formular el estudioso su tema de investigación científica, nombra y escoge automáticamente un
fenómeno entre la infinidad de fenómenos del universo y lo hace resaltar, es decir
2. al seleccionar el alumno su tema de investigación, selecciona una parcela o un aspecto de la realidad mundial y la
enfatiza por encima de todos los fenómenos. La afirmación del objeto (tema) de investigación por parte del
estudiante implica, de manera automática e inevitable, la negación de los demás objetos del universo
3. La enunciación del tema de investigación, determina el objeto de investigación, que es un fenómeno o una parcela
del universo.
4. El universo científico o teórico, se compone del conjunto de teorías, métodos, conceptos y conocimientos
científicos existentes, es decir, de una multiplicidad de disciplinas científicas desarrolladas a lo lardo de la historia
hasta la actualidad.
5. El objeto de investigación determina el marco teórico. A cada objeto de investigación, parcela del universo o
fenómeno le corresponden una o varias disciplinas científicas. Al enunciarse el tema, se determina no solo el objeto,
sino también una parcela del universo científico o teórico: las teorías, métodos conceptos y conocimientos
necesarios para explicar el objeto de investigación
En síntesis, al formular el investigador el tema de investigación (enunciado que expresa un interés a saber),
determina automáticamente el objeto de investigación (es decir, escoge un fenómeno de la infinidad de fenómenos
del universo, y lo enfatiza por encima de los demás). Ahora bien, a cualquier objeto de investigación, le corresponde
una o varias disciplinas científicas que contienen el conocimiento específico para explicarlo. Dicho de otro modo, al
enunciar el tema de investigación, se determina el objeto de investigación (parcela del universo), y a su vez, dicho
objeto de investigación (como por ej. “aborto”), determina una parcela del universo teórico o científico (conjunto de
teorías, métodos conceptos y conocimientos objetivos necesarios para explicar el objeto de investigación). Así, por
ejemplo, el tema “el aborto en argentina en 2019”, posee un objeto o fenómeno biológico, por lo cual requiere de la
teoría medica en general y ginecológica en particular, y si interesa el aspecto legal, la legislación y jurisprudencia
argentina.
El marco teórico es el resultado de la selección de teorías, conceptos y conocimientos científicos, métodos y
procedimientos que el investigador requiere para describir y explicar objetivamente el objeto de investigación, en su
estado histórico, actual o futuro. Como consecuencia de ello, el mismo objeto de investigación es quien determina
cuales son las teorías que han de utilizarse en el análisis. El marco teórico no es sinónimo de teoría.
Según Sautu, es un conjunto de conceptos que van desde lo más abstracto/general, a lo más concreto/especifico con
respecto al objeto de investigación. Es decir que constituye un corpus de conceptos que tienen diferentes niveles de
abstracción, que se encuentran articulados entre sí, de modo tal que orientan sobre la forma de aprehender la
realidad.
Comprende supuestos de carácter general acerca del funcionamiento de la sociedad (paradigmas y teoría general), y
conceptos específicos (teoría sustantiva) sobre el tema que pretende analizar.
La EPISTEMOLOGIA que se enfoca en la amplitud y contradicciones del derecho, estudia la norma dilucidando su
carácter ontológico a priori y a posteriori. ¿Qué hacemos acá? ¿Cuál es la esencia y la finalidad? ¿Cuál es la esencia
cuando yo escribo esta norma? y ¿Cuál es la finalidad cuando yo aplico? Que pueden ser totalmente dos cosas
distintas, yo puedo estar buscando algo cuando sanciono una ley pero cuando lo aplico me doy cuenta que en
realidad la consecuencia es otra, una evaluación previa y posteriori.
La relación del derecho con la moral y la política.
El iusnaturalismo como ruptura epistemológica.
Iusnaturalismo
Habla de un derecho natural en, donde más se va hacer hincapié, pero que va ir evolucionando en cuestiones
morales, cuyo origen es la naturaleza, después fue evolucionando y esto se modificó un poco, igual la moral siempre
es la base. Sería como un derecho que surge de la naturaleza, el objeto del derecho era la conducta humana, la
naturaleza es externa al hombre, estaba antes de que el hombre llegue a la tierra y va a estar después de que el
hombre deje de existir. Entonces el hombre no tiene ninguna implicancia con estos derechos naturales, el no infiere
en nada y los derecho naturales, como la naturaleza, es una en todo el mundo, son universales para esta postura. Lo
que acá es un derecho natural y es basado en la moral de lo que es legal, de lo que hace al derecho en un país, al
otro lado del mundo debería ser lo mismo porque la naturaleza en si es la misma, es universal. Esta postura se va a ir
modificando a lo largo del tiempo así como la humanidad fue avanzando, uno de los primeros escritores sobre esta
postura fue SOCRATES ,el plantea que el derecho natural existe por encima de los hombres, hay dos mundos de
mayores objetivos que estaban antes de que nosotros estemos acá y que va a estar después; nos excede porque son
un conjunto de valores y principios que estaban desde antes y va a seguir estando después y el hombre de alguna
manera lo interpreta en su paso por la tierra, es dado por la naturaleza y en consecuencia a ello actúa, no lo crea el.
Si el derecho es algo dado por la naturaleza ¿El Estado de dónde surge? ¿de un grupo de personas que estén dictando
leyes? Para él también es algo natural, la idea de estado y la conformación de estado para él también surge de la
naturaleza. Además dice que no somos la única especie que está organizada hay muchas especies de animales que
están organizadas, que son un conjunto donde hay un líde,r que se distribuyen actividades, donde hay un mimbro de
la comunidad que cumple una función y otro que cumple otra función, no somos la única especie que tiene este
sentido de orden. El considera que las especies traen consigo eso y por eso nos organizamos de esta manera, que el
estado en realidad tiene un origen natural y no humano.
Después evolucionó a lo que PLATON llamo la DOCTRINA DE IDEAS, saca un poco de lado la palabra natural y el
origen natural, y el ya habla de ideas, sigue siendo algo superior, algo externo al hombre que le es dado, que en
teoría como es superior al hombre es mejor. El plantea una doctrina de las ideas en donde él considera que va haber
una idea que sea máxima y superior, y las ideas o leyes que hagan los hombres, tienen que acercarse lo máximo
posible a esta idea superior, siempre tratando de acercarse a un mandato superior que es impartido por alguien
externo que sabe más que el hombre y es superior porque tiene mayores conocimientos que hombre y nosotros
intentamos acercarnos a ese ideal. La Polis (estado) si es una creación del hombre, pero que solo puede alcanzarse
estas leyes que se acercan lo máximo posible a la idea superior a través del estado, el hombre crea al estado para
acercarse lo máximo posible a esta idea superior.
Finalmente antes de pasar a la época de Roma tenemos a ARISTOTELES, en donde él tiene un concepto de leyes
según la naturaleza. Lo justo es natural; todo lo que sea justo es natural ahora lo justo también es legal si se da una
situacion que es justa entre dos personas hay un inconveniente hay que llegar a la justicia para resolver ese
inconveniente para llegar a lo que es justo va a ser legal. Entonces lo natural es legal si lo justo es natural, y lo justo
es legal entonces lo natural es legal, sigue basándose en la naturaleza para saber de adonde surge el derecho, dice
que si hay una situacion justa que se da entre los hombres tiene que ser natural y cuando hay una situacion justa esa
situacion justa es legal, entonces de a dónde surge la ley de lo natural.
En ROMA le introducen pequeños cambios que muestran como la humanidad fue evolucionando, CICERON lo que va
a decir es que el derecho tiene su última base en la naturaleza y que esa ley tiene una procedencia sobre las normas
humanas. Acá empieza a surgir que hay una base natural, pero que también existen normas humanas, ahora la
normas humana va a tener una base natural, antes se hablaba solamente de una norma natural ahora hay
diferencia, la naturaleza me va a decir a mí que hacer pero el hombre lo traduce en una norma y esa norma ya no es
natural esa norma es humana.
Y la última etapa del IUSNATURALISMO PURO CON SANTO TOMAS DE AQUINO acá ya existe la iglesia católica, y toma
esta idea de ley natural pero ya no llama mas ley natural ahora se va a llamar Ley Divina. Entonces ya deja de
provenir de la naturaleza en sí, ahora va a provenir de Dios, no de cualquier Dios, sino de Dios de la Iglesia Católica
Apostólica Romana. Entonces esa va a ser la ley en esta etapa del iusnaturalismo. La ley que diga en que se va a vasar
y que el hombre va a llegar a eso a través de revelaciones, a través de la Biblia y la tradición católica
Iuspositivismo:
El derecho positivo dice que las normas van a ser aquellas que solamente emanen de una autoridad competente
siguiendo un procedimiento en un momento determinado y que tiene una característica que es la más importante:
se va a separar totalmente de la moral, la moral es para la casa no tiene nada que ver con el estado y con la ley. Si el
estado imparte una ley con todas las legalidades se tiene que cumplir por más que en mi conciencia a mí me parezca
que es inmoral, esa ley es ley, yo después en mi casa puedo pensar si está bien o no pero igual va a ser ley.
Uno de sus principales precursores va a ser COMTE que se va a vasar en dos autores Hum y Kant, Hum va a ser un
poco más cerrado entonces de la parte de Kant va a tomar una visión más amplia, ¿Qué toma de Hum?Hum dice que
el conocimiento está limitado a los acontecimientos actuales de la existencia, no se puede ir más allá porque no
acepta que existan ideas innatas ya que todos los contenidos de la conciencia provienen de la experiencia, el no
acepta los dogmas generales porque todo se limita a la experiencia de cada persona, más allá de eso no existe nada
más, no hay una idea general si yo no la puedo experimentar. Con Kant va a tomar un poco más de apertura, Kant
sigue esta idea de que uno está limitado por sus propias experiencias que no puede ir mas allá de eso y que no
puede compartir una experiencia porque otra persona le cuente sino que solamente tiene que ser propia entonces
dice está bien, los conceptos que uno toma provienen de la experiencia de uno ahora la aplicación de estos
conceptos nunca pueden ir más allá de la experiencia, para Hum había un mundo por persona y solamente adentro
de esa persona se podían imponer ciertas normas porque esta persona veía el mundo de cierta manera que el de
alado no lo veía; Kant dice NO! El mundo es uno solo, la realidad es una sola, pero yo solo puedo opinar de lo que yo
experimento, acota un poco es solo un pero yo opino solo de lo que yo viví. Esto como base para determinar que va
a ser lo justo, lo justo va a ser lo que yo solamente podre considerar en base a lo que yo viví, no puedo poner una
norma general que trate de englobar a todos porque todos vivimos cosas distintas. Entonces tomando esta idea
como base el derecho positivo va a ser siempre relativo porque todos vivimos cosas distintas porque todos vemos al
mundo de una manera distinta entonces no puede haber algo general, fijo y universal tiene que ser siempre algo
relativo a la sociedad.
Esta idea se sigue en parte por el UTILITARISMO el principal precursor fue Bentham, él dice que a la sociedad o a
cada individuo lo mueven dos cosas: el placer, aumentar el placer y el dolor, tratar de disminuir el dolor, a nivel
sociedad situaciones de placer pueden ser por ej. Tener mejores centros de salud pero a la vez que bajen los
impuestos. De esa forma el considera que se mueven las personas y las sociedades en todo momento y el
positivismo toma esto para el momento en que redacta el derecho positivo, es una manera de ver cómo podemos
movilizar a la sociedad sacando lo moral y tomando como base una cuestión de que todo es relativo y evaluar en
cada sociedad que son las cosas que aumentan el placer y que disminuyen el dolor en cada lugar, en cada sociedad
en un momento determinado.
CLASES:
El POSITIVISMO IDEOLOGICO esta totalmente desacreditado pero que dice, el derecho es el derecho y hay que
cumplirlo, debe ser obedecido y el hecho de que haya una ley dictada de manera correcta es razón suficiente para
justificarme moralmente por más de que quizás en mi conciencia no lo estuviera haciendo.
El POSITIVISMO FORMAL el derecho legislado es un sistema lógico, no tiene lagunas y la única interpretación valida
es la literal. Para el formalismo mientras haya una ley escrita yo no tengo que interpretar, yo la tengo que aplicar y
por más que a mí me parezca que dada la circunstancia se creó una laguna yo la tengo que aplicar igual y si ese caso
que yo tengo en realidad es porque hay una laguna de alguna manera pasa por debajo de la ley entonces esa ley no
se aplica.
El IMPERATIVISMO no se fija tanto en el texto sino en la autoridad, quien es la autoridad de que emana la norma. La
norma valida se identifica con un mandato valido del soberano donde hay una habitual obediencia, el derecho es un
sistema de normas que reglamentan el uso de la fuerza que está respaldada por la coacción, la ley es la fuente del
derecho predominante.
El IUSPOSITIVISMO METODOLOGICO O CONCEPTUAL, la tesis de que el derecho se encuentra conceptualmente
separado de la moral por lo que puede ser identificado sin hacer referencia a derechos morales, ya no se fija tanto
en el mandato, ya no se fija en lo literal se quiere asegurar que no haya cuestiones morales de por medio. Luego se
produce un punto de quiebre donde los jueces se preguntan ¿Se puede realmente dejar la moral en la casa? ¿Se
puede separar el derecho de cualquier implicancia moral? Ahí es como se intenta otra vez en este momento
finalmente volver un punto medio y bueno mezclemos las dos cosas.
El conocimiento jurídico en la teoría pura de Kelsen, en las teorías formalistas, realistas y críticas.
Ahí aparece KELSEN con la TEORIA PURA el intenta como solucionar de alguna manera este problema diciendo,
bueno saquemos todo del derecho que no quede nada, que no quede ni visiones políticas salgamos de todo esto que
nos trae tanto problemas y hagamos algo puro sin política y sin valores morales. La idea en si era una teoría
depurada de toda ideología política y de todo elemento de la ciencia de la naturaleza y consientes de tener un
objeto regido por leyes que le sean propias, una ley que tenga de esencia una ley, entonces le empiezan a plantear
pero bueno ¿de dónde van a venir esas leyes? De algún lado tienen que venir porque si no vienen de la naturaleza
vienen de una persona, vienen de una ideología política, de algún lado vienen y ahí es cuando él se enreda y dice
vienen de una NORMA HIPOTETICA FUNDAMENTAL. Esto suena otra vez a que es algo superior, estamos hablando
de algo o alguien que sabe algo que nosotros no sabemos y le dicen bueno escribí cual es esta norma hipotética
fundamental y a él se le ocurre decir EL DERECHO INTERNACIONAL ,pero ¿de dónde va a surgir el derecho
internacional? Él lo que hace es plantear dos maneras de ver al derecho: plantea una perspectiva estática en donde
hay un sistema establecido que serían las leyes y después un punto de vista dinámico que son los distintos actos por
los cuales se crean los derecho que serían las conductas sociales, entonces esta conducta va a generar que esto se
aplique, esto se queda siempre quieto (leyes) y como esto necesita de gente que lo sepa analizar, el consideraba por
ej. Que la Constitución tenía que ser analizada solo por jueces que sean constitucionales. Finalmente la teoría queda
en la nada porque en un momento cuando llegan las críticas él no sabe defender.
Dworkin
RONALD DWORKIN pone al derecho como una práctica social similar más o menos a lo que veníamos diciendo, el
derecho debe concebirse como una práctica social observable y describible separada de la moral y desarrollado por
las autoridades estatales, sobre todo los jueces. Él va a analizar una sentencia Riggs Vs. Palmer en donde va a ver
una cuestión que interfiere un poco con la postura que viene sosteniendo, este caso era sobre una persona que
había asesinado a otra y no sé si motivado por eso o de casualidad también era su heredero, entonces hay una
norma que dice que nadie puede aprovecharse de su propio crimen, en Argentina tenemos una norma que dice que
es causal de desheredación la persona que asesina a una ascendiente o a la persona que va a heredar ¿Cuál es la
base de esta norma? Son cuestiones morales, porque de ultima el crimen y la sanción es no matar. Yo puedo ir preso
por matar porque yo incumplí con eso, ahora porque yo estando preso no lo puedo heredar?, yo podría estar preso
pero heredar, ahora cuando yo lo desheredo ya es por una cuestión , ya hay algo por detrás que ya no suena bien;
porque en realidad por el delito no matar yo podría ir preso por haber matado y nada mas, no todo lo otro. Ahí al
analizar esto, cuando observa, dice que no se separan las leyes de hoy en día, por más que este bien o este mal; las
leyes actuales no están separadas. Esto fue pregunta de examen ¿cuáles son las leyes que hoy en día se aplica?
Si vamos a contrastar positivistas con la idea de Dworkin para ver cuáles son sus diferencias como debería obrar ante
un caso donde tanto Dworkin como el realismo jurídico me digan que prevalezca lo social, que prevalezca la práctica
y que el juez evalué ¿Cómo obro ante un caso que sea medio polémico? Para los positivistas el juez tiene que actuar
con discrecionalidad, idear derechos para el contexto especificado en este caso, Dworkin entiende que no hay lugar
para la creación de derecho aun en el caso de hallarse ante un caso difícil, porque incluso en estos casos el sistema
ha establecido y puede ser interpretado, siempre va haber una norma para él en algún lugar que pueda ser
interpretada y que al interpretarse pueda ser aplicable al caso, no van a quedar lagunas.
Rawls
JOHN RAWLS dice en cuanto a su idea de que es justicia y que es derecho , el ve a la justicia como equidad, para él lo
que es justo no es lo natural ni es la ley sino que es lo equitativo y en base a eso va haber que dictarse las distintas
normas. Para decir esto plantea dos principios:
el primer principio dice tal persona debe tener un derecho igual al esquema más extenso de libertades
básicas iguales compatibles con un esquema similar de libertades para otros. Cada persona, tomemos dos
(personas), estas tienen un montón de libertades, no me refiero a la libertad física sino que a la libertad en
general, uno esta como bastante escaso de libertades prácticamente no tiene libertades,pero tampoco
quiere decir que este preso. Lo que él hace es crear un escenario para explicar su teoría, en esta creación de
escenario el saca sus jugadores y los arma en cierto orden; en este contexto te dice el que cada persona
tiene que tener un derecho igual al esquema más extenso de libertades básicas. Acá están las libertades
básicas (dibujo en el pizarrón una línea de largada donde están los jugadores) este es el básico de la libertad
(un jugador se encuentra detrás de esa línea de largada) este es el mínimo en este escenario de libertad A
está detrás de ese mínimo tiene menos del mínimo, B (el otro sujeto) excede bastante al mínimo. En el
escenario que él quiere crear no es que B (el otro sujeto) le tiene que dar su otra mitad y quedar igual, no
hace falta que queden iguales, simplemente él quiere que A (el sujeto con menos libertades) alcance el
mínimo, B puede seguir teniendo exceso, ahora A tiene que tener el mínimo. El equilibrio se alcanza. los dos
están en un lugar en donde ninguno de los dos pueden mejorar o empeorar sin causarle al otro perjuicio, si
yo tengo cuatro manzanas y tengo que dividir entre dos seria dos para cada uno, pero en el momento que en
el escenario en que uno de ellos pasa a tener tres manzanas si o si el otro empeora para que el otro mejore o
viceversa, entonces en este escenario se da el equilibrio donde ninguno de los dos puede ni mejorar ni
empeorar sin causarle daño al otro. Volviendo a la línea de largada el que se encuentra detrás, en este
escenario (A) va llegar al mínimo pero no va a empeorar a B (el otro sujeto) simplemente va a quedar en un
escenario donde todavía no va a ver un equilibrio pero tampoco va a empeorar, va a ser una situacion
intermedia.
El segundo principio acá colocamos a uno (el sujeto) en una situacion de mínimas libertades ya solucionamos
la cuestión de libertad ahora pasamos a la desigualdad social y económica ¿Cómo arreglamos este
escenario? Para resolver la desigualdad económica vamos a tener dos sub principios: Primero vamos a
resolverlo de modo tal que resulte en el mayor beneficio de los miembros menos aventajados de la
sociedad, entonces como lo resolvemos: más beneficios para los menos aventajados ahí si vamos a actuar de
una mera distinta. Y en Segundo lugar los cargos y puestos (no piensen en solo cuestiones laborales) en todo
sentido, la gente ocupa distintos cargos y roles en la sociedad, en una familia que se van dando por las
habilidades y personalidades de cada uno, entonces esto el cargo impuesto es también a un nivel social
quien va a ser el líder, quien va a ser el que ayude al líder, quien va a ser el que esté detrás de escena
trayendo las cosas, no es solo una cuestión de trabajo. Deben estar abiertos para todas las personas bajo
condiciones de igualdad de oportunidades, entonces creamos un escenario en donde los que no tenían
ninguna libertad ahora llegan por lo menos al mínimo el que tenia de más sigue teniendo de más,
beneficiamos a los que estaban menos aventajados en esa sociedad y además dejamos todos los cargos y
puestos abiertos para toda la gente en igualdad de condiciones, ahora una vez que cumplimos con entender
este escenario detrás de escena, este es una línea de largada de una carrera (imaginaria hecha en el
pizarrón) pero acá en esta línea de largada va haber algo que Rawls llama Velo de la Ignorancia, que hace
este velo de la ignorancia no permite a la gente que esta acá (detrás de la línea de largada) vea que hay acá
(después de la línea de largada) yo estoy atrás de una puerta con un velo puesto y cuando se levante el telón
yo arranco pero yo antes no sé qué hay . Él dice que cuando nosotros estemos detrás de este escenario en el
previo a la largada de alguna manera, en esa situacion en donde nos pusimos en un principio en una libertad
mínima para todos, en más ventaja para los más aventajados y liberamos todos los puestos y cargos para las
personas que estén en iguales condiciones. Cuando estemos atrás del velo nosotros vamos a escribir las
reglas del juego que van a ser las leyes antes de largar nos ponemos a pensar cómo va a ser la carrera que
vamos a correr y cuáles son las reglas, entonces como no vamos a saber que hay detrás la vamos a hacer
antes de iniciar la carrera y con el velo de ignorancia de por medio, Rawls va a considerar que estas normas
que hagamos acá (atrás de la línea de juego) van a ser justas y lo que va a ser el derecho, ese es su objeto del
derecho en esta realidad, porque cuando yo este acá (detrás de la línea de largada) no voy a saber si a mí
me va tocar ser el jugador A o B, si yo voy a tener las libertades mínimas o si yo voy a tener exceso de
libertades, yo no sé si voy a ser uno de los menos aventajados que le dieron más beneficios o si voy a ser uno
de los que tenía beneficios suficientes, incluso el habla de que yo no voy a saber cuestiones físicas y
psicológicas mías ¿Qué pasa cuando yo no sé nada de eso? Cuando nos pongamos a discutir como corremos
esta carrera yo voy a pensar dos veces antes de dictar una norma que me pueda perjudicar, porque al
levantarse el telón yo no sé si a mí me toca esa situacion desventajosa que yo dicten en una norma.
Entonces el considera que estas normas van a ser lo justo y el derecho solo en esta situacion, entonces
cuando se levante el telón y corramos la carrera el que llegue primero al cargo o puesto va a ser realmente
quien estaba capacitado para ese cargo y puesto, ya sea a nivel social, a nivel de ser el líder, etc.
Bobbio:
1. Bobbio .teórico del derecho y filósofo de la política. bobbio es conocido a nivel internacional por sus estudios
sobre el Estado, gobierno y la democracia. Sin embargo, su campo de interés y de influencia va mucho más
allá. Entre ellos: la cultura, la filosofía, la política, derecho, entre otras.
si tuviéramos que indicar el aspecto más relevante del pensamiento de Norberto Bobbio, señalaríamos sin
duda el vínculo que estableció entre democracia y derecho; más precisamente: entre democracia, derecho,
razón y paz. Bobbio es conocido por el gran público principalmente como filósofo de la política y como
teórico de la democracia al igual que Kelsen y más aún que Kelsen, ha superado la separación y la
incomunicabilidad entre estudios de teoría del derecho y estudios de filosofía política que caracterizan
desde la época de la Ilustración en adelante el estado de nuestras disciplinas. La obra e Bobbio se extiende a
lo largo de tres cuartos de siglo, y, en consecuencia, puede ser considerada como un espejo intelectual
particularmente representativo del siglo XX. Es de remarcar que la consolidación de su obra se ubica en el
período más trágico de la historia, conocido como “el siglo de los extremos” Su producción intelectual de
mayor trascendencia se coincide con el arco del tiempo que va de 1943-1946 a 1989-1991, períodos en las
que se dieron las transiciones que significaron con mayor énfasis en Europa el perfil de la segunda mitad del
siglo XX. Defensor del positivismo en el campo de la filosofía del derecho, donde se ve la marcada influencia
Kelseniana en su pensamiento incluso, reconocida por el mismo Bobbio al señalar que dos pensadores
marcaron en particular su trayectoria , refiriéndose a Hans Kelsen y Thomas Hobbes, donde el primero
ocupa un lugar fundamental en sus estudios de teoría del derecho y de teoría política.
Obras trascendentales.
Las obras que le dieron fama a Bobbio y que hicieron de él el intelectual más influyente en materia política,
se ubican precisamente en la segunda parte del siglo XX .
a) Thomas Hobbes (1965). 11 Bobbio define a Hobbes junto con otros más como autores clásicos. Bobbio,
se dedica no ha su contextualización histórica, sino a la identificación y clarificación de los conceptos y
temas fundamentales, al análisis de los argumentos y a la reconstrucción del sistema. En la obra que
realiza sobre Thomas Hobbes, analiza dos legados fundamentales del pensamiento político moderno de
dicho autor. El primero es un legado de carácter metodológico, que consiste en dar prioridad a la
demostratio por encima de cualquier forma de interpretatio. El segundo es el individualismo, cuyas
diferentes declinaciones son decisivas para fundar, medir y valorar las diversas fórmulas políticas que el
Leviatán, en cuanto esencia del Estado moderno, puede albergar.
b) El futuro de la democracia (1986). Como su título lo sugiere, propone un ágil y cuidadoso análisis acerca
de las promesas aún no cumplidas y los obstáculos que ha tenido la democracia para surgir y
consolidarse dentro de la sociedad mundial en principio, cree que la democracia y la democratización del
mundo ha sido ante todo dinamismo y posibilidades de ampliar la cobertura de participación y derecho
al voto. Para Bobbio, las transformaciones por las que ha pasado el sistema democrático demuestran
que hay un futuro para la democracia moderna, porque allí donde los derechos de libertad y
participación de los ciudadanos han sido reconocidos constitucionalmente, la posibilidad de un retroceso
a sistemas dictatoriales es conjurada por la existencia misma de la democracia, y aunque haya riesgos,
amenazas y caídas, el espíritu de la democracia vive como realidad y anhelo de los seres humanos
organizados socialmente. Bobbio concibe la democracia como un conjunto de reglas procesales para la
toma de decisiones colectivas en el que está prevista y propiciada la más amplia participación posible de
los interesados.
c) El problema de la guerra y las vías de la paz (1991). Las reflexiones de Bobbio sobre la guerra y el
derecho y la no violencia se insertan en una larga tradición filosófica de resistencia contra las falsas
excusas de lo inevitable o incluso insondable de nuestras tendencias destructoras. En su planteamiento
de las posibilidades de la paz y del derecho a la no violencia, Bobbio subraya la actualidad del famoso
escrito de Kant sobre la paz perpetua y demuestra que su defensa del derecho irrenunciable del
individuo no parte de una posición individualista sino que constituye el principio para entender el
concepto de un individuo universal.
d) Liberalismo y democracia (1993). En esta obra publicada en 1985, Bobbio analiza desde una perspectiva
histórica y político-filosófica la relación gestada entre el liberalismo como concepción de Estado y,
democracia como forma de gobierno, En opinión del autor el binomio liberalismo-democracia debe
entenderse ante todo como una relación de necesidad, donde el liberalismo y democracia están ligados
necesariamente en el sentido de que sólo la democracia es capaz de realizar en plenitud los ideales
liberales y sólo el estado liberal puede ser la condición para la práctica de la democracia El punto
irreconciliable entre socialistas y liberales siempre será la propiedad privada. Los primeros exigiendo
para el futuro su total desaparición, o al menos su reducción cuantitativa; los segundos, considerándola
como base para el desarrollo. Y cada cual estableciendo sus propias relaciones con la democracia: el
liberalismo viéndola desde su óptica capitalista, representativa, política y nominal; y el socialismo,
viéndola desde el proletariado, directa, política, económica, nominal y de hecho.
e) El tercero ausente (1997). En esta obra Bobbio de manera enfática sostiene que el porvenir de la paz se
encuentra vinculada de forma fundamental en el reconocimiento de las libertades cívicas y políticas que
impidan la instalación de un poder despótico.
Nino:
Habermas:
Habermas describe tres intereses cognoscitivos cuasi trascendentales e irreductibles, es decir, básicos, inevitables,
originados por nuestra condición humana, estos son el interés técnico, el práctico y el emancipatorio. Estos tres
intereses constitutivos del conocimiento sirven como base a tres formas distintas de conocimiento y a tres tipos
diferentes de disciplinas, cada una de las cuales tiene su enfoque metodológico propio, su campo de dominio y sus
objetivos. Así, el interés técnico guía a las ciencias empírico-analíticas, el intereses práctico a las ciencias histórico-
hermenéuticas. y el interés empancipatorio a las ciencias sociales críticamente orientadas cada uno de estos
intereses cognitivos arraiga en una dimensión de la existencia social humana : trabajo , lenguaje y poder
emancipatorio . Así el interés técnico arraiga en el trabajo, el interés práctico arraiga en el lenguaje que convella
interacción simbólica, y el interés emancipatorio arraiga en el poder en tanto capacidad empancipatoria arraiga en el
poder en tanto capacidad emancipatoria
Describiremos los tipos de ciencias en los que están implicados los intereses mencionados
1-las ciencias empírico-analíticas. Estas ciencias representan una investigación que se plasma en un saber
técnicamente utilizable. El análisis empírico explora la realidad desde el punto de vista de la manipulación técnica
posible de los procesos naturales, es la esfera de la actividad instrumental; la realidad se constituye aquí como la
suma de lo que puede ser experimentado desde la perspectiva de la transformación técnica, es el campo de las
ciencias naturales. En estas condiciones se configura el lenguaje de los enunciados empírico analíticos; es un
lenguaje formalizado o formalizable ,un lenguaje puro , este lenguaje puro va unido a una experiencia restringida y
es el resultado de operaciones con signos o cuerpos móviles . Este recorte de la realidad realizado desde una
perspectiva exclusivamente instrumental tiene como un interés cognoscitivo técnico. Para habermas se trata solo de
un tipo de conocimiento y no constituye el modelo de todo el conocimiento, como afirma el positivismo
2-un segundo ámbito de la actividad científica está dado por la investigación hermenéutica esta aporta una forma
metódica a un proceso de compresión entre individuos (y de auto comprensión) proceso que se da en un nivel pre
científico, en lo que constituye lo que habermas llama interacciones simbólicamente mediadas. Esto quiere decir que
el ámbito objetual de las ciencias histórico-hermenéuticas ya está constituido, y es la compresión del sentido la que
abre el acceso a los hechos, en lugar de la observación como ocurre en las ciencias empírico – analíticas. En lugar de
contrastación aquí hay interpretación. La investigación hermenéutica abre la realidad guiada por el deseo de
conservar y ampliar la intersubjetividad de una compresión orientadora de la acción. La hermenéutica asegura la
intersubjetividad de una compresión posible que oriente a la acción. La hermenéutica asegura la intersubjetividad de
una compresión posible que oriente a la acción en la interpretación tanto de la cultura propia como de la ajena.
En este ámbito la realidad se constituye en el marco de las formas de vida que se organizan según el lenguaje
ordinario, asi es real lo que puede ser experimentado dentro de las interpretaciones de una simbología vigente. En
las ciencias empírico analíticas , el lenguaje resulta cerrado por que la acción queda separada de la comunicación y
reducida al plano al plano de la aplicación instrumental repetible. Aquí se suprimen las condiciones de la acción
comunicativa en cambio en las ciencias histórico –hermenéuticas la interpretación se dirige a un mismo tiempo a las
experiencias construidas en el mundo a través del lenguaje ordinario , y a las reglas gramaticales de constitución es a
la vez análisis lingüístico y experiencia. Al mismo tiempo , estas interpretaciones hacen posible una orientación de la
acción bajo tradiciones comunes
3- el tercer grupo de ciencias al que se refiere habermas es el que se denomina como ciencias sociales críticamente
orientadas cuyo interés cognitivo es el emancipatorio. No todas las ciencias sociales están críticamente orientadas .
El psicoanálisis y la critica de la ideología son las dos únicas producciones que incluyen un intereses emancipatorio.
Estas formas de conocimiento son autorreflexivas . esto es portan una reflexión consiente de su interés cognitivo
reflexión que esta ausente en los dos tipos de ciencias ya descriptos. De este modo las ciencias críticamente
orientadas aparecen como una instancia superadora de las ciencias empírico – analíticas e histórico- hermenéuticas.
Para comprender el alcance de esta afirmación de habermas es necesario realizar una mostración critica del
positivismo presente en las ciencias empírico – analíticas y en las histórico – hermenéuticas aunque en menor
medidas . tal mostración dejara al descubierto como los intereses técnico y practico son desconocidos , ignorados y
pasan inadvertidos ante el interés mas fuerte de objetividad científica al cual aspiran estos dos grupos de ciencias .
2. La formulación de los objetivos en función de la experiencia y del enfoque teórico elegido. Las hipótesis
científicas.
b. Objetivos específicos: Son pequeños pasos, metas que tiene el investigador para llegar al objetivo general.
Consisten en metas concretas y puntuales, que se irán obteniendo durante la investigación y que son realizados por
el investigador para lograr el objetivo general. Estos objetivos se deducen de los objetivos generales. Se requieren al
menos 3 objetivos específicos.
Son operativos (señalan operaciones y logros concretos), conductuales (indican lo que debe hacerse para alcanzar el
objetivo), específicos (precisan, detallan las operaciones y logros concretos)
Formulación de objetivos.
Los objetivos deben redactarse utilizando verbos en infinitivo, con terminación en “ar”, “er”, “ir”. Los más utilizados
suelen ser: determinar, precisar, calcular, identificar, explicar, comprobar, mejorar, etc.
El objetivo final de toda investigación científica es generar conocimiento, por lo tanto, los verbos utilizados en su
planteamiento deben ser cogerentes con ello. Los posibles verbos a utilizar en el planteamiento de un objetivo de
investigación son:
- Describir, cotejar, desarrollar, bosquejar, clasificar, explicar, reconstruir, relacionar, especificar, comparar,
generalizar, demostrar, deducir, discernir, interpretar, evaluar, definir, justificar, analizar, etc.
La estructura para redactar un objetivo es la siguiente:
Verbo + variable + unidad de análisis +contexto.
Verbo (verbo en infinitivo, con terminación en ar, er, ir.) + variable (los distintos valores que puede adquirir la unidad
de análisis) + unidad de análisis (cosa sobre la cual se realiza el estudio, quienes van a ser medidos, realidad que se
pretende estudiar) + contexto (ej: ciudad de Córdoba, universidad UNNE, etc.).
Ejemplo de objetivo general: “Describir (verbo) el uso (variable) que los niños de entre 5 y 10 años (unidad de
análisis), de la ciudad de Córdoba (contexto), hacen de la televisión”
Ejemplo de objetivo específico: “Analizar el tiempo que estos niños pasan, en promedio, frente al televisor”
Se da un triángulo entre TEORIA, METODO Y OBJETIVO.
-La investigación social es una forma de conocimiento que se caracteriza por la construcción de evidencia empírica
elaborada a partir de la teoría aplicando reglas de procedimiento explicitas. De esta definición podemos inferir que
en toda investigación están presentes tres elementos que se articulan entre si: MARCO TEORICO, OBJETIVOS Y
METODOLOGIA.
El marco teórico constituye un corpus de conceptos de diferentes niveles de abstracción articulados entre sí que
orientan la forma de aprehender la realidad.
La teoría general está constituida por un conjunto de proposiciones lógicamente interrelacionadas que se utilizan
para explicar procesos y fenómenos. Influye acerca de lo que puede o no ser investigado y condiciona las preguntas
que nos hacemos y el modo en que intentamos responderlas.
La teoría sustantiva está conformada por proposiciones teóricas especificas a la parte de la realidad social que se
pretende estudiar. A partir de ella se definen los objetivos específicos y se toman decisiones acerca de otras etapas
de diseño.
Los objetivos, constituyen una construcción del investigador para abordar un tema o problema de la realidad a partir
del marco teórico seleccionado.
La metodología, está conformada por procedimientos o métodos para la construcción de evidencia empírica. Esta se
apoya en los paradigmas y su función en la investigación es discutir los fundamentos epistemológicos del
conocimiento.
Las hipótesis científicas.
Según Sierra Bravo las hipótesis científicas son en general suposiciones, enunciados teóricos supuestos, no
verificados pero probables, frente a variables o a relación entre variables
Cuando hablamos de hipótesis “científicas”, nos referimos a las hipótesis en las ciencias empíricas o fácticas, cuyos
objetos de investigación son fenómenos del universo real, ya sean de la naturaleza o de la sociedad. Mientras las
hipótesis de las ciencias fácticas son proposiciones aplicables a un determinado aspecto del universo natural o social,
la hipótesis matemática o lógica es una proposición sobre las relaciones entre entidades abstractas o mentales, o sus
implicaciones.
b. Si las hipótesis contienen términos generales o abstractos, estos tienen que ser oparacionalizables . Es decir que
deben tener referentes o correspondencias empíricas. Por ejemplo, si formulo la hipótesis “La crisis económica de
2002 ha aumentado el número de suicidios en la Argentina”, no queda claro lo que significa crisis económica en la
práctica. Se operativiza este concepto desglosándolo en sus componentes: tasa de desempleo, tasa de inflación,
devaluación de la moneda, déficit del presupuesto nacional, etc.
c. No pueden formar parte de las hipótesis términos abstractos que no tengan referente empírico. Por ejemplo
“Dios es la base de la sociedad y del estado”; el termino Dios es un conjunto vacío, no hay fenómeno real que lo
satisfaga; esto se debe a que el termino Dios no puede ser contrastado de manera empírica.
d. Las hipótesis no deben contener términos valorativos. Esto se debe a que los términos valorativos no son
comprobables.
e. Las hipótesis no pueden tener la forma de una prescripción o interrogación. La forma sintáctica de las hipótesis
debe ser la de una proposición simple (hipótesis de primer grado), o compuesta (hipótesis de segundo y tercer
grado)
f. La hipótesis causal debe constar de dos variables. Esto es así para poder dar cuenta de la relación entre la variable
independiente (causal) y la dependiente (efecto). Por ejemplo, si formulo la hipótesis “la inflación produce
desempleo, pobreza y criminalidad”, la misma tiene una variable independiente (inflación), y 3 variables
dependientes (desempleo, pobreza y criminalidad). En este caso conviene realizar tres hipótesis distintas.
g. Las hipótesis deben excluir tautologías (afirmaciones obvias). Son enunciados o argumentos circulares que no
proporcionan información sobre la realidad, porque el sujeto es idéntico total o parcialmente al predicado. Por
ejemplo “la democracia es la dominación del pueblo.”
h. Debe evitarse el uso de disyunciones. Porque reducen el valor informativo. Por ejemplo, “Mañana de 8 a 12
habrá sol”. El valor informativo de este enunciado es alto, pero si se agrega la disyunción “mañana de 8 a 12 habrá
sol o lluvia”, el valor informativo baja. Si se agrega otra disyunción “mañana de 8 a 12 habrá sol, lluvia o heladas”,
entonces la hipótesis se vuelve más estéril aun frente a la realidad, porque ya no tiene utilidad práctica. Debe estar
basada en el conocimiento científico ya comprobado, y no contradecirlo.
i. Debe ser doblemente pertinente. En referencia al fenómeno real de investigación y en el apoyo teórico que la
sostiene.
j. Debe referirse preferentemente a aspectos de la realidad que no han sido investigados aún . Dado que la
finalidad básica es la producción de nuevos conocimientos.
k. Tiene como principal característica su falibilidad. Las hipótesis comprobadas pueden irse perfeccionando en el
tiempo.
Cuando nos referimos a una característica estamos hablando de una cualidad que pueda tener el objeto de estudio,
pero nunca del objeto mismo. Por ejemplo: Una mesa no es una variable, pero si nos referimos a la altura de la mesa
esta característica constituye una variable, que puede tener diversos valores o que puede variar de un caso a otro.
Al hablar de valor, utilizamos el término en un sentido amplio y no reducido al de magnitud numérica, y en
éste sentido se distingue entre variables cuantitativas y cualitativas.
Las variables presentan las siguientes particularidades:
Son características observables de algo.
Son susceptibles de cambio o variación con relación al mismo u otro objeto.
Se presentan a la observación vinculadas en su variación unas a otras, según diversos tipos de relaciones.
La variable es un aspecto del objeto capaz de asumir diferentes valores, a los cuales se denominan
categorías.
El marco teórico guía la selección de atributos o variables, que no refieren a la totalidad del objeto de
estudio sino a algunas propiedades consideradas estratégicas.
Las construcciones de un sistema de categorías dependen de las decisiones teóricas y empíricas que realiza
el investigador. Un sistema de categorías debe ser exhaustivo, contener categorías mutuamente excluyentes
y ser pertinente para el universo que se está estudiando.
Las variables pueden clasificarse de distintas maneras. Un modo posible de clasificación es:
Según su naturaleza
Cualitativas: sus elementos de variación no son susceptibles de medición numérica. Ej. Sexo
Cuantitativas: sus propiedades se presentan en diversos grados de intensidad y tienen un carácter numérico.
Ej. Nivel de ingresos, deserción escolar.
Por el tipo de unidad de análisis
Individuales (ej. posición en la familia, sexo, edad, etc)
Agregadas: porcentaje de votos, porcentaje de una clase social en una unidad geográfica
Por el nivel de abstracción
Generales: se refieren a realidades no inmediatamente medibles
Intermedias: expresan aspectos parciales de las variables generales pero más concretas y cercanas a la
realidad.
Indicadoras o empíricas: representan los aspectos más concretos y cercanos a la realidad.
Por la escala o nivel de medición
Nominales: comprenden la distinción entre diversas categorías, sin implicar ningún orden entre ellas.
Ordinales: implican orden entre sus categorías, pero no grado de distancia iguales entre ellas.
De intervalo: suponen un orden y grado de distancia igual entre las diversas categorías, su origen es
convencional no natural. De razón; comprenden a su vez los aspectos de distinción, orden, distancia y
origen natural.
Por su status teórico metodológico en las relaciones causales.
Dependientes: reciben este nombre las variables a explicar, o sea el objeto de investigación que se trata de
explicar en función de otros elementos. Ej. Evaluación del sistema educativo sus partes y roles.
Independientes: las variables explicativas o sea las partes o elementos susceptibles de explicar las variables
dependientes. Ej. Educación formal
Intermedias o intervinientes: cuando en el análisis de la relación causa-efecto, se introduce una o más
variables de enlace interpretativo entre las variables dependientes e independientes. Están vinculadas
funcionalmente a la variable dependiente e independiente y producen un efecto en la relación existente
entre esas variables. Ej. Actitudes con respecto a la educación formal
Las variables teóricas o conceptos pueden presentar distintos niveles de abstracción y en consecuencia
diferentes dificultades para su medición. El proceso de pasaje de las variables generales a las intermedias y de éstas
a los indicadores con el objeto de transformar las variables generales a inmediatamente operativas se denomina
operativización de las variables.
En este procedimiento se pueden distinguir los siguientes pasos:
1. Representación del concepto de variable: implica la definición de la variable, de modo que resulten
expresadas en una noción teórica los rasgos principales que presenta el objeto a estudiar.
2. Especificación del concepto encontrado: involucra el análisis de los aspectos y dimensiones aplicadas en la
representación del concepto de la variable, es decir la especificación de los aspectos que aluden al contenido
del concepto.
3. Elección de indicadores o circunstancias empíricas concretas: implica llevar la concreción hasta su límite
máximo, buscando todos los indicios que en la realidad se puedan considerar como muestra de la dimensión
de que se trata. Por ejemplo: una dimensión de la variable “clase social” es la “posesión de los medios de
producción” y como indicadores de variable se pueden tomar:” las fuentes de rentas” y”la acumulación de
los medios de producción”.
4. Construcción de índices: una vez seleccionados los indicadores que parezcan mas importantes y aptos para
la investigación, es normal que no se pueda asignar a todos la misma importancia. De allí la necesidad de
construir un índice que agrupe en una medida común todos los indicadores referentes a una dimensión,
mediante la asignación de un valor a cada uno de ellos de acuerdo a su importancia. Para integrar varios
indicadores a un índice, estos deben tener entre sí dependencia teórica. Los instrumentos de medición que
se utilizan generalmente en ciencias sociales son los índices sumatorios (nivel económico) tipologías (tipos
de hogar) escala para la medición de actitudes.
Las denominadas metodologías cuantitativas, tienen por objeto la “explicación” de los fenómenos sociales, y se
caracterizan por hacer uso extensivo del método experimental y por encuesta, y de técnicas estadísticas de análisis,
mientras que las cualitativas tienen como objeto la “comprensión” de la realidad social, y privilegian entre otros los
estudios de casos basados en entrevistas no estructuradas, la observación y el análisis del discurso.
En el siguiente cuadro se presentan las principales características de los marcos teóricos que dan lugar a
investigaciones cualitativas y cuantitativas, respectivamente.
Elementos que debe contener el marco teórico que da lugar a diferentes estrategias metodologicas: Según Sautu.
CUANTITATIVAS CUALITATIVAS
-Énfasis mayor en teorías sustantivas. Conceptos teóricos -Énfasis mayor en aspectos epistemológicos que guían el diseño de
que darán lugar a las variables. toda investigación, y en planteos más recientes axiológicos y
-Modelo en el que se postulan las relaciones entre dichas éticos.
variables. -Definiciones de los términos teóricos más abstractos.
-Recorte espacio-temporal del universo teórico. -Énfasis en las prácticas sociales cotidianas.
-Teoría observacional en la cual se apoyan las definiciones -Marco teórico compuesto por conceptos sensibilizadores, es
de las variables. decir, guías que ofrecen un marco de referencia para formular los
-Marco teórico factible de ser transformado en objetivos de investigación: identidad social, estigma.
proposiciones deducibles entre sí, entre las cuales se
encuentran las hipótesis.
Subjetiva Objetiva
No generalizable Generalizable
Holista Particularista
Propensión a "comunicarse con" los sujetos del estudio Propensión a "servirse de" los sujetos del estudio
Son fuertes en términos de validez interna, pero son débiles Son débiles en términos de validez interna -casi nunca sabemos
en validez externa, lo que encuentran no es generalizable a la si miden lo que quieren medir-, pero son fuertes en validez
población externa, lo que encuentran es generalizable a la población
Preguntan a los cuantitativos: ¿Cuan particularizables son los Preguntan a los cualitativos: ¿Son generalizables tus hallazgos?
hallazgos?
En general, las investigaciones cualitativas enfatizan la discusión del paradigma y los principios que sustentan la
posición metodológica, mientras que las investigaciones cuantitativas se centran en la teoría sustantiva del problema
a investigar, ya que de ahí se derivan las proposiciones o conceptos que luego serán incorporados al objetivo de
investigación. Los tres componentes mencionados –paradigma, teoría general y sustantiva– condicionan a través de
la formulación del objetivo las orientaciones metodológicas y el método que es teóricamente pertinente utilizar en
un diseño determinado, así como los criterios de muestreo en la investigación cuantitativa, o la selección de los
casos en la investigación cualitativa (Cuadro 1.6).
Los supuestos epistemológicos son aquellos relacionados con la postura del investigador frente a lo que
desea investigar. Para las investigaciones cuantitativas, el investigador (sujeto) debe separarse de su objeto de
estudio para poder generar conocimiento objetivo sobre él; hay una realidad de naturaleza objetiva, y los valores del
investigador no deben influir en el proceso de conocimiento. Esta imagen de la ciencia como a-valorativa heredada
del positivismo que tomó este modelo de las ciencias naturales ha dominado a las disciplinas sociales durante mucho
tiempo, y aún hoy sigue vigente (Denzin, 2005). Los investigadores cualitativos, en cambio, postulan que la realidad
es subjetiva e inter-subjetiva, y ellos mismos, en tanto actores sociales intervinientes, contribuyen a producir y
reproducir el contexto de interacción que desean investigar. De acuerdo con este supuesto, los investigadores
cualitativos han insistido más en reflexionar acerca de las implicancias de su rol como investigadores, de los efectos
de sus propias prácticas de investigación sobre aquello respecto de lo cual se construye conocimiento. Asimismo, los
investigadores cualitativos, en tanto una corriente contra hegemónica en algunas disciplinas de las ciencias sociales,
se vieron obligados en mayor medida a fundamentar sus prácticas para legitimar sus formas de conocimiento. En la
investigación cuantitativa, los supuestos epistemológicos también son relevantes; sin embargo, no se reflexiona
1tanto sobre ellos debido a que se asumen como generales, como parte constitutiva de la práctica de investigación.
-Grupos focales.
El método: definiciones, características y reglas. Las técnicas como medios operativos del método.
Definiciones
La metodología hace referencia al estudio de los procedimientos utilizados por los métodos, y que han sido
formulados explícitamente en orden a la consecución de un objetivo. Estudia los supuestos que subyacen en la
formulación de los métodos.
Para lograr un conocimiento científico, es preciso seguir determinados procedimientos que nos permitan alcanzar el
fin que nos proponemos, es decir, es necesario seguir un método (un camino que nos aproxime a eta meta).
Precisamente la palabra método deriva del griego y significa “camino para llegar a un resultado”.
El método es el camino a seguir orientado por un conjunto de reglas y un orden de operaciones y procedimientos de
los que se vale una ciencia, praxis o arte para alcanzar determinados resultados. Consiste en el conjunto de pasos
que el investigador sigue en el proceso de producir una contribución al conocimiento.
La diversidad de métodos se deriva de la naturaleza del fenómeno que se va a estudiar. No hay que caer en el error
de que para estudiar cada fenómeno existe un método único. Si puede afirmarse que entre todos los métodos hay
uno más adecuado para el fin propuesto. Tampoco debe pensarse que los métodos son totalmente transferibles
(como por ej. Que los métodos de las ciencias naturales puedan utilizarse sin más en las ciencias sociales); de todos
modos, ello no implica que no haya métodos y procedimientos que no sean válidos para diferentes disciplinas.
El método siguiendo el camino de la ciencia, se ha dividido en:
a) Método general: de la ciencia es aquel que debe aplicarse universalmente y en forma lógica a toda ciencia
vista en su conjunto. Se ha tenido que dividir en 4 sub-métodos que se relacionan formando un conjunto
sistemático y dependiente y pueden considerarse generales para todas las ramas de las ciencias y son:
análisis, síntesis, inducción, deducción. Además de estos 4 sub-métodos genéricos y universales, existen
otros como por ejemplo “método dialéctico”, el cual se caracteriza por su universalidad, es decir aplicable a
todas las ciencias.
El método inductivo-deductivo estudia individualidades para llegar a una conclusión o norma general.
Inductivo: parte de datos particulares para llegar a conclusiones generales; deductivo: parte de datos
generales aceptados como válidos para llegar a una conclusión de tipo particular. El método analítico-
sintético descompone una unidad en sus elementos más simples, examina por separado volviendo a agrupar
las partes para considerarlas en conjunto. Descompone las partes de un todo para estudiarla de manera más
profunda.
b) Métodos particulares: Obedece a la gran diversidad de las ciencias, que para desarrollarse requieren de
estos métodos propios de las mismas. Ej. Métodos matemáticos – Métodos experimentales. Es decir, son
aquellos que se aplican a las ciencias particulares.
c) Métodos específicos: Son aquellos que se utilizan dentro del proceso de investigación científica y que, en
algunos casos, pueden ser también empleados de manera interdisciplinaria. Ejemplo de métodos
particulares y específicos: el método experimental, el estadístico, el de observación.
La palabra método puede utilizarse con un doble significado:
a. Como estrategia cognitiva (métodos de investigación social). En este caso, el método consiste en aplicar una serie
de procedimientos lógicos, sistematizados de tal manera que permitan estudiar, con una fundamentación científica,
hechos, fenómenos, acontecimientos y procesos acerca de los cuales se quiere tener un mayor conocimiento.
b. Como estrategia de acción (métodos de intervención social). El método hace referencia a reglas prescriptivas y a
una serie de procedimientos operativos que orientan las actividades prácticas traducidas en actividades humanas,
cuya intencionalidad es la de transformar una determinada situación social.
Características
El modo de conocer y proceder que tiene la ciencia se ha dado en llamar método científico. Ahora bien, este método
tiene algunas características que suelen considerarse esenciales.
A continuación, señalamos las más importantes, entendidas cada una de ellas en conexión y armonía con las otras.
a) Esfáctico en el sentido de que los hechos son su fuente de información y de respuesta. Sin embargo, aun
cuando siempre tenga una referencia empírica, el método científico va más allá de los datos empíricos.
b) Trasciende los hechos: Si bien el método científico parte del conocimiento de los hechos particulares, no se
detiene en ellos, los trasciende. El científico no se aleja de los hechos y fenómenos, pero los trasciende
problematizándolos, de modo que puedan ir más allá de las simples apariencias. Se trata de conocer,
comprender y explicar los hechos, no de describirlos.
c) Se atiene a reglas formalizadas por las que se articula un conjunto de operaciones y procedimientos
establecidos de antemano y que hay que realizar para alcanzar un resultado determinado. Si bien todo
método tiene un fuerte énfasis en lo procedimental, no por ello desecha o subestima la intuición y la
imaginación a la que puede apelar el investigador.
d) Se vale de la comprobación empírica para formular respuestas a los problemas planteados y para apoyar
sus propias afirmaciones, exigiendo una constante confrontación con la realidad que lleva a la
problematización aun de lo ya admitido
e) Es objetivo, ya que el investigador, como sujeto/observador/conceptuador, debe alterar lo menos posible lo
que observa, en cuanto su subjetividad también está en juego.
f) Sus formulaciones son de tipo general. No se trata de que el método científico “ignore la cosa individual o el
hecho irrepetible; lo que ignora es el hecho aislado”, puesto que sus enunciados son universales.
g) Esta permanente confrontación hace que el método científico sea, además, auto correctivo y progresivo; es
auto correctivo en cuanto va rechazando, corrigiendo o ajustando las propias conclusiones en la medida en
que nuevos datos demuestran la existencia de algún error u omisión; Es progresivo ya que, al no tomar sus
conclusiones como infalibles y finales, está abierto a nuevos aportes y a la utilización de nuevos
procedimientos y de nuevas técnicas.
Reglas
Mario Bunge define al método científico como la estrategia de la investigación científica que afecta al ciclo completo
de la investigación y es independiente del tema en estudio y del conocimiento respecto de dicho tema. No existe un
método científico único, se encuentran muchas interpretaciones según sean las corrientes del pensamiento.
Fundamentalmente, el método científico consiste en establecer unas reglas o procedimientos generales que, al
formar parte de una estrategia cognitiva, proporcionen una cierta garantía en la obtención de los resultados
propuestos en la investigación.
Según Bunge, estas reglas o pasos operativos pueden resumirse en los siguientes puntos:
• formular correctamente el problema;
• proponer una tentativa de explicación verosímil y contrastable con la experiencia;
• derivar consecuencias de estas suposiciones;
• elegir los instrumentos metodológicos para realizar la investigación;
• someter a prueba los instrumentos elegidos;
• obtener los datos que se buscan mediante la contrastación empírica;
• analizar e interpretar los datos y la información recogida;
• estimar la validez de los resultados obtenidos y determinar su ámbito de validez: hacer inferencias a partir
de lo que se ha observado o experimentado.
elementos prácticos, concretos y adaptados a un objeto bien definido. Nunca las técnicas se han de considerar
aisladamente en su mero carácter instrumental; han de estar siempre articuladas y al servicio de los métodos.
Cuando las técnicas o procedimientos se utilizan de manera aislada, se corre el riesgo de caer en una concepción
tecnocrática de la investigación social o en una especie de fetichismo metodológico.
Entonces ¿cuál es la relación que existe entre método y técnica? Mientras las técnicas tienen un carácter práctico y
operativo, los métodos se diferencian de ellas por su carácter más global y de coordinación de operaciones. Las
técnicas se engloban dentro de un método y, a la inversa, un método comporta el uso de diferentes técnicas; sin
embargo, en la práctica de determinadas tecnologías sociales, no siempre resulta fácil delimitar claramente las
fronteras que separan los métodos de las técnicas. Lo que está bastante claro en el pensamiento actual es la
estrecha relación que existe entre el método y las técnicas, y entre las ciencias y la tecnología.
Podríamos resumir todo lo concerniente a la comparación y las relaciones entre metodología, método y técnica, en
las siguientes ideas:
• La metodología hace referencia al estudio de los métodos y de los supuestos subyacentes en éstos.
• El método puede expresarse como una forma de estrategia cognitiva (para adquirir conocimientos) o como
estrategia de acción (que oriente de manera práctica las formas de intervención social). En uno y otro caso son un
conjunto de reglas, procedimientos y actividades orientadas al logro de objetivos.
• Las técnicas son los procedimientos o conjunto de actuaciones que hacen operativos a los métodos; están siempre
al servicio de un método.
• Un método se basa en una serie de reglas o procedimientos generales de carácter abierto; las técnicas son un
conjunto de actuaciones pre-establecidas que tienen un carácter más rígido y cerrado.
Abundando en la idea ya expuesta acerca de la validez relativa de los métodos y las técnicas, recordamos con Bunge
que ningún método o técnica de investigación es exhaustiva o infalible. No basta leerlas en un manual, hay que
vivirlas para comprenderlas. Ni dan resultado todas las veces. El que resulten depende no sólo de la táctica o
método, sino también de la elección del problema, de los medios (conceptuales y empíricos) disponibles y, en menor
medida, del talento del investigador. El método no suple el talento, sino que lo ayuda.
f. Función del investigador: El investigador se introduce en la investigación. Se sumerge en el objeto real. Las
vivencias del investigador se convierten en datos.
Es en este marco en donde se debería abordar también otra dicotomía que ha ganado el campo investigativo en
ciencias sociales en los últimos tiempos. Nos referimos a la separación entre investigaciones cualitativas y
cuantitativas, como instancias metodológicas antagónicas, señalando la contraposición entre dos lógicas de
investigación: la lógica cualitativa que permite la “comprensión” de la realidad social, y la lógica cuantitativa cuyo
objeto es la “explicación” de los fenómenos sociales. Contraposición que, recordemos, tiene su origen en la discusión
acerca del status epistemológico de las ciencias sociales y su diferenciación con las ciencias naturales que ha
atravesado el pensamiento filosófico y científico durante los siglos XIX y XX. Situación que se corrobora con la actitud
de investigadores que sostienen que el llamado método científico, asociado a una lógica cuantitativa es apropiado
para las ciencias naturales. Mientras que una realidad multifacética como la social, necesita de propuestas
metodológicas especiales, generando una gran proliferación de técnicas cualitativas que se adoptan como las
indicadas para las ciencias sociales. Esta postura puede clarificarse a partir del siguiente cuadro comparativo, que
permite entender cuáles serían los criterios que se toman en cuenta para sostener dicha dualidad.
(desgrabado de clases)
El proceso de investigación puede llevarse adelante a través de dos enfoques diferentes: uno de ellos es el enfoque
cuantitativo y el otro el enfoque cualitativo. ¿De qué va a depender la elección de uno u otro enfoque? Va a
depender de los objetivos de la investigación, de lo que nos propongamos en la investigación; y también
fundamentalmente de la profundidad con la cual yo quiera estudiar el fenómeno o el objeto de investigación sobre
el que se va a trabajar.
El enfoque cuantitativo nos ofrece como resultado final de nuestra investigación una imagen general del fenómeno,
superficial. A diferencia del enfoque cualitativo que lo que va a hacer es profundizar en determinado aspecto del
fenómeno, vamos a bucear en el fenómeno para llegar a un conocimiento profundo.
Enfoque cuantitativo: imagen en conjunto- global; superficial del fenómeno.
Enfoque cualitativo: profundizamos hasta llegar a aspectos profundos de un fenómeno.
Enfoque cuantitativo: ejemplo un bosque en su totalidad, en su globalidad. Vemos flora, fauna, vemos la actividad
del sol, la superficie. Vemos una imagen en conjunto del fenómeno.
Enfoque cualitativo: ejemplo un árbol. En el enfoque cualitativo se vuelve a hacer un zoom sobre determinados
elementos del fenómeno. Se va a estudiar determinados aspectos del fenómeno en profundidad. No se va a
estudiar el ecosistema bosque sino las características botánicas que presenta la especie árbol, características en
cuanto a producción de frutos, en cuanto a su crecimiento. SE INDAGA EN ASPECTOS CONCRETOS Y EN
PROFUNDIDAD DEL FENOMENO.
La diferencia entonces entre estas dos técnicas es la profundidad con la que se pretende estudiar determinado
objeto de investigación. Grado de profundidad.
-Enfoque cualitativo
¿En qué se basa?
Se basa en el análisis, en el estudio del comportamiento de los sujetos, de los individuos, y su significación o su
influencia, o de su determinación en la interacción social.
¿Qué demandan las técnicas de enfoque cualitativo?
Demandan en la generalidad de los casos un largo periodo de estadía del investigador en el campo de estudio
normalmente.
Demandan interacción entre el investigador y de los individuos o sujetos que forman parte del fenómeno en estudio.
Además ir realizando narraciones, descripciones detalladas, de lo que vamos observando como investigadores y
tomar registros cuidadosos de todo lo que se va observando. De eso se trata los enfoques cualitativos.
En los enfoques cualitativos el investigador es instrumento de medida ¿Por qué? Porque él va a ir directamente a
involucrarse con los integrantes que forman parte del fenómeno de estudio. El se va a insertar en el fenómeno. No
va a ser un mero estudio bibliográfico, en donde va a estudiar datos secundarios. El investigador va a ir al fenómeno,
se va a insertar, va a interactuar, con los integrantes, con los sujetos del fenómeno social que está siendo estudiado.
Por eso decimos que él mismo es un instrumento de medida, en este tipo de estudio, o de investigaciones, por la
envergadura o profundidad de este tipo de estudio, por la profundidad con el que estudia los fenómenos, es que
normalmente se lleva a cabo este tipo de enfoques en investigaciones de pequeña escala.
Ejemplo una investigación dentro de un enfoque cualitativo, en todo el curso de seminario, en determinados
aspectos de cada uno, en detalles, no se terminaríamos nunca. Entonces se va a tener que reducir nuestra muestra,
estudiamos con tanta profundidad los fenómenos, que la investigación se reduce.
No tiene reglas de procedimiento: las técnicas dentro de los enfoques cualitativos son técnicas flexibles,
normalmente las hipótesis, los conceptos, se van elaborando en la medida que se va realizando la investigación.
Excepción: no partimos de la regla, es decir, de tener la hipótesis previamente para salir al campo a investigar. Sino
que directamente en este caso se sale al campo porque no tenemos todavía un conocimiento profundo de la
cuestión, se sale con un conocimiento muy vago. Incluso en algunas técnicas se requiere que el investigador no
conozca tan en detalle el tema.
Entonces vamos a salir desde la realidad empírica, vamos a relacionarnos con el fenómeno y recién cuando
empecemos a comprenderlo vamos a ir elaborando la hipótesis.
Puede que el hecho de conocer el tema antes de elaborar la hipótesis le puede sesgar los resultados, porque puede
influir este conocimiento, en el análisis que el investigador haga de los datos y no necesariamente de la propia
realidad. Puede llegar a tener una tendencia subjetiva, si se instruye antes. Por ende se sugiere en las distintas
técnicas que no se conozca tanto el tema, así también como saber dónde ir a buscar el dato.
Enfoque cuantitativo
¿En qué se basa?
Se basa en el uso de técnicas estadísticas para conocer ciertos aspectos de interés sobre la población que se está
estudiando, es decir que las partes representan el “todo”. Es por ello que utiliza una muestra, lo que le permite
generalizar los resultados adjudicando a cierta porción el todo. Las variables a estudiar pueden ser tanto objetivas:
número de hijos, cantidad de ingreso, etc. O subjetivas: opiniones, valoraciones, etc.
¿Qué demandan las técnicas de enfoque cuantitativo?
TÉCNICAS QUE CONFORMAN ESTE TIPO DE ENFOQUE
Encuesta.
El diseño de investigación jurídica.
Se da un paralelismo entre la formulación del marco teórico de la investigación (que tiene por finalidad analizar el
objeto en tanto construcción teórica, para permitir una aproximación conceptual) y la elaboración del diseño de la
investigación (que se ocupa de abordar el mismo objeto en tanto fenómeno empírico, para lograr confrontar así la
visión teórica del problema con los datos de la realidad)
Si el conocimiento es un proceso intrínsecamente teórico-práctico, donde las ideas e hipótesis deben ser
confrontadas permanentemente con los hechos empíricos, para poder afirmarlas o negarlas, se comprende la
importancia de trazar un modelo conceptual, y otro operativo que nos permita efectuar ese cometido.
El diseño de investigación se ocupa de proporcionar un modelo de verificación que permita contrastar hechos con
teorías, y su forma es la de una “estrategia” o “plan general” que determina las operaciones necesarias para hacerlo.
Así, por ejemplo, si nuestra aproximación teórica nos lleva a suponer que la esquizofrenia tiene un origen orgánico,
tendremos que elaborar un método para poder comprobar si tal afirmación se corresponde o no con la realidad.
Definir qué pruebas de laboratorio, qué observaciones y análisis de conductas son los pertinentes para llegar a esa
comprobación, es lo que llamamos elaborar un diseño. Resulta claro, entonces, el sentido de lo que hemos
denominado momento metodológico de la investigación: en el mismo no se trata ya de definir qué vamos a
investigar, sino cómo vamos a hacerlo.
Realizar el diseño de una investigación significa llevar a la práctica los postulados generales del método científico,
planificando una serie de actividades sucesivas y organizadas donde se encuentran las pruebas a efectuar y las
técnicas a utilizar para recolectar y analizar los datos. El diseño es, pues, una estrategia general de trabajo que el
investigador determina una vez que ya ha alcanzado suficiente claridad respecto a su problema y que orienta y
esclarece las etapas que habrán de acometerse posteriormente.
El diseño de investigación es la planificación de actividades que deben llevarse a cabo para solucionar los problemas
o contestar las preguntas planteadas. Sirve para poder situar al investigador en el mundo empírico y saber las
actividades que tendrá que realizar para poder alcanzar el objeto sugerido.
El diseño de investigación consiste en la planificación de tres tipos de acciones:
a. Las destinadas a establecer que se va a investigar.
b. Las destinadas a establecer cómo se va a investigar (requiere métodos, técnicas e instrumentos específicos)
c. Y las acciones destinadas a interpretar los hallazgos.
Se pueden distinguir tres dimensiones para la formulación de un diseño de investigación:
a. Dimensión epistemológica: Hace referencia a las decisiones que el investigador realiza para la construcción del
objeto de investigación (marco teórico: conceptos y categorías teóricas, objetivos fuentes y antecedentes de la
investigación)
b. Dimensión de la estrategia general de la investigación: Se refiere a las decisiones que el investigador toma acerca
de las líneas generales previstas como sustento o andamiaje de la investigación, las cuales guardan coherencia con
las decisiones tomadas en la dimensión epistemológica y fundamentalmente con los objetivos de la investigación. Es
decir, si el objetivo general es explicar, comprender o interpretar los fenómenos.
c. Dimensión de las técnicas de recolección y análisis de la información: Corresponde al conjunto de decisiones que
el investigador toma en relación con la elección y aplicación de técnicas de recolección y análisis de información
empírica. Cobra sentido solo en relación a la lógica de la investigación. Se eligen e implementan las técnicas de
relevamiento y análisis
Diseño/método experimental
Consiste en someter el objeto de la investigación a un estímulo, es decir, a la influencia de una variable para
observar cómo reacciona ante el mismo, en condiciones controladas y conocidas por el investigador. Asi por
ejemplo, si tomamos de objeto un trozo de algún material y lo hacemos sufrir esfuerzos mecánicos (presiones,
tensiones, etc), que medimos cuidadosamente, podremos alcanzar un conocimiento muy seguro y claro con
respecto a la resistencia de ese material.
No hay limitaciones en cuanto a los estímulos o variables, excepto que el objeto de estudio sea un humano, donde
habrá limitaciones de carácter ético y lo referente a los derechos humanos.
- Solamente después con dos grupos: grupo experimental que sufre la aplicación del estímulo y grupo de
control que no sufre los estímulos.
En este caso debemos construir dos grupos, que se denominarán grupo experimental (destinado a recibir el
estímulo) y grupo de control (que nos sirve de punto de referencia para apreciar las variaciones que se produzcan en
el anterior). Como es necesario efectuar las mediciones comparando los resultados entre ambos grupos éstos deben
ser, en todas las características de relevancia que sea posible controlar, lo más semejantes posibles, ya que no
iguales. Esta tarea de igualación de los grupos se denomina homogeneización, y para llevarla a cabo se apela a
procedimientos de muestreo. En este tipo de experimento no se realizan mediciones antes de la aplicación del
estímulo: se aplica éste solamente al grupo experimental y se mide finalmente a ambos grupos. Siendo los grupos
previamente homogeneizados se puede inferir que toda variación significativa que encontremos entre ellos
obedecerá a la influencia del estímulo aplicado.
Ej: SOLAMENTE DESPUES CON DOS GRUPOS:
1º GRUPO DE CONTROL: no sufre ninguna variable: grupo trabajando normalmente con luz artificial.
(PARÁMETRO)
2º GRUPO EXPERIMENTAL: se le aplica la variable/ estimulo: grupo trabajando con luz natural/ ventanas
COMPARACIÓN GRUPO DE CONTROL CON GRUPO EXPERIMENTAL= RESULTADO- HIPOTESIS
Es lo mismo que el antes y después solo que en ese caso el parámetro estaba dado por el mismo grupo ANTES, es
decir, se mide antes y después.
Es el segundo caso solamente se mide el DESPUES, cuyo parámetro esta dado por el grupo de control, el cual no
sufrió ninguna variable.
- Antes y después con un grupo de control
Se basa en los mismos principios que el método anterior, pero con la diferencia de que aquí las mediciones se hacen,
antes y después del estímulo, a ambos grupos. Ello nos previene contra los posibles defectos de la igualación y nos
permite también tener en cuenta la influencia de cualquier situación que pueda originar variaciones simultáneas en
ambos grupos y que de otro modo no detectaríamos. Entre estas situaciones es preciso tomar en cuenta la
alteración que nuestras mediciones, o el posible conocimiento de hallarse en situación experimental, siempre
originan sobre la conducta de los grupos. Si llamamos GE al valor de la medición inicial para el grupo experimental y
GC al valor de la misma para el grupo de control, y designamos con GE’ y GC’ a los valores respectivos de las
mediciones finales para ambos grupos, el efecto e, producido por el estímulo, puede calcularse de la siguiente
manera:
e= (GE’ - GE) B (GC’ - GC)
Los esquemas antedichos son los más simples que se emplean, pero existen modelos que se denominan Antes y
después con dos grupos de control, Antes y después con tres grupos de control, y otras variaciones sobre estos
modelos básicos. Estas formas más sofisticadas resultan especialmente útiles para medir influencias no consideradas
previamente y para descartar inadvertidos errores de medición. Dan lugar, por lo general, a conocimientos más
precisos y valiosos, aunque su ejecución es más costosa y su aplicación más delicada.
EJ:
1º EVALUACIÓN ANTES DE LOS DOS GRUPOS
2º EVALUACION DE AMBOS GRUPOS DESPUES
RESULTADO= EFECTOS DEL GRUPO EXPERIMENTAL INFLUYERON EN EL GRUPO DE CONTROL. ESTO DEMUESTRA QUE
EL GRUPO DE CONTROL PUEDE VARIAR: puede ser que el grupo de control (empleados trabajando con luz artificial,
no estén de acuerdo con que el otro grupo experimental este trabajando con luz natural, en mejores condiciones.
En este caso redujo el rendimiento.
Diseño no experimental o post-facto
El experimento post-facto quiere decir “experimento que se realiza después de los hechos”. Por su método no se
trata de un verdadero experimento, pues en él, el investigador no controla ni regula las condiciones de la prueba,
pero si puede considerárselo como tal si nos atenemos al procedimiento lógico del cual se vale, que es idéntico al de
los experimentos propiamente dichos.
Consiste en tomar como experimentales situaciones reales que se hayan producido espontáneamente, trabajando
sobre ellas como si efectivamente se hubieran dado bajo nuestro control. Si en un país tenemos dos regiones
geográficas A y B, por ejemplo, que en cuanto a una serie de variables tienen un comportamiento similar, y ocurre
un hecho en una sola de ellas, digamos la apertura de una carretera troncal, podemos tomar a este hecho como si
fuera un estímulo y atribuir a él las modificaciones que se produzcan luego en esta región y no en la otra. Ello resulta
legítimo en tanto éste haya sido el único factor de importancia que diferencie ahora a las dos regiones, que hasta
entonces considerábamos básicamente como homogéneas. En este ejemplo, podemos atribuir un incremento del
comercio o un cambio de pautas sociales de comportamiento a los efectos directos o indirectos del mayor contacto
que supone esa vía de comunicación. Idéntico procedimiento se emplea para estudiar la influencia de fuerzas
tectónicas sobre la corteza terrestre, la evolución de una epidemia. Como se ve, nuestro razonamiento en nada
difiere del que hacíamos en método experimental. Sólo los hechos son diferentes en el experimento post-facto, pues
son hechos espontáneos, incontrolados, no producidos por el investigador. Por esta última razón sus conclusiones
tienen menos validez, en términos generales, que las de un experimento en sentido estricto, aunque pueden
tomarse como ciertas si las mediciones se han hecho con cuidado y se contemplan los principales factores
intervinientes.
En síntesis, el investigador se vale de un estímulo que se produce de manera espontánea (no es generado por el)
para poder estudiar el fenómeno. Por ej. ¿Cómo reaccionan los grupos humanos ante las catástrofes? El investigador
no va a provocar un tornado, sino que se va a valer del estímulo cuando el mismo (tornado) se produzca para
investigar el fenómeno
-Se realiza después del hecho.
-No es el investigador quien va a generar el estímulo: SE PRODUCE DE MANERA ESPONTANEA.
-Diferencia con el método experimental, está dada en HECHOS – ESTIMULOS EXPONTANEOS. En los métodos
experimentales el investigador provoca el estímulo o somete un hecho a una variable, en cambio, //en el método
experimental post facto, el estímulo se produce espontáneamente.
Clasificaremos dichos diseños por la cantidad y distribución de los momentosen los cuales se recolectan datos: así
tenemos los diseños transversales y los diseños longitudinales.
1) Diseños transversales
Los diseños de investigación transversales recolectan datos en un solomomento, en un tiempo único. Su propósito
es describir variables (o describir comunidades, eventos, fenómenos o contextos) y analizar su incidencia o
interrelaciónen un momento dado. Es como tomar una fotografía de algo que sucede. Por ejemplo, un censo, donde
la información se recoge toda en un mismo día, y los resultados (que se conocen varias semanas después) nos
describen el estado en que estaba la población, en el momento en que se recolectó la información. Puede abarcar
varios grupos o subgrupos de personas, objetos o indicadores; así como diferentes comunidades, situaciones o
eventos. Pero siempre, la recolección delos datos ocurre en un momento único.
A su vez, los diseños transversales se dividen en tres, de acuerdo a su alcance:
exploratorios, descriptivos y correlacionales/causales.
-Diseños transversales exploratorios:Se trata de una aproximación inicial a un fenómeno, en un momento
específico, con objeto de encontrar cuales son los aspectos más importantes del fenómeno investigado, que luego se
podrán estudiar con mayor profundidad. Por lo general, se aplican a problemas de investigación nuevos o poco
conocidos, y constituyen el preámbulo de otros diseños. Son muy utilizados dentro del enfoque cualitativo para lo
que hemos denominado “inmersión inicial del campo”. Por ejemplo, este tipo de estudio se realizaría como sondeo
de opinión para conocer quiénes podrían ser los candidatos a gobernador dentro de una provincia.
-Diseños transversales descriptivos: Tienen como objetivo indagar los valores en que se manifiestan una o más
variables (dentro del enfoque cuantitativo) o proporcionar una visión de una comunidad, un fenómeno o una
situación (describir, como su nombre lo indica, dentro del enfoque cualitativo). Por ejemplo, si un estudio
exploratorio ya determinó quienes podrían ser candidatos a gobernador, un estudio descriptivo serían las encuestas
provinciales sobre las tendencias de los votantes. Su objetivo es describir el número de votantes en una provincia
que se inclina por los diferentes candidatos en un momento previo a la elección. Es decir, se centran en la
descripción de las preferencias del electorado (cuyo enfoque es fundamentalmente cuantitativo).
-Diseños transversales correlacionales-causales: Estos diseños describen relaciones entre dos o más categorías,
conceptos o variables en un momento determinado. Se tratatambién de descripciones, pero no de categorías,
porcentajes, conceptos ni variables,sino de sus relaciones. Lo que se mide (enfoque cuantitativo) o analiza (enfoque
cualitativo) es la asociación entre categorías, conceptos o variables en un tiempo determinado. Pueden limitarse a
establecer relaciones entre variables sin precisar sentido de causalidad. Cuando se limitan a relaciones no causales
se fundamentan en ideas o hipótesis correlacionales; y cuando buscan evaluar relaciones causales, se basan en ideas
o hipótesis causales. Debemos recordar que la causalidad implica correlación pero no todacorrelación significa
causalidad. Primero establecemos correlación y luego causalidad. Cuando establecen relaciones causales el estudio
pasa a ser explicativo.
2) Diseños longitudinales
Analizan los cambios a través del tiempo en determinadas variables, o en las relaciones entre estas.
Los diseños longitudinales, recolectan datos varias veces a lo largo de unperíodo de tiempo, para hacer
descripciones o inferencias sobre los cambios que vansufriendo una o varias variables, sus determinantes y sus
consecuencias, a través deltiempo.
La frecuencia con que se recolectará la información en el tiempo, por lo común se especifican de antemano en el
enfoque cuantitativo, y se van determinando conforme avanza el estudio en el enfoque cualitativo (en las
modalidades mixtas pueden ocurrir ambas cosas). Suelen dividirse en tres tipos: diseños de tendencia (trend),
diseños de análisisevolutivo de grupos (cohort) y diseños panel.
-Diseños longitudinales de tendencia: Son aquellos que analizan cambios a través del tiempo (en conceptos,
variables o sus relaciones), dentro de alguna población engeneral. Por ejemplo, una investigación para analizar
cambios en la actitud hacia la eutanasia en la población de Córdoba. Dicha actitud se mide y cuantifica (enfoque
cuantitativo) o se recolecta información (enfoque cualitativo) en varios puntos en el tiempo (durante 10 años por
ejemplo) y se examina su evolución a lo largo de este periodo. Cada vez que se recolecte información, se tomará una
muestra, sin necesidad de que cada muestra esté constituida por los mismos sujetos cada año.
-Diseños longitudinales de evolución de grupo: Los diseños de evolución de grupo o estudios de cohortexaminan
cambios a través del tiempo en subpoblaciones o gruposespecíficos. Su atención son las cohortso grupos de
individuos vinculados de alguna manera, generalmente la edad. Un ejemplo podría ser el formado por las personas
que nacieron en Argentina durante la última dictadura militar (1976-1983). Tales diseños hacen seguimiento de los
grupos a través del tiempo. Cuando se fundamentan en el enfoque cuantitativo, por lo común se extrae una muestra
cada vez que se recolectan datos sobre el grupo o la subpoblación. Su característica distintiva es entonces quesiguen
a un grupo específico, no a una población en general, pero cada vez que se recolecta información, la muestra no está
necesariamente constituida por los mismos sujetos.
Diseño encuesta
El “diseño encuesta” (también se lo conoce con el nombre de diseño descriptivo) es exclusivo de las ciencias sociales
y parte de la premisa de que, si queremos conocer algo sobre el comportamiento de las personas, lo mejor, más
directo y simple es preguntárselo directamente a ellas. Se trata de requerir información a un grupo socialmente
significativo de personas acerca de los problemas de estudio para luego, mediante un análisis de tipo cuantitativo,
sacar las conclusiones que se correspondan con los datos recogidos.
-Censos: Hablamos de censo cuando por medio de este diseño se recaba información a todas las personas
involucradas en el problema en estudio. Presentan dificultades materiales en cuanto a su realización, pudiendo ser
solo acometidos por los estados o instituciones de amplios recursos. Son útiles para cualquier trabajo de indagación
social, pero por la gran cantidad de personas a entrevistar, no es factible obtener una información detallada, ya que
serían trabajos difíciles de analizar y ejecutar. Por estas razones los censos se realizan normalmente cada cierto
tiempo, cinco o diez años, por ejemplo, tratando de que sus resultados sean comparables para permitir apreciar el
cambio histórico en las poblaciones y sus condiciones de vida.
-Encuestas por muestreo: En lugar de los censos, suelen utilizarse las encuestas por muestreo, que consisten en la
elección mediante procedimientos estadísticos de una parte significativa de todo el universo, que se toma como
objeto a investigar.
Las conclusiones que se obtienen para este grupo se proyectan luego a la totalidad del universo teniendo en cuenta,
eso sí, los errores muéstrales que se calculen para el caso.
De esta forma los hallazgos obtenidos a partir de la muestra pueden generalizarse a todo el universo con un margen
de error conocido y limitado previamente por el investigador.
Las ventajas de este método consisten en que su conocimiento de la realidad es primario y por tanto menos
engañoso; permite agrupar los datos en forma de cuadros estadísticos haciendo más accesible la medición de las
variables en estudio. Es un método de trabajo relativamente económico y rápido.
Diseño panel
El “diseño panel” surge como respuesta al panorama estático que ofrecen las encuestas, y pretende superar esa
dificultad a través de la repetición de mediciones normalizadas. Se llama panel a toda sucesión de mediciones que se
hacen en condiciones regulares y se aplica a determinar los valores de una variable, para un cierto objeto. Es una
forma de presentación secuencial de datos que proporciona información acerca de sus variaciones en el tiempo. Se
utiliza en todos los casos un mismo instrumento de recolección de datos, que permite la exacta comparación de los
resultados y posibilita hacer analisis de tendencias.
De este modo, este tipo de diseño se aplica para diversas variables, como, por ejemplo, la información económica,
debido a que no tiene sentido hablar del producto territorial bruto de un país, o de su tasa de inversión si no
ubicamos estos datos dentro de una perspectiva histórica. Lo mismo ocurre respecto del porcentaje de la población
humana, que solo adquiere verdadera significación cuando se conocen en su tendencia evolutiva.
En síntesis, el panel vendría a ser una encuesta repetida, es decir, un mismo cuestionario que se administra a una
misma muestra para observar la evolución y las modificaciones en las respuestas, para lograr conocer así las
tendencias de las variables estudiadas.
Una dificultad que presenta este diseño es lo que se denomina mortandaddel panel, que consiste en la progresiva
reducción de la muestra por diversas causas: traslados, fatiga y otros problemas semejantes. Al reducirse el número
total de entrevistados el error muestral aumenta progresivamente, lo cual repercute de modo negativo sobre la
calidad de los resultados. El otro problema que se asocia a los paneles mediante encuestas es lo que se denomina
saturación del panel, que consiste en una especie de actitud de rechazo progresivo por parte de los entrevistados.
Después de ser sometida a responder tres, cuatro o cinco veces a las mismas preguntas, la gente tiende a cansarse
de ellas: surgen respuestas estereotipadas, de mala voluntad, hay apresuramiento para responder y otros problemas
similares que incrementan sensiblemente los errores.
Los diseños cualitativos.
En las ciencias sociales el objeto de estudio es, muchas veces, el propio sujeto humano, complejo y singular, cargado
con su propia historia, irreductible casi a cualquier tipo de simplificación que no lo mutile arbitrariamente. En todo
caso él es siempre el punto de referencia, directo o indirecto, imprescindible para la comprensión profunda de los
problemas. Los diseños cualitativos, exclusivos de este campo del conocimiento, intentan recuperar para el análisis
parte de esta complejidad del sujeto y de sus modos de ser y de hacer en el medio que lo rodea. Lo íntimo, lo
subjetivo, por definición difícilmente cuantificables, son el terreno donde se mueven por lo tanto los métodos
cualitativos. Los métodos cualitativos reconocen antecedentes en las investigaciones de antropólogos y etnógrafos y
se emplean en el trabajo de diversas corrientes sociológicas: el interaccionismo simbólico de George Mead, la
fenomenología de Alfred Schutz, la etnometodología de Garfinkel y la dramaturgia de Goffman, entre otras. Cada
una de estas maneras de abordar los problemas del sujeto en su medio social implica supuestos y técnicas
diferentes, bastante sutiles en la mayoría de los casos y no siempre compatibles entre sí. Los relatos biográficos, las
llamadas historias de vida, son piezas claves dentro de los diseños cualitativos. Con esta técnica se conoce no sólo la
historia del sujeto sino también la historia de su medio, pues cada individuo se encuentra en permanente interacción
con el ambiente que lo rodea, y se puede así profundizar en su sistema de valores y representaciones, creencias y
expectativas.
El estudio de casos.
Consiste en el estudio profundizado y exhaustivo de uno o muy pocos objetos de investigación, lo que permite
obtener un conocimiento amplio y detallado de los mismos (lo cual es casi imposible de alcanzar mediante los otros
diseños considerados). Tiene como base la idea de que si estudiamos con atención cualquier unidad de conjunto
determinado estaremos en condiciones de conocer algunos aspectos generales de este.
Así, si nuestro interés es conocer la estructura y el funcionamiento de las universidades, podemos partir del
supuesto de que todos los objetos que pertenecen a la categoría universidad tienen algunas características en
común, que precisamente permiten ubicarlos dentro de esta categoría general. Si estudiamos una universidad
cualquiera podremos, entonces, reconocer esas líneas comunes o por lo menos obtener un punto de partida para
ello.
Si conocemos previamente el universo de los objetos investigados, y en vez de tomar un solo caso estudiamos una
variedad de ellos, será posible extraer conocimientos mas confiables. Para ello hay que seleccionar casos de interés
de acuerdo a ciertos criterios como los sigueintes
Buscar casos típicos: se trata de explorar objetos que, en función de la información previa, parezcan ser la mejor
expresión del tipo ideal que los describe. Es preciso definir concretamente aquéllo que llamamos tipo ideal y luego
encontrar un caso que responda a este modelo. De esta forma podremos conseguir una apreciación más profunda
sobre todo el conjunto implicado. Seleccionar casos extremos: se pueden tomar algunas de las variables que
intervienen en el problema y escoger casos que se ubiquen cerca de los límites de las mismas. Así podríamos
considerar una universidad muy antigua y otra de reciente creación, o una grande y otra pequeña, etc.
Tomar casos desviados o marginales: se trata aquí de encontrar casos atípicos o anormales para, por contraste,
conocer las cualidades propias de los casos normales y las posibles causas de su desviación. Es una forma que la
medicina y la psiquiatría han usado frecuentemente, analizando los casos patológicos para, por oposición, llegar a
determinar en qué consiste un individuo sano. Es muy conveniente, cuando es posible, confrontar casos desviados o
marginales con casos típicos, tomando un elemento de cada una de estas características.
Diseño exploratorio
El diseño exploratorio es aquel que procede en los casos en que no hay indagación previa del tema. Proponen una
visión general, aproximada o comprensiva acerca de un fenómeno que todavía es poco conocido. El diseño
exploratorio se subdivide en:
a. Diseños descriptivos: Trata de narrar, especificar propiedades ya sea de personas, grupos o cualquier otro
fenómeno sometido a análisis. Lo importante es explicitar con todos los detalles los diversos aspectos del fenómeno
a investigar. Según Mario Bunge este tipo de diseño consiste en responder: ¿Qué es? ¿Dónde está? ¿De que esta
hecho? ¿Cómo se interrelacionan sus partes? Ej. el censo
Tienen por finalidad brindar una narración en detalle, de manera profunda acerca del fenómeno y especificar
propiedades del tipo. Lo que hace es describir al fenómeno sujeto a investigación. Por ejemplo: perfiles de los
graduados. Por ejemplo, el censo nacional (el objetivo es medir una serie de características de un país en
determinado momento, aspectos de vivienda, sus bienes, ingreso, alimentación, edades, sexo, lugar de nacimiento,
etc.
b. Diseños explicativos: Son de tipo causal, y consiste en explicar el comportamiento de las varialbes y las relaciones
que se establecen entre ellas. Busca establecer el origen o causa de ciertos fenómenos, determinando cual es la
incidencia de una variable sobre otra. Indaga en las causas, motivos, etc. Por ej: fenómeno de la evaporación y
formación de nubes determina el fenómeno climático de la lluvia.
Son aquellos que dan cuenta de las reacciones causales: son de tipo causal, tratan de explicar el origen o la
consecuencia de un fenómeno. Explican el comportamiento de las variables y las reacciones existentes entre ellos.
Explican la relación de causalidad entre las distintas variables que componen un fenómeno, una hipótesis. Ej. La
desocupación es la causal de la disminución de estudiantes que ingresan a la universidad.
1. Investigación cualitativa en ciencias jurídicas: compresión del campo de investigación, selección intencional de
los casos y la lógica del muestreo teórico. Características del proceso. Flexibilidad e interactividad del diseño.
I
NVESTIGACIÓN CUALITATIVA EN CIENCIAS JURÍDICAS:
En un proceso de investigación, podemos optar por diferentes enfoques: el cualitativo y el cuantitativo. La elección
de uno u otro enfoque, dependerá de la profundidad con la que se desea estudiar el objeto de investigación.
De este modo, la estrategia cualitativa, profundizara en determinados aspectos del fenómeno, es decir que bucea en
el mismo, para llegar a un conocimiento profundo. Por ejemplo, estudia el árbol dentro del bosque (no estudia el
ecosistema bosque, sino, por ejemplo, las características botánicas que presenta la especie árbol, las características
en cuanto a la producción de sus frutos, de su crecimiento, etc. Se indaga en aspectos concretos y en profundidad
del fenómeno)
Mientras que la estrategia cuantitativa nos dará una imagen general, un enfoque global del fenómeno (por ejemplo,
estudia al bosque como un conjunto global)
La lógica cualitativa permite la comprensión de la realidad social, mientras que la lógica cuantitativa tiene como
objeto la explicación de los fenómenos sociales.
-Mientras que el “enfoque cuantitativo” se basa en el uso de técnicas estadísticas para conocer ciertos aspectos de
interés sobre la población que se esta estudiando. Es decir que las partes representan al todo. Es por ello que utiliza
la muestra, lo que le permite generalizar los resultados adjudicando a cierta porción el todo. Las variables a estudiar
pueden ser tanto: a. Objetivas: número de hijos, cantidad de ingreso, etc.; o b. Subjetivas: opiniones, valoraciones,
etc.
El enfoque cuantitativo:
a. Presta escasa atención a los estados subjetivos de los individuos.
b. Tiene una perspectiva “desde afuera”.
c. Es generalizable, extiende la muestra a la totalidad.
d. La relación entre el investigador-sujeto/objeto es de independencia y neutralidad.
e. El investigador debe estar libre de valores y tender a la objetividad.
a. Supuesto lógico-epistemológica: Se basa en una lógica cualitativa con la intención de comprender la realidad
social.
b. Intención del investigador: Se trata de una inducción analítica y de buscar la comprensión.
c. Problemas o preguntas de la investigación: Demanda preguntas que conduzcan a la flexibilidad y libertad
para explorar el fenómeno en profundidad. La pregunta inicial es amplia y se vuelve progresivamente más
focalizada durante el proceso de investigación.
d. Función de la teoría: Por lo general no se formulan hipótesis, pueden aparecer una vez que se realice el
primer análisis para la información. La teoría orienta al trabajo con el propósito de generar nuevas teorías y
nuevos conceptos relacionados con las manifestaciones observadas.
e. Selección de casos: Se dan pocos casos, seleccionados a partir de un muestreo intencional y otro teórico.
f. Función del investigador: El investigador se introduce en la investigación. Se sumerge en el objeto real. Las
vivencias del investigador se convierten en datos.
El “enfoque cualitativo” se basa en el análisis profundo del comportamiento y su significado. Indaga sobre aspectos
concretos. Se basa en el estudio del comportamiento de los sujetos y su interacción social, incluyendo la
participación intensiva y a largo plazo con los sujetos, y el hecho de que el investigador es el instrumento de medida
que se va a insertar e interactuar con el fenómeno. Por la profundidad de los estudios se realiza en pequeña escala,
no tiene reglas de procedimiento y se basa en la intuición y en la flexibilidad.
El enfoque cualitativo se basa en el análisis profundo del comportamiento y su significado en la interacción social,
incluyendo:
a. Participación intensiva y a largo plazo con los sujetos.
b. Descripción detallada, narración.
c. Registro cuidadoso de lo que acontece.
d. El investigador utiliza instrumentos de medida y realiza estudios intensivos en pequeña escala.
e. No suele probar las hipótesis, sino que las genera.
f. No tiene reglas de procedimiento, sino que se basa en la intuición, lo cual da flexibilidad.
g. Su posición es holística, abarca el fenómeno en su conjunto y no lo divide en variables.
h. El diseño de la investigación se va elaborando a medida que la misma avanza.
i. No permite, en general, un análisis estadístico.
investigación cualitativa es abierta y holística y permite examinar las relaciones sociales insipientes que solo se hacen
evidentes a la investigación cualitativa cuando están muy generalizadas en la sociedad
• Sobredeterminación simbólica, ideológica i/o imaginaria.
Métodos: las posibilidades de encontrar nuevos campos de aplicación de la investigación cualitativa están ligadas a
la capacidad del investigador para elegir y combinar las distintas alternativas que el paradigma a concebido y que el
investigador. Entre ellos:
• Fenomenología: el estudio de la experiencia vivida. Desarrollada por Husserl, tiene como objetivo centrarse
en el campo de los fenómenos tal como son vividos y experimentados por los individuos; solo el sujeto que las
experimenta puede conocerlas. Puede enfocar la tensión sobre cuatro existenciales básicos de la tradición
fenomenológica: el espacio vivido (especialidad), el cuerpo vivido (corporidad), el tiempo vivido, temporalidad y las
relaciones humadas vividas, relacionabilidad y comunidad. El interés gira entonces, alrededor de la búsqueda de
acceso a la comprensión de ese conjunto de existenciales básicos.
• Hermenéutica: el entendimiento de textos orales y escritos. Es un mecanismo de comprensión de la
intencionalidad del otro, intencionalidad que solo puede comprenderse en su contexto. Por eso, parte de la
estrategia de la hermenéutica de conocimiento es que quien interpreta en el dialogo conozca ese contexto. Puede
tratarse de una entrevista o el dialogo de un lector con un texto; el entendimiento no llega en virtud de la
comprensión del dialogo aislado, sino a partir de una reconstrucción que lo situa en su historicidad e intersujetividad
• Interaccionismo simbolico: el estudio de los procesos de interaccion dotados de significado. El objetivo del
interaccionismo simbolico es el estudio de los procesos de interaccion a través de los cuales se produce la realidad
social dotada de significado. Blúmer establecio tres premisas básicas de este enfoque: primero los humanos actúan
respecto de las cosas sobre las bases de estas significaciones que estas cosas tienen para ellos, o lo que es lo mismo,
la gente actua en función del significado que atribuyen a los objetos y a las situaciones que la rodean; segundo, la
significación de estas cosas deriva, o surge de la interaccion social que un individuo tiene con los demás actores; y
tercero estas significaciones se utilizan como un proceso de interpretación efectuado por la persona en su relación
con las cosas que se encuentran, y se modifican a través de dicho proceso.
-El campo es donde ocurre la observación, el lugar en el que se materializa el problema y emerge el objeto de
investigación. No constituye un lugar físico, sino una estructuración que surge de la concepción del objeto y de los
recursos que ofrezca el método. Este cruce pondrá a disposición de la observación cierta estructuración de lo real.
Podrá ubicarse a los espacios, a los actores, los eventos y situaciones en los que ellos interactúan y las variaciones de
tiempo y lugar de las acciones que desarrollan. Por ejemplo, si el método es el grupo de discusión, el campo se
circunscribe a ese encuentro artificial y no a todo lo que ocurre en el edificio en el que se produce el encuentro. Para
un etnógrafo que le interesa la cultura fabril, constituirán el campo todas las personas y sus relaciones, todos los
objetos y discursos que circulen.
Cabe aclarar que es el objeto de investigación el que determina el campo, e ira suscitando ante el investigador
aspectos y estructuras, relaciones y dinámicas, sentidos y significados de la realidad social, que habrán de abordarse
con los recursos que proporciona el método y los instrumentos de recolección y análisis de datos.
SELECCIÓN INTENCIONAL DE LOS CASOS Y LA LÓGICA DEL MUESTREO TEÓRICO.
Definimos como muestra al individuo o al conjunto de individuos que se extraen de la población, mediante algún
procedimiento específico y sobre el o los que se llevará a cabo el estudio. Consisten en una parte o fracción de un
conjunto de la población o universo, que ha sido obtenida con el fin de investigar ciertas características del mismo.
El muestreo es el conjunto de operaciones que se realizan para obtener una muestra.
La selección de una muestra en el diseño cuantitativo, es distinta a la de los diseños cualitativos. En la primera, la
muestra reproduce el conjunto de todas las clases de elementos y sus proporciones básicas, logrando una
representación por extensión de la población original. El objetivo del muestreo en la investigación cualitativa no es
extender al universo los conocimientos obtenidos a partir del estudio de la muestra, sino aprehender en toda su
riqueza la perspectiva de los actores, por lo tanto, se busca captar en profundidad, y NO por extensión, sus vivencias,
sentimientos y razones. A este objetivo, responde con mayor propiedad que un muestreo aleatorio, un muestreo
intencional.
Argentina? Sería prácticamente imposible referirnos a poblaciones tan grandes. Así, la población se delimita
tomando, por ejemplo, los niños de Córdoba capital, de entre 8 y 12 años, al momento de realizarse el estudio. Para
el enfoque cualitativo, “la muestra” puede ser solo una unidad de análisis o un grupo reducido de ellas, sobre la(s)
cual(es) se habrán de recolectar datos, e incluso pueden elegirse por conveniencia del investigador, sin utilizar
procedimientos estadísticos.
a) Intencionados: no al azar, teorético: aquí se realiza una tabla con una serie de datos y de análisis de datos
para comprobar la hipótesis de trabajo, luego se dirige a obtener el número necesario de todos los tipos de datos
exigidos para cubrir las diferentes casillas de la tabla
b) Por cuotas: donde se asigna un numero de entrevistas, encuestas a realizar correspondientes a cada
extracto, dejando al arbitrio del entrevistador la elección de las unidades (para muestras mayores al 50% del
universo)
c) Por conjuntos: se da cuando las unidades son de análisis o talla, y se puede seleccionar un conjunto entero
para realizar el relevamiento, se utiliza la herramienta del sorteo, o tablas, o sistemático
d) Sucesivos: cuando el relevamiento se efectúa cada cierto periodo debido a la evolución de la población de
estudio, se puede utilizar las mismas unidades o cambiarlas (es lo más aconsejable)cf
e) Compuestos: cuando comprenden dos o más muestras distintas que abarcan parte del fenómeno estudiado,
ejemplo campo-ciudad.
LA ENTREVISTA: ENFOQUES
Consiste en un proceso dinámico en el cual se da una interacción entre el entrevistado y el entrevistador, que ira
produciendo un relato en el cual están comprometidas subjetividades. Es una forma de “interacción social”, una
conversación sistematizada cuyo objeto es obtener, recuperar y registrar las experiencias de vida conformadas en la
memoria de la gente. La ventaja que poseen es que son los mismos actores sociales quienes proporcionan los datos.
Permite registrar manifestaciones de ideas u opiniones, emociones, expresiones textuales, posturas y reacciones
mediante una relación directa entre el entrevistador y el entrevistado. La finalidad de este método es obtener
respuestas personales, no sugeridas, y veraces que se ajustan a la realidad del entrevistado.
A través de ella se pueden observar y analizar datos objetivos (características físicas, económicas, profesionales,
etc.), como así también subjetivos (ideas, creencias, opiniones, sentimientos, conductas, etc.)
El instrumento de este método es el cuestionario (pliego de preguntas), que no siempre es fijo y estandarizado.
TIPOS.Modalidades:
a. Se utiliza como técnica de recolección de datos e información (entrevista periodística)
b. Se utiliza en diferentes ámbitos de la actuación profesional (entrevista terapéutica)
Instrumentos de observación: el cuestionario
c. No es siempre físico y estandarizado
d. Entrevistador y entrevistado están en interacción reciproca que alteran y modifican la inmediatez y pureza de la
observación
TIPOS DE ENTREVISTA
Las entrevistas pueden ser: Estructuradas, semiestructuradas y no estructuradas o informales.
1)- Entrevistas estructuradas: Son aquellas que predeterminan en mayor medida las respuestas a obtener y se
desarrollan en base a un listado fijo de preguntas. Poseen un “protocolo de preguntas” previamente establecido, el
cual es igual para todos con el fin de facilitar el análisis de las respuestas.
En síntesis, son guiadas por un cuestionario previamente establecido, donde el entrevistador no puede saltearse ni
cambiar palabras y tampoco repreguntar.
Esta forma de entrevista se realiza sobre la base de un formulario previamente preparado y estrictamente
normalizado, a través de una lista de preguntas establecidas con anterioridad. Toma la forma de un interrogatorio en
el cual las preguntas establecidas con anterioridad se plantean siempre en el mismo orden y con los mismos
términos.
2)- Entrevistas semi-estructuradas: Son aquellas que contienen preguntas básicas que simplemente sirven como
guía, pudiéndose agregar otras o ampliarlas. En este tipo de entrevistas se permite la improvisación y se caracterizan
por la flexibilidad. No existe un cuestionario al que se tenga que ajustar el entrevistador, sin embargo pueden existir
algunas preguntas que sirvan como punto de referencia. Esto otorga un amplio margen de flexibilidad y libertad en
el desarrollo de la entrevista.
3)- Entrevistas no estructuradas: Son aquellas en las que no existe un cuestionario. Discurren de un modo más
espontaneo y libre, no sujetándose a un canon establecido. Existe una gran libertad tanto para los entrevistados
como para el entrevistador, aunque este debe tener, al menos en su mente, un listado de temas sobre los cuales
debe obtener información.
Dentro de ellas podemos encontrar:
a-Entrevistas abiertas o clínicas: Son aquellas que no se reducen a un esquema previo y se realizan con un fin
terapéutico. Se trata de hacer hablar al entrevistado de modo de obtener la mayor información posible. Suele
utilizarse en fases iniciales de estudios exploratorios, recurriendo a informantes claves que pueden ser expertos en
el tema de estudio. En el trabajo de investigación, es uno de los principales procedimientos para realizar historias de
vida y estudio de caso. Algunos incluyen en este tipo de entrevista las que realizan médicos y enfermeros para hacer
un diagnóstico por ej.
b-Entrevistas en profundidad: Son aquellas que tratan sobre un tema principal. Están dirigidas a un análisis más
profundo de las opiniones, actitudes y hasta de la personalidad del individuo interrogado. Busca la comprensión de
las perspectivas que tienen los informantes respecto a sus vidas, experiencias o situaciones tal como expresan sus
propias palabras.
c-Entrevistas focalizadas: Son aquellas que también son libres y espontaneas, pero tienen la particularidad de
enfocarse sobre un tema. Se emplea normalmente con el objeto de explorar a fondo alguna experiencia vivida por el
entrevistado, o cuando nuestros entrevistados son testigos presenciales de hechos de interés, o actores principales
de ciertos hechos históricos. Para que la misma sea útil debe haber especificidad, es decir, se procura que el
entrevistado responda de manera concreta y específica, y se de una profundidad y contexto personal.
d-Entrevistas no dirigidas: Son aquellas donde el informante tiene completa libertad para expresar sus sentimientos
y opiniones, donde el entrevistador tiene que animarlo a hablar sobre un determinado tema y orientarlo. Se trata de
invitar y alentar al sujeto encuestado a que hable en torno a una cuestión que se le ha planteado, comenzando por
donde quiera y diciendo lo que estime mas oportuno.
-Formularse en tonos de voz neutral y de conversación, con cierta rapidez, no dejando descanso entre pregunta y
pregunta. Debe ser dinámico para no obtener respuestas objetivas.
-Las preguntas deben ser formuladas en el mismo orden que figuran en el cuestionario.
-El entrevistado debe saber que nos interesan e importan sus palabas.
-En cuanto a la anotación de todas las respuestas, esta debe ser directa, mientras se desarrolla la entrevista. Mejor
aún, si puede contarse con el auxilio de un grabador, si se cuenta con el consentimiento del interrogado.
Fin de las preguntas (terminación de la entrevista)
En cuanto al fin de la entrevista, esta debe terminarse con un clima de cordialidad, dejándose la puerta abierta para
próximos encuentros. Ante mentiras o bromas, el entrevistador deberá hacerle ver que es su trabajo, pedirle que
tome la entrevista enserio. Si no hay rectificación, terminar la entrevista, no olvidándose de consignar el estado de
ánimo del entrevistado.
GRUPOS FOCALIZADOS.
Grupos focales o de discusión (Apunte Guillermo)
Método de recolección de datos que intenta responder a distintas problemáticas a través del decir de los actores en
el transcurso de interacciones grupales, donde se observan: CONOCIMIENTOS, ACCIONES Y OPINIONES.
Se basa en organizar un grupo de personas para que discutan un tema determinado, objeto de investigación.
• Interrelación cara a cara
• Diálogo
Cada experto responde individualmente sin conocer quiénes son los otros miembros del grupo. Ningún miembro
puede reaccionar frente a la opinión del otro experto, aunque si se produce un feedback, los expertos deben emitir
opinión en varias ocasiones. Aquí se pregunta y repregunta.
Luego de las preguntas generales se realizan las particulares y detalladas, de manera que las respuestas sean cada
vez más ricas en información y presentando posibles variaciones o cambios en la percepción o posturas de los
interrogados.
Aspectos procedimentales: existencia de un problema; selección del grupo de investigación que puede constituirse
de 2 a 5 personas; seleccionar el grupo de expertos de 10 a 18; los expertos deben conocer el tema objeto de
estudio
Etapas de diseño y elaboración de cuestionarios:
a) Se analizan las respuestas
b) Se formulan las preguntas
c) Se ordenan las preguntas
d) Discrepancias y argumentos
Proporcionar los resultados finales a los expertos y usuarios que esperan y necesitan esos resultados.
(Desgrabado de clases) Es una técnica para lograr consenso sobre determinada cuestión. Es una técnica de
recolección de datos, pero para lograr la búsqueda de consenso.
¿Para qué se quiere consenso? Voy a consultar a un grupo determinado de expertos para que ellos opinen sobre un
especifico tema de mi interés para poder teorizar (hacer una teoría) sobre un determinado tema.
¿Cómo procedo con la técnica Delphi? Como investigadora voy a trabajar sobre determinada cuestión que me
interesa indagar y voy a enviar a 15 expertos que están en distintas partes del mundo (una de las características de la
técnica Delphi, los expertos a través de los cuales voy a buscar consenso en la ciencia no se encuentran físicamente
próximos, no están en el mismo lugar, no se les puede unir para discutir un tema).
¿Necesito que ellos logren consenso sobre algún problema? ¿Cómo se hace? Según la técnica Delphi se le va a enviar
a cada uno un formulario de encuesta, vinculado con el tema de investigación a tratar, sobre el objeto de estudio
que a mí me interesa que ellos opinen.
Ellos van a responder esos formularios. Y le van a devolver al investigador.
El investigador recibo las 15 encuestas, por ejemplo, voy a hacer 15 dossiers de copias y le voy a enviar unos dossiers
de copias de todas las encuestas respondidas por todos los demás investigadores a cada uno, junto con un
formulario igual que se le mando la primera vez, pero en blanco, las respuestas van anónimas, los expertos no saben
que otros expertos están opinando sobre el mismo tema. ¿para qué? Porque si se quiere buscar consenso en la
ciencia a lo mejor de esos 15 que se han entrevistado 7 que opinan A y 8 que opinan B, ¿Cómo construyo la teoría en
base a lo que opinan los expertos? Si opinan distinto, entonces para lograr consenso se envía a cada uno de ellos
todas las respuestas de los demás para que las puedan leer y así poder lograr que cambien su visión o criterio,
deciden cambiar el criterio y completar el formulario que se manda en blanco. Se puede volver a repetir el envío de
copias, hasta lograr el consenso absoluto.
La técnica Delphi puede realizarse un mínimo de dos veces, pero pueden ser más veces.
Los expertos deben ser preguntados dos veces por la misma pregunta para poder ver si reconsideran sus respuestas,
ayudada por la información recibida de los demás expertos, el anonimato es importante en todo proceso.
El número de expertos convocados depende principalmente de los recursos disponibles y el tipo de problema a
tratar. Se sugiere de 10 a 18 encuestados.
Algunas recomendaciones para registrar las respuestas son: comenzar a anotar apenas el entrevistado empieza a
hablar contestando la pregunta, subrayar o usar signo de exclamación cuando el tono de respuesta así lo exija,
utilizar las mismas palabras del entrevistado, evitar resumir o parafrasear las respuestas, incluir lo que atañe al
objetivo de la pregunta y anotar en síntesis las digresiones, aunque estas no se refieran directamente al asunto. La
escritura debe ser clara y legible, no hay que olvidar que los cuestionarios han de ser leídos por otras personas.
FORMACIÓN DE OPINIÓN. Para el análisis de datos cualitativos existen pautas metolologicas para plasmarlos.
a) Codificación de la información. El sentido del análisis es reducir, categorizar, clarificar, sintetizar y compara la
información con el fin de obtener una información lo mas completa posible del fenómeno observado.
La reducción de datos implica seleccionar, focalizar, abstraer y transformar los datos brutos de forma que puedan ir
estableciéndose hipótesis de trabajo. La base del proceso de reducción de datos es la codificación. Es decir se le
asigna un código que identifica una unidad de significado relevante a cada frase o párrafo. Se denomina código a
UNA ABREVIATURA O SIMBOLO QUE SE APLICA A UNA FRASE O PARRAFO DE LA TRANSCRIPCION DE UNA
ENTREVISTA O DEL DIARIO DE CAMPO. Estos códigos permiten clasificar el tipo de información que contiene el texto
según diferentes intenciones analíticas. Se pueden identificar distintos tipo de códigos, tales como:
- Códigos descriptivos. Describen el contenido de la oración analizada. Serian una especie de etiquetas que el
investigador va asignando a cada frase según el tema principal a que se refiera.
- Códigos explicativos o interpretativos: surgen luego de que se haya etiquetado todo el material discursivo.
Podrían agruparse ciertos códigos distintos que responden a la misma categoría o están relacionadas con
otros.
- Códigos patrón. Designan patrones explicativos de las relaciones entre los eventos o acontecimientos y
poseen un cariz inferencial y explicativo.
Generalmente la tarea de la codificación utiliza el primer tipo de códigos.
La codificación es entonces el PROCEDIMIENTO POR MEDIO DEL CUAL LOS DATOS SEGMENTADOS SON
CATEGORIZADOS DE ACUERDO A UN SISTEMA ORGANIZADO QUE SE DERIVA DE LA LECTURA DE LOS DATOS.
b) Exposición y presentación de los datos. Consiste en presentar la información en forma sistematica y que
permita visualizar las relaciones mas importantes entre las categorías construidas anteriormente. En este
momento el investigador trata de establecer algunas conexiones entre diferentes fenómenos, observa
ciertas regularidades, detecta patrones de interacción entre propiedades de una situación.
La forma mas habituales de organización son las matrices. Mediante estas se ordena en un plano con distintas
coordenadas la información textual producida por cada caso. Según el interés, la finalidad del estudio o el momento
en el cual se las utilice, las matrices pueden adoptar un orden temático, temporal o ambos simultáneamente. A su
vez las matrices pueden ser descriptivas o explicativas. Estas ultimas aportan explicaciones, razones y causas del
fenómeno observado, se usan en la fase posterior del análisis, y en ellas se vinculan determinados procesos con
ciertos efectos, productos o resultados.
También se utilizan las redes que se configuran en torno a enlaces de categorías que se unen entre sí. Las redes son
muy útiles para describir datos y facilitar la clasificación y comunicación del tema analizado. Expresan una
ordenación de las categorías a diferentes niveles de complejidad y facilitan la comparación entre sujetos en base a
una estructura comparativa comun.
Otra forma de representación son los mapas conceptuales. Estos representan conceptos que las personas tienen
sobre si mismas o sobre lo que hacen. Permite mostrar diferentes relaciones y articulaciones entre las propiedades
de una situación.
c) Elaboración de conclusiones. El aspecto manipulativo de los datos y las tareas de reducción se limitan
considerablemente. El investigador tiene que aguzar su ingenio interpretativo y argumental para poder
elaborar una narración coherente que contenga los matices, las artiuclaciones, las relaciones causales, las
influencias reciprocas entre determinadas situaciones o aspectos personales.
Un modo típico de avanzar en la producción de explicación es mediante la elaboración de tipologías. Es decir, se
identifican tipologías de respuestas, de situaciones o de prácticas. Como resultado de este proceso el investigador
obtendrá una teoría sustantiva provisoria del fenómeno. La formulación de una teoría supone que se supere la mera
descripción de la situación observada. Es necesario que se integre el modelo teórico elaborado en un marco más
amplio, para ello debe tratar de esforzarse por insertas aspectos particulares en categorías más amplias y
abarcativas y establecer claramente cuales son las propiedades que caracterizan al fenómeno, cuales son los factores
que lo condicionan y de que modo las interacciones sociales, las practicas y los lenguajes de los sujetos contribuyen a
modificarlo, a conservarlo o darle nuevos significados.
d) Verificación del marco teórico. El trabajo con los datos es exhaustiva y se combina en diferentes niveles y
con diferentes tipos de datos. El análisis se hace extensivo hasta que los nuevos datos no aportan o regeneran
nuevos desarrollos teóricos. La manipulación de lo datos durante análisis es ecléctica y eminentemente dialéctica.
Por ello no existe un único camino correcto para acceder al análisis e interpretación de la información. El
investigador debe explorar cual es la viamas adecuada y sobre todo fructífera para acceder al conocimiento de su
objeto de estudio. La única garantía del investigador es lo que llaman su “sensibilidad teórica”, es decir, su capacidad
para descubrir relaciones, contradicciones, complejidades donde otros ven información.
La tarea del investigador es configurar los elementos de los datos en una historia que unifica y da significado a los
datos, con el fin de expresar la vida de los actores teniendo sumo cuidado en no manipular la voz de los
participantes. El resultado del análisis del investigador es una trama o argumento que le permite unir temporal o
temáticamente los elementos, dando una respuesta comprensiva de por qué sucedió algo.
LA OBSERVACIÓN.
La observación es aquella que permite obtener información sobre un fenómeno o acontecimiento tal y como este se
produce. Es un proceso sistemático mediante el cual el investigador recoge por si mismo información relacionada
con cierto problema. El problema da sentido a la observación y es el que determina que y como se observa, cuando
se registran las observaciones y como se analizan los datos obtenidos. La observación hace referencia a la acción de
advertir, examinar o reparar la existencia de cosas, hechos o acontecimientos mediante el empleo de los sentidos,
tal y como se dan en un momento determinado.
En síntesis, la observación es una técnica de recolección de datos, que consiste en el registro sistemático, valido y
confiable de comportamientos o conductas manifiestas, elaborando un saber sobre el objeto de estudio.
Elementos: sujeto, estimulo, objeto, respuesta, percepción, registros.
Carácter científico: para que la observación sea científica debe reunir las condiciones de servir a un estudio ya
formulado de investigación, ser planificada y sistemática, relacionada con proposiciones científicas generales, que se
empleen técnicas objetivas sujetas a control
Características
-Procedimiento de recolección de datos que se basan en lo percibido por los propios sentidos del observador. Por
ello se diferencia de la investigación documental, por cuestionario y entrevista, que se fundan en las percepciones
contadas de palabra o por escrito de otras personas.
-Se basan en el estudio de fenómenos existentes naturalmente o producidos espontáneamente y no provocados
artificialmente como en los experimentos puros.
-Realiza el examen de fenómenos o acontecimientos actuales, tal como son o tienen lugar en la realidad del
momento presente, y no sobre hechos y acontecimientos pasados.
-Puesto destacado en la inducción, el paso de los datos a la teoría, de modo que esta surja de aquel.
OBSERVACIÓN PARTICIPANTE.
La observación puede ser participante o no participante.
a. Observación participante: Es uno de los procedimientos más utilizados en las investigaciones sociales. La
observación participante consiste en un procedimiento interactivo de recogida de datos, en la que se requiere la
implicación del investigador en el terreno de la investigación. Dicha implicación requiere la participación del
investigador en la vida social, y compartir las actividades fundamentales que realizan las personas que forman parte
de la unidad de observación, sin interferir en el normal desenvolvimiento de los hechos.
El investigador se enrola en el grupo observado, interactúa y se mezcla con el mismo, participando de sus
actividades. De este modo, se vuelve “uno más” de ellos (sin interferir en el normal desenvolvimiento de los hechos).
Al convivir con el grupo observado durante un periodo más o menos prolongado, permite la comprensión de la
realidad desde adentro.
Requiere la astucia del observador y la decisión de que registrar, acorde con el tema y marco teórico.
Dentro de los problemas de esta información encontramos que el comportamiento del grupo puede no ser natural o
espontaneo y que no nos suministren información fidedigna
CLAVES SOBRE LAS FORMAS DE REGISTRAR. El problema es lo que da sentido a la observación, y determina que y
como se observa, y como y cuando se registran las observaciones y como se analizan los datos obtenidos.
Antes de iniciar la observación hay que tener alguna idea de lo que se va ha observar, ello ayuda a focalizar la
atención. Por ello, es conveniente clarificar el problema que guía la observación y tener presente que la misma
forma parte de una estructura teórica o esquema conceptual previo.
Una guía de observación, es un documento que permite encausar la acción de observar ciertos fenómenos. Esta
guía, por lo general, se estructura a través de columnas que favorecen la organización de los datos recogidos. Es una
lista de puntos importantes que son observados para realizar una evaluación de acuerdo a los temas que se estén
analizando. Para que una investigación se lleve a cabo satisfactoriamente se requiere entender la raíz del problema o
situación estudiada y esta guía facilita esa función.
Cumple dos propósitos fundamentales, el primero le recuerda a las personas los puntos clave y la relación que
puedan llegar a tener con otros temas y el segundo es que sirve como una base para realizar una reflexión sobre el
papel que tomó el observador, ya sea si tuvo aportaciones o su trabajo afecto en algo las observaciones
El registro de la información a lo largo del trabajo de campo en las técnicas de observación, posee tres elementos:
a. El diario de campo. Consiste en el relato escrito cotidianamente de las experiencias vividas y de los hechos
observados. Suele ser redactado al final de una jornada o al finalizar una actividad considerada como importante en
el trabajo de campo. De el se extrae la mayor parte de la información para organizar el análisis en las categorías
establecidas en la fase de planteamiento de la investigación.
b. El cuaderno de notas. Es la libreta que el observador lleva siempre encima con el objeto de anotar sobre el terreno
todas las informaciones, datos, expresiones, opiniones, etc. Que pueden ser de interés para la investigación. Estas
anotaciones se incorporan con posterioridad de manera organizada al diario de campo. Existen, por lo general tres
tipos de notas:
- Observacionales: descripciones de los hechos y contenidos captados.
- Teóricas: relaciones y nexos de lo observado con el marco teórico construido en el planteamiento de la
investigación.
- Metodológicas: comentarios sobre aspectos técnicos del trabajo de campo.
Por otra parte, se recomienda complementar estas herramientas con información de carácter grafico o audiovisual.
Fotografías, videos, registros de audio, etc. Los cuales constituyen un apoyo importante para el análisis de la
información (siempre que estos registros no provoquen excesiva reactividad en la población observada)
Entre las técnicas habituales de observación se puede distinguir entre: sistemas categoriales, sistemas descriptivos,
sistemas narrativos y sistemas tecnológicos de observación
-En los sistemas categoriales, la observación se realiza a partir del establecimiento de categorías que son prefijadas
por el observador. Para establecer un sistema de categorías el investigador define con claridad las categorías de
estudio que se corresponden con cada caso a estudiar, dichas categorías deben ser mutuamente excluyentes de
forma que la asignación de un caso a una categoría impida que pueda ser asignada a otra, debe ser exhaustiva es
decir ningún caso puede quedar sin poder ser asignado a una categoría y debe ser homogéneo es decir mantener
una relación lógica con la variable categorizada. Por lo general en un sistema de categorías el registro y la
codificación se producen simultáneamente. Hay que considerar su posibilidad de generalización, es decir si puede o
no aplicarse a una variedad de situaciones.
El objetivo de la misma es ver el punto de vista del sujeto estudiado, y que significado dan los sujetos a los hechos
producidos. Se busca comprender observando y preguntando acerca del comportamiento de las personas, los
artefactos culturales y los discursos de la cultura en estudio. Existen diversas interpretaciones del método
etnográfico. Para algunos se trata de un registro del conocimiento cultural, y para otros, de una descripción
detallada de patrones de interacción o de un análisis holístico de las sociedades.
Desde la perspectiva de Gómez, la etnografía es un método de investigación por el que se aprende el modo de vida
de una unidad social concreta. Lo que se persigue es la descripción o reconstrucción analítica de carácter
interpretativo de la cultura, forma de vida y estructura social del grupo investigado. La preocupación del etnógrafo
es el estudio de la cultura en sí misma, delimitando en una unidad social particular (una familia, una clase, etc.),
cuales son los componentes culturales y sus interrelaciones, de modo que sea posible realizar afirmaciones explicitas
acerca de ellos. Al realizar la etnografía de una determinada unidad social, estamos intentando construir un
esquema teórico que recoja y responda lo más fielmente posible las percepciones, acciones y normas de juicio en
esa unidad social
TRABAJO EN EL CAMPO.
La etnografía consiste en el estudio del fenómeno social desde adentro del mismo, permitiendo al investigador
vivenciarlo y comprenderlo. Implica el estudio directo de personas, grupos, mediante por ejemplo, la realización de
entrevistas, observación participante, etc. Para comprender las interacciones entre ellos. El riesgo es que le quita
objetividad a la investigación.
Se el propio investigador en el grupo social, donde procederá a estudiar determinado aspecto, para comprender el
objeto de estudio desde la mirada de aquellos que forman parte del fenómeno. En síntesis, se busca comprender el
fenómeno desde el lugar de aquellos que lo viven (ponerse en los zapatos del otro).
REGISTRO DE OBSERVACIONES.
Con respecto al registro de observaciones:
-Se realiza un registro descriptivo muy amplio.
- Se registran todos los emergentes contextuales que puedan aportar a los problemas.
-Se registran lugares, actores, tiempos y toda circunstancia que se considere significativa para identificar la situación
de observación
-El investigador se involucra con el objeto de investigación.
Los registros pueden ser tanto escritos o como grabados, y ambos requieren notas de identificación para que se los
pueda ubicar en tiempo y contexto. Se procura construir un esquema teórico que recoja y responda lo más fielmente
posible a las percepciones, acciones y normas de juicio de esa unidad social.
Metodológicamente, esta técnica enfoca su atención en 4 existenciales básicos como puente utilizado hacia el
conocimiento de las vivencias:
-Corporeidad: El cuerpo vivido.
-Espacialidad: El espacio vivido.
-Temporalidad: El tiempo vivido.
-Racionabilidad: Relaciones humanas vividas.
Así, por ejemplo, en el fenómeno “maternidad” se daría asi:
-Corporeidad: Vivencia del propio cuerpo, sus transformaciones.
-Espacialidad: Conexiones entre ese cuerpo vivido y el nuevo cuerpo gestado en relación con la vivencia del espacio.
-Temporalidad: Percepciones subjetivas del transcurrir de esos 9 meses, de sus días y noches.
-Relacionabilidad: Vivencia de las transformaciones en las relaciones con la pareja, con la madre, con otras mujeres,
con sus hijos.
INTERACCIONISMO SIMBÓLICO (Desgrabado de clases).
El interaccionismo simbólico, estudia la interacción que se presenta entre el sujeto y la sociedad. No estudia al sujeto
en su individualidad. Tampoco estudia a la sociedad de manera autónoma, sino que estudia las relaciones que se dan
entre el individuo y la sociedad en la que forma parte.
Pone énfasis en la interacción del individuo y en la interpretación de los procesos de comunicación que se van dando
entre los distintos sujetos (individuos que conforman el núcleo social que se estudia, o grupo social que interactúan
entre ellos). Es decir que se interesa en la interacción y en los procesos de comunicación que se van dando entre los
sujetos.
Busca comprender lo social, es decir, el fenómeno desde la interacción desde la comunicación.
Las personas no se limitan a “reaccionar” ante las acciones ajenas como los animales, sino que previamente
interpretan la acción de otro, es decir, la dotan de algún significado, lo cual se denomina “construcción de signos o
de símbolos, determinada conforme a la significación que tiene un objeto, una acción, o situación dentro de una
comunidad determinada” (interpretación subjetiva de las cosas)
Como sociedad procedemos de esta manera: interpretamos, tratamos de comprender, ¿Qué significa esa acción del
otro para conmigo? Que constituyen la base de la interacción que se va dando entre los distintos sujetos de una
sociedad.
Este enfoque se asienta sobre las siguientes premisas, que se aplican concretamente a lo que se va a estudiar.
a. En primer lugar, los sujetos actúan sobre las cosas (objetos, instituciones, etc.), en base al significado que esas
cosas tienen para ellos.
b. En segundo lugar, ese significado no surge de la cosa en sí misma, sino de un contexto social: es la sociedad la que
le da el significado a las cosas. Entonces, a través del interaccionismo simbólico vamos a estudiar los distintos
significados que las comunidades les dan a las cosas para comprender la realidad.
Ej: estamos frente a un náufrago, en una isla desierta y hace cinco meses que está perdido, sólo, en una isla muy
pequeña donde no hay prácticamente fauna- resulta que de repente a este náufrago se le presenta la opción de
elegir entre un auto Mercedes Benz último modelo y una bolsa con comida. ¿Cuál cosa tiene más valor para el
náufrago? La comida.
Si se traslada la situación a una ciudad, elegiría el auto. Lo que significa que una misma cosa cambia de significado en
cuanto a su valor de acuerdo al contexto social en que se presenta la situación.
c. Se adquiere distinto significado conforme al contexto social en que se encuentra. La sociedad es la que le va a dar
valor significado a la cosa, no la cosa misma. Lo que se va a estudiar en el interaccionismo simbólico son esos
significados, esos símbolos que son propios de cada grupo humano. Todo el mundo tiene un sistema de símbolos,
que significan algo.
¿Entonces en qué consiste el interaccionismo simbólico? En aprehender el mundo, aprehender la realidad,
aprendiendo los significados de las cosas, objetos.
La gente los grupos creamos significados compartidos a través de la interacción social. Y estos significados ¿qué son?
¿Qué constituyen? Su realidad. las cosas concretas abstractas existen en tanto y en cuanto se otorgue un significado
determinado. Existen a partir del significado que le es adjudicado y por lo tanto el interaccionismo simbólico ¿de qué
se encarga? De estudiar la interpretación de estos símbolos, que están nacidos en la interacción social. ¿A fin de
qué? De comprender, de entender la realidad.
(Apunte Guillermo)El objetivo del interaccionismo simbólico es el estudio de los procesos de interacción a través de
los cuales se produce la realidad social dotada de significado. Este enfoque posee tres premisas básicas:
-En primer lugar, los humanos actúan respecto de las cosas, en base al significado que estas cosas tienen para ellos
(la gente actúa en función del significado que atribuye a los objetos y a las situaciones que lo rodean).
-En segundo lugar, la significación de estas cosas surge de la interacción social que un individuo tiene con los demás
actores.
-En tercer lugar, los actores sociales asignan significados a situaciones, a otras personas y a las cosas a través de un
proceso que tiene lugar en un contexto social.
Tiene por objeto los significados subjetivos que los actores sociales le asignan a sus actividades en la acción social
orientada recíprocamente y el carácter simbólico de la misma. Su premisa básica es que el significado de las cosas
nace de la interacción social y que en el proceso se realizan mudanzas. Los sujetos otorgan significados e
intencionalidades a las cosas, lo que nos permite ponernos en el lugar del otro y a la vez predecir el comportamiento
de los demás. Esta técnica se utiliza en los análisis de rituales, personales, interpersonales, etc. Método: entrevista.
UNIDAD 4. METODOLOGÍA CUALITATIVA EN INVESTIGACIONES JURÍDICAS. SEGUNDA PARTE.
TECNICAS DE LA INVESTIGACION
Técnica. Es el conjunto de instrumentos y medios a través de los cual se efectúa el método y solo se aplica a una
ciencia. La diferencia entre método y técnica es que el método se el conjunto de pasos y etapas que debe cumplir
una investigación y este se aplica a varias ciencias mientras que técnica es el conjunto de instrumentos en el cual se
efectúa el método.
Técnicas de la investigación . La técnica es indispensable en el proceso de la investigación científica, ya que integra la
estructura por medio de la cual se organiza la investigación, La técnica pretende los siguientes objetivos:
• Ordenar las etapas de la investigación.
• Aportar instrumentos para manejar la información.
• Llevar un control de los datos.
• Orientar la obtención de conocimientos.
En cuanto a las técnicas de investigación, se estudiarán dos formas generales: técnica documental y técnica de
campo.
La técnica documental permite la recopilación de información para enunciar las teorías que sustentan el estudio de
los fenómenos y procesos. Incluye el uso de instrumentos definidos según la fuente documental a que hacen
referencia.
La técnica de campo permite la observación en contacto directo con el objeto de estudio, y el acopio de testimonios
que permitan confrontar la teoría con la práctica en la búsqueda de la verdad objetiva.
Cada tema de investigación que se aborde resultará en la elaboración de un fichero. El cual indicará distintos tipos de
fichas: Bibliográficas, de lectura, de citas, etc. Estas fichas sobre un tema específico tienen a posteriori un alto valor,
no sólo para el investigador que las confeccionó (podría ampliar la investigación en el futuro y tendría que hacer uso
de ellas) sino para otros investigadores que toquen el mismo tema o algunos aspectos secundarios. En consecuencia,
estos ficheros pueden prestarse o cederse a otra persona.
El fichaje es el proceso de recopilación y extracción de datos importantes en nuestro proceso de investigación, trata
tanto de información bibliográfica como no bibliográfica.
Las fichas son tarjetas pequeñas de cartulina donde se anotan las referencias del material documental. Adquieren
diferentes nombres según su finalidad:
a. Bibliográficas: aquellas que sirven para transcribir datos esenciales de un libro. Se encuentran en las bibliotecas
públicas en ficheros. Estas fichas están clasificadas y ordenadas de mnaera alfabética por autor, tema o título de la
obra.
b. Hemerograficas: aquellas que sirven para anotar los datos de una revista y contiene la misma información que la
ficha bibliográfica, exceptuando el nombre del artículo de la revista (autor del artículo, nombre del artículo, título de
la revista, editorial, numero de la revista y fecha de la misma, y paginas donde se encuentra el artículo en la revista)
c. De trabajo: aquellas que se utilizan para transcribir la información bibliográfica o hemerografica del material de
referencia que servirá de soporte para enjuiciar la hipótesis o reforzar la tesis
d. Textual: aquella que transcribe lo expuesto por el autor.
e. De referencia cruzada: se menciona la ficha a la que se puede remitir para encontrar la información.
f. De resumen: se redacta en pocas palabras la idea del autor
TIPOS Y FORMAS DE LA TÉCNICA.
En cuanto a la elaboración de fichas bibliográficas, una parte muy importante de la investigación documental lo
constituyen los diferentes tipos de fichas: las variantes están dadas en función del tipo de material y de la fuente de
la que se extrae la información.
-Tipos
Entre las fichas más comunes tenemos:
a. Ficha bibliográfica (libros)
b. Ficha hemerografica (revistas, periódicos)
b. Ficha audiografica (material sonoro)
c. Ficha videografica (material de video)
d. Ficha icnográfica (material de fotografías, pinturas)
e. Ficha epistolar (cartas)
f. Ficha de información electrónica
Ficha bibliográfica. La ficha bibliográfica se realiza cuando es necesaria la información en forma resumida de la vida
de un autor o autores. Contienen datos de identificación de un libro o de algún documento escrito sobre el objeto
de estudio.
-FORMAS DE HACER UNA FICHA. A medida que uno va investigando, hay que ir haciendo un registro de los datos
correspondientes de las teorías consultadas, es muy importante no descuidar ninguno de ellos. El formato mas
común visualizado para la estructuración de las fichas bibliográficas, es en cartulina blanca de medida estándar de
12.5x7.5 cm. Estas tienen la enorme ventaja de facilitar el ordenamiento, ya sea por autores, temas, títulos, fechas
de región, etc.
-Se registra a partir del Angulo superior izquierdo de la tarjeta, el apellido del autor, nombre con mayúsculas: el
nombre y apellido del coautor si los tuviera, tres espacios y seguida el titulo del libro subrayado.
Los índices que se refieren a los libros se encuentran generalmente en cajones que contienen tarjetas de 3x5
pulgadas, ordenadas alfabéticamente.
Los datos que se enumeran a continuación son los que se registran en las fichas:
1. Nombre del autor: primero los apellidos y después de una coma los nombres de pila, después punto y seguido.
2. Título del libro subrayado, después punto.
3. Subtitulo (si lo hay), también subrayado, separado del titulo por dos puntos, después de los cuales se comienza
con mayúscula.
4. Traductor, prologuista si es que el original se escribió en otro idioma.
5. Edición (solo a partir de la 2da, si es la primera no se anota), después punto.
6. Numero de volumen (si cuenta con más de uno), después punto. (ej: 3 vols.)
7. Lugar donde se editó la obra (se pone la ciudad, no el país, ej buenos aires), después dos puntos
8. Editorial, después coma
9. Fecha de edición (año), después punto.
10. Número total de páginas, laminas, ilustraciones si es un solo volumen, después punto (ej: 657 p.)
Ejemplo
Cardozo, Cristian. Seminario de investigación. 2. Ed. 3er. Vol. 3.
Buenos aires Editorial San Andrés, 1998. 198 p.
Colección o serie.
Los datos que corresponden al 7, 8 y 9 (Lugar donde se editó la obra, editorial y fecha de edición), se conocen como
“pie de imprenta”.
Entre paréntesis, rectangulares o corchetes, se anotan los datos que se deseen agregar: si contiene mapas,
ilustraciones, comentarios, etc. Cuando no aparecen algunos datos indispensables se usan las siguientes
abreviaturas.
[et. al.]: Cuando son varios autores se anotan los datos del primero y esta abreviatura significa “y otros”.
[s. tr.]: Significa “sin traductor”
[s.l.]: Significa “sin lugar”
[s.f.]: Significa “sin fecha”
[s. e.]: Significa “sin editorial”
[sep.]: Significa “sin pie de imprenta”
Las anotaciones particulares hechas por el investigador para su empleo personal se encierran también entre
corchetes. En algunas fichas se incluye también un breve resumen del libro y/o indicie de contenido. A este fichero
se recurre cuando se conoce el nombre del autor del libro que se desea consultar. Otras veces se recurre a ficheros
clasificados por temas y por títulos, porque se desconoce el nombre del autor. En ocasiones, cuando no hay
referencia en el fichero sobre el concepto investigado, se debe buscar sinónimos o temas afines.
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION
ANÁLISIS DE DOCUMENTOS. Se entiende por documento cualquier entidad que informa. El análisis de documentos
es una fuente de gran utilidad, porque brinda información respectiva acerca de un determinado hecho. Se agrupan
en documentos oficiales y documentos personales. Los primeros son toda clase De registros disponibles como fuente
de información. Por ejemplo, registros de organismos, informes gubernamentales, etc. Los documentos oficiales
pueden clasificarse en internos, que hacen referencia a los documentos generados y disponibles en una organización
y en externos, que son los producidos por la institución para comunicarse con otras. Los documentos personales son
relatos producidos por una persona que relata sus propias experiencias y creencias, mostrando sus acciones a nivel
individual y a nivel social. Describimos estos documentos como diarios y cartas personales, autobiografías, etc.
Los documentos se pueden clasificar en documentos primarios, que son los originales, informes de investigación,
comunicaciones, ponencias, y en secundarios, que son síntesis de escritos previos, eliminan la información técnica y
aportan referencias, como por ejemplo, bibliografías, repertorios y directorios.
La recopilación documental es una técnica cuya finalidad es obtener datos e información a partir de documentos
escritos o no, a fin de ser utilizados según los objetivos de la investigación. Es una tarea ardua, por ello es importante
saber seleccionar el material conforme al problema. Debemos evitar la acumulación de información sin criterios de
selección y la búsqueda sin intencionalidad. Cuando se realiza sabiendo lo que buscamos, nos permite ahorrar
esfuerzos, orientar fuentes, etc.
El texto jurídico se utiliza con efectos legales, ya que tiene consecuencias jurídicas, como su nombre lo indica. Es por
eso que su emisión tiene una serie de requisitos que debe contender para que sea formal. Su contenido tiene un
gran carácter conservador, tanto el lenguaje empleado como la estructura.
a. Leyes
La ley es una norma jurídica dictada por el legislador, es decir: un precepto establecido por la autoridad competente,
en que se manda o prohíbe algo en consonancia con la justicia cuyo incumplimiento conlleva a una sanción
b. Sentencias
c. Doctrinas
La doctrina jurídica es lo que piensan los distintos juristas respecto de los distintos temas del derecho, respecto a las
distintas normas. Se reduce al conjunto de opiniones que sirven de guía para ejercer el derecho. Carece de toda
fuerza obligatoria, aunque desempeña un papel fundamental en la elaboración, el desarrollo progresivo y la reforma
del derecho, por medio de sus enseñanzas y sus obras, a través de la formación de los juristas que serán futuros
legisladores y jueces.
La semiótica visual es una rama de la semiología (semiótica) que trata sobre el estudio o interpretación de las
imágenes, objetos e incluso gestos y expresiones corporales, para comprender o acoger una idea de lo que se está
visualizando. Por ejemplo, una persona que asiste a una exposición de pintura, utiliza la semiótica visual, para
interpretar la imagen observada.
Las imágenes, fotografías, diseños, películas y videos, proporcionan material sin procesar para analizar e interpretar,
porque muestran escenarios de los hechos, recuerdos, expresiones, conductas, acontecimientos, la vida cotidiana,
una determinada actividad, un episodio social, detalles que otorgan veracidad a la descripción de la realidad. El
medio que se usa determina el tipo de información: visual, gestual y/o verbal. La ventaja es que la información
registrada queda almacenada para verla y analizarla tantas veces como se quiera.
Las fotografías, más que mostrar la realidad son un espejo con memoria, porque quedan registrados en papel
episodios que ocurren. Son documentos que cubren el bache de la información oral, reflejan actitudes y gestos que
no son vistos por el observador. Son representaciones de la realidad que proyectan un sentido verbal. Se utilizan
como técnica de recogida de información, de análisis y de comprensión de determinadas situaciones.
A. Videos y películas. Se trata de material sin procesar para analizar e interpretar. Muestra el escenario de los
hechos, expresiones, conductas, acontecimientos, detalles, etc. El medio que se use determina el tipo de
información, que puede ser visual, gestual y/o verbal. Posee la ventaja de que se obtiene mucha información, de
manera objetiva y que se puede almacenar para así determinar mediante la observación pautas de conducta. Las
desventajas son: el costo, la posibilidad de que se grabe material irrelevante, el operador puede ser selectivo, etc.
b. Fotografías. Reflejan actitudes, gestos, miradas que no son vistos por el observador. La verdad está dada por el
fotógrafo, quien puede puntualizar o ampliar el campo visual, lo que a su vez le da un carácter selectivo. Ayudan a
entender conductas. Las ventajas son las siguientes: Una imagen vale 1.000 palabras, ilustran situaciones, propician
el dialogo, completan la información y permiten el uso reiterado. Las desventajas son que capta lo singular, su costo,
y que no capta una visión verbal ni auditiva.
c. Paratextos. El término paratexto designa al conjunto de los enunciados que acompañan al texto principal de una
obra, como pueden ser el título, subtítulos, prefacio, índice de materias, etc.
d. Internet Red informática de nivel mundial que utiliza la línea telefónica para transmitir la información.
e. Documentos online. Un documento es el testimonio material de un hecho o acto realizado en el ejercicio de sus
funciones por instituciones o personas físicas, jurídicas, públicas o privadas, registrado en una unidad de información
en cualquier tipo de soporte (papel, cintas, discos magnéticos, películas, fotografías, etcétera) en lengua natural o
convencional. Es el testimonio de una actividad humana fijada en un soporte. En nuestro caso los documentos serán
de tipo digital, es decir en online, a través de la red.
f. Redes sociales. Una red social es una estructura social compuesta por un conjunto de usuarios que están
relacionados de acuerdo a algún criterio.
2. ANÁLISIS CRÍTICO DEL DISCURSO. NOCIONES DE DISCURSO, TEXTO, ENUNCIADOS, ENUNCIADOR Y LOCUTOR.
TEXTO Y CONTEXTO: SEMÁNTICA Y PRAGMÁTICA. ACD Y TRABAJO CON FUENTES SECUNDARIAS:
RECONSTRUCCIÓN, DETECCIÓN Y CATEGORIZACIÓN DE ARGUMENTOS.
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION
El análisis del discurso parte de la premisa de que el lenguaje es una señal de una realidad determinada, y, además,
una forma de crear la realidad. Considera útil leer, analizar y estudiar los discursos para poder comprender la
realidad.
No se aplica únicamente la interpretación de textos escritos, sino que además puede recurrirse a esta técnica para el
estudio o análisis de material fotográfico, que nos puedan aportar datos, como así también archivos de sonidos,
películas e incluso grupos focales.
El análisis del discurso es una labor analítica que rompe, que descompone el texto (No solo el texto escrito) rompe y
descompone el mensaje, para luego suturarlo y recomponerlo interpretándolo.
Proceso:
a. Hay que establecer el problema de investigación (lo que se quiere resolver, el objeto de la misma).
b. En segundo lugar, hay que ver cuál es el punto de partida. La noción, la idea concreta, clara de que el fenómeno
que se quiera estudiar en lo social no está solamente mediatizado mediante el lenguaje, sino que esta creado por el
lenguaje. Se buscan materiales, fuentes que desarrollen básicamente el fenómeno que yo quiero estudiar, y
finalmente demostrar mediante los distintos textos o fuentes de mensaje, del discurso (no literalmente sino como
medio portador de mensajes, puede ser un discurso oral, puede ser un discurso escrito, una imagen, una película)-
recorrer los textos buscando todas las posibles lecturas e interpretaciones que hacen los distintos autores o
emisores de esos mensajes sobre el fenómeno que estamos estudiando.
Este tipo de técnica implica tanto la posibilidad de conocer lo que el mensaje en sí mismo dice, como así también de
conocer aspectos que subyacen del mismo (como ser, aspectos sociales, culturales, ideológicos de quien emite el
mensaje, etc.). Nos permite conocer no solo el elemento externo, sino también, el interno. El análisis del discurso
revisa las relaciones entre los textos o mensajes y la realidad. El estudio no se refiere al texto en si, sino a algo que
esta dentro de este, como ser, características sociales, económicas, problemas sociales, culturales que rodeen o
caractericen el mensaje
Ejemplo: Cumbia: Donde refleja cómo viven determinadas personas. La política: Los medios de comunicación se
encargan exclusivamente de dar mensajes que transmiten más de lo que los mensajes dicen. Se estudia el fenómeno
no solo mediante lo que subyace del mensaje, sino también mediante lo que hay detrás del mismo.
(Apunte de Guillermo)
Dijk desarrollo el análisis del discruso para observar la relación entre discurso (especialmente de los medios de
comunicación, y la sociedad). Analiza las estrategias de manipulación de la información, de parte de los formadores
de opinión, mediante consensos o disensos que influyen en los lectores. Se detiene en la estructura de las noticias,
desglosando la macroestructura (se expresa mediante los titulares y los encabezamientos: que resumen la temática
de la nota), de las microestructuras (que se refieren a las partes que componen el texto: titulo, copete,
acontecimientos principales, actores involucrados, antecedentes, consecuencias, comentarios)
El análisis del discurso (o estudios del discurso) es una transdisciplina de las ciencias humanas y sociales que estudia
sistemáticamente el discurso escrito y hablado como una forma de uso de la lengua, como evento de comunicación y
como interacción, en sus contextos cognitivos, sociales, políticos, históricos y culturales
Los métodos de este son en general cualitativos: Descripción detallada de las estructuras y estrategias de los
discursos escritos o hablados, en varios niveles: sonidos y estructuras visuales y multimedia, la sintaxis (estructuras
formales de las oraciones), la semántica (las estructuras del sentido y de la referencia), la pragmática (los actos de
habla, la cortesía, etc.), la interpretación y la conversación, los procesos y representaciones mentales de la
producción y de la comprensión del discurso, las relaciones de todas esas estructuras con los contextos sociales,
políticas, históricas y culturales.
El análisis del discurso se distingue del análisis de contenido (este es un método más bien cuantitativo de las ciencias
sociales que se aplica a grandes cantidades de textos, por ejemplo, con una codificación de propiedades observables
de los textos)
Estudia cómo influyen los medios de comunicación en la sociedad. Analiza la estrategia de manipuladores de la
información de parte de los formadores de opinión mediante la creación de consensos y disensos que influyeron en
los lectores. Analiza la estructura de las noticias en forma macro (títulos, imágenes, resúmenes) y micro estructural
(actores, comportamientos, noticia en sí misma).
a. Discurso. Enunciado o conjunto de enunciados con que se expresa, de forma escrita u oral, un pensamiento,
razonamiento, sentimiento o deseo.
b. Texto. Conjunto de enunciados que componen un documento escrito. Cuerpo de un escrito, prescindiendo de las
notas, los comentarios, las portadas, las ilustraciones, etc.
c. Enunciados. En pragmática, un enunciado es un acto de habla mínimo, realizado mediante una oración o una
expresión sintáctica más pequeña que una oración. Informalmente se usa enunciado como sinónimo de oración,
aunque pragmáticamente existen diferencias
d. Enunciador y locutor
LOCUTOR: Es la persona responsable del enunciado, un emisor, que puede describirse según la función que cumple
social, cultural o políticamente. ENUNCIADOR: (En) es el mismo LOCUTOR, pero representa cada vez una intención
comunicativa con el Enunciado hacia un enunciatario. Esta intención se da en actos de habla.
Por locutor (L) se entiende la instancia que produce el enunciado. En palabras de Ducrot, el locutor, es el
responsable del enunciado. En cuanto al enunciador (o enunciador), corresponde (en) a una posición enunciativa
que adopta el locutor en su discurso y hace (n) referencia a diferentes voces que el locutor convoca en este discurso
-Texto y contexto
Por ejemplo, un texto es una obra literaria, una noticia periodística, un discurso público, etc., pero no así una frase
suelta carente de sentido. El contexto, como mencionamos antes, es el entorno físico y social, ya sea cultural,
político, histórico, etc., en el que se considera un hecho.
-Semantica y pragmática
La Semántica es el estudio del significado de los signos lingüísticos, esto es, palabras, expresiones y oraciones.
Quienes estudian la semántica tratan de responder a preguntas del tipo "¿Cuál es el significado de X (la palabra)?".
Para ello tienen que estudiar qué signos existen y cuáles son los que poseen significación, esto es, qué significan para
los hablantes, cómo los designan (es decir, de qué forma se refieren a ideas y cosas) y por último, cómo los
interpretan los oyentes. La finalidad de la semántica es establecer el significado de los signos, lo que significan,
dentro del proceso que asigna tales significados
Desde el punto de vista de la semántica tradicional, una forma como “Preparas un café exquisito” tiene un solo
significado. Su significado se puede especificar completamente, independientemente de los contextos. En cambio,
desde el punto de vista de la pragmática, la misma forma puede tener varios significados. Dependiendo del contexto,
de la situación, la misma idea se comunica en diferentes formas: como médico a su paciente, como un buen amigo a
otro o como un padre a su hijo de 15 años. La oración “Ya es tarde”, semánticamente tiene un sentido claro;
pragmáticamente tiene posibilidad de otros sentidos (“no quiero quedarme”, “quiero comer”, etc.) Si en una
investigación se hace referencia explícita al hablante o al usuario de una lengua, entonces la asignamos al campo de
la pragmática.
En síntesis, la semántica analiza el sentido o la interpretación del significado lingüístico a partir de la representación
del significado y su referente o elemento real. Con la pragmática se plantea el estudio del significado en contexto.
FUENTES SECUNDARIAS
Son libros y artículos en los que otros investigadores informan de los resultados de su investigación sobre la base de
datos o fuentes primarias. Se cita o se hace referencia a ellos para apoyar la propia investigación. Se trata de los
instrumentos de trabajo que sirven para recoger la información escrita en una forma que sea ordenada y fácil de
manejar, se les conoce con el nombre de fichas. Las fichas son tarjetas pequeñas de cartulina donde se anotan las
referencias del material documental. Las fichas adquieren diferentes nombres, según su finalidad
EL MÉTODO BIOGRÁFICO:
El objeto del método biográfico es ‘Reconstruir desde el actor situaciones contextos, comportamientos , asi como
percepciones y evaluaciones , el eje es reconstruir un proceso ubicado históricamente es decir esta constituido por
una o varias personas ubicadas históricamente que tienen en común haber sido actores en los sucesos que narran .
Tecnicamente el principal insumo sobre el cual se trabaja en el método biográfico es el testimonio , relatos de vida ,
experiencias autobiografías , narraciones sobre determinados momentos y periodos en la vida de una persona o
grupo particular siempre enraizada en espacios y contextos socio-historicos determinados, interesa una percepción
particular de las cosas los sucesos son constantemente revalorados reasumidos y reinterpretados mediante un
proceso activo de la selectividad de quien relata por lo tanto los recuerdos del pasado la descripción del presente y
las proyecciones hacia el futuro que la gente elabora se encuentran mediatizados a la vez por la subjetividad y por el
contexto social de sus experiencias y su ubicación en la sociedad. No se buscara reconstruir desde estos testimonios
una visión objetiva de los hechos , sino la versión que los actores determinados por las creencias anhelos temores
inquietudes y valores que sostienen han construido sobre ellos . La entrevista rescata no solo informaciones sino
también formas de hablar , temores , imaginarios sociales . y de manera relevante la propia identidad del sujeto
construida en el relato . Hay que situar las experiencias narradas en el discurso dentro de un conjunto de
regularidades y pautas explicables sociohistoricamentes , pensando que el relato de vida responde a una realidad
socialmente construida y sin embargo no se puede dejar de atender a que esa vida es también completamente única
y singular .
Un ejemplo de aplicación seria un estudio sobre los procesos de privatización de empresas publicas desde un
enfoque psicosocial se podrá entrevistar a personas que hubieran trabajado desde el periodo estatal en compañías
que luego se privatizaron .No se trataría de inquirirlas para obtener una información sino de escuchar los relatos que
construyen sobre sus vidas, como fueron cambiando , que derrotero tomo ese trabajador cuando lo despidieron que
planes hizo con la indemnización , cuales de ellos pudieron concretarse y cuales no , y por que.. Quizás el empleado
desplazado utilizo el dinero de la indemnización en instalar un pequeño comercio entonces su relato privado ira
entretejiéndose con otros momentos por caso cuando asumió un gobierno o hubo una devaluación de la moneda y
relatara los avatares de su comercio durante esos periodos . de este modo podría comprenderse el fenómeno de las
privatizaciones en su dimensión subjetiva enlazando la vida de los protagonistas , sus anhelos ,dificultades y
oportunidades con los cambios sociales económicos o políticos en los que esas biografías individuales se desplegaron
y lograr un conocimiento , siempre desde la perspectiva del actor . como la vive el y como procura que lo perciban
los otros . con esta lógica el método biográfico ah abordado el estudio de la inmigración, las trayectorias
profesionales o comerciales y su relación con los entornos sociales y económicos en lo que se desplegaron las
trayectorias de vida , de sujetos excluidos y la mirada de los mismos sobre el entorno que los expulsa , las
trayectorias de genero etc .
HISTORIA DE VIDA
Una narración de la vida de una persona contada en una serie de conversaciones o entrevistas habladas’’, la historia
de un individuo es un punto de intersección con el medio social y con el proceso histórico focaliza su atención en uno
de sus factores (el individuo).La historia de vida revela el mundo subjetivo de las personas, las interpretaciones que
realiza sobre los contextos y el sentido que atribuye a las situaciones en las que participa como miembro de una
cultura, contextualizada en un espacio y en un tiempo.
Son relatos subjetivos, obtenidos por el entrevistador, mediante una secuencia de entrevistas, donde se revelan
tanto los acontecimientos como las valoraciones que una persona hace de su propia vida. Son documentos que
describen como percibe la persona su propia historia.
Se diferencia de la autobiografía ya que esta narra retrospectivamente una experiencia de vida donde la persona
selecciona aquello que desea dar a conocer, mientras que, en la historia de vida, es el investigador quien reconstruye
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION
la experiencia de vida de alguien. La metodología ofrece un marco interpretativo que trata de captar el punto de
vista de su entrevistado, para llegar a comprender los significados que la persona le atribuye a cada proceso o
fenómeno social.
La historia total: el investigador trabaja sobre un relato que comprende toda la vida del sujeto (desde el momento
mas antiguo hasta el momento final de su relato)
Temático: centrado en un tema o cuestión que estudia a todo o largo de la vida del sujeto.
La biografía preparada por el investigador que en ultima instancia es el responsable del producto final, a través de
una tarea de escuchar, anotar , cortar , seleccionar , ordenar y reestructurar hasta llegar a configurar un formato y
contenido final a la historia .
Técnicas de relato único: Obtenido de una sola persona, este tipo de historia de vida se puede realizar partiendo de
autobiografías encargadas o relatos producidos a través de entrevistas en profundidad .
Técnicas de relatos cruzados: Se trata de la historia de varias personas de un mismo entorno (familiar , vecinal o
compañeros de una institución) .
Técnicas de relatos paralelos: son historias que no necesariamente transcurren en el mismo medio.
El método y los procedimientos para hacer una historia de vida. Los relatos de vida son utilizados de manera muy
diversa.
● Marco microsociologico:
● Características individuales:
-Autodescripciones e interpretaciones
DIARIOS Son registros descriptivos, sobre la base de cierta continuidad, que recogen los comentarios reflexivos de los
acontecimientos que tienen lugar en la vida de una persona. No existen pautas fijas para escribir un diario.
Formas:
a. Solicitado: Se debe pedir al informante que escriba un diario sobre un aspecto de su vida, durante un lapso
determinado y con instrucciones bien explicitas.
b. De notas: son aquellos en los que una persona plasma los hechos, ideas, sentimientos vividos como importantes.
Reflejan lo cotidiano, espontaneo y su capacidad de análisis en ese momento, son las anotaciones que escriben día a día
con plena libertad.
Los problemas que plantea son que es difícil de analizar, ya que hay que distinguir entre pensamientos, sentimientos y
hechos.
CARTAS PERSONALES Son documentos interesantes para el estudio de experiencias personales y de interacción social
entre dos polos: remitente/destinatario.
Diferente de los otros documentos personales porque implican interacción entre dos personas. Las características del
remitente influyen en el contenido y en la forma de la reacción del destinatario.
Dan cuenta del significado de lo vivido por cada uno y en la relación con el otro.
Las cartas pueden ser ceremoniales, como por ejemplo, enviadas en ocasión de eventos familiares, como un nacimiento
o una boda; informativas, que ofrecen un relato de la vida de una tercera persona, situaciones históricas, etc. Por ej. La
carta enviada por San Martin a Juan Manuel de Rosas; sentimentales, que tienen por finalidad reavivar los sentimientos;
de negocios o literarias.
ANECDOTARIOS. Son una modalidad de registro que se realiza en una situación real, con el fin de registrar una conducta
relevante o incidentes relacionados con un área de interés. Tiene en cuenta procesos específicos y parcelados de la
realidad, en forma detallada. Es un fichero de anécdotas sobre una conducta particular de una persona
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION
AUTOBIOGRAFÍA Y BIOGRAFÍA. La biografía es un relato elaborado por otra persona, de carácter narrativo, realizado
mediante combinación de documentos y entrevistas, entre otras.
La autobiografía, en cambio, es la narración de la propia vida, contada por sus propios protagonistas. Es un tipo de
documento personal, en donde una persona relata por su propia voluntad su experiencia personal, detallando los
hechos de su vida, en forma testimonial, subjetiva y auto valorativa. Como documentos de información representan un
aporte valioso, siempre que se tenga en cuenta que son relatos individuales y de historia personal, pero que se pueden
contextualizar con otros datos.
LOS ESTUDIOS DE CASO. El estudio de caso consiste en la recopilación, e interpretación detallada de toda información
posible sobre un individuo, una institución, una empresa un movimiento social particular, ‘investiga un fenómeno
contemporáneo dentro de su contexto real de existencia , cuando los límites entre el fenómeno y el contexto no son
claramente evidentes y en los cuales existen múltiples fuentes de evidencia que pueden usarse’’
Los casos son particularmente apropiados como métodos de investigación cuando se presentan preguntas del tipo como
o por que, la respuesta a estas preguntas son las teorías fundadas en los datos de caso que el investigador elabora no se
trata de teorías que puedan ser generalizadas , ningún investigador cualitativo tiene esa pretensión el investigador
interpreta e intenta establecer en el caso cuan plausible es la lógica de su interpretación. Metodológicamente el caso
puede ser construido por el investigador como una forma de organización que emerge de la investigación misma , o
puede ser un objeto definido por fronteras preexistentes tales como una escuela , un aula , un programa . también
puede ser derivado de los constructos teóricos, ideas y conceptos que emergen del estudio de instancias o
acontecimientos similares .por ultimo un caso puede ser una convención predefinido por acuerdos y consensos sociales
que señalan su importancia . Asi las unidades de análisis pueden ser tipos de sujetos empleados , enfermos de cáncer de
pulmón madres de hijos adolescentes , distribuidores ,organizaciones (privadas y publicas) objetos utensilios
computadoras vestidos alimentos transgénicos , productos ,envases documentos planes de negocios, actas de reuniones
, discursos , comerciales publicitarios o un suceso puntual como la guerra de irak o el proceso de certificación ISO 9001
de una pyme .
Técnicamente el estudio de casos se basa en entrevistas , observaciones, pero también en documentos y datos
secundarios y puede recurrir a técnicas cuantitativas como la encuesta , para conocer algunos aspectos que permitan
luego de una interpretación mas profunda del conjunto .
pequeña comunidad. Como método, el estudio de casos examina y analiza con mucha profundidad la interacción de los
factores que producen un cambio, crecimiento o desarrollo de los casos estudiados.
Con este tipo de estudio se pretende captar la complejidad del caso único, dentro del cual ciertos hallazgos podrán ser
generalizados mediante una lógica inductiva a todos los otros casos que comparten semejantes circunstancias o
situaciones.
(Apunte Guillermo).
La selección de casos implica un análisis detallado, comprensivo, sistemático y en profundidad del caso objeto de
interés. Un caso puede ser una persona, una organización, un programa de enseñanza, una colección, un
acontecimiento particular o un documento. La única exigencia es que posea algún límite físico o social que le confiera
entidad. Un caso se elige en la medida en que aporte a nuestra comprensión del tema de estudio.
La selección de casos únicos se fundamenta en que el mismo permite confirmar, cambiar, ampliar el conocimiento sobre
el objeto de estudio. Desde esta perspectiva puede tener una importante contribución al conocimiento.
Este tipo de selección se utiliza con mucha frecuencia en el método biográfico, donde cada caso es revelador de una
situación concreta. Se puede utilizar también cuando se realiza un primer análisis exploratorio de un estudio de casos
múltiples. En la selección de casos múltiples se utilizan varios casos únicos a la vez, para estudiar la realidad que se desea
explorar, describir, explicar, evaluar o modificar. En él es importante tener en cuenta que la selección de casos se realiza
sobre la base de la potencial información qupregue el caso pueda aportar al estudio de la totalidad. Cuando se opta por
un estudio de caso único o múltiple, el mismo puede implicar más de una unidad de análisis. Al analizar un objeto se lo
puede considerar como una totalidad, en forma global o constituida por una serie de unidades o sub unidades cuyas
características requieren de un tratamiento especial.
Ejemplo:
Objeto de estudio: una institución educativa (caso único)
Unidades de Análisis: EGB, Polimodal, Superior No Universitario (varias unidades de análisis)
Si el estudio de caso se realiza considerando una institución educativa como única unidad de análisis, tenemos un
ejemplo de diseño global de caso único .El diseño global se realiza cuando no se pueden contemplar sus unidades o
cuando el marco teórico es por sí mismo de carácter global.
El estudio de casos se basa en una lógica de tipo inductiva. Las generalizaciones, conceptos e hipótesis surgen a partir de
un examen minucioso de los datos. Se caracteriza por el descubrimiento de nuevas relaciones y conceptos, generar
hipótesis y alcanzar niveles explicativos de relaciones, conseguir mayor claridad sobre un aspecto teórico concreto,
indagar sobre un fenómeno. Los objetivos que orientan los estudios de casos son: explorar, describir, explicar, evaluar,
transformar.
1. Los modelos y supuestos teóricos que sustentan el diseño de investigación cuantitativo. Universo y muestra:
definición y criterios para decidir el diseño muestral. Muestras probabilísticas y no probabilísticas. Probabilidad:
concepto, distribuciones, media aritmética y medio estándar. Calculo del tamaño de la muestra.
Enfoque cuantitativo: ejemplo un bosque en su totalidad, en su globalidad. Vemos flora, fauna, vemos la actividad del
sol, la superficie. Vemos una imagen en conjunto del fenómeno.
Enfoque cualitativo: ejemplo un árbol. En el enfoque cualitativo se vuelve a hacer un zoom sobre determinados
elementos del fenómeno. Se va a estudiar determinados aspectos del fenómeno en profundidad. No se va a estudiar el
ecosistema bosque sino las características botánicas que presenta la especie árbol, características en cuanto a
producción de frutos, en cuanto a su crecimiento. SE INDAGA EN ASPECTOS CONCRETOS Y EN PROFUNDIDAD DEL
FENOMENO.
prácticamente imposible referirnos a poblaciones tan grandes. Así, la población se delimita tomando, por ejemplo, los
niños de Córdoba capital, de entre 8 y 12 años, al momento de realizarse el estudio.
Para el enfoque cuantitativo la muestra es un subgrupo de la población, que se define matemáticamente, de antemano,
con precisión, y que debe ser probabilísticamente representativa.
Para el enfoque cualitativo, “la muestra” puede ser solo una unidad de análisis o un grupo reducido de ellas, sobre la(s)
cual(es) se habrán de recolectar datos, e incluso pueden elegirse por conveniencia del investigador, sin utilizar
procedimientos estadísticos.
-Muestreo.
El muestreo es un conjunto de operaciones que se realizan para obtener una muestra.
La unidad de la muestra está constituida por uno o varios de los elementos de la población en la que se subdivide la
parte de la muestra.
La base de la muestra es la población de la que se obtiene o se saca la muestra. Es el conjunto de unidades
individualizadas que forman el universo o población: puede ser un censo, un padrón electoral, etc.
-Universo.
El universo, población o colectivo constituye la totalidad de un conjunto de elementos u objetos que se desee investigar
y del cual se estudiará una fracción que se pretende que reúna las mismas características y en igual proporción. El
universo está formado por toda la población o conjunto de unidades que se quieren estudiar y que podrían ser
observadas individualmente en el estudio.
Por fracción del muestreo se entiende el porcentaje que representa la muestra respecto al universo, se obtiene
dividiendo la muestra por el universo. Por ejemplo, si en un universo de 10.000 unidades hemos elegido una muestra de
1.200 unidades, la fracción de muestreo será el 12%. El muestreo se basa en el cálculo de probabilidades. El modo de
establecer la probabilidad se denomina cálculo de probabilidades.
En términos estadísticos la muestra debe cumplir con ciertos requisitos: ser representativa o reflejo general del conjunto
o universo estudiado, reproduciendo lo más exactamente las características del mismo. Su tamaño debe ser
estadísticamente proporcionado a la magnitud del universo.
El error muestral se tiene que mantener dentro de los límites permitidos.
UNIVERSO = TOTALIDAD DE FENOMENOS EXISTENTES
criterios para decidir el diseño muestral. (tipos y criterios de selección)
Una vez definido el problema a investigar, formuladas las hipótesis, determinadas las dimensiones e indicadores de las
variables y delimitado el campo de investigaciones preciso tomar decisiones sobre si las unidades objeto de observación
van a ser todas las que forman parte del universo, o únicamente se va a extender la indagación a una parte
representativa o una muestra de aquellas.
Una muestra es simplemente una parte representativa de un conjunto, población o universo, cuyas características se
reproducen en pequeña escala lo más exactamente posible.
De allí que las condiciones fundamentales de las muestras sean:
• Que comprendan parte del universo y no la totalidad de éste.
• Que su amplitud sea estadísticamente proporcional a la magnitud del universo.
• Ausencia de distorsión en la elección de los elementos de la muestra.
Muestreo intencional: La persona selecciona la muestra procurando que sea representativa, pero haciéndolo de acuerdo
a su intención u opinión. En el muestreo intencional podemos distinguir: las muestras por cuotas y las muestras
razonadas o intencionadas.
Muestras por cuotas o proporcionales: Se utilizan principalmente para realizar sondeos de opinión. Consiste en
establecer cuotas para las diferentes categorías del universo, que son réplicas del conjunto, quedando a disposición del
encuestador la selección de unidades.
Muestras razonadas o intencionadas: Supone un cierto conocimiento del universo a estudiar. Su técnica consiste en que
el investigador escoge intencionalmente algunas categorías que él considera típicas o representativas del fenómeno a
estudiar. Por ejemplo en el estudio de comunidades rurales, se estudian fincas que se consideran típicas de lo que se
quiere estudiar
Muestras probabilísticas y no probabilísticas.La elección de una u otra (probabilística/no probabilística), depende de los
objetivos del estudio, del esquema de la investigación y de la contribución que se piensa hacer con ella.
a. Probabilística: Se basa en la teoría matemática y en el cálculo de probabilidades.
Todos los elementos de la población tienen la misma posibilidad de ser escogidos. Esto se obtiene definiendo las
características de la población, el tamaño de la muestra, y a través de una selección aleatoria y/o mecánica de las
unidades de análisis.
Pueden ser:
a) Aleatoria simple: mediante sorteo riguroso se extraen las unidades, puede ser con reemplazamiento o sin
reemplazamiento, también se emplean las tablas con listas de números cazados por sorteo
b) Aleatoria sistemática: se elige al azar o por sorteo una primera unidad inferior al coeficiente de elevación y las
restantes se obtienen sumando dicho coeficiente al numero
c) Aleatorio estratificado: donde para universos heterogéneos como categorías por extractos se busca la
presentación de cada subpoblación mediante fracciones
b. No probabilística:
La elección de los elementos no depende de la “probabilidad”, sino de causas relacionadas con las características del
investigador, o del que hace la muestra. En ellas el procedimiento no es mecánico, ni con base en fórmulas de
probabilidad, sino que depende del proceso de toma de decisiones de una persona o grupo de personas, y las muestras
serán seleccionadas por decisiones subjetivas.
Características
Intencionados: no al azar, teorético: aquí se realiza una tabla con una serie de datos y de análisis de datos para
comprobar la hipótesis de trabajo, luego se dirige a obtener el número necesario de todo los tipos de datos
exigidos para cubrir las diferentes casillas de la tabla
Por cuotas: donde se asigna un numero de entrevistas, encuestas a realizar correspondientes a cada extracto,
dejando al arbitrio del entrevistador la elección de las unidades (para muestras mayores al 50% del universo)
Por conjuntos: se da cuando las unidades son de análisis o talla, y se puede seleccionar un conjunto entero para
realizar el relevamiento, se utiliza la herramienta del sorteo, o tablas, o sistemático
Sucesivos: cuando el relevamiento se efectúa cada cierto periodo debido a la evolución de la población de
estudio, se puede utilizar las mismas unidades o cambiarlas (es lo más aconsejable)
Compuestos: cuando comprenden dos o más muestras distintas que abarcan parte del fenómeno estudiado,
ejemplo campo-ciudad.
Ejemplo:En un primer ejemplo tenemos una investigación sobre inmigrantes extranjeros en Argentina. El objetivo de
investigación es documentar las experiencias de viaje, de vida y de trabajo. Para cumplir dicho propósito se seleccionó
una muestra no probabilística de personas extranjeras que por diversas razones —económicas, políticas, fortuitas—
hubieran llegado a Argentina entre 2010 y 2017. Las personas se seleccionaron a través de conocidos, de asilos, de
referencias. De esta manera se entrevistaron a 40 inmigrantes con entrevistas semiestructuradas que permitieron al
sujeto hablar libremente sobre sus experiencia. En este caso una muestra no probabilística es adecuada pues se trata de
un estudio con un diseño de investigación exploratorio, es decir, no es concluyente, sino su objetivo es documentar
ciertas experiencias. Este tipo de estudio pretende generar datos e hipótesis que constituyan la materia prima para
investigaciones más precisas.
Ejemplo:Como segundo caso mencionaremos el caso de una investigación para saber cuántos niños han sido vacunados
y cuántos no, y variables asociadas (nivel socioeconómico, lugar donde se vive, educación) con esta conducta y sus
motivaciones. En este caso se hizo una muestra probabilística nacional de 1600 personas y de los datos se tomaron
decisiones para formular estrategias de vacunación y mensajes dirigidos a persuadir la pronta y oportuna vacunación de
los niños. Comentario. Este tipo de estudio, en donde se hace una asociación entre variables, cuyos resultados servirán
de información para tomar decisiones políticas que afectarán a una población, se logran por medio de una investigación
por encuestas y definitivamente a través de una muestra probabilística, diseñada de tal manera que los datos pueden
ser generalizados a la población con una estimación precisa del error que pudiera cometerse al hacer tales
generalizaciones.
Error muestral: representa el error estadístico máximo de la muestra y que es válido para el conjunto de todas las
muestras del mismo tamaño que se pueden tomar para la misma población, se realizan cálculos sobre fórmulas
matemáticas. Es un error de tipo aleatorio estadístico, probable y genérico
Factores: la amplitud del universo (finito e infinito) el tamaño de la muestra (cuando más elevado menos el error) el
número de confianza adoptado (a través de curvas estadísticas podemos medir la confiabilidad y seguridad de la
muestra) la desviación típica (proporción en la que se puede dar un atributo en una población.
Dos tipos muy diferentes de elementos requieren de lo que llamamos por un lado el universo, en tanto conjunto de
unidades o fuentes de datos que es preciso reducir a proporciones manejables para poderlo explorar; por otra parte las
variables, en tanto conceptos abstractos a los que es preciso dar contenido concreto para poder efectuar sobre ellos las
mediciones correspondientes.
De ello se extrae que podemos hablar de distintas operacionalizaciones: de un universo, de una variable
La operacionalización del universo consiste en reducir a proporciones factibles de investigar al conjunto de las unidades
que nos interesan, en otras palabras, en la tarea de encontrar una forma de obtener información relevante sin
necesidad de acudir a la medición de todo el universo posible de datos. Es el aspecto cuantitativo de la
operacionalización y, para resolverlo, habrá de apelarse entre otras disciplinas a la estadística, mediante las técnicas de
muestreo.
La operacionalización de las variables determinara el enfoque que seguirá la investigación. Para ello es necesario
previamente saber qué tipo de investigación estamos realizando: si ella es cuantitativa o cualitativa.
Si las variables son susceptibles de identificar mediante números, y esos números implican un orden jerárquico en la
presencia de la variable, se dice que esta puede clasificarse como cuantitativa. Un ejemplo de este tipo de variable
podría ser la altura de un grupo de personas, si una de ellas mide 1,8 metros, entonces mide más que otra que mide 1,7
metros (se numeran, y esos números determinan un orden jerárquico). Cuando las variables son cuantitativas,
podremos utilizar la estadística para el análisis de los datos obtenidos.
Si las variables a investigar no son factibles de numerar, o esa numeración no implica orden jerárquico en su presencia
en el fenómeno, entonces diremos que esa variable es cualitativa. Justamente, estas variables implican cualidades, que
no son susceptibles de ser representadas por números. Un ejemplo de este tipo podría ser el color de cabello del grupo
de personas antes mencionado. Podemos asignar el número 1 a los morochos, el 2 a los pelirrojos, etc. pero este
número no implica que los morochos tengan “más variable” que los pelirrojos o los rubios. El número asignado en forma
arbitraria solo sirve como código a los fines de la identificación y la clasificación, pero no implica orden jerárquico. En
este caso, no podremos utilizar la estadística para analizar la información.
La operacionalizacion de la variable nos impone seguir un camino que se inicia con su conceptualización del término. Es
decir, que la variable puede tener varias significados, es decir puede ser un término ambiguo; si la variable es compleja y
no simple.
Existe una definición teórica, cuya función es eliminar esta ambigüedad para estar seguros de cuál es el concepto que
queremos operacionalizar: sólo identificándolo de esta forma sabremos cuáles pueden ser sus correspondientes
dimensiones e indicadores.
Una variable compleja tiene distintas facetas que es necesario discernir para describirla adecuadamente.
Las variables simples, como “sexo”, puede tener varios aspectos, pero no necesitamos considerarlos a todos para saber
a qué sexo pertenece una persona: basta con mirar sus aspectos generales y, si esto no resulta confiable, lo constatamos
con el D.N.I o se lo preguntamos directamente.
En cambio la variable “inteligencia”, tiene muchos aspectos y para describirla y medirla no basta simplemente con decir
que alguien tiene inteligencia porque tiene una “mirada” inteligente ya que esto, además de subjetivo (otro observador
puede estar en desacuerdo), es muy parcial (no es el único aspecto).
NIVELES DE AGREGACIÓN.
ESCALAS O NIVELES DE MEDIACIÓN: IMPORTANCIA CONCEPTUAL E IMPLICANCIAS PARA EL ANÁLISIS DE LOS DATOS.
ESCALAS EN LAS CIENCIAS SOCIALES.
Con relación a la palabra escalas se utilizan en las ciencias sociales tres términos: uno genérico, escalas sin más, y dos
específicos, escalas sociométricas y escalas de actitudes.
El primer término es genérico porque es común a todas las ciencias y no solo a las sociales.
Una escala en sentido genérico se define, como la disposición conjunta de cosas distintas pero comunes en algún
aspecto.
Como las ciencias sociales se basan en el descubrimiento y análisis de relaciones entre variables, que están formadas
por diversas categorías o dimensiones, se puede decir que operan también con escalas. En efecto, el conjunto de
categorías o dimensiones de las variables constituyen de hecho una escala que corresponden a algunos de los tipos
mencionados: nominales, ordinales, de intervalo y de razón, según la naturaleza de la variable de que se trate.
Con el nombre de escalas sociométricas se designa en las ciencias sociales los instrumentos de medida propios de estas
ciencias, constituidos por la disposición conjunta en un cuadro o cuestionario de los distintos elementos o aspectos de
una característica o actitud, a los que se asigna convencional o empíricamente un valor numérico, lo que permite
cuantificar el grado de esa característica o actitud que se da en un objeto o sujeto determinado.
Los distintos tipos de escalas, en sentido genérico, nominal, ordinal, de intervalo y de razón representan diversos niveles
de medida. El nivel más bajo, el menos exacto, corresponde a las escalas nominales, y el más elevado y más exacto a las
escalas de intervalo y de razón. En gran parte los procedimientos de observación estudiados aquí corresponden al nivel
de medida más bajo, el nominal.
Frente a ellos, las escalas sociométricas pretenden ser instrumentos de observación y de medida más rigurosos. En ellas
se alcanza en todo caso el nivel de medida ordinal con puntuaciones específicas para cada sujeto, que en algunos casos
se consideran formadas por intervalos iguales y se tratan como escalas de intervalo.
ESCALAS DE ACTITUDES Aunque se utilizan escalas sociométricas para medir características diversas, las más conocidas,
numerosas y utilizadas son las escalas de actitudes, es decir aquellas que se emplean para medir el grado en que se da
una actitud o disposición de ánimo permanente, respecto a cuestiones específicas en un sujeto determinado.
FUNDAMENTO DE LAS ESCALAS DE ACTITUDESLas actitudes se pueden definir como disposiciones permanentes de
ánimo formadas por un conjunto de convicciones y sentimientos que llevan al sujeto que las tiene a actuar y expresarse
según ellas en sus actos y opiniones.
Según la anterior definición, las actitudes comprenden tres factores:
1. Un factor ideológico formado por ideas y convicciones determinadas.
2. Un factor sentimental que implica simpatía o antipatía hacia cosas o personas.
3. Un factor reactivo que impulsa a pensar y obrar en las distintas situaciones sociales en consonancia con las
convicciones y sentimientos profesados.
Las actitudes pues se concretan y expresan en ideas sentimientos hacia cosas y personas y reacciones o modos de
actuación diversos. Por ello, sus manifestaciones en la vida social son múltiples y se puede decir que tiñen todos los
campos de la vida social.
Los elementos pues de las escalas de actitudes son las proposiciones, se les suele llamar ítems, que consisten en
expresiones que se refieren a ideas, sentimientos y actos en que se concreta o manifiesta la actitud. Los ítems o
proposiciones de las escalas, hacen las veces de estímulos ante los cuales los encuestados deben reaccionar de una u
otra forma. Estos elementos, proposiciones o ítems de las escalas no sólo concretan y especifican las actitudes, también
facilitan su observación al subdividir la actitud, genérica y abstracta, en rasgos y atributos concretos. Pero las
proposiciones no son únicamente medios o instrumentos de observación sino también lo son de medición cuantitativa,
que es lo propio y distintivo de las escalas.
Las proposiciones o ítems de las escalas de actitudes, igualmente que éstas tienen de por sí, carácter cualitativo. Para
transformarlas en instrumentos de medida cuantitativa, hay que cuantificarlas. Se realiza, por ejemplo, bien asignando a
cada proposición un valor, en relación a la actitud de que se trate, como en las escalas tipo Thurstone, o bien asignando
no a cada pregunta, sino a cada respuesta dicho valor, lo que se realiza en las escalas tipo Likert.
CONDICIONES DE LAS ESCALAS DE ACTITUDES. Para que las escalas de actitudes sean útiles como instrumentos de
medida deben reunir ciertas características, difícil es de reunir, entre las que destacan la graduación, la
discriminatividad, la validez, la seguridad, la unidimensionalidad, y el estar formadas por intervalos iguales.
La graduación supone que las escalas deben comprender todos los grados fundamentales de la actitud de que se trate,
desde los elevados a los medios y bajos y no sólo parte de ellos.
La discriminatividad implica que sus ítems deben tener poder discriminante, deben constituir estímulos capaces de
distinguir y dividir, incluso en extremos opuestos, a las personas en relación a la actitud de que se trate.
La validez es la aptitud real de la escala para medir lo que pretende medir. Exige que los resultados obtenidos con la
escala reflejen verdaderamente la extensión real en los sujetos de la actividad investigada.
La seguridad pide que la escala en sucesivas aplicaciones a los mismos grupos y en situaciones similares proporcione
resultados iguales o similares.
En cuanto a la unidimensionalidad implica que la escala se refiera a una sola propiedad o actitud. Si hace referencia a
dos o más no se podrá conocer en realidad la verdadera significación de los resultados obtenidos.
Debe estar formada por intervalos iguales, en rigor no la cumplen las escalas conocidas hasta ahora. No obstante
pretenden reunirla y se consideran en la práctica como tales, las escalas experimentales del tipo Thurstone.
Para todo el conjunto de las ciencias humanas existe además otro procedimiento de uso muy generalizado y de
aplicaciones diversas. Se trata de la entrevista, que en esencia consiste en una interacción entre dos personas, una de las
cuales -el investigador- formula determinadas preguntas relativas al tema en investigación, mientras la otra -el
investigado- proporciona verbalmente o por escrito la información que le es solicitada.
Existen además otros procedimientos de recolección de datos primarios, entre los que figuran el llamado cuestionario
de auto aplicación, los test, las escalas, etc.
Sin embargo, por más que en sus desarrollos técnicos puedan ser manejados como procedimientos independientes,
veremos más adelante que tienen su origen, en última instancia, en las dos principales técnicas mencionadas, pues
constituyen en definitiva sólo derivaciones o usos particulares de las mismas.
EL DISEÑO EXPERIMENTAL:
El término “experimento”, en el sentido científico del término, se refiere a “una investigación en la que se manipulan
intencionalmente (se obligan a cambiar de estado) una o más variables independientes (supuestas causas), para analizar
las consecuencias que esa manipulación tiene sobre una o más variables dependientes (supuestos efectos), dentro de
una situación de control creada por el investigador.”
Este diseño es especialmente aplicable al campo de las ciencias naturales.
Consiste en someter el objeto de estudio a la influencia de ciertas variables (estímulos) en condiciones controladas y
conocidas por el investigador para observar los resultados que cada variable produce en el objeto.
Tanto la variable a medir (dependiente), como la variable a manipular (independiente), tienen su sistema de categorías,
es decir, tienen una cantidad determinada de estados que pueden tomar. En el caso del ejemplo anterior, el sistema de
categorías de la variable “motivación” podría estar formado por tres categorías, alta, media y baja, y el sistema de la
variable “rendimiento”, también por tres estados, alto, medio y bajo.
Estos sistemas de categorías deben determinarse previamente a iniciar el experimento y no son inventados
arbitrariamente por el investigador, sino que deben basarse en la información del marco teórico, en los referentes
empíricos de sus variables para definirlos, o en los sistemas de categorías utilizados en investigaciones antecedentes. La
cantidad mínima de categorías para una variable es dos: presencia-ausencia (si hubiera un solo estado posible no sería
variable), la cantidad máxima depende del grado de discriminación que pretenda el investigador, pero a mayor cantidad
de categorías en un sistema, mayor es la complejidad para obtener conclusiones válidas.
Un experimento se diseña de acuerdo a la cantidad de categorías de la variable independiente (la variable a manipular).
Cuando el objeto se trata de un ser humano hay límites éticos. Ningún fin científico justifica lesionar a otros hombres
tanto en lo físico como en lo moral.
El diseño experimental solo se utiliza en:
• Psicología Social: Al medir actitudes, tipos de liderazgo, etc.
• Sociología del trabajo: Al medir cambio en las condiciones de producción, etc.
• Técnicas pedagógicas: Al tratar de utilizar o ver qué cambio producen nuevas formas de enseñanza.
En las ciencias sociales, se someten a estímulos:
- Antes y después con un solo grupo: Por ejemplo, la luz solar, ¿cómo influye en el trabajo? Con el mismo grupo, antes y
después, observar los cambios.
- Solamente después con dos grupos (grupo experimental + grupo de control): Por ejemplo, la luz solar, observar en dos
grupos homogéneos.
Estímulo en uno, sin estímulo en otro. Ver diferencias.
- Antes y después con grupo de control: Por ejemplo, luz solar, también dos grupos, pero antes y después se mide con y
sin estímulo.
Los diseños no experimentales:
El investigador se aprovecha de estímulos que el no produjo. Se realiza después de los hechos, tomándose como
experimentales situaciones reales que se han producido espontáneamente, trabajando sobre ellas como si
efectivamente hubieran estado bajo su control. Por ej. Como es el grado de trauma en una sociedad luego de un
tsunami. La única diferencia con el diseño experimental es que, en este, los hechos no son controlables, sino
espontáneos (apunte Guillermo)
Podría definirse como la investigación que se realiza sin manipular deliberadamente variables. Lo que hacemos es
observar fenómenos tal y como se dan en su contexto natural, para después analizarlos. En la investigación no
experimental no es posible asignar aleatoriamente a los participantes o tratamientos. De hecho, no hay condiciones o
estímulos a los cuales se expongan los sujetos del estudio. En un experimento se “construye” una realidad, se desarrolla
en un ambiente artificial. En cambio, en un estudio no experimental no se construye ninguna situación, sino que se
observan situaciones ya existentes, no provocadas intencionalmente por el investigador.
Clasificaremos dichos diseños por la cantidad y distribución de los momentos en los cuales se recolectan datos: así
tenemos los diseños transversales y los diseños longitudinales.
1) Diseños transversales
Los diseños de investigación transversales recolectan datos en un solo momento, en un tiempo único. Su propósito es
describir variables (o describir comunidades, eventos, fenómenos o contextos) y analizar su incidencia o interrelación en
un momento dado. Es como tomar una fotografía de algo que sucede. Por ejemplo, un censo, donde la información se
recoge toda en un mismo día, y los resultados (que se conocen varias semanas después) nos describen el estado en que
estaba la población, en el momento en que se recolectó la información. Puede abarcar varios grupos o subgrupos de
personas, objetos o indicadores; así como diferentes comunidades, situaciones o eventos. Pero siempre, la recolección
de los datos ocurre en un momento único.
A su vez, los diseños transversales se dividen en tres, de acuerdo a su alcance:
-Diseños transversales exploratorios: Se trata de una aproximación inicial a un fenómeno, en un momento específico,
con objeto de encontrar cuales son los aspectos más importantes del fenómeno investigado, que luego se podrán
estudiar con mayor profundidad. Por lo general, se aplican a problemas de investigación nuevos o poco conocidos, y
constituyen el preámbulo de otros diseños. Son muy utilizados dentro del enfoque cualitativo para lo que hemos
denominado “inmersión inicial del campo”. Por ejemplo, este tipo de estudio se realizaría como sondeo de opinión para
conocer quiénes podrían ser los candidatos a gobernador dentro de una provincia.
-Diseños transversales descriptivos: Tienen como objetivo indagar los valores en que se manifiestan una o más variables
(dentro del enfoque cuantitativo) o proporcionar una visión de una comunidad, un fenómeno o una situación (describir,
como su nombre lo indica, dentro del enfoque cualitativo). Por ejemplo, si un estudio exploratorio ya determinó quienes
podrían ser candidatos a gobernador, un estudio descriptivo serían las encuestas provinciales sobre las tendencias de los
votantes. Su objetivo es describir el número de votantes en una provincia que se inclina por los diferentes candidatos en
un momento previo a la elección. Es decir, se centran en la descripción de las preferencias del electorado (cuyo enfoque
es fundamentalmente cuantitativo).
-Diseños transversales correlacionales-causales: Estos diseños describen relaciones entre dos o más categorías,
conceptos o variables en un momento determinado. Se trata también de descripciones, pero no de categorías,
porcentajes, conceptos ni variables, sino de sus relaciones. Lo que se mide (enfoque cuantitativo) o analiza (enfoque
cualitativo) es la asociación entre categorías, conceptos o variables en un tiempo determinado. Pueden limitarse a
establecer relaciones entre variables sin precisar sentido de causalidad. Cuando se limitan a relaciones no causales se
fundamentan en ideas o hipótesis correlacionales; y cuando buscan evaluar relaciones causales, se basan en ideas o
hipótesis causales. Debemos recordar que la causalidad implica correlación pero no toda correlación significa causalidad.
Primero establecemos correlación y luego causalidad. Cuando establecen relaciones causales el estudio pasa a ser
explicativo.
2) Diseños longitudinales
Analizan los cambios a través del tiempo en determinadas variables, o en las relaciones entre estas.
Los diseños longitudinales, recolectan datos varias veces a lo largo de un período de tiempo, para hacer descripciones o
inferencias sobre los cambios que van sufriendo una o varias variables, sus determinantes y sus consecuencias, a través
del tiempo.
La frecuencia con que se recolectará la información en el tiempo, por lo común se especifican de antemano en el
enfoque cuantitativo, y se van determinando conforme avanza el estudio en el enfoque cualitativo (en las modalidades
mixtas pueden ocurrir ambas cosas). Suelen dividirse en tres tipos: diseños de tendencia (trend), diseños de análisis
evolutivo de grupos (cohort) y diseños panel.
-Diseños longitudinales de tendencia: Son aquellos que analizan cambios a través del tiempo (en conceptos, variables o
sus relaciones), dentro de alguna población en general. Por ejemplo, una investigación para analizar cambios en la
actitud hacia la eutanasia en la población de Córdoba. Dicha actitud se mide y cuantifica (enfoque cuantitativo) o se
recolecta información (enfoque cualitativo) en varios puntos en el tiempo (durante 10 años por ejemplo) y se examina
su evolución a lo largo de este periodo. Cada vez que se recolecte información, se tomará una muestra, sin necesidad de
que cada muestra esté constituida por los mismos sujetos cada año.
-Diseños longitudinales de evolución de grupo: Los diseños de evolución de grupo o estudios de cohort examinan
cambios a través del tiempo en subpoblaciones o grupos específicos. Su atención son las cohorts o grupos de individuos
vinculados de alguna manera, generalmente la edad. Un ejemplo podría ser el formado por las personas que nacieron en
Argentina durante la última dictadura militar (1976-1983). Tales diseños hacen seguimiento de los grupos a través del
tiempo. Cuando se fundamentan en el enfoque cuantitativo, por lo común se extrae una muestra cada vez que se
recolectan datos sobre el grupo o la subpoblación. Su característica distintiva es entonces que siguen a un grupo
específico, no a una población en general, pero cada vez que se recolecta información, la muestra no está
necesariamente constituida por los mismos sujetos.
EL DISEÑO ENCUESTA.
Si queremos conocer algo sobre el comportamiento de las personas, lo mejor, más directo y simple es preguntárselo
directamente a ellas.
Esto se realiza a través de:
- Censo: Representativo del universo.
- Encuestas por muestreo: Solo una parte.
Ventajas:
• Hay un conocimiento primario de la realidad y menos engañoso.
• Hay mayor accesibilidad en el procesamiento de datos.
• Es un método económico y rápido.
Desventajas:
• Hay subjetividad ya que recoge la visión que la gente posee sobre sí misma.
• Es estático, nos proporciona una imagen instantánea sobre un fenómeno pero no indica
tendencias de variación ni posibles cambios (ej. En las elecciones, hay constantes cambios sobre el pensamiento hacia
los candidatos).
• Resultan inadecuadas para indagar ciertos aspectos psicológicos o psicosociales profundos.
El panel: Es una respuesta al panorama estático que ofrecen las encuestas. Se trata de una repetición de mediciones
para informarse acerca de las variaciones del objeto en el tiempo.
Para que sean válidas las mediciones, debe emplearse el mismo instrumento de recolección de datos.
Los diseños panel son similares a las dos clases de diseños vistas anteriormente, sólo que el mismo grupo de sujetos es
medido u observado en todos los tiempos o momentos. Un ejemplo sería una investigación que observara anualmente
los cambios en las actitudes hacia los profesores, del grupo de alumnos que ingresó en el 2015 al colegio Nacional José
María Paz, hasta su egreso.
Cada año se observaría la actitud de los mismos jóvenes, es decir, los mismos individuos, para que cuando egresen,
tengamos información sobre cómo evolucionó su actitud. En los diseños panel se tiene la ventaja de que, además de
conocer los cambios generales grupales, se pueden conocer los cambios individuales. La desventaja es que a veces
resulta muy difícil obtener con exactitud a los mismos sujetos para observaciones subsecuentes. Es conveniente cuando
se tiene poblaciones relativamente estáticas. Por otra parte, deben verse con cuidado los efectos que una medición, un
registro o una observación llega a tener sobre otras posteriores, ya que son los mismos individuos los que son medidos u
observados en distintos intervalos de tiempo.
Es entonces una encuesta repetida, un mismo cuestionario suministrado a una misma muestra para observar la
evolución y modificación de las respuestas y así conocer las tendencias de las variables.
Dificultades del panel:
- Mortandad: Hay una reducción de la muestra por distintas causas (por ejemplo mudanzas, fallecimientos). Es decir se
nos presenta una disminución del número de encuestados iniciales.
- Saturación: Se presenta una actitud de rechazo progresivo por parte de los entrevistados.
Solución:
Diseño del semi-panel: La muestra que se va a entrevistar es suplantada en parte, de medición a medición. Por ejemplo:
1er medición tomo a A-B-C. 2da medición toma a B-C-D. 3ra medición tomo a C-D-E. Así sucesivamente.
Existe una definición teórica, cuya función es eliminar esta ambigüedad para estar seguros de cuál es el concepto que
queremos operacionalizar: sólo identificándolo de esta forma sabremos cuáles pueden ser sus correspondientes
dimensiones e indicadores.
Una variable compleja tiene distintas facetas que es necesario discernir para describirla adecuadamente.
La medición es la comparación de un patrón de medida con el objeto que deseamos medir para determinar cuántas
veces la unidad de medida cabe en ese objeto. Los instrumentos para realizarlo son índices o escalas. .
En cada instrumento que diseñamos debemos atenderé a su forma y contenido. La forma del instrumento es la técnica
que utilizamos para aproximarnos al plano empírico. Así para consultar la opinión de la gente, utilizamos la encuesta por
muestreo que se lleva a la práctica en forma de entrevista durante la cual aplicamos un cuestionario.
El contenido se revela en la especificación de los datos que necesitamos conseguir; y sus correspondientes ítems o
preguntas. El instrumento surge del trabajo previo de investigación: resume los aportes de la investigación teórica al
seleccionar las variables a estudiar, sus dimensiones, sus indicadores, todos los cuales se refieren a las propiedades
reales del fenómeno bajo estudio. Es en el instrumento donde se debe destacar la correspondencia entre el nivel teórico
y el nivel empírico, entre la teoría y las propiedades de los objetos o fenómenos reales.
La medición: los índices y escalas son instrumentos de medición. Se construyen para representar con mayor validez los
complejos fenómenos sociales. Es la comparación de un patrón de medida con el objeto que deseamos medir para
determinar cuántas veces la unidad de medida cabe en ese objeto.
En los conceptos complejos de ciencias sociales se hace necesario definir las dimensiones de la variable, identificar
indicaciones apropiadas y comprehensivos del fenómeno y diseñar una escala apropiada para el caso.
Niveles de medición: existen diferentes niveles de medición que están asociados a los tipos de escala.
i. Equivalencia o clasificación. En este nivel se usan numerables u otros símbolos para clasificar objetos u
observaciones, que constituyen una escala nominal o clasificadora. Cuando un conjunto de objetos puede ser clasificado
en categorías exhaustivas y mutuamente excluyentes; y cuando cada categoría está representada por un símbolo
diferente se obtiene un nivel nominal de medición. Matemáticamente la propiedad básica del nivel nominal es que las
propiedades de los objetos en una categoría son equivalentes entre sí, pero no iguales a otros objetos en el aspecto que
los identifica.
ii. Nivel ordinal (jerarquización u orden). Se exhibe alguna clase de relación. Son típicas las relaciones “más alto,
más deseados”, que pueden ser representadas por el signo (>) que significa “mayor que”. Usado para designar “es más
grande que” o “es más deseado que”. Las escalas de este nivel distinguen los diferentes valores de la variable
jerarquizándolos de acuerdo a un rango. Existe una gradación entre uno y otro de la escala (prelación).
iii. Nivel de intervalos fijos o iguales (distancia exacta). Presenta una unidad e medición común y constante que
asigna un número real a todos los pares de objetos en el conjunto ordenado. Esta propiedad permite que uno sepa la
distancia exacta entre cada observación. Aparte de decir que un objeto es mayor que otro en alguna propiedad, se
puede especificar por cuantas unidades el primero es mayor que el segundo. Ejemplo: son variables la altura, la
temperatura, el tiempo, y cociente de inteligencia.
iv. Nivel de razón (valor cero absoluto y proporciones). También llamado nivel de cociente. Aquí se conservan todas
las propiedades de los casos anteriores y se añade la existencia de un valor cero real. El cero real indica la ausencia de la
propiedad medida, haciendo posible operaciones matemáticas, como las proporciones y cocientes. Son escalas de
cocientes las que miden la longitud, la masa, la fuerza, y otras referidas a las ciencias físicas. Se mide en el nivel de razón,
solo cuando es pasible obtener operación de los cuatro tipos de relación.
Ser válido significa que un instrumento es válido para una esfera de comportamientos si nos permite predecir
rendimiento dentro de esa esfera, independientemente del nombre de la prueba, del rasgo o rasgos que se dice que
mide. Por ejemplo, diremos que una regla mide centímetros, o bien la distancia lineal entre dos puntos, y será válida
para medir la distancia entre dos puntos lineales, pero no es válida para medir la extensión de la línea de un círculo. LA
VALIDEZ se refiere al grado en que un instrumento mide la variable que pretende medir.
Ser confiable significa que un instrumento de medición independiente de su objetivo, siempre debe medir lo mismo,
bajo las mismas condiciones.. LA CONFIABILIDAD de un instrumento de medición se refiere al grado de precisión o
exactitud de la medida, en el sentido de que si aplicamos repetidamente el instrumento al mismo sujeto u objeto
produce iguales resultados.
La validez y confiabilidad siempre está limitada según sea la evidencia disponible, permitiendo afirmar que determinado
instrumento es válido y confiable para determinado uso y bajo ciertas condiciones.
Definición.
La validez es un concepto propio de la lógica. La lógica es una ciencia que nos enseña cuales son las condiciones e validez
de los razonamientos, de las inferencias, de las proposiciones.
La validez es la mejor aproximación posible a la verdad que puede tener una proposición, una inferencia o conclusión. Se
refiere a si los instrumentos utilizados en la investigación miden o recogen los fatos que se suponen midan o recojan.
Tipos
Los juicios de expertos se pueden obtener por métodos grupales o por métodos de experto único.
Se pueden seguir:
Método de Agregados Individuales: Se pide individualmente a cada experto que dé una estimación directa de los ítems
del instrumento. Éste es un método económico porque, al igual que el método Delphi no exige que se reúna a los
expertos en un lugar determinado.
Método Delphi: Este método fue creado en 1948 para obtener la opinión de expertos de una manera sistemática. En un
primer momento, cada experto responde de manera individual y anónima a un cuestionario. Después se analizan las
respuestas del conjunto de expertos, se remite a cada uno la respuesta mediana obtenida, así como el intervalo
intercuartil para cada cuestión y se les pide que reconsideren su juicio anterior, teniendo en cuenta estos datos.
Técnica de Grupo Nominal: El primer paso es reunir a los expertos (entre ocho y diez personas) y pedirles que registren,
individualmente y sin intercambiar opiniones, sus propias puntuaciones y consideraciones respecto a las probabilidades
de error para cada una de las preguntas o tareas que se les detallan. Después, cada experto expone a los demás las
puntuaciones y principales consideraciones registradas y al acabar esta ronda, se establecen las coincidencias del grupo.
Luego se realiza un debate de cada uno de los apartados de ésta. Finalmente, cada experto, de manera individual y por
escrito, puntúa y argumenta las probabilidades de error para cada tarea/pregunta considerada.
Método del Consenso Grupal: Se reúne a los expertos en un lugar determinado, se indica al grupo que su tarea consiste
en lograr una estimación de la pertinencia y otros aspectos relacionados con la elaboración de los ítemes, que sea
satisfactoria para todos los expertos. Con estas instrucciones se maximizan los intercambios de información y opiniones
dentro del grupo de expertos.
Validez Predictiva o de Critério Externo o Empírica:
La relación entre la conceptualización teórica del instrumento y su estructura factorial. Cronbach (1960) ha sugerido los
pasos siguientes para establecer la validez de constructo:
(a) identificar las construcciones que pudieran explicar la ejecución en el instrumento;
(b) formulación de hipótesis comprobables a partir de la teoría que enmarca a cada construcción; y
(c) recopilación de datos para probar estas hipótesis.
El término confiabilidad “…designa la exactitud con que un conjunto de puntajes de pruebas miden lo que tendrían que
medir” (Ebel, 1977, citado por Fuentes, op. cit., p. 103).
CONFIABILIDAD. Definición LA CONFIABILIDAD de un instrumento de medición se refiere al grado de precisión o
exactitud de la medida, en el sentido de que si aplicamos repetidamente el instrumento al mismo sujeto u objeto
produce iguales resultados. Es el caso de un balanza o de un termómetro, los cuales serán confiables si al pesarnos o
medirnos la temperatura en dos ocasiones seguidas, obtenemos los mismos datos. Antes de iniciar el trabajo de campo,
es imprescindible probar el cuestionario sobre un pequeño grupo de población. Esta prueba piloto ha de garantizar las
mismas condiciones de realización que el trabajo de campo real. Se recomienda un pequeño grupo de sujetos que no
pertenezcan a la muestra seleccionada pero sí a la población o un grupo con características similares a la de la muestra
del estudio Confiabilidad-grado en que un instrumento produce resultados consistentes. La confiabilidad es una medida
de determinación de la ESTABILIDAD y la CONSISTENCIA INTERNA DEL INSTRUMENTO.
Entre los métodos para estimar la confiabilidad, se tienen:
MÉTODO TEST-RETEST: una forma de estimar la confiabilidad de un test o cuestionario es administrarlo dos veces al
mismo grupo y correlacionar las puntuaciones obtenidas. Este método tiene la desventaja de que los puntajes pueden
verse afectados por el recuerdo, la práctica, etc. Este procedimiento no es adecuado para aplicarlo a pruebas de
conocimientos sino para la medición de aptitudes físicas y atléticas, tests de personalidad y motores.
El investigador debe aplicar el mismo instrumento dos veces al mismo grupo después de cierto período.
Debe calcular la confiabilidad del instrumento ANTES de la aplicación definitiva del mismo.
ESCALAS DE ACTITUDES ARBITRARIAS Entre las escalas de actitudes de esta clase se encuentran las siguientes:
escalas de puntos, consisten en una serie de palabras o proposiciones que se presentan al encuestado para que tache o
borre las que le sean desagradables, las que espontáneamente le produzcan un sentimiento de repulsión. Para puntuar
estas escalas se pueden seguir diversos procedimientos. Uno de ellos podría ser asignar a cada individuo en principio un
número de puntos igual al de palabras de la escala. A este número se le restan las palabras que representan una
posición negativa con relación a dicha actitud, y se le suman las que representan una posición positiva respecto a la
actitud medida.
escalas de clasificación, consisten en clasificar por orden de preferencia una serie de proposiciones, palabras,
ocupaciones, objetos, etc. La puntuación en este caso se puede realizar sumando los números de los lugares que ocupan
en la clasificación, las proposiciones referentes a la actitud que se quiere medir.
escalas de intensidad. Se trata en ellas de elegir respecto a una pregunta o proposición entre varias respuestas que
expresan el grado de aceptación o rechazo de la pregunta en cuestión. Normalmente las categorías de las preguntas en
estas escalas suelen ser cinco o siete, del tipo siguiente: Muy conforme, conforme, indiferente, disconforme, muy
disconforme. En el caso de siete se añaden a las anteriores en los extremos los de absolutamente conforme y
absolutamente disconforme. La puntuación en estas escalas se establece simplemente sumando al número de orden de
las categorías elegidas dentro de cada ítem. En este tipo de escalas hay que tener en cuenta que la valoración dada a los
ítems o preguntas de la escala que representen la actitud opuesta a la que se mide se computa inversamente. Es decir,
que en ella el absoluto desacuerdo vale 1 punto, en lugar de 7, y en absoluto acuerdo 7 en lugar de 1. A esta clase de
escalas de actitudes pertenecen las del tipo Likert, bastante conocidas y empleadas. Una objeción importante que se
hace a las escalas de Likert es que en ellas se valoran igual todos los ítems, a pesar de que unos pueden denotar una
actitud más intensa que otros.
escalas de proposiciones. Se caracterizan porque constan de una serie de actuaciones favorables y desfavorables, a un
grupo social, o en general a un fenómeno de interés social. Dentro de esta especie de escalas es muy conocida la de
Bogardus, utilizada mucho en Norteamérica para medir la actitud hacia los negros, o la distancia racial hacia ellos.
ESCALAS DE ACTITUDES EXPERIMENTALES. Son, como he indicado, aquellas en que cada ítem tiene un valor o
puntuación establecido experimentalmente. Las más extendidas de estas escalas son las de Thurstone. Formalmente son
similares a las de intensidad, en cuanto consisten en un conjunto de proposiciones referentes a la actitud de que se
trata. Sin embargo se diferencian de las escalas de intensidad en que cada ítem o pregunta tiene asignado un valor, el
valor escalar, obtenido experimentalmente.
Los valores escalares de los ítems o preguntas deben cubrir toda la extensión o continuo de estas escalas. Estos valores
escalares son causa de que exista una diferencia o distancia entre los valores escalares de cada pregunta, por lo que se
dice que estas escalas tienen distancia y por ello se les llama de intervalo.
Para la aplicación de estas escalas únicamente se pide a los encuestados que indiquen si aceptan o rechazan cada ítem.
La puntuación se determina sumando los valores escalares de las proposiciones que aceptan y hallando su media. Una
de las críticas principales que se hacen a las escalas tipo Thurstone es que la valoración hecha por los jueces puede no
ser adecuada para el grupo a que se aplique. Además, estas escalas de actitudes no discriminan a los sujetos que
alcanzan una misma puntuación, cuando los ítems que aceptan son distintos si bien suman lo mismo.
OTROS TIPOS DE ESCALAS DE ACTITUDES. La puntuación en este caso se determina simplemente por el número de orden
del ítem elegido.
Entre ellos se pueden destacar: el escalograma de Guttman y el diferenciador semántico.
El primero está formado por una serie de preguntas a las que se contesta simplemente si o no, pero formuladas de tal
manera y en tal orden que el contestar sí a una de ellas supone normal y lógicamente contestar sí a todas las siguientes.
El propósito de Guttman fue construir escalas verdaderamente unidimensionales, en las cuales sus preguntas o ítems
formasen una jerarquía rigurosa, de modo que la aceptación de una proposición implicara lógicamente la aceptación de
las de nivel jerárquico inferior. En estas escalas están valoradas tanto las preguntas por su orden jerárquico, como los
sujetos, porque su aceptación o rechazo de las proposiciones permite conocer su puesto en la escala. La puntuación
total de los encuestados se determina por el número de ítems o preguntas a las que han respondido sí. También en esta
puntuación se deben tener en cuenta el número de fallos o de veces que los síes o noes rompen el orden jerárquico de
la escala.
En el llamado diferenciador semántico, se presentan pares de calificativos opuestos, fuerte-débil, grande-pequeño, etc.,
dividiendo cada par en una graduación de siete puntos. Se debe a Osgood y es en sí originariamente una técnica
semántica para medir el significado que tiene algo para un individuo, aunque se puede utilizar también para medir la
actitud hacia ese algo. Una de las funciones de este tipo de escalas es proporcionar una medida indirecta de los
sentimientos subyacentes, incluso inconscientes, hacia un término o palabra. Se puede aplicar este tipo de escalas a
diversos objetos o personas y permite captar la impresión que causan en el encuestado, o sea su imagen. Se deben
aplicar comparativamente. El análisis factorial de una gran cantidad de diferenciales semánticos ha descubierto que con
ellos se miden tres dimensiones básicas: a) El valor (bueno-malo), o la evaluación que hace el sujeto de los entes
propuestos. b) El poder, (fuerte-débil), o la percepción por el sujeto de la potencia del ente en cuestión. c) La actividad
(activo-pesado: rápido-lento), o sea la percepción del dinamismo del ente en cuestión.
CONSTRUCCION DE LA ESCALA DE LIKERT En la construcción de las escalas se pueden distinguir, en general, las siguientes
operaciones básicas:
1. Búsqueda de las proposiciones, ítems o estímulos representativos de la actitud o conceptos que se pretenden medir.
2. Prueba de cada uno de los ítems para contrastar si representan adecuadamente a la actitud.
3. Establecimiento de un procedimiento de valoración de la escala, arbitrario o experimental según el tipo de escala
elegido.
4. Prueba de la escala completa para comprobar su validez y seguridad.
La construcción de las escalas de Likert consiste en primer lugar en pensar y formular una serie de proposiciones,
bastantes, pueden ser cien o más, referentes a la actitud en cuestión.
En segundo lugar dichos ítems o proposiciones se someten a la prueba de aplicarlos a un grupo, para eliminar los ítems
inadecuados, que no se ajustan bien a la actitud que se pretende medir. Se averigua para todos los encuestados la
puntuación total y se seleccionan de todos ellos el 25 % que ha obtenido una puntuación superior y el 25 % que la haya
obtenido inferior. Se forman así dos grupos, superior e inferior de la escalas. Respecto a estos dos grupos se analiza
forma de contestación a cada proposición. Este análisis se basa en el supuesto de que si se trata de un ítem que se ajusta
a la actitud en cuestión, la puntuación media respecto a este ítem del grupo superior debe ser significativamente más
elevada que la del grupo inferior. Para comprobar esta significatividad de las diferencias se utiliza comúnmente la
prueba estadística t.
Los ítems o proposiciones en los cuales las diferencias entre los dos grupos no sean significativas se eliminan y sólo se
dejan en la escala aquellos en lo que dicha diferencia haya resultado significativa. También se puede comprobar la
consistencia de los ítems de esta escala correlacionando las puntuaciones de los sujetos en el ítem X con sus
puntuaciones totales en la escala menos la del ítem X.
CONSTRUCCION DE LAS ESCALAS DE THURSTONE. La construcción de las escalas de Thurstone consiste en síntesis en
pensar un grupo elevado de preguntas o proposiciones en relación a la actitud que se pretende medir, favorables y
adversas y neutrales en todos sus grados. Estas proposiciones se someten a un grupo que hace de jueces y se les pide
que señalen la valoración que a su juicio objetivo, no personal, tiene el ítem o proposición respecto a la actitud en
cuestión. Como existe la posibilidad de que los jueces cumplan mal su tarea, por ello se deben analizar las evaluaciones
de cada uno, y eliminarlas en el caso de que su trabajo sea deficiente. La valoración han de hacerla, según una escala
continua de 1 a 11 puntos, en el que el 1 significa el máximo acuerdo y el 11 el máximo desacuerdo con la proposición.
Valorados los ítems de este modo por los jueces, se halla, para cada uno, la media y la desviación típica de las
valoraciones que han dado los jueces. La media constituye la ponderación o valor escalar que se da al ítem. En cuanto a
la desviación típica, los ítems en que ésta sobrepasa por ejemplo, el valor de dos se eliminan. Los ítems eliminados son,
por tanto, aquellos en los que la dispersión de las valoraciones de los jueces es mayor, y por tanto es menor su acuerdo
respecto a la significación del ítem en cuestión respecto a la actitud medida. Suelen quedar unas treinta proposiciones.
Se debe procurar que se distribuyan a lo largo de la escala de modo más uniforme posible y cubriendo todos sus valores,
sin huecos, del 1 al 11.
CONSTRUCCION DE LAS ESCALAS DE GUTTMAN. Se empieza igual que en los casos anteriores, formulando un número de
preguntas o ítems en relación a la actitud de que se trata que pueden llegar hasta 50. Este conjunto de preguntas se
somete para su prueba a un grupo que debe contestar a todas ellas sí o no. Con las respuestas dadas a todas las
preguntas, se forma una tabla, que se llama escalograma. En este cuadro consignamos la forma de respuesta de cada
sujeto, designamos con una X su aceptación de los ítems y con O su desacuerdo con ellos.
Seguidamente se computa la puntuación total de cada sujeto del grupo. Después estas puntuaciones se ordenan de la
más alta a la más baja. A continuación, con las respuestas dadas a todas las preguntas se forma un cuadro que se llama
escalograma. La finalidad de esta operación se dirige a jerarquizar rigurosamente los ítems.
En este escalograma los ítems se disponen en sentido horizontal y los sujetos en sentido vertical, o sea, se atribuyen a
los primeros las columnas y a los segundos las filas de la tabla. Después por aproximaciones sucesivas se forman las
nuevas tablas que sean necesarias, hasta que se consiga ordenar por orden jerárquico las proposiciones y las respuestas.
A la vez se van eliminando las preguntas que presentan respuestas muy desviadas que infringen la jerarquización debida
a las preguntas.
Se estima que la jerarquización de una escala de Guttman, es buena cuando su coeficiente de reproductibilidad es al
menos de 0,90.
Para computar según la técnica de Goodenough el número de errores; se establecen, con signos más y menos todos los
patrones de respuesta posibles, tanto los que se ajusten a la exigencia de jerarquización de la escala como los que se
apartan de ella. Después se buscan en el escalograma los casos de sujetos que corresponden a cada tipo de respuestas
no jerarquizadas. Este número multiplicado por el número de errores que suponga cada patrón de respuesta no
jerarquizada y su suma nos da el total de errores. Este escalograma nos ofrece una jerarquización global de la escala y en
relación al mismo se puede realizar una primera estimación de la bondad de esta jerarquización calculando el
coeficiente de reproductibilidad.
Sin embargo, la técnica anterior no nos dice nada sobre el grado de jerarquización de las respuestas dadas por el grupo,
respecto a cada ítem por separado. Para remediar este defecto el mismo Guttmann ideó otra técnica de construcción de
esta escala, que recibe el nombre de Cornell, por la Universidad donde fue ensayada. De acuerdo con ella, en la
aplicación de la escala al grupo de prueba, cada sujeto debe contestar a cada ítem como si fuera una escala de Likert, es
decir, según diversos grados de acuerdo, normalmente 5. A continuación se halla la puntuación total de cada sujeto y se
ordenan éstos por orden de puntuación de mayor a menor. Si hubiera una jerarquización perfecta dentro de cada ítem,
entonces los que tienen una puntuación más elevada en la escala completa, deberían tener en cada ítem una
puntuación no inferior a la que ostentan en el mismo ítem otros sujetos de puntuación global inferior.
válida de Y y una relación negativa con las calificaciones en una medida válida de Z''. También se pueden validar las
escalas, aunque es un procedimiento penoso de aplicar, mediante el análisis de si la conducta de aquellos a quienes se
han aplicado, concuerda con los resultados obtenidos en las escalas. A este procedimiento se le llama validez predictiva.
La validez de una escala está también relacionada con su seguridad. Por tanto, a mayor seguridad, también mayor
validez. Así como aumentando el número de ítem se puede aumentar la seguridad de una escala, igualmente
aumentando el número de preguntas o proposiciones homogéneas se puede aumentar también la validez.
d) La forma de aplicación del cuestionario, por escrito o mediante entrevista. El destino de los datos derivados de cada
una de las categorías de las preguntas es su agrupación y sistematización en tablas. En una tabla, a cada respuesta debe
corresponder una columna. Por ello, hay que tener en cuenta en la planificación del cuestionario que un número
excesivo de respuestas da lugar a tablas de muchas columnas y por tanto difíciles de leer y analizar.
En cuanto al tercer paso, número y orden de las preguntas se pueden recomendar las siguientes reglas:
1) El cuestionario debe contener todas las preguntas necesarias, pero ninguna más. Un cuestionario largo, salvo
caso de absoluta necesidad, es penoso tanto para el entrevistador como para el encuestado.
2) No se debe empezar el cuestionario con preguntas difíciles y embarazosas.
3) Se debe evitar a toda costa colocar juntas preguntas en las que la respuesta a una de ellas pueda influir en el
sentido de la respuesta a la otra. Si esto ocurre, se produce el efecto de "halo" o "contagio".
4) Se debe procurar que todas las preguntas sobre un aspecto figuren juntas en el cuestionario, dispuestas así
como los mismos temas, guardando un orden temporal, lógico y psicológico.
5) Para evitar la monotonía y en cansancio y facilitar los cambios de tema, es conveniente intercalar en sitios
estratégicos preguntas de alivio más o menos intrascendentes, que supongan un cierto respiro.
6) Se ha observado, que, en el caso de las entrevistas, la curva de tensión de los entrevistados se manifiesta plana
al principio y al final, y suele alcanzar su máxima intensidad en el segundo tercio de la entrevista.
Por esta razón, las instituciones de investigaciones de mercado suelen comenzar las entrevistas con preguntas
interesantes para el entrevistado, que exigen una motivación menor y terminan con las preguntas de identificación que
requieren menos esfuerzo. La tendencia es, pues, a incluir las preguntas más importantes en el tercio medio de la
entrevista, y a no hacer preguntas que puedan comprometer al encuestado, sino después que se haya establecido una
cierta relación de confianza con él. Se considera que en temas importantes para la investigación es peligroso basarse en
una sola pregunta. Varias preguntas de diferente forma, redacción y contenido reducirán el peligro de los diversos
sesgos a que está sometida una sola pregunta. Similarmente, se estima que las preguntas referentes a actitudes, o
posiciones permanentes y profundas de la persona, deben ser acompañadas por lo menos de otra pregunta que mida la
fuerza de la actitud en comparación con otros sentimientos o actitudes, es decir, su intensidad, o bien su centralidad, o
sea, la importancia que se concede a la actitud expresada a la hora de tomar una decisión, por ejemplo, votar.
ELABORACION FORMAL DEL CUESTIONARIO
Planificada del modo indicado la construcción del cuestionario, es preciso proceder a su elaboración formal. Destacan en
ella la redacción formal de las preguntas y la determinación de los aspectos formales del cuestionario y de sus
elementos accesorios.
La redacción de las preguntas, según la tesis central del libro de Sudman y Badburn (1982) es el elemento esencial para
maximizar la validez de los datos obtenidos en la investigación por encuesta. Ya desde los primeros tiempos de la
encuesta, se conoce el hecho de que cambios aparentemente pequeños en la redacción de las preguntas pueden causar
grandes diferencias en los diversos porcentajes de respuestas a la misma.
Reglas básicas en esta redacción son que no se pierda nunca de vista los objetivos de la investigación y que, previamente
a la formulación de cada pregunta, nos preguntemos sobre la necesidad y oportunidad de la misma, y sobre el grado en
que nos servirá para lograr los objetivos propuestos.
Finalidad de los aspectos formales es que el cuestionario sea atractivo y adecuado a las características de la encuesta. Su
objeto es la programación de sus condiciones formales, tales como papel a emplear, clase, color, tipo de impresión;
espacios destinados a las respuestas y a la codificación; márgenes a dejar a derecha e izquierda y en medio de las
preguntas y datos de identificación que deba contener el cuestionario.
Como elementos accesorios al cuestionario cabe destacar:
a) La carta dirigida al encuestado solicitando su cooperación a la encuesta rellenando el cuestionario y dándole las
gracias por su cooperación.
b) Las instrucciones para cumplimentar el cuestionario. La carta deberá estar escrita de forma clara y sugestiva, y en
lenguaje sencillo y apropiado al destinatario. En ella se hará resaltar el interés de la investigación y los beneficios
directos e indirectos que representa su contestación.
Las instrucciones, que según Zarkowich (1970), son tan importantes como el cuestionario, son el medio de obtener la
normalización de las respuestas recogidas y de evitar la introducción de elementos subjetivos en las mismas. En ellas se
expondrán las advertencias, que se consideran necesario o conveniente realizar, sobre la forma general de
cumplimentar el cuestionario y de consignar las respuestas según los distintos tipos de preguntas que comprenda. Las
instrucciones se deben redactar con gran claridad y esmero. Se debe procurar que sean completas y resuelvan todas las
dudas que puedan plantearse. Sobre todo ha de tenerse cuidado especial en no inducir a confusión. En este caso
podrían ser causa de sesgo.
VALIDEZ Y SEGURIDAD DEL CUESTIONARIO.
En el cuestionario, como en todos los instrumentos de observación, además del pretest o prueba a que ya hemos
aludido, para comprobar que las preguntas son comprensibles y que las respuestas a ellas son significativas, en orden a
la investigación pretendida, es necesario también verificar su seguridad y validez.
Un procedimiento para comprobar la seguridad del cuestionario es el llamado retest, que consiste en aplicaciones
repetidas de aquél a las mismas personas, dentro de un breve espacio de tiempo.
En cuanto a la validez, el único procedimiento seguro para verificarla, es comprobar que los resultados obtenidos se
ajustan a la realidad. Pero esto en los cuestionarios sólo es posible en las preguntas de hecho, pero no en las de opinión.
Como procedimientos prácticos para comprobar indirectamente la validez de los cuestionarios, se pueden utilizar las
técnicas de los grupos conocidos, "knowgroups" y la de "predictivevalidity", la "randomprobe" o prueba aleatoria y las
"cross-checkquestions".
Según la primera técnica, el cuestionario se aplica a individuos que se sabe de antemano presentan unos valores muy
altos o muy bajos respecto a determinadas características, que se pretenden conocer con el cuestionario. Si los
resultados de esta aplicación coinciden significativamente con los ya conocidos es un índice de validez.
En la segunda técnica, se observa la conducta posterior de los encuestados y se contrasta con sus opiniones. Si son
congruentes ambas, también se puede tomar con índice de validez del cuestionario.
La "randomprobe" o prueba aleatoria consiste en preguntas situadas aleatoriamente en el cuestionario. Tienen como
finalidad precisar y desarrollar lo que las preguntas significan para el encuestado. Sirven para aclarar sus respuestas y
para saber el grado de comprensión de la encuesta y la validez de sus respuestas.
Un final contraste de validez es el uso de "cross-checkquestions". En este caso se incluyen preguntas que pueden ser
contrastadas con fuentes independientes. Por ejemplo, la pregunta ¿cuántos años ha estado en tal prisión?, puede ser
contrastada con el registro de la prisión.
EL SISTEMA DE CATEGORÍAS.
En los sistemas categoriales, la observación se realiza a partir del establecimiento de categorías que son prefijadas por el
observador. Para establecer un sistema de categorías el investigador define con claridad las categorías de estudio que se
corresponden con cada caso a estudiar, dichas categorías deben ser mutuamente excluyentes de forma que la
asignación de un caso a una categoría impida que pueda ser asignada a otra, debe ser exhaustiva es decir ningún caso
puede quedar sin poder ser asignado a una categoría y debe ser homogéneo es decir mantener una relación lógica con
la variable categorizada. Por lo general en un sistema de categorías el registro y la codificación se producen
simultáneamente. Hay que considerar su posibilidad de generalización, es decir si puede o no aplicarse a una variedad
de situaciones.
El siguiente esquema sirve de guía para la construcción de un sistema de categorías.
• Preguntas al objeto: ¿Qué preguntas se desea responder?
• Marco Teórico: ¿Qué supuestos están en la base de la explicación con respecto al objeto?
• Objeto de Observación: ¿Qué comportamientos se pretenden observar?
• Sistema de categorías.
En que consiste el comportamiento a observar?
¿Cuál es la unidad de registro?
¿Recogen las categorías comportamientos directos? Si no es así ¿se necesita realizar inferencias?
¿Se va ha observar y registrar al mismo tiempo? ¿Cómo se realiza la codificación?
¿Son específicas a una situación las categorías definidas? ¿Pueden extenderse a una generalidad de situaciones?
¿Cómo se registra
¿Cómo se codifica?
• Análisis: ¿Cómo se analizarán los resultados? ¿A partir de qué categorías?, ¿comparando sujetos o situaciones?,
¿Determinando diferencias o relaciones?
• Interpretación: ¿A qué tipo de conclusiones llevan los resultados? ¿Para quésirvió la observación?
(APUNTE MARIANA)
Los datos Cualitativos:
En primer lugar, el dato encierra el contenido informativo, soporta una información acerca de la realidad interna o
externa a los sujetos estudiados que será utilizada con propósitos investigativos. “los investigadores cualitativos
consideran datos toda una serie de informaciones relativas a las interacciones de los sujetos entre sí y con el propio
investigador, sus actividades y los contextos en que tienen lugar, la información proporcionada por los sujetos bien a
iniciativa propia o a requerimiento del investigador, o por los artefactos que construyen y usan (documentos escritos u
objetos materiales). Además, y en contra de lo que sugiere el sentido etimológico (datum: lo dado) el dato es el
resultado de una elaboración de la realidad. ()..
Tanto el modo en que se focaliza su percepción como el todo en que da cuenta de ella, implican un referente teórico y
conceptual que condicionan el modo de interpretar lo que sucede ante sus ojos”.
Por lo tanto, el dato soporta una información sobre la realidad, implica un mayor o menor elaboración conceptual de la
misma y el modo de registrarla y expresarla”.
Concepto: consideramos el dato como una elaboración de mayor o menor nivel, realizado por el investigador o por
cualquier otro sujeto presente en el campo de estudio, en la que se recoge información acerca de la realidad interna o
externa a los sujetos y que es utilizada con propósitos indicativos. El dato soporta una formación sobre la realidad,
implica una elaboración conceptual de esa información y un modo de expresarla que hace posible su conservación y
comunicación.
“La naturaleza de los datos manejados en la investigación vendrá condicionada por las técnicas o instrumentos
utilizados para recogerlos y por los presupuestos teóricos, filosóficos o metodológicos según los cuales se utilice. Dado
que en la investigación cualitativa se suelen utilizar la entrevista, la observación, las preguntas abiertas presentadas
mediante cuestionarios, los diarios etc. El tipo de datos recogidos suele venir expresado en forma de cadenas verbales y
no mediante valores numéricos”. De ahí que la mayor parte de los datos que son recogidos en el curso de las
investigaciones cualitativa posean como una de sus características conocidas la de ser expresados en forma de textos. Se
trata de datos que reflejan la comprensión de los
procesos y las situaciones por parte de los propios participantes en los contextos estudiados”.
Análisis e interpretación de los datos
El análisis de datos cualitativos.
Las respuestas fueron múltiples, pero se encontraron y aislaron los patrones generales de respuesta más frecuentes:
PATRONES GENERALES Código asignado
Involucrando al personal y comunicándose con el IP+C
Mejorando la motivación, integración y clima laboral MM+INT+CL
Con Capacitación CAP
Con incentivos y recompensas I+R
Difundiendo el valor del trabajo en equipo TE
Otras
A partir de allí, tomamos el resto del material, comenzamos a buscar las categorías de análisis definidas en la muestra,
y lo vamos codificando. De esta manera, al finalizar la codificación en primer nivel, habremos realizado una primera
lectura u observación de las mediciones, y tendremos todo el material con las marcas de los códigos de las categorías de
análisis encontradas.
Si nuestra investigación fuera de alcance descriptivo o correlacional, significa que ya hemos podido definir
previamente, en la construcción del marco teórico, nuestras categorías de análisis, es decir, sabemos a priori lo que
estamos buscando. En este caso, el libro de códigos se puede confeccionar con anterioridad al comienzo de la lectura del
material, y a medida que este se vaya leyendo se podrá ir codificando directamente.
Por ejemplo, si estamos investigando los tipos de violencia que ejercen los hombres abusadores sobre sus parejas, y en
la construcción del marco teórico ya hemos definido que dividiremos a la violencia en tres categorías: violencia física
(golpes, empujones, etc.), violencia verbal (insultos, gritos amenazantes, etc.), y violencia psicológica (miradas
amenazadoras, encierros, etc.), iniciaremos la codificación en primer nivel buscando estas categorías. Veamos un
pequeño ejemplo (observe cómo se describen todas las características importantes en la transcripción de una entrevista
que fue grabada en MP3)
Tema investigado: tipos de violencia que ejercen los hombres que abusan de sus parejas.
Método de recolección de los datos: Entrevistas en profundidad.
Contexto: Entrevista con una joven de 27 años, tres años en pareja, clase media, que vive en un barrio de Resistencia
Chaco.
Esto lo que grave de la mujer:
1. Carla: Mi esposo me ha pegado varias veces (¡ufff!). (Pausa)
2. No sé cómo decirlo... Me pega cachetazos, y a veces trompadas.
3. La última vez me gritó: “Sos una basura”. También me ha
4. dicho que soy atorranta, hija de perra. Siempre me insulta. Y la
5. verdad es que yo no hago nada malo. Nunca (pausa).
6. Me mira con bronca. Me amenaza con los ojos, y amaga a pegarme.
7. A veces le contesto y le pego también.
8. El otro día le tiré con un cenicero....
El proceso de generar o detectar categorías de análisis se realiza sobre la base de la comparación constante entre
párrafos o líneas. En el ejemplo podemos diferenciar: la primera línea caería en la categoría “violencia física”; la segunda
también en “violencia física”; y la tercera y cuarta en “violencia verbal”. La sexta, “violenciapsicológica”.
En esta transcripción observamos tres tipos de violencia. No debemos olvidarnos de tomar notas en el diario de
análisis, sobre las características de las unidades que las hacen similares o diferentes. En algunas ocasiones, las unidades
de análisis o significado no pueden ser ubicadas de manera clara en las categorías desarrolladas o descubiertas durante
la revisión del material. Entonces se acostumbra crear la categoría “otras”. Estas unidades son colocadas en dicha
categoría, junto con otras difíciles de clasificar. Cuando nos encontramos que la categoría “otras” incluye demasiadas
unidades de significado, resulta recomendable volver a revisar el proceso, y asegurarnos de que nuestro esquema de
categorías y las reglas establecidas para clasificar sean claras y nos permitan discernir entre categorías. La categoría
“otras” no puede ser mayor de 10%respecto del total el material analizado.
También es posible generar un sistema de categorías de múltiples dimensiones y que las unidades puedan ser
ubicadas en varias categorías (una por dimensión).
Por ejemplo, en el caso tratado del abuso de los maridos sobre sus esposas, ubicar las unidades en la dimensión “tipo
de violencia” y, asimismo, en la dimensión “rol del esposo”.
Entonces, supongamos la línea:
Carla: “Me dijo que era una estúpida y que él manda en esta casa”, puede clasificarse como “violencia verbal”
(categoría de la dimensión tipo de violencia) y como “autocrático o impositivo” (categoría rol del esposo en la relación).
Con frecuencia, las líneas o párrafos analizados pueden caer en dos o más categorías de una misma dimensión. Frases
como:
Carla: “Me empujó, me dijo que estaba loca y me encerró en el baño” puede categorizarse como “violencia física” (me
empujó), “violencia verbal” (me dijo que estaba loca) y “violencia psicológica” (me encerró en el baño).
En este caso se consignarán los tres códigos en el margen de la hoja, al lado de la línea.
Debemos recordar que en el análisis cualitativo hay que reflejar lo que nos dicen las personas estudiadas en sus
“propias palabras”.
Es muy importante obtener evidencia acerca de la confiabilidad y validez del proceso de codificación. Esto puede
hacerse proporcionando el material y el esquema de categorías a otros investigadores. Si notamos serias diferencias
entre la codificación hecha por distintas personas, es momento de volver a revisar el esquema de categorías, las reglas y
los resultados.
3. Análisis y descripción de cada categoría de análisis: La tarea esencial aquí consiste en identificar diferencias y
similitudes en las distintas respuestas, dentro de unamisma categoría. Una vez más, utilizamos la comparación, sólo
que aquí comparamos categorías. En este punto de análisis, la meta es localizar los patrones que aparecen
repetidamente dentro de cada categoría de análisis detectada en la codificación, parapoder describirla con
minuciosidad. En esta etapa entonces volvemos a leer el material, y comenzaremos a redactar
a) las descripciones de cada categoría para ubicarla en el fenómeno que estudiamos (por ejemplo, la “violencia física”
por parte del esposo, ¿cómo es?, ¿en qué circunstancias se manifiesta?, etc.), y
b) la frecuencia con la cual aparece cada categoría en los materiales analizados (en cierto sentido cuantitativo,
debemos describir cuanto duran los episodios, cuantas veces por día o semana aparecen, etc.)
4. Interpretar las categorías de análisis:En la etapa anterior hemos descripto las características de las categorías de
análisis encontradas. En esta etapa intentaremos interpretar cuales son los factores que hacen que se den de la forma
descripta, e interpretarlos en la óptica de los propios actores investigados. Para ello nos concentraremos en describir
a) los significadosde cada categoría. Ello quiere decir analizar el significado de la categoría para los sujetos. ¿Qué
significado tiene la “violencia física” para cada esposa que la padece? ¿Le parece normal ser golpeada? ¿Cree que lo
merece? ¿Qué significado tiene cada palabra que escuchan de los labios de su cónyuge? ¿Le parece que es el lenguaje
apropiado?, etc.
b) las relaciones entre categorías. Encontrar vinculaciones, nexos y asociaciones entre categorías. Algunas relaciones
comunes entre categorías son:
De asociación: cuando una categoría casi siempre aparece con otra.
Por ejemplo, A→VF (cuando hay Violencia Física del esposo hacia su pareja y ha existido una ingesta previa de
Alcohol). En este caso pueden establecerse correlaciones.
Causales: cuando una categoría es la causa de otra, siempre la precede. No aparece una categoría si no aparece
primero la otra.
Por ejemplo, TVF →MNCE (las Mujeres que No Contactan a sus Esposos después de que se han separado, como
consecuencia del Temor a la Violencia Física).
De conjunto-subconjunto: cuando una categoría está contenida dentro de otra.
Por ejemplo, un chantaje puede darse de distintas formas: CHE: Chantaje del Esposo (conjunto) NAE: Negativa de
Apoyo Económico del esposo (subconjunto de CHE) NTN Negativa a Tener a los Niños (subconjunto de CHE) Para
ayudarnos a establecer relaciones entre categorías, podemos dibujar diagramas causales. Son una especie de mapa
conceptual de los datos clasificados y codificados. Estos esquemas se producen sobre la base de la codificación y, sobre
todo, de la reflexión y los juicios del investigador. Por ello, resulta fundamental la profundidad con la que se codifique,
revise y evalúe el material para llevar a cabo un análisis completo y exhaustivo.
5. Describir contexto(s), eventos, situaciones y sujetos de estudio:Una vez que hemos descripto las categorías de
análisis, así como su frecuencia, y hemos analizado su significado y relaciones, ayudándonos de esquemas gráficos,
debemos describir el contexto en el cual se desarrolló nuestra investigación.
Por ejemplo, la violencia de los esposos sobre sus mujeres tiene lugar en un barrio de clase media del gran Bs. As. El
papel de los hombres es… Los matrimonios sedan por noviazgos… Los consumos de alcohol son… Las mujeres
generalmente notrabajan y… Aquí, sólo damos unas pautas, pero las descripciones del contexto deben ser completas y
profundas. También habrá que describir a los sujetos del estudio, los actores del contexto. Cómo viven, cuál es su
ideología, sus costumbres, sus creencias (estado civil, edad, ocupación, ingresos, etcétera).
6. Integración de la información y vinculación con el marco teórico:La calidad del análisis cualitativo depende del
grado en que profundicemos los aspectos anteriores, y los vinculemos con las teorías encontradas. En este punto,
mediante una integracióndel conocimiento obtenido de los materiales analizados (las descripciones decategorías y
contexto, las relaciones encontradas entre ellos, los actores y la revisiónde notas, apuntes, bitácoras, etc.) debemos
comenzar generar hipótesis (si no lohabíamos hecho) y/o probarlas (si las habíamos formulado con
anterioridad),formular nuevas preguntas de investigación y a vincular nuestras conclusiones con lateoría expuesta en
el marco teórico. En este sentido, las teorías son explicaciones de lo que hemos vivido, observado, analizado y evaluado
en profundidad. La teoría la obtenemos no de aplicar técnicas estadísticas, sino sobre la base de profundizar
experiencias. Nuevamente, debemos comparar los contenidos de las teorías que orientaron nuestro trabajo en el inicio,
con los resultados que hemos obtenido al analizar la información recolectada en nuestra investigación. Las conclusiones
que vayamos obteniendo en esta comparación, se deben ir redactando para dejar constancia de ellas, y evidencia de la
asociación de nuestro trabajo con las teorías preexistentes.
7. Asegurar la confiabilidad y validez de los resultados:A diferencia del análisis cuantitativo, en el análisis cualitativo
no se utilizan coeficientes ni pruebas matemáticas. Más bien, habrá que efectuar una valoración del proceso de análisis.
En primer término debemos evaluar si obtuvimos suficiente información de acuerdo con nuestro planteamiento del
problema. Es decir, si en la recolección de los datos (entrevistas, sesiones, documentos, biografías, etcétera)
profundizamos hasta donde era posible. En segundo lugar, es recomendable llevar a cabo un ejercicio de
triangulacióndel análisis.
Ello implica que otros(as) investigadores(as) evalúen nuestro trabajo, y utilicen nuestras reglas para ver si tomarían las
mismas decisiones (o similares) respecto de las unidades, las categorías y los temas de análisis. Esto significa que las
categorías principales los patrones generales, los temas y las conclusiones más importantes deben coincidir en lo
fundamental.
Un tercer elemento para asegurar la confiabilidad y validez de los resultados (que no siempre es posible aplicar),
consiste en obtener retroalimentación directa de los sujetos de la investigación (al menos algunos de ellos), lo cual
significa pedirles que confirmen o refuten nuestras interpretaciones y ver si capturamos los significados que ellos
trataban de transmitir, así como si nuestras descripciones fueron lo suficientemente completas y profundas.
8. Retroalimentar, corregir y regresar al campo. Como resultado de la retroalimentación (que también puede
ampliarse consultando a otros colegas), detectaremos deficiencias, errores, falta de datos, etcétera; ello implica desde
realizar más entrevistas, sesiones, estudios de caso u observaciones hasta la necesidad de recabar más materiales,
recodificar, agregar nuevos esquemas o elaborar otros análisis.
En todo el proceso de análisis debemos tener en mente el planteamientooriginal del problema de investigación, con
la finalidad de que no se nos olvideencontrar las respuestas a las preguntas de investigación que planteamos en
elproblema.
Es decir, el diseño y análisis de la información deben ser coherentes con el problema de investigación, y deben
conducirnos a responder las preguntas de investigación, para cumplir así nuestro objetivo. Dicho planteamiento puede
sufrir cambios o ajustes conforme avanza la investigación, pero si esto sucede, habrán de justificarse.
(APUNTE ALDANA) COMPENDIO.
Estrategias de análisis de datos cualitativos en investigaciones jurídicas.
El análisis de datos es una de las actividades principales en la investigación cualitativa tanto por su importancia en el
desarrollo del estudio como por la relevancia que posee como actividad concreta ya que se realiza a lo largo de todo el
proceso. No es una etapa precisa y temporalmente delimitada en una fase concreta de la investigación. Antes bien,
opera por ciclos que tienen lugar a lo largo de todo el proceso de investigación.
El análisis de datos de materiales cualitativos suele ser problemático por varias razones.
I. Primero, que no existen procedimientos estandarizados que puedan aplicarse del mismo modo a cualquier tipo
de datos.
II. Segundo, que en el trabajo de campo se recopila información de naturaleza tan disímil que el investigador debe
utilizar múltiples técnicas de análisis.
III. Tercero, que el investigador puede volver a los mismos datos, en diferentes momentos de la investigación y
extraer de ellos indicios referidos a distintas propiedades.
IV. Cuarto, muchas veces se termina cuantificando la información cualitativa, desvirtuando la lógica subyacente y
empobreciendo las finalidades del análisis.
V. Quinto, que se trata de captar procesos sociales, interacciones portadoras de significados, en otras palabras, se
pretende reconstruir teóricamente un objeto en constante dinamismo y que va modificándose permanentemente.
Las alternativas de solución no son muchas y las disponibles están estrechamente vinculadas al mantenimiento de una
actitud equilibrada y reflexiva del investigador. La más importante es, quizás, la de no perder de vista que la finalidad del
análisis cualitativo es obtener una comprensión holística, integral y compleja de las situaciones sociales, para lo que
describen las cualidades y propiedades que caracterizan el objeto. El análisis de los datos antes que un procedimiento
mecánico, se presenta como un movimiento intelectual permanente del investigador. En esta tarea se reintegran las
cuestiones epistemológicas, lógicas, procedimentales, con la materialidad discursiva referida a las situaciones
observadas.
Por ello, el análisis cualitativo supone la confluencia y convergencia de tres actividades intelectuales: realización de
procesos de generación teórica, de procesos de expansión y contrastación de hipótesis y/o teorías y procedimientos
analíticos manipulativos.
La primer actividad intelectual nos conduce a la intencionalidad teórica de las metodologías cualitativas, orientadas a
generar teorías sustantivas. Recordemos que esas teorías son formuladas a partir de los datos, mediante el uso de
procedimientos de inducción analítica.
La segunda actividad, íntimamente relacionada a la anterior, remite al uso del método de comparación constante
como el procedimiento metodológico que posibilita la contrastación y la expansión de los postulados;
La tercera actividad, se relaciona con los procedimientos manipulativos por medio de los cuáles se asigna cierto orden
a la voluminosa e informe masa de datos que se obtienen cotidianamente en el trabajo de campo.
La codificación de los datos.
a) Codificación de la información.
El hecho de que el producto del trabajo del investigador se plasma en materiales discursivos. El investigador genera
textos acerca de los otros y de sí mismo en relación a los otros, y acerca de todos situados en un determinado contexto.
El análisis de datos supone, entonces, poder encontrar las tramas de sentido que sostienen esos textos. Para ello, debe
realizar una serie de operaciones manipulativas.
Desde esta perspectiva, el sentido del análisis de datos es reducir, categorizar, clarificar, sintetizar y comparar la
información con el fin del obtener una información lo más completa posible del fenómeno observado.
En la bibliografía aparecen distintas posiciones respecto a las características que debe tener el análisis e interpretación
de datos en la investigación cualitativa. Así, entre los etnógrafos hay una corriente que postula que el investigador en su
descripción solamente tiene que ordenar en su narración lo que le han informado los sujetos que interrogó u observó,
sin realizar ninguna interpretación. Otros, sostienen que además de la narración descriptiva el etnógrafo debe
desarrollar interpretaciones y explicaciones a partir de los materiales. Otra discusión se refiere a la necesidad de reducir
el material discursivo y narrativo a códigos numéricos. Es decir, si se mantiene la estructura de la información o se la
convierte en tablas numéricas, a partir de recuentos de frecuencias, uso de porcentajes, etc.
Amparados en la característica de flexibilidad de los diseños cualitativos, la mayoría de los investigadores utiliza ambas
formas de reducción, aunque insistimos que desde este enfoque se debe mantener la primacía de la comprensión de las
cualidades.
Miles y Huberman (1984) consideran que el análisis consiste en cuatro tipos de actividades concurrentes: la reducción
de datos, la presentación de datos, la elaboración de conclusiones y la verificación.
Generalmente, para facilitar el trabajo manual que suponen las etapas siguientes, el investigador debe preparar el
material. La recomendación en tal sentido es que se seccione el texto por oraciones.
La reducción de datos implica seleccionar, focalizar, abstraer y transformar los datos brutos de forma que puedan ir
estableciéndose hipótesis de trabajo. Para esta reducción se pueden utilizar distintas técnicas tales como códigos, la
reducción de memorandums, etc. (Colás, 1994:272). La base del proceso de reducción de datos es la codificación. Es
decirse le asigna un código que identifica una unidad de significado relevante para nuestra investigación a cada frase o
párrafo. Se denomina código a una abreviatura o símbolo que se aplica a una frase o párrafo de la transcripción de una
entrevista o del diario de campo. Estos códigos permiten clasificar el tipo de información que contiene el texto según
diferentes intenciones analíticas.
Se pueden identificar distintos tipos de códigos, tales como:
Códigos descriptivos: llamados así porque describen el contenido de la oración analizada. Los códigos descriptivos
serían una especie de etiquetas que el investigador va asignando a cada frase según el tema principal a que se refiera.
De esta primera aproximación se obtiene una visión general acerca de cuáles son los temas principales que aparecen en
el texto. Cabe señalar que el esquema de codificación se va construyendo a medida que se va recolectando la
investigación. El investigador puede tener un esquema conceptual previo, con unos pocos códigos, y a medida que va
incorporando información va modificando el esquema, agregando códigos, refinando otros.
Códigos explicativos o interpretativos: estos surgen luego de que se haya etiquetado todo el material discursivo. El
investigador puede encontrar recurrencias en la información, o esta podría agruparse pues parece que ciertos códigos
distintos responden a la misma categoría o están relacionadas con una misma propiedad de la situación. Este tipo de
códigos supone que se puedan establecer ciertas relaciones entre códigos o entre tipos de códigos.
Códigos patrón: designan patrones explicativos de las relaciones entre los eventos o acontecimientos y poseen un
cariz inferencial y explicativo. Este tipo de códigos está estrechamente relacionado con la construcción de un modelo
comprensivo y la formulación de conceptos teóricos de mayor nivel de abstracción. Generalmente en la tarea de
codificación predomina el uso del primer tipo de códigos. La codificación es, entonces, el procedimiento por medio del
cual los datos segmentados son categorizados de acuerdo a un sistema organizado que se deriva de la lectura de los
datos. Si bien pueden utilizarse algunas categorías relacionadas con el marco conceptual inicial, la estructura del sistema
de categorías se va conformando a medida que se van analizando los datos.
Construcción de textos y diagramas conceptuales.
b. Exposición y presentación de los datos.
Esta actividad consiste en presentar la información en forma sistemática y que permita visualizar las relaciones más
importantes entre las categorías construidas anteriormente. Una vez codificada la información, el investigador continúa
trabajando la información para establecer categorías conceptuales más amplias, a partir de las cuales se elaboran
hipótesis descriptivas y explicativas.
En este momento el investigador trata de establecer algunas conexiones entre diferentes fenómenos, observa ciertas
regularidades, detecta patrones de interacción entre propiedades de una situación. En fin se trata de elaborar un
modelo más interactivo que de cuenta de la relación entre las categorías iniciales.
Las formas más habituales de organización y presentación que se utilizan son las matrices. Mediante éstas se ordena
en un plano con distintas coordenadas la información textual producida por cada caso.
Según el interés, la finalidad del estudio o el momento en el cuál se las utilice, las matrices pueden adoptar un orden
temático, un orden temporal, o ambos simultáneamente. A su vez las matrices pueden ser descriptivas -propias de los
primeros momentos de la investigación- o explicativas. Estas últimas aportan explicaciones, razones y causas del
fenómeno observado, se usan en la fase posterior del análisis, y en ellas se vinculan determinados procesos con ciertos
efectos, productos o resultados.
También se utilizan las "redes" que se configuran en torno a enlaces de categorías que se unen entre sí. Las redes son
muy útiles para describir datos y facilitar la clasificación y comunicación del tema analizado. Expresan una ordenación de
las categorías a diferentes niveles de complejidad y facilitan la comparación entre sujetos en base a una estructura
comparativa común.
Otra forma de representación gráfica son los mapas conceptuales. Estos representan conceptos que las personas
tienen sobre sí mismas o sobre lo que hacen. El mapa conceptual permite mostrar diferentes relaciones y articulaciones
entre las propiedades de una situación.
Elaboración de conclusiones.
En esta etapa de elaboración de conclusiones, el aspecto manipulativo de los datos y las tareas de reducción se limitan
considerablemente.
El investigador tiene que aguzar su ingenio interpretativo y argumental para poder elaborar una narración coherente
que contenga los matices, las articulaciones, las relaciones causales, las influencias recíprocas entre determinadas
situaciones o aspectos personales.
El modelo procedimental más característico es el que sugieren Glaser y Straus, en su propuesta de generar teoría a
partir de los datos, y que puede hemos tratado con anterioridad. Un modo típico de avanzar en la producción de
explicaciones es mediante la elaboración de tipologías. Es decir se identifican tipologías de respuestas, de situaciones o
de prácticas. Como resultado de este proceso el investigador obtendrá una teoría sustantiva provisoria del fenómeno. La
formulación de una teoría supone que se supere la mera descripción de la situación observada. Es necesario que se
integre el modelo teórico elaborado en un marco más amplio, para ello debe tratar de esforzarse por insertar aspectos
particulares en categorías más amplias y abarcativas y establecer claramente cuáles son las propiedades que
caracterizan el fenómeno, cuáles son los factores que lo condicionan y de qué modo las interacciones sociales, las
prácticas y los lenguajes de los sujetos contribuyen a modificarlo, a conservarlo o a darle nuevos significados.
Tabla resumen de las finalidades, objetivos y procedimientos en el análisis de datos cualitativos
FINALIDAD OBJETIVO PROCEDIMIENTO
Analisis exploratorio del material Codificar Reducción de datos. Desarrollo de
códigos.
Descripción Desarrollar categorías Matrices, redes, mapas
conceptuales.
Interpretación Elaborar hipótesis y categorías Técnicas de generación de teoría.
Teorización. Formular una teoría sustantiva Formulación de una teoría
sustantiva. Muestreo .
d. Verificación del modelo teórico
En este momento se trata de verificar el modelo teórico, analizar las inconsistencias, examinar los casos críticos,
intentar resolver las lagunas que el modelo pudiera tener. Los procedimientos que se utilizan son variados, aunque
destacan el método de comparación constante y el muestreo teórico, ya que mediante ellos se pueden contrastar los
postulados teóricos con nuevos casos.
En cuanto a las formas de producción de los materiales de análisis, se puede señalar la conveniencia de elaborar
memorandums. Sobre la base de los memorandums el investigador intentará elaborar generalizaciones. Debe
recordarse aquí que en los procedimientos que se describen hay una serie de criterios metodológicos que deben
observarse para asegurar la validez y confiabilidad.
En primer lugar, dado que en la investigación cualitativa se persigue captar las diferencias y no la homogeneidad de
una situación, el método de comparación constante es un procedimiento que garantiza información divergente.
En cuanto a la recolección y análisis, debemos guiarnos por el criterio de la saturación de la información en la variable.
Según este, cuando comenzamos a encontrar siempre la misma información en un aspecto o atributo del fenómeno
debe detenerse la búsqueda de datos y su análisis ya que mayor volumen de información no aporta nuevas categorías
de análisis. Como en todo el proceso de investigación cualitativa, la triangulación - particularmente la de investigadores
y de fuentes- constituyen estrategias cruciales en el análisis e interpretación de datos.
El trabajo con los datos es exhaustivo y se combina en diferentes niveles y con diferentes tipos de datos. El análisis se
hace extensivo hasta que. los nuevos datos no aportan o regeneran nuevos desarrollos teóricos. La manipulación de los
datos durante el análisis es ecléctica y eminentemente dialéctica. Por ello no existe un único camino correcto para
acceder al análisis e interpretación de información. El investigador debe explorar cuál es la vía más apropiada y sobre
todo, cuál es la más fructífera para acceder al conocimiento de su objeto de estudio. En definitiva, como lo reconocen
los metodólogos, la única garantía del investigador es lo que llaman su "sensibilidad teórica", es decir su capacidad para
descubrir relaciones, contradicciones, complejidades allí donde otros apenas ven información.
La búsqueda de casos negativos.
INDUCCIÓN ANALÍTICA . La inducción analítica es un procedimiento para verificar teorías y proposiciones basadas en
datos cualitativos.
Objeto de estudio. Verificar teorías, proposiciones.
Métodos de recogida de datos. Búsqueda activa de casos negativos que refuten la teoría o la proposición. Hay que
buscar informantes y escenarios que puedan proporcionar de forma inductiva los datos para refutar las teorías o
proposiciones o, en su caso, verificarlas.
Desarrollo conceptual abreviado. La inducción analítica es un procedimiento para verificar teorías y proposiciones
basado en datos cualitativos. Los pasos que incluye la inducción analítica son simples y directos:
1.Desarrollar una definición aproximada del fenómeno a explicar (tomada de la literatura o de otras investigaciones, de
la teoría o del conocimiento aceptado).
2.Formular una hipótesis para explicar dicho fenómeno (conforme a las fuentes citadas en el apartado anterior).
3.Estudiar un caso para ver si la hipótesis se ajusta.
4.Si la hipótesis no explica el caso, reformularla o redefinir el fenómeno.
5.Buscar activamente casos negativos que refuten el fenómeno.
6.Cuando se encuentren, reformular la hipótesis o redefinir el fenómeno.
7.Continuar hasta que se ha puesto a prueba adecuadamente la hipótesis examinado una amplia gama de casos.
La lógica básica subyacente en este método es útil en el análisis de datos cualitativos por tanto dirige la atención hacia
casos negativos. La inducción analítica obliga al investigador a refinar y matizar las teorías y proposiciones.
La Inducción Analítica es la mejor estrategia para combatir la «ilusión de transparencia» del analista, esa opción de
facilidad que hacíamos referencia al principio que a veces hace avanzar explicaciones que si no encuentran resistencia
son tomadas por su autor como válidas y definitivas. Este método, que fue formulado por Znaniecki en 1934 y refinado
posteriormente por otros autores, nos propone un ejercicio dialéctico para probar teorías mediante análisis cualitativo.
La prueba a la que se van a someter la hipótesis o las proposiciones teóricas se basa en una sistemática en la que tiene
especial importancia la búsqueda activa de casos negativos: se define el fenómeno a explicar, se formula una hipótesis,
se estudian tantos casos como sean necesarios para redefinir el fenómeno, se buscan casos negativos que refuten la
hipótesis y se reformula una y otra vez hasta que se establece una relación universal consistente. A diferencia de la
teoría fundamentada, la inducción analítica «busca » datos para probar una teoría ya existente y los utiliza para
generalizar sus resultados.
La teoría fundamentada: comparación constante, niveles de codificación y conceptualización orientada a la
construcción de teoría.
Teoría fundamentada. (Desgrabado de clases)
La teoría fundamentada permite la constitución o construcción de teorías, conceptos, partiendo directamente de los
datos de la realidad. ¿Cómo? Mediante la inducción: de ciertos datos de la realidad que se obtienen, se va construyendo
inductivamente teorías explicativas del fenómeno que vamos a estar indagando. Si este proceso se lleva a cabo
adecuadamente, al final del mismo, la teoría construida tiene que encuadrar con la realidad. Nace exclusivamente del
dato, de la realidad empírica, no hay influencia teórica, puesto que, si no nace estrictamente del dato objetivo, no es
teoría fundada.
¿Cuáles son las estrategias para esta técnica?
1)- Método comparativo: Consiste en la 1era fase de la teoría fundamentada.
En esta fase se analizan los datos de la realidad que tenemos, se los clasifica y sub-clasifica. Se exploran y evalúan las
diferencias que hay entre ciertos datos, como asi también las similitudes y posteriormente se categorizan y clasifican los
datos de la realidad empírica.
A medida que los datos son analizados, se identifican las similitudes y diferencias entre unos y otros. Allí comienzan a
esbozarse ciertos conceptos teóricos. En síntesis, fuimos a la realidad, obtuvimos datos, los evaluamos, clasificamos,
comparamos y organizamos por categorías y sub-categorías.
Una vez que tengamos los datos estructurados, comenzaremos a elaborar los conceptos o teorías.
La teoría fundamentada requiere que no existan pre-conceptos sobre el tema, ideas preconcebidas teóricas. ¿Por qué?
Justamente porque lo que buscamos es que las teorías hipótesis estén concebidas directamente estrictamente desde los
datos. Por eso decimos que se sugiere al momento de llevar adelante la investigación mediante estas técnicas que no
haya un conocimiento profundo teórico del tema, si lo suficiente para poder individualizar el problema de investigación
y si lo suficiente para saber e identificar índices, indicadores a donde podría buscar el dato en la realidad, lo suficiente
para poder llevar adelante una investigación, pero requiere no tener un conocimiento profundo, ¿Por qué? Porque por
mas que no se quiera inconscientemente estos conocimientos pueden influir en la constitución o elaboración de mi
teoría, entonces no va a ser estrictamente construida en base a los datos de la realidad. Por eso buscamos que no exista
en lo posible preconceptos e ideas preconcebidas antes de llevar a cabo una investigación mediante estas técnicas.
Mediante este tipo de técnicas, se percibe la generación de teorías, teorías formales, aportes a la ciencia, etc. Se parte
únicamente de los hechos para construir teoría: Hecho de la realidad = teoría. Ejemplo: investigación real, paper / un
artículo científico en el que el investigador expone o publicar avances de su investigación o conclusiones.
El dato no parte de la teoría sino de la realidad, y de ahí se van formando las hipótesis, conceptos, teorías, y el nombre.
Acá no hay conocimiento previo.
2)- Segunda etapa/fase dentro de lo que es la teoría fundada:
Consiste en ir relacionando los datos y agruparlos dentro de las categorías a las que corresponden (los datos dentro de
un mismo informante clave, y los datos entre los distintos informantes claves). Lo que se hace es tomar nuevamente el
dato, los distintos instrumentos, como por ej los formularios de entrevista, y volcar los datos en un cuadro donde se va a
codificar toda la información o dato relativo a las mismas categorías y sub-categorías
3)- Etapa/codificación selectiva:
Luego de estas dos etapas, una vez obtenido el dato, clasificados y sub-clasificados la toalidad de los datos de los
informantes claves, se van formando las conclusiones y se empiezan a sacar conclusiones, es decir, contenidos teóricos.
Se van a ir sacando conclusiones de las distintas sub categorías, y dependiendo de las subcategorías, voy a tener las
distintas conclusiones para cada una. Después se van a tener que converger las distintas conclusiones en una sola que es
la conclusión de la categoría. Hay que teorizar, primero mediante conclusiones por parte (sub-categorías) después de
obtener las distintas conclusiones, las voy a reunir en una sola conclusión, que va a hacer la conclusión de esa categoría.
Lo mismo se debe hacer con las distintas categorías que se tengan en la investigación.
Este proceso en el cual voy a empezar a elaborar conclusiones y conceptos teóricos, es la 3era etapa que se denomina
codificación selectiva. Reconstrucción teórica de la relación entre las categorías encontradas por el investigador en el
transcurso del proceso investigativo. Conclusión de cada categoría, que deviene de la sumatoria de cada sub-categoría. Y
de esas tres conclusiones generales voy a obtener una teoría general vinculada a ese tema de investigación. Obtener un
nombre del fenómeno estudiado/objeto.
(Apunte Guillermo). Permite construir teorías, hipótesis y conceptos, partiendo directamente de los datos y no de los
marcos teóricos existentes o investigaciones anteriores.
Hay un análisis recursivo de datos:
a. Se establece una mirada, ordenamiento de datos, reordenación de datos.
b. Hay una nueva mirada, un reordenamiento y una reelaboración.
Esta teoría fundamentada “trata de establecer significados simbólicos de los materiales, conductas e interacciones de
los sujetos”.
Interpreta significados subjetivos que tienen los gestos y palabras para los grupos sociales y como estos interactúan
entre ellos. Reconstrucción de acontecimientos, experiencias que los participantes interpretan como su realidad social.
Hay 3 premisas:
I. Que los seres humanos actúan con respecto a las cosas de acuerdo a los significados que estas tienen para ellos.
II. El significado de estas cosas se deriva, o surge, de la interacción social que tiene con los propios compañeros.
III. Estos significados se manejan en un proceso interpretativo utilizado por la persona al hacer frente a los casos
que encuentra y este proceso lo modifica.
Permite la construcción de teorías partiendo de los datos mediante la inducción. Genera una teoría explicativa de un
fenómeno estudiado. Tiene que nacer del dato, de la realidad, no hay hipótesis previa.
Pasos: 1) Recolección de datos; 2) Codificación y clasificación de datos; 3) Teoría; 4) Hipótesis; 5) Análisis; 6) Discusión y
conclusión; 7) Resultado
Tiene por estrategias principales al método comparativo constante, muestreo teórico, preguntas y el análisis. El análisis
recursivo implica que, a mayor observación de los fenómenos, mayor será la interpretación de los datos mismos, no
debo quedarme con la primera mirada del fenómeno.
En cuanto a las fuentes de información: se sitúan las entrevistas, observaciones, documentos de todo tipo y
grabaciones audiovisuales.
La crítica realizada a este método es que al analizar narraciones se atenta contra la compresión holística del discurso,
es necesario analizar las partes como componentes de un todo relacionado.
El concepto de muestreo teórico. Implica procesos progresivos y secuenciales de ampliación o reducción de la muestra
según las categorías teóricas que van emergiendo en el camino de la obtención y análisis de la información. El cierre se
hace por saturación.
Calidad y validez. (unidad 5) La fiabilidad se garantiza por la estandarización de las respuestas y la claridad en la
formulación de las preguntas. La validez se obtiene con la elección de indicadores aptos para los conceptos que se
quieren medir.
Elaboración de informes.
El informe de investigación. La argumentación como base para la elaboración de informes de investigación.
La estructura de una argumentación es una guía importante para la escritura de un informe de investigación. La
estructura de la argumentación según Booth y otros (2004) puede esquematizarse de la siguiente manera:
Cualquier argumentación se compone de estos cuatro elementos. Las flechas no indican secuencias necesarias
sino relaciones lógicas. Se puede iniciar una argumentación con una afirmación o concluir con ella, se pueden rebatir las
objeciones al comienzo de un argumento o al final, las justificaciones pueden iniciar un argumento, presentarse luego de
la afirmación o al final, lo mismo sucede con los condicionamientos.
Las respuestas a los interrogantes planteados constituyen el eje estructurante de la argumentación. Según Booth y
otros (2004) las respuestas deben ofrecer:
• Evidencia o fundamentos que la sustentan.
• Una justificación, un principio general que implica porque la evidencia es pertinente a la afirmación.
• Las condiciones que hacen que la afirmación y la evidencia sean más precisas
La justificación de una argumentación es un principio general o un supuesto que vincula la afirmación con la
evidencia de base, conectándolas en un par lógicamente relacionado. La justificación no responde preguntas sobre si la
evidencia es correcta, sino sobre si es pertinente para la afirmación.
Para explicar por qué los datos son pertinentes, hay que mostrar por qué los datos pueden considerarse como
una evidencia que sustenta una afirmación. La justificación es un principio general que crea un puente lógico entre una
evidencia y una afirmación. Las justificaciones, por lo general, se encuentran en las teorías que orientan la investigación
y en las definiciones de los términos teóricos empleados.
Cuando se expresa una justificación hay que formularla como una generalización que responde a la siguiente
pregunta: ¿Qué principio general considero creíble antes de aceptar la evidencia supuesta acerca de X?
Las justificaciones pueden formularse de muchas maneras, una de ellas es: cuando tenemos una evidencia como
X, podemos hacer una afirmación como Y.
Formular las justificaciones es un ejercicio útil para poner a prueba la base conceptual de los argumentos.
Pensar las justificaciones ayuda a encontrar puntos no fiables de los argumentos.
Aunque los investigadores articulan las justificaciones de diversas maneras, lo más útil para poder examinarlas
es descomponer la justificación en dos partes: una que expresa el tipo general de evidencia que la justificación admite y
la otra que expresa la afirmación. Una vez que se ha formulado la justificación en la forma “evidencia, entonces
afirmación”, se puede confirmar las mismas formulando versiones más amplias y más concisas.
Cuando formulamos una justificación demasiado restringida puede resultar que la justificación sea virtualmente
la misma que la evidencia ofrecida para sustentar la afirmación, entonces, se puede juzgar que el argumento da por
sentado lo mismo que se intenta probar.
Cada comunidad de investigación posee sus propias justificaciones. Hay casos, donde la justificación puede ser
rechazada porque es inapropiada para las prácticas de investigación de una determinada disciplina, por ejemplo, un
investigador que analiza un poema, podría argumentar la justificación de su evidencia diciendo “ Los sonidos de la
primera estrofa refuerzan la idea de un bosque tranquilo y reconfortante porque la mayoría de las vocales son bajas y
las mayoría de las consonantes son suaves y sonoras”, su justificación tácita es “ cuando escuchamos sonidos suaves, los
asociamos con imágenes suaves”, pero no sería una justificación aceptable para un historiador decir “ la narrativa
histórica es como la literaria, porque sus personajes son también producto de la ficción”.
Por último hay que preguntarse ¿cómo una justificación conecta válidamente cierta evidencia con una
afirmación? Lo que da cuenta de buenas investigaciones no son sólo la verdad de las conclusiones, sino la calidad del
razonamiento que llevó a ellas.
Por otro lado, es importante tener presente las posibles objeciones que otros investigadores pueden realizar a
nuestros argumentos. En éste sentido es elemental establecer los condicionantes de nuestras afirmaciones, es decir,
establecer los alcances y límites que tienen nuestras afirmaciones y la evidencia que las sustentan.
Hay cuatro modos de condicionar o limitar el alcance de las afirmaciones en la argumentación:
• Refutar objeciones equivocadas a la evidencia o justificación
• Conceder las objeciones que no se pueden rebatir.
• Estipular restricciones que condicionan la evidencia o limitan la aplicación de la justificación
• Estipular el alcance de la evidencia, justificación y afirmación
Existen cuatros tipos de objeciones que correspondería buscar deliberadamente:
Plantear objeciones y alternativas a las afirmaciones que durante el curso de la investigación se consideraron,
pero se rechazaron.
Anticipar las objeciones que se sabe que los lectores pueden plantear.
Anticipar las alternativas que pueden ocurrírseles a los lectores.
Anticipar las objeciones que podrían ocurrírseles a los lectores mientras leen.
Se pueden realizar objeciones sobre la base de las siguientes razones:
Se definió términos claves de manera incorrecta.
Se generalizó excesivamente con poca evidencia.
No se consideraron contra ejemplos o casos especiales
El punto central en todo informe de investigación es la afirmación principal o tesis general. Esta afirmación
conviene que sea significativa, discutible y explícita.
Se considera que una afirmación es significativa en la medida en que es discutible. Una afirmación es debatible, si es
capaz de modificar algo en lo que se cree o puede aportar una nueva perspectiva de análisis.
Además, en un informe de investigación se espera que las afirmaciones estén formuladas en un lenguaje lo
suficientemente detallado y específico para que puedan reconocerse en ella los conceptos centrales que se
desarrollarán a lo largo del trabajo. Cuando no se sabe que esperar, los conceptos más importantes podrían pasar
desapercibidos e incluso juzgar que lo que leen no está enfocado, o es incoherente.
La afirmación es el corazón del informe y tiene que dar cuenta de la evidencia que la sustenta. Si la evidencia es
débil, la afirmación es juzgada como imprecisa, insuficiente, no autorizada, poco representativa o poco clara.
La evidencia tiene que ser precisa, los criterios para determinar cuando una evidencia es precisa varían de una
disciplina a otra. Hay que evitar palabras como: algunos, la mayoría, muchos, casi, frecuentemente, finalmente,
generalmente, etc. Estos calificativos pueden determinar los límites apropiados de una afirmación, pero también pueden
evadirlos.
Así como diferentes disciplinas juzgan la precisión de la evidencia de modo diferente, también difieren en la
evaluación de su suficiencia. En algunas ciencias, los investigadores basan su afirmación en la evidencia de un solo
episodio o caso de investigación, en otras, se considera que un caso no es suficiente para sustentar una afirmación. De
todos modos, es recomendable que la evidencia se presente de forma tal que se de cuenta que puede haber más
evidencia disponible.
Con respecto representatividad de los datos, lo que se considera representativo varía también según la
disciplina. Sin embargo, un criterio común es considerar representativos los datos cuando su variedad refleja la
diversidad del conjunto del que fueron extraídos y acerca del cual se formula la afirmación.
En cuanto a las fuentes autorizadas, hay que tomar nota de las autoridades que los investigadores en su área
mencionan más frecuentemente, en que procedimientos confían y que tipos de registros mencionan regularmente.
Cuando se introducen citas de autoridad, hay que tener presente que ellas no hablan por sí mismas, deben ser
interpretadas y dar cuenta de la función que cumplen dentro del informe. Por lo tanto, hay que hacer evidente la
importancia de su utilización.
Por otra parte, un error común cuando se organiza el informe en torno a datos es basarse en las fuentes más de
lo que se debiera, en el sentido que puede resultar un informe que solo da cuenta de una organización y descripción de
datos.
Así, en una investigación bibliográfica hay que evitar construir un informe a partir de resúmenes y citas, cuando
esto sucede, el informe tiene la forma de un conjunto de citas de muchas fuentes que refleja que es muy poco el
pensamiento original del investigador. En una investigación de campo, el informe no puede contener simplemente
observaciones o reproducciones de citas de entrevistas, a lo largo del informe es importante que aparezcan los
principios o criterios de selección que se aplican a los datos. Esta selección permite organizar las observaciones de modo
tal que reflejen el análisis de lo que es relevante.
Si se organiza un informe en torno a preguntas que dan lugar a afirmaciones, se formula la afirmación o tesis
principal y se toman decisiones acerca de dónde se la mencionará: en la introducción o en la conclusión.
Así, lo primero que se necesita cuando se escribe el borrador de un informe es tener en cuenta la pregunta que
se formuló y una noción de su respuesta, algo que se pueda esquematizar con pocas palabras.
En algunos casos, es importante definir términos, repasar investigaciones previas, establecer justificaciones
importantes, fijar los límites de la investigación, ubicar el problema dentro de un contexto más amplio., etc.
Para planificar el cuerpo de la argumentación en un informe de investigación, el primer paso, es recordar que los
elementos del argumento pueden ser ordenados de distintas formas y que la información tiene que organizarse en un
orden que refleje las necesidades de lo que el investigador quiere demostrar.
Las posibilidades de organización son:
Organizar de lo que ya se sabe a lo que se desconoce. Se puede responder a la pregunta: ¿qué es lo que en los
datos y los argumentos resulta mas familiar y que menos?
De lo mas corto y simple a lo mas prolongado y complejo. La pregunta que nos orienta en éste sentido es: ¿qué
elementos de la argumentación los lectores comprenderán mas fácilmente y cuales con mayor dificultad?
De lo menos a lo más discutible. Si la afirmación es polémica se pueden presentar varios argumentos que la
sustenten
Otro criterio de organización es establecer:
Un orden cronológico
Un orden lógico de la evidencia a la afirmación y viceversa.
Concesiones y condiciones primero luego una objeción que se pueda rebatir y finalmente la propia evidencia
afirmativa, o viceversa
Un segundo paso, es realizar una revisión de la organización del informe y la estructura argumentativa del
mismo.
El proceso de analizar y revisar la organización del informe consiste básicamente en los siguientes pasos:
Identificar los puntos principales del informe, que oración puntual es la principal en la introducción y cual en
la conclusión. En la introducción hay que subrayar cual es la oración que más se aproxima a formular la afirmación
principal, por lo general esa oración tiene que ser la última de la introducción. Luego hacer lo mismo con la conclusión,
la oración principal será aquella que expresa la esencia de la solución del problema. Por último, hay que comparar la
idea puntual de la introducción con la de la conclusión, las mismas no deben contradecirse ni ser incompatibles.
Identificar en las secciones principales del cuerpo del informe las oraciones puntuales de cada acción. Dividir
el cuerpo del ensayo en las secciones principales. Localizar y resaltar los puntos principales de cada sección. La oración
puntual de cada sección debería ser la última de una breve introducción a la sección siguiente. Una vez que se resaltan
los puntos se habrá elaborado un esquema que tendrá la siguiente apariencia
Oración puntual al final de la introducción
Oración Sub puntual 1
Oración Sub puntual 2
Oración Sub puntual 3
Oración puntual principal en las conclusiones
Identificar en la introducción del estudio los conceptos temáticos centrales y seguirlos a lo largo del estudio. El
próximo paso es determinar si los puntos y sub puntos identificados están conectados conceptualmente. Primero, hay
que determinar si los puntos están unidos por varios conceptos temáticos claves. Estos últimos son las palabras que
expresan los conceptos centrales que deberían aparecer en todo el informe o ensayo desde la introducción, el cuerpo y
la conclusión.
Revisar el argumento evaluando las evidencias, las restricciones y las justificaciones. Verificar los datos y citas,
la vinculación de los mismos con la tesis o afirmación principal, y asegurarse de no haber omitido pasos intermedios en
la argumentación.
(APUNTE MARIANA)
Procesamiento de los datos. Construcción de la base de datos
Iniciado con el planteamiento de un problema de investigación que implica responder a interrogantes situados en la
frontera de los conocimientos existentes, se habrá de recorrer luego un largo camino donde será preciso atender,
simultáneamente, a dos niveles diferentes: el teórico y el empírico.
Para el primero de ellos nuestro trabajo se resumirá en la construcción del llamado marco teórico que,
convenientemente llevado a la práctica u operacionalizado, nos indicará en definitiva qué datos es preciso obtener para
satisfacer las interrogantes iniciales. En cuanto al nivel empírico nuestra aproximación a la realidad quedará concretada
en un cierto tipo de diseño, implementado a través de las técnicas de recolección que nos permitirán obtener los datos
requeridos.
El instrumento de recolección de datos sintetizará ambos planos y será la herramienta concreta que nos proporcione la
información que necesitamos. Se abre, a partir de ese momento, la etapa propiamente dicha de la recolección de datos,
que puede tener mayor o menor complejidad y duración. En ella se aplicarán los instrumentos a los objetos de estudio,
lo que nos proporcionará las informaciones que necesitamos, se completarán las lecturas, se procederá a realizar
efectivamente los experimentos, encuestas o estudios que sea menester.
Finalizadas las tareas de recolección el investigador quedará en posesión de un cierto número de datos, a partir de los
cuales será posible sacar las conclusiones generales que apunten a esclarecer el problema formulado en los inicios del
trabajo. Pero esa masa de datos, por sí sola, no nos dirá en principio nada, no nos permitirá alcanzar ninguna conclusión
si, previamente, no ejercemos sobre ella una serie de actividades tendientes a organizarla, a poner orden en todo ese
multiforme conjunto. Estas acciones son las que integran el llamado procesamiento de los datos.
Lo primero que suele hacerse con el conjunto de los datos obtenidos es dividirlos de acuerdo a un criterio bien
elemental, separando de un lado la información que es de tipo numérica de la información que se expresa verbalmente
o mediante palabras. Los datos numéricos quedarán como tales, cualquiera sea su naturaleza, y se procesarán luego
para exponerlos en forma clara y fácilmente asimilable. El objetivo final será construir con ellos cuadros estadísticos,
promedios generales y gráficos ilustrativos, de tal modo que se sinteticen sus valores y se pueda extraer, a partir de su
análisis, enunciados teóricos de alcance más general. Los datos que se presentan de forma verbal podrán sufrir dos
destinos diferentes: se convertirán en datos numéricos o quedarán como información no cuantificada, cualitativa. Así, si
se ha realizado una serie de entrevistas profundizadas, de tipo no estructurado, pueden cuantificarse algunos de los
datos obtenidos el número de entrevistados por sexo y edad, la respuesta a alguna pregunta específica en tanto que
otras informaciones se mantendrán en su forma verbal, como paradigmas o ejemplos de las opiniones de la muestra
frente a ciertos problemas de interés.
El criterio a adoptar dependerá de circunstancias concretas: de los objetivos del trabajo, de la posibilidad de cuantificar
cada variable, del tamaño del universo o muestra considerados y de varios otros criterios. En todo caso se debe tener
presente que, siempre que tenga sentido, es preferible cuantificar en lo posible los datos obtenidos.
No existe, como pretenden algunos metodólogos parcializados, ninguna oposición entre datos cuantitativos y datos
cualitativos: lo que existe es un diferente grado de precisión y de complejidad en cada una de las variables que
medimos, de modo tal que siempre es posible abstraer de ellas algunos aspectos cuantitativos en tanto que otros, por
su complejidad, tendrán que permanecer como cualitativos. Una vez adoptado un criterio frente a cada categoría o
subconjunto de datos se podrán abordar ya, con mayor claridad acerca de nuestros objetivos, las tareas básicas del
procesamiento.
En primer lugar será preciso hacer una revisión detallada de todos los datos obtenidos, atendiendo en especial a su
coherencia. Si se trata de cuestionarios o de pautas de observación, de registros de tests, sociogramas, o de cualquier
otro instrumento de recolección, habrá que examinar cada uno de ellos para analizarlos internamente, buscando sus
posibles incongruencias, omisiones o errores, y enmendándolos si cabe hacerlo. Es decir, se revisará sistemáticamente
toda la información disponible, juzgando su calidad y el grado de confianza que merece, para determinar qué parte
puede incluirse en el informe de investigación, cual debe corregirse o modificarse en algo (acudiendo, llegado el caso, a
una nueva recolección de datos) y cual, por sus graves deficiencias, deberá ser excluidas sin más.
Por cada tipo de datos se procederá entonces como sigue: Los datos numéricos se procesarán agrupándolos en
intervalos y se tabularán. Luego se construirán con ellos cuadros estadísticos, calculándose además las medidas de
tendencia central, de dispersión o de correlación que resulten necesarias. Los datos verbales que se desea presentar
como numéricos sufrirán una primera operación que se denomina codificación. De allí en adelante se trabajarán al igual
que los otros datos numéricos, mediante la tabulación y el procesamiento en cuadros estadísticos.
Estructura lógica de la matriz de datos
Una matriz de datos tiene cuatro componentes:
1. Unidad de análisis; 2. Las variables; 3. Los valores; 4. Los indicadores
Llegados a este punto, estamos en condiciones de efectuar una primera aproximación al concepto de matriz de datos
tal cual lo conceptualizara Galtung. De acuerdo a este autor, la matriz de datos es una forma de ordenar los datos en una
disposición cuadrangular de manera que sea visible su estructura tripartita. En la misma, “las UdeA ocupan la dirección
de las hileras, las variables la de las columnas y los valores aparecerán en el cruce de hileras y columnas” (Samaja: 1996).
Una de las finalidades más importantes de la matriz de datos es la de sistematizar la información recolectada durante
una investigación científica con el objetivo de resolver el problema que se planteado por la misma. Desde este punto de
vista la matriz es una estructura sumamente útil en las últimas etapas de la investigación, cuando ya hemos recolectado
nuestros datos y debemos emprender la tarea de procesar y analizar los mismos.
Sin embargo, la comprensión de la estructura del dato científico es fundamental desde el inicio de una investigación,
dado que es el momento donde el investigador plantea cuales serán las unidades de análisis y los conceptos relevantes
en su investigación.
Estrategias de análisis de datos cuantitativos en investigaciones jurídicas. Procesamiento de los datos. Construcción
de la base de datos. La estructura lógica de la matriz de datos.
Recopilados los datos, revisados -detectando posibles errores u omisiones- se procede a grabarlos o a su tabulación
manual. Una vez definidos los indicadores, con los cuales se van a "medir" las variables, podemos usar un esquema
denominado "matriz de datos", de acuerdo con Samaja (1994:162), que es una estructura válida para el análisis.
Todos los datos de todas las investigaciones científicas de todas las disciplinas poseen esta estructura invariante que se
puede llamar matriz de datos. Una matriz de datos tiene cuatro componentes, a saber: 1- unidad de análisis, 2- las
variables, 3- los valores y 4,- los indicadores (Samaja, 1994:158).
Un indicador toma distintos valores, según cada individuo. Actualmente hay programas estadísticos especializados que
permiten trabajar con variadas técnicas de análisis de la información, en forma más rápida y precisa. Uno de ellos es el
SPAD (Systeme Portable pourl’Annalysse des Dones), que realiza el análisis multidimensional de los datos.
Del análisis y la interpretación pueden surgir representaciones, a través de los métodos factoriales: que producen las
representaciones gráficas sobre las cuales las cercanías entre los puntos líneas y los puntos columnas traducen las
asociaciones estadísticas entre líneas y columnas y los métodos de clasificación que realizan los reagrupamientos en
clase de las líneas o de las columnas. Con estos reagrupamientos también llamados tipologías o clusters de individuos
con características semejantes se puede obtener una visión macroscópica de la información (Moscoloni, 2005:98).
El SPAD, si bien es un software adaptable a los datos, incluido el análisis de discursos en Ciencias Sociales, es de
carácter cuantitativo. El SPSS es un Programa Estadístico para Ciencias Sociales. Su característica es que es sencillo para
el usuario y tiene un rápido acceso a las técnicas estadísticas tradicionales, incluidos los test no paramétricos (que son
los que se usan en Ciencias Sociales, espacialmente en Psicología). Un programa para procesar datos cualitativos -
incluyendo también imágenes, gráficos y sonido- es el ATLAS.Ti. El programa se basa en el enfoque de la teoría
fundamentada y de la codificación teórica según Strauss. La mayoría de los autores clasifican este programa en la
categoría de "los constructores de redes conceptuales". Ayuda en operaciones en el nivel de textos y el conceptual: se
forma una unidad hermenéutica en la pantalla que unifica el texto primario (por ejemplo, la entrevista que debe
interpretarse) y las interpretaciones o las codificaciones.
El programa muestra el texto primario con todos los códigos asignados a él y los comentarios en ventanas diferentes
en la pantalla. Ofrece algunas funciones, que están presentes en la pantalla en forma de símbolos (recuperar, cortar,
codificar, formar redes, etcétera). Aparte de la recuperación de secuencias de palabras en el texto y la asignación de
códigos, es útil la presentación de los códigos y las categorías en redes conceptuales (Flick, 2004:273).
Distribuciones, tablas y graficos.
Para presentar datos de una manera abreviada, que favorezca una interpretación fácil y rápida, se pueden emplear
elementos visuales tales como las tablas y los gráficos.
Las tablas:
Los datos se suelen organizar bajo unas cabeceras que se disponen en la parte superior del cuadro, en la parte lateral,
o en ambas a la vez.
Los gráficos:
Son medios popularizados y los más convenientes para presentar los datos relativos a una información de forma visual
clara y esquemática. Se suelen representar de distintas formas de tal modo que se puedan apreciar fácilmente los
hechos esenciales y sean fáciles de
comparar entre sí.
Los gráficos representan cantidades o datos mediante dibujos, esquemas o coordenadas.
Pueden clasificarse en 3 grandes grupos:
• Gráficos espaciales: Que utilizan para transmitir la información diversos recursos como volúmenes o figuras.
• Gráficos lineales: Son diagramas semejantes a representaciones de funciones, como por ejemplo el gráfico de barras.
• Gráficos superficiales: Utilizan áreas de rectángulos o círculos para la representación de datos.
Por ejemplo las pirámides de población.
La importancia de las tablas y los gráficos es que con ellos se aprende a tomar conciencia de conocimientos previos
relativos a un texto, organizar nueva información relacionándola con los temas anteriores y elaborar resúmenes y
síntesis diferenciando lo fundamental de lo
accesorio. Todo esto se convierte en una herramienta para facilitar el recuerdo de todo lo relevante en un texto.
Tabulación y codificación.
La etapa esencial de la investigación social siguiente a la observación es la clasificación, es decir, la agrupación de los
datos recogidos referentes a cada variable objeto de estudio y su presentación conjunta.
El objeto de la clasificación es reflejar la dimensión colectiva de los datos recogidos en la observación y con ellos poner
de manifiesto las semejanzas y diferencias de los fenómenos sociales. Mediante la clasificación se pasa del dato en bruto
al dato procesado.
Antes de empezar la codificación, es necesario realizar una operación previa llamada “editing”.
Esta consiste en la revisión detenida de los cuestionarios o cuadros para detectar y eliminar los errores y omisiones
que se puedan presentar.
3. ANÁLISIS ESTADÍSTICO DESCRIPTIVOS E INFERENCIAL. DIVERSOS TESTEOS Y PRUEBAS SOBRE LAS REGULARIDADES
EMPÍRICAS Y PATRONES DE COMPORTAMIENTO DE LOS DATOS. INFERENCIAS TEÓRICAS A PARTIR DE LOS DATOS. LA
EXPLICACIÓN DE LOS DATOS A TRAVÉS DEL ANÁLISIS UNI, BI Y MULTIVARIADO. LA LECTURA DE LOS CUADROS.
análisis estadístico descriptivos e inferencial.
La estadística descriptiva e inferencial forman parte de las dos ramas fundamentales en las que se divide la
estadística, la ciencia exacta que se encarga de extraer información de diversas variables, midiéndolas, controlándolas y
comunicándolas en caso de que haya incertidumbre.
De esta manera, la estadística tiene como objetivo cuantificar y controlar comportamientos y eventos tanto científicos
como sociales.
La estadística descriptiva se encarga de resumir la información derivada de los datos relativos a una población o
muestra. Su objetivo es sintetizar dicha información de forma precisa, sencilla, clara y ordenada (Santillán, 2016).
Es así como la estadística descriptiva puede señalar los elementos más representativos de un grupo de datos,
conocidos como datos estadísticos. En pocas palabras, este tipo de estadística se encarga de hacer descripciones de
dichos datos.
Por su parte, la estadística inferencial se encarga de hacer inferencias sobre los datos recogidos. Arroja conclusiones
diferentes a lo mostrado por los datos en sí.
Este tipo de estadística va más allá de la simple recopilación de información, relacionando cada dato con fenómenos
que pueden alterar su comportamiento.
La estadística inferencial llega a conclusiones relevantes sobre una población a partir de análisis de una muestra. Por lo
tanto, siempre debe calcular un margen de error dentro de sus conclusiones.
Estadística descriptiva
Es la rama de la estadística más popular y conocida. Su principal objetivo es el de analizar variables y posteriormente
describir los resultados obtenidos de dicho análisis.
La estadística descriptiva busca describir un grupo de datos con el objetivo de señalar de forma precisa las
características que definen a dicho grupo (Fortun, 2012).
Se puede decir que esta rama de la estadística es la responsable de ordenar, resumir y clasificar los datos resultantes
del análisis de la información derivada de un grupo.
Algunos ejemplos de la estadística descriptiva pueden incluir los censos de población de un país en un año
determinado o el número de personas que fueron recibidas en un hospital dentro de un margen de tiempo
determinado.
Categorías
Existen ciertos conceptos y categorías que forman parte exclusivamente del campo de la estadística descriptiva.
Algunos se listan a continuación:
– Dispersión: es la diferencia que existe entre los valores incluidos dentro de una misma variable. La dispersión
también incluye el promedio de dichos valores.
– Promedio: es el valor que resulta de la sumatoria de todos los valores incluidos en una misma variable y la posterior
división del resultado por el número de datos incluidos en la sumatoria. Se define como la tendencia central de una
variable.
– Sesgo o curtosis: es la medida que indica qué tan inclinada es una curva. Es el valor que indica la cantidad de
elementos que se encuentran más próximos al promedio. Existen tres tipos diferentes de sesgo (leptocúrtica,
mesocúrtica y platicúrtica), cada uno de ellos indica qué tan alta es la concentración de datos alrededor del promedio.
– Gráficos: son la representación gráfica de los datos obtenidos del análisis. Usualmente, son utilizados diferentes tipos
de gráficos estadísticos, incluidos los de barras, circulares, lineales, poligonales, entre otros,
– Asimetría: es el valor que muestra la manera como los valores de una misma variable se encuentran repartidos con
relación al promedio. Puede ser negativa, simétrica o positiva (Formulas, 2017).
Estadística inferencial
Es el método de análisis utilizado para hacer inferencias sobre una población, teniendo en cuenta los datos arrojados
por la estadística descriptiva sobre un segmento de la misma muestra. Dicho segmento debe ser elegido bajo criterios
rigurosos.
La estadística inferencial se vale del uso de herramientas especiales que le permiten hacer afirmaciones globales sobre
la población, a partir de la observación de una muestra.
Los cálculos llevados a cabo por este tipo de estadística son aritméticos y siempre dan cabida a un margen de error,
cosa que no sucede con la estadística descriptiva, que se encarga de analizar a la totalidad de la población.
Por tal motivo, la estadística inferencial requiere de hacer uso de modelos de probabilidades que le permiten inferir
conclusiones sobre una población amplia basándose únicamente en lo que una parte de ella le indica (Vaivasuata, 2015).
Según la estadística descriptiva es posible obtener datos de una población general a partir del análisis de una muestra
conformada por individuos seleccionados de forma aleatoria.
Categorías
La estadística inferencial puede ser clasificada en dos grandes categorías descritas a continuación:
– Pruebas de hipótesis: como su nombre lo indica, consiste en poner a prueba aquello que se concluyó sobre una
población a partir de los datos arrojados por la muestra.
– Intervalos de confianza: estos son los rangos de valores señalados dentro de la muestra de una población para
identificar una característica relevante y desconocida (Minitab Inc., 2017). Por su naturaleza aleatoria, son los que
permiten reconocer un margen de error dentro de cualquier análisis estadístico inferencial.
Diferencias entre la estadística descriptiva y la inferencial
La principal diferencia entre la estadística descriptiva y la inferencial radica en que la primera busca ordenar, resumir y
clasificar los datos derivados del análisis de variables.
Por su parte, la estadística inferencial, lleva a cabo deducciones con base a los datos previamente obtenidos.
Por otro lado, la estadística inferencial depende del trabajo de la estadística descriptiva para llevar a cabo sus
inferencias.
De este modo, la estadística descriptiva constituye la base sobre la que posteriormente la estadística inferencial llevará
a cabo su trabajo.
También es importante señalar que la estadística descriptiva se utiliza para analizar tanto poblaciones (grupos
numerosos) como muestras (subconjuntos de las poblaciones).
Mientras que la estadística inferencial se encarga de estudiar muestras a partir de las cuales busca llegar a
conclusiones sobre la población general.
Otra diferencia entre estos dos tipos de estadística radica en que la estadística descriptiva únicamente se centra en la
descripción de los datos obtenidos, sin asumir que estos tengan ninguna propiedad relevante.
Ésta no va más allá de lo que los mismos datos obtenidos puedan señalar. Por su parte, la estadística inferencial cree
que todos los datos derivados de cualquier análisis estadístico dependen de fenómenos externos y aleatorios que
pueden alterar su valor.
FUENTE: https://www.lifeder.com/estadistica-descriptiva-inferencial/
Diversos testeos y pruebas sobre las regularidades empíricas y patrones de comportamiento de los datos. Inferencias
teóricas a partir de los datos.
Los supuestos de la investigación cuantitativa y cualitativa
El paradigma es la orientación general de una disciplina, que define el modo de orientarse y mirar aquello que la
propia disciplina ha definido como su contenido temático sustantivo. En ciencias sociales conviven diversos paradigmas,
que compiten en su modo de comprender sus disciplinas y problemas. Estos paradigmas tienen diferentes supuestos
ontológicos, epistemológicos, axiológicos y metodológicos, que dan cuenta del andamiaje que sustentará el desarrollo
de la investigación. Asimismo, los paradigmas en ciencias sociales aparecen asociados con determinadas metodologías:
el Positivismo y Post-positivismo son vinculados con las metodologías cuantitativas; mientras que al Constructivismo,
naturalista e interpretativo, se lo relaciona a las metodologías cualitativas (Creswell 1994; 1998; Denzin y Lincoln, 2005).
Cuadro 1.3
Características de los diferentes paradigmas de investigación social
Supuestos Paradigma Positivista/ Post-positivista Paradigma Constructivista
(metodología cuantitativa) (metodología cualitativa)
Ontológicos - La realidad es objetiva. - La realidad es subjetiva y múltiple.
¿Cuál es la
naturaleza de la
realidad?
La explicación de los datos a través del análisis uni, bi y multivariado. Lectura de cuadros.
ANALISIS UNIVARIADO: SUS ALCANCES Y FUNCIONES
El trabajo de análisis de los datos cuantitativos comienza necesariamente con el examen de la información de cada una
de las variables, lo que se denomina análisis univariado. Este consiste en la valoración de las variables que fueron
evaluadas y es el paso básico para cualquier análisis posterior.
El análisis univariado posee una función clave en el proceso general de análisis e interpretación de la información:
permite la evaluación preliminar de la calidad de los datos recolectados en el trabajo de campo, la selección de las
variables más adecuadas para pasar a otros análisis de mayor complejidad y la caracterización descriptiva de las
variables del estudio.
Pese a su importancia, la mayoría de los investigadores noveles tienden a pasarlo por alto, interesados por análisis más
complejos. Por otra parte, debe decirse que generalmente, la lectura y las manipulaciones procedimentales de los datos
que pueden realizarse en esta instancia son parte del trabajo de escritorio y por regla no se incluyen en el informe o
reporte de la investigación. En el caso de las tesis, se informan los procedimientos de transformación efectuados a los
datos de las variables principales del estudio sea en la sección metodológica o en un Anexo. En los demás formatos de
publicación científica, la información que se obtiene del análisis univariado apenas se menciona.
En definitiva, el análisis univariado es una tarea necesaria y relevante como primer paso del análisis cuantitativo,
aunque quede invisibilizado en la presentación y comunicación de los datos. Se debe enfatizar que el análisis univariado
posee un valor metodológico en sí mismo y no es solo un procedimiento que debe cumplimentarse para pasar a otras
instancias "más importantes" del análisis de la información.
A continuación se detallan las funciones metodológicas que tiene el análisis univariado.
* Determinar si se han producido errores en la carga de los datos El carácter mecánico y casi monótono que tiene la
carga de datos hace que muchas veces de modo involuntario se produzca errores. Cuando la base de datos es cargada
por diferentes personas o la cantidad de casos es muy elevada aumentan las probabilidades de la ocurrencia de errores.
Cada variable tiene un conjunto de valores posibles, los que deben ser contrastados con los valores que aparecen en la
distribución de frecuencias.
En definitiva, el análisis univariado es una forma de chequeo de la calidad de la información y contribuye en la función
correctiva de datos erróneos.
* Establecer si los datos relevados reúnen las condiciones básicas para poder avanzar en análisis posteriores. El análisis
de cada una de las variables incluidas en el estudio permite determinar lo que técnicamente se denomina variabilidad.
Variabilidad: en términos genéricos designa las variaciones observadas en los valores de una variable. En términos
estadísticos indica la dispersión de los datos en la escala de medición utilizada.
El término variabilidad se refiere al grado de dispersión de un conjunto de puntajes. Si todos los puntajes en una
distribución tienen el mismo o un valor similar, puede concluirse que la distribución tiene poca variabilidad. La
variabilidad es un atributo que puede determinarse para variables de cualquier tipo de nivel de medición, aunque como
veremos seguidamente con procedimientos diferentes.
Si en el análisis de una variable no se observa variabilidad, ésta debe ser descartada para análisis subsiguientes. Los
datos de una variable con escasa variabilidad deben llamar la atención de los investigadores en tanto revelan posibles
errores cometidos en las fases previas; estos pueden ser la resultante de una selección inadecuada de la muestra o de la
escasa sensibilidad del instrumento utilizado para generar respuestas variables (p.e. por la obviedad de la pregunta
incluida en un cuestionario o por la inclusión de un sistema inadecuado de respuestas precodificadas).
¿Por qué debe descartarse la información de una variable que muestra escasa variabilidad? En primer lugar, como
sugerimos anteriormente es probable que la falta de variabilidad denote problemas en la validez del instrumento
utilizado y, por lo tanto, la calidad de la información obtenida con él podría ser poco confiable. En segundo lugar, si
encontramos los datos concentrados en alguno de los valores posibles de la variable lo que no observamos son las
variaciones que supuestamente presenta el atributo del objeto de estudio que hemos examinado. Si los datos poseen
una fuerte concentración en algún punto de la escala es obvio que no nos servirán para poner a prueba posteriormente
ninguna hipótesis.
* Seleccionar las variables que ofrezcan buena información y que sean relevantes para continuar y profundizar análisis
posteriores.
Una vez que se ha determinado qué variables tienen variabilidad adecuada y cuáles no, se procede a descartar éstas
últimas y a preparar las primeras para futuros análisis. Borsotti (2006) sugiere que para el análisis se proceda
examinando primero las variables independientes, luego las intervinientes y finalmente la/s dependientes. Si las
variables independientes ofrecen variabilidad podrá proseguirse con un análisis que permita establecer la posible
asociación o el grado de influencia de éstas respecto a la/s demás variables. Si en la variable observada o dependiente
encontramos que la información posee la variabilidad necesaria luego podrá examinarse si existe alguna asociación con
otras variables que operan como causales, predictoras o independientes.
Una de las transformaciones más comunes consiste en la reducción de los valores de la variable en un procedimiento
que algunos autores también llaman de compactación de la variable. Mediante este procedimiento se generan datos
agregados que reducen la cantidad de valores a un rango mucho más reducido. Pueden compactarse variables ordinales
y continuas. No obstante, la compactación genera una pérdida de precisión en los datos.
* Describir las variables principales de la investigación El análisis univariado permite la caracterización de las variables
centrales del estudio, información que en algunos tipos de investigación es básica para la descripción general de los
sujetos estudiados. La descripción de las variables principales es lo único que luego se incluirá en la comunicación de los
resultados.
RECURSOS PARA EL ANALISIS UNIVARIADO
Como se ha señalado previamente, lo propio del análisis univariado es el examen de todas las variables que fueron
relevadas en la investigación y que ya fueran ordenadas y preparadas para su lectura a través de la aplicación de ciertas
técnicas estadísticas básicas.
Debe recordarse que cada nivel de medición posee propiedades aritméticas diferentes lo que posibilita disponer de
técnicas de análisis de diferente calidad estadística. Las propiedades aritméticas de los diferentes niveles de medición
son inclusivas de los niveles precedentes, por lo que las variables de razón además de poseer las propiedades
estadísticas propias de ese nivel de medición incluyen las propiedades de las escalas intervalares, ordinales y nominales.
Al final de la sección se ofrece un cuadro en el que los lectores pueden identificar otros recursos de análisis para ser
aplicados a variables intervalares y de razón.
1. LA DISTRIBUCION DE FRECUENCIAS
La base del análisis univariado es la distribución de frecuencias, es decir la cantidad de respuestas encontradas para
cada uno de los valores de la variable estudiada. De acuerdo al nivel de medición de las variables, el tamaño de la
muestra que se ha tomado y la forma en que se ha cargado la información en la base de datos, el investigador debe
encontrar el modo más apropiado de obtener la información para el examen univariado.
En general, los estudiantes e investigadores noveles poseen interés en lo que llaman "la cantidad de casos" que
respondieron información de su interés (y en el sentido que ellos esperan que respondan). Ese interés debe ser
capitalizado por los orientadores, consejeros y profesores para que aprendan a hacerse un panorama general de la
información obtenida en el trabajo de campo.
Para ese aprendizaje es fundamental comprender algunas cuestiones básicas de la distribución de frecuencias y
conocer algunos procedimientos generales de preparación de esa información para que sea útil a los fines analíticos. En
lo que sigue se exponen los procedimientos más sencillos que, por obvios, muchas veces no son enseñados
sistemáticamente.
Distribución de frecuencias absoluta.Indica la cantidad de casos observados o evaluados (en términos
metodológicos) registrados en cada uno de los valores o categorías de las variables bajo estudio. Cuando se trata de
variables nominales y ordinales se presenta la cantidad de casos que corresponde a cada valor de la variable. En el caso
de las variables intervalares y de razón que poseen muchos valores posibles (suponga la evaluación del año de
nacimiento de los habitantes de una gran ciudad) la información sobre la distribución de frecuencias absoluta se
presenta a través de datos agregados y se apela a las medidas de tendencia central y de variabilidad. En general, para los
lectores es difícil retener información expresada en valores absolutos y más aún cuando se trata de números de varios
dígitos, por ello se suelen transformar los valores absolutos a través del cálculo de las frecuencias relativas.
Distribución de frecuencias relativas (porcentajes) Se basa en la transformación de las frecuencias absolutas a un
conjunto de valores que permiten comprender con mayor facilidad la información. La operación estadística que se
efectúa es el cálculo de proporciones o porcentajes de cada uno de los valores de la variable, tomando como base de
cálculo la cantidad de casos que constituyen la población del estudio. Los porcentajes son útiles en tanto poseen una
función simplificadora de la información ya que son más fáciles de interpretar que los valores absolutos. En ese sentido,
ayudan a descubrir las diferencias entre las distintas categorías o valores de una variable a través de la comparación de
sus proporciones y a esclarecer ciertas relaciones entre números absolutos o entre proporciones. También son un
recurso de mucha utilidad en el campo de la investigación empírica en tanto permiten comparar resultados
provenientes de bases diferentes.
Distribución de frecuencias acumuladas (absolutas y relativas): Una forma rápida de analizar la información
descriptiva de cada variable es la observación de las frecuencias acumuladas, sea en números absolutos o en valores
relativos. Como su nombre lo indica este procedimiento consiste en ir acumulando a través de la suma, los valores
absolutos o los porcentajes obtenidos para cada valor de la variable. ¿Cuál es la utilidad de las frecuencias acumuladas?
Permiten tomar decisiones para las operaciones de compactación o reducción de los valores de una variable en tanto
nos informan acerca de la cantidad de casos o el porcentaje de respuestas que pueden ser integrados en agrupamientos
más amplios. Además, si interesa formar grupos de comparación ex post facto, las frecuencias acumuladas nos permiten
reagrupar la información en rangos aproximados de partición.
ALGUNOS INTERROGANTES EN EL USO DE PORCENTAJES PARA EL ANALISIS UNIVARIADO
¿Cómo se computan las respuestas de casos perdidos en el cálculo de porcentajes para el análisis univariado? Uno de
los problemas muy comunes en el análisis de datos cuantitativos, especialmente aquellos provenientes de encuestas es
el tratamiento de los datos correspondientes a las categorías no sabe y no responde. En el caso de los cuestionarios
autoadministrados, el problema es mayor cuando el investigador se encuentra con que algunos sujetos no han
respondido nada, es decir que el ítem evaluado está en blanco.
Frente a esas situaciones ¿Cómo debe procederse en el análisis de las frecuencias relativas para cada variable? La regla
básica es que en el análisis univariado deben incluirse todas las frecuencias observadas. Es decir que además de la
información sobre cada categoría o valor de la variable, deben considerarse las respuestas en blanco y las respuestas al
ítem que suele incluirse en las encuestas de no sabe/no contesta. Por ello, la base de cálculo de la variable coincidirá con
el total de casos de la población o de la muestra de la que se han obtenido los datos, independientemente de cuantos
hayan respondido a la demanda de información de cada variable.
¿Por qué es importante esta información? Desde la función evaluativa de la información que es propia del análisis
univariado, la detección del nivel de respuesta a una variable es en sí mismo un dato relevante para la investigación.
Debemos recordar aquí que la forma de preguntar, la pertinencia de la indagación o el nivel de involucramiento personal
implicado en la respuesta, hacen que los sujetos respondan de un modo u otro, o no respondan.
La proporción de casos sin respuesta es un dato que el investigador debe considerar en tanto pone en cuestión la
validez del instrumento utilizado y, por lo tanto, obliga a tener ciertos recaudos posteriores en el análisis de la
información obtenida. Cuando la pérdida de información en una variable es importante, el investigador debe tener muy
buenos argumentos para incluirla en análisis subsiguientes ya que la información que va a utilizar puede estar sesgada.
Asimismo, está obligado a hacer un análisis de las principales características de los casos perdidos a fin de ponderar los
posibles sesgos que encuentra en la información.
¿Cómo se calculan los porcentajes en el caso de respuestas múltiples? Cuando en una investigación se permite que los
sujetos seleccionen varias alternativas de respuesta a una misma pregunta, suele plantearse el dilema de cómo debe
efectuarse el cálculo de proporciones ya que puede haber dos bases de cálculo diferentes. Por un lado pueden tomarse
los casos estudiados y por otro la cantidad de respuestas dada al estímulo.
¿Cómo se presenta la información expresada en porcentajes? Cuando se utilizan las calculadoras electrónicas para el
cálculo de porcentajes se obtiene una cifra que contiene más de veinte números decimales. Si como hemos dicho
previamente, la justificación de este recurso matemático es que su utilización permite simplificar la lectura y
comprensión de la información, el investigador debe decidir cuantos decimales incluirá. La primera regla que debe
atenderse es: respete los usos propios del campo disciplinar respecto a la inclusión de decimales.
LA PRESENTACIÓN DE LOS DATOS DE UNA DISTRIBUCIÓN DE FRECUENCIAS.
En estudios exploratorios y descriptivos es común presentar la información sobre cada una de las variables a fin de
caracterizar los principales atributos del objeto de estudio. Una de las decisiones problemáticas que suele plantearse a
los investigadores noveles es cómo presentar la información. La utilización de recursos informáticos facilita la
elaboración de cuadros, tablas y gráficos ofreciendo al investigador varias posibilidades diferentes. Generalmente la
lógica que predomina en este proceso decisorio suele estar orientado por criterios estéticos (que se vea bonito), por el
supuesto de que se debe presentar la misma información bajo diferentes formatos a fin de darle más entidad al trabajo
y muchas veces por la creencia de que el valor de un informe radica en su extensión por lo que para llenar páginas se
incluyen cuadros y gráficas cuyo contenido suele reproducirse en el análisis posterior.
1) La presentación de la información debe estar guiada por los siguientes criterios:
Economía: sólo se debe incluir alguno de los formatos de presentación ya que la información que contiene una tabla
o un gráfico son equivalentes. La redundancia de datos agobia al lector y muchas veces es un obstáculo para la
comprensión. Si la información es sencilla y puede ser descrita en un párrafo no es necesario exponer una tabla o un
gráfico.
Claridad: la información debe ser presentada de modo tal que permita una rápida comprensión de los datos y de su
significado.
Relevancia: se deben presentar solamente aquellos datos considerados relevantes para los propósitos y objetivos del
estudio y que tengan una directa relación con la sección en la que se exponen.
2) Cuando los datos que se presentan han sido obtenidos de una muestra no deben presentarse los valores de las
frecuencias absolutas. La tabla se arma entonces con los porcentajes que representan los valores de cada categoría y en
la línea de los totales de columna se agrega entre paréntesis la frecuencia de casos que se ha utilizado como base de
cálculo.
3) Si por alguna razón de interés se quisieran incorporar las cifras de las frecuencias absolutas y de los porcentajes
se recomienda la utilización de elementos paratextuales que permitan diferenciar la naturaleza de cada uno de los
datos.
OTROS RECURSOS PARA EL ANALISIS UNIVARIADO
Como se ha señalado previamente, el análisis de cada variable debe efectuarse cualquiera sea su nivel de medición. Sin
embargo, dado que cada nivel de medición posee propiedades aritméticas diferentes el investigador debe aplicar la
técnica de análisis adecuada. En este apartado se presentan los recursos analíticos más utilizados en la investigación,
ordenados según el nivel de medición de las variables. Dada la naturaleza de este libro de texto, no se indican los
fundamentos estadísticos, ni los procedimientos de análisis propios de cada técnica. No obstante es necesario que antes
de iniciar cualquier proceso de análisis de datos el investigador tenga claro cuál es el nivel de medición de cada una de
las variables relevadas para poder seleccionar la herramienta de análisis más apropiada y, si es necesario, pueda solicitar
ayuda y consejo a otros investigadores, tutores o profesores de estadística acerca de su utilización. Así como existen
recursos que ofrece la estadística, también las diferentes representaciones gráficas permiten tener una rápida visión de
la distribución de un conjunto de datos.
EL ANALISIS BIVARIADO: SUS ALCANCES Y FUNCIONES
Una vez que conocemos el potencial analítico de cada una de las variables podemos iniciar otra etapa conocida como
análisis bivariado. Como su nombre lo indica, se trata de descubrir y describir las relaciones entre dos variables.
La mayor parte de las investigaciones pretende describir los aspectos más relevantes de los fenómenos bajo estudio.
Todo tipo de fenómenos que podemos abordar como objeto de conocimiento no es unidimensional, sino que posee una
variedad de atributos que los constituyen como tal. Por ello, el trabajo científico busca dar cuenta de la
multidimensionalidad de los fenómenos a través del estudio de las relaciones y covariaciones que se producen entre
diferentes variables.
El análisis bivariado cumple varias funciones en el análisis de datos científicos. Como en todos los tipos de análisis de
información numérica, las posibilidades del análisis bivariado están en estrecha relación con el nivel de medición de los
datos. En principio, se pueden comparar dos variables que tengan diferentes niveles de medición, aunque la
introducción de variables de tipo nominal y ordinal limita la posibilidad de utilizar herramientas estadísticas más
avanzadas. De hecho, en el campo de la estadística se encuentran numerosos procedimientos que contribuyen al logro
de diferentes objetivos analíticos de relaciones entre variables, los cuales pueden consultarse en los manuales
especializados.
El concepto metodológico relaciones entre variables no debe limitarse a la noción de causalidad. En otras palabras, el
análisis bivariado no es sólo para establecer relaciones de causa-efecto entre dos variables ya que para poder sustentar
ese tipo de análisis se requieren datos de nivel intervalar o de razón y la aplicación de técnicas estadísticas avanzadas en
un marco de supuestos y condiciones metodológicas muy exigentes propias de los diseños experimentales. Para
comprender las diferentes posibilidades del análisis bivariado es necesario comprender que la noción relaciones entre
variables incluye formas de covariación, de asociación y de causalidad entre ellas.
El término covariación sugiere que puestas en relación dos variables se va a observar que cuando se modifica el valor
de una variable se van a observar variaciones en la segunda. En otras palabras, se habla de covariación cuando
conociendo la distribución de los valores de una variable en un grupo o población se observa una distribución u
ordenamiento similar de los datos en otra variable.
El término asociación alude a la presencia de una relación estadísticamente significativa entre dos variables. La
asociación es conocida en términos estadísticos como correlación, para cuyo análisis se cuenta con numerosas técnicas
que se engloban en la denominación métodos correlacionales. Estos son utilizados para determinar el grado de relación
entre dos variables en un mismo grupo o poblaciones. En un análisis de correlaciones sólo es posible establecer en qué
medida dos variables pueden estar relacionadas, especialmente a través de la determinación de la fuerza de esa
relación. De acuerdo al nivel de medición de las variables que se pretende relacionar, el investigador cuenta con
diferentes técnicas estadísticas para el análisis de correlaciones. En general, estas medidas permiten establecer tanto la
dirección de la relación como la intensidad o fuerza de la asociación. Lo que de ninguna manera permiten es inferir por
qué existe la relación entre variables o afirmar una relación de causalidad entre ellas. El análisis de correlación nos
permite saber que la variable A y B están relacionadas, cual es la dirección y la intensidad de la asociación, pero no
podremos afirmar que A es la causa de B, ni B de A. Puede ser que la relación encontrada obedezca a la presencia de
otra variable C.
Significatividad estadística: se refiere a que la relación entre las variables estudiadas no ocurre por casualidad o por
una combinación azarosa de los datos, sirio que estos expresan una relación "real".
El concepto de causalidad se utiliza para designar fenómenos de interacción de causa-efecto entre dos variables. La
causalidad puede considerarse como un cambio de sentido en una variable al ponerse en relación con otra. Como
señalamos anteriormente, para establecer la causalidad entre dos variables son necesarias una serie de condiciones,
entre ellas:
a) Que la variable causal o independiente ocurra o se presente antes que las variables explicadas (dependientes e
intervinientes).
b) Que se pueda establecer fehacientemente que el efecto ha sido producido por los factores causales y que no hayan
intervenido otros.
c) Que exista una relación estadísticamente significativa entre las variables estudiadas.
d) Que el diseño del estudio sea de tipo experimental, ya que son los únicos que permiten hacer inferencias sobre
causalidad.
El análisis de relaciones causales permite explicar no sólo cuál es la variable que "produce" transformaciones sobre
otra, sino también determinar la magnitud del cambio. La magnitud hace referencia a la posibilidad de predecir que el
cambio en una unidad de medida en la variable causal va a producir una X transformación en los valores de la variable
dependiente.
Funciones del análisis bivariado:
Describir conjuntamente los datos de dos variables.
Determinar la relación entre dos variables.
Establecer la magnitud de la relación entre las variables examinadas.
Analizar las relaciones entre varios atributos de una población muestral.
Comparar el comportamiento de diferentes grupos frente a la presencia de una misma variable.
Seleccionar variables que muestren relaciones significativas para efectuar otros análisis o ponerlas a prueba en
un experimento.
ACERCA DEL USO DE PORCENTAJES PARA EL ANALISIS DE RELACIONES.
Uno de los recursos analíticos más utilizados en la investigación emprendida por investigadores noveles es la utilización
de tablas de contingencia. Estas consisten en un cuadro que "relaciona dos o más factores entre sí" generalmente a
través del cálculo de porcentajes. Pese a que en la mayoría de los cursos de estadística universitaria se enseña a los
estudiantes otras técnicas estadísticas más refinadas para el análisis de relaciones entre variables, hay un claro
predominio del uso de las tablas de contingencia. En lo que sigue se desarrollan algunos criterios para la construcción y
lectura de la información obtenida a partir de esta técnica de análisis.
¿CÓMO SE CONSTRUYE UNA TABLA DE CONTINGENCIA?
En principio debemos decir que una tabla de contingencia no es otra cosa que un cuadro de doble entrada que
contiene la información sobre dos o más variables (para el análisis bivariado o multivariado, respectivamente) en la que
se registran las frecuencias absolutas de casos que presentan la misma combinación de atributos. Una vez que se
obtienen las frecuencias absolutas se efectúa el cálculo de las proporciones o porcentajes que informarán acerca de lo
que representan los valores de cada una de las celdas.
Variable dependiente: es la que se trata de explicar y se supone influida por otro factor o combinación de factores, o
que depende de él o es explicada por él. Sus categorías se indican en las filas del talón principal (Benson, 15).
Variable independiente: es el factor con el que se trata de explicar la variación de la variable dependiente. Sus
categorías se indican en las columnas.
Al elaborar tablas bivariadas la convención aceptada consiste en indicar la variable dependiente en las filas y la variable
independiente en las columnas. Luego se calculan los porcentajes para cada columna y se interpreta horizontalmente a
lo largo de las filas. La combinación de las categorías o valores de ambas variables se expresan en las celdas. Siempre
una tabla bivariada debe informar los totales de la columna, denominados marginales de columna. Por el contrario, los
totales de las filas -indicados en los marginales de fila- generalmente no se incluyen en el cuadro, a excepción de
aquellos destinados a la presentación general de la/s variable/s dependiente/s.
Una tabla-de contingencia es una herramienta para el análisis de datos cuantitativos que puede fundamentarse
apelando al concepto propuesto por Lazarsfeld (1984) de espacio de propiedades. Este autor propone que se considere
la disposición en un cuadro de individuos u objetos como un proceso similar a la localización de puntos en un espacio, es
decir que la tabla podría equipararse a una gráfica de dispersión en la que se distribuyen los valores de una población en
un plano delimitado por los valores posibles de la variable. El espacio de propiedades puede ser unidimensional,
bidimensional o multidimensional, según contenga información relativa a una variable, a dos variables o a más de dos
variables.
La noción de espacio de propiedades es útil para comprender que las representaciones gráficas no son otra cosa que
traducciones geométricas de los puntos aritméticos contenidos en los datos. Benson sostiene que "cada atributo o
propiedad que se ha de tabular exige una dimensión propia: cualquier variable o propiedad puede considerarse como un
eje en una graficación de n dimensiones. La colocación del individuo u objeto sobre ese eje se realiza situándolo en una
de las categorías, con escala o sin ella, en que el investigador haya dividido los datos vinculados con esa variable". Dicho
de otro modo, el espacio de propiedades se establece por el trazado de coordenadas, cada una de las cuales representa
una variable. Sobre el eje horizontal se representa la variable independiente mientras que en el vertical se colocan las
categorías de la variable dependiente. En el espacio gráfico definido por la intersección de ambas variables (si hablamos
de análisis bivariado) es posible distribuir todos los datos respectivos a ellas.
En otras palabras, un cuadro se define por una determinada cantidad de espacios, que resultan de la combinatoria de
valores de las diferentes categorías que se ponen en relación. Desde esa perspectiva, la información sobre cada uno de
los sujetos u objetos que hayan sido evaluados o medidos tiene que poder incluirse en alguna de las celdas del cuadro.
La cantidad de casos que quedan en cada una de las celdas representa la frecuencia con que en la población muestral se
han encontrado sujetos u objetos que poseen las mismas combinatorias entre las diferentes categorías de las variables
analizadas conjuntamente.
El espacio de propiedades de un cuadro se define por la multiplicación de las categorías de cada una de las variables
que se desea poner en relación. Dicho de otro modo, el espacio de propiedades revela las posibilidades de partición que
tienen los datos de una población muestral cuando se analizan conjuntamente dos o más variables. Mientras más celdas
tiene un cuadro, mayor deberá ser el tamaño de la muestra
PAUTAS PARA LA ELABORACION DE TABLAS BIVARIADAS.
La elaboración de un cuadro tiene como fin primordial transmitir información sobre un proceso o relación. Un cuadro
tiene que brindar la mayor cantidad posible de información de modo sintético, a la vez que expresa la organización
dispuesta por el autor en un ordenamiento significativo de los datos reunidos en el trabajo de campo.
En el apartado anterior se subrayó el carácter intencional que posee la construcción de un cuadro en tanto que
obedece a la intención del investigador de describir y mostrar las relaciones entre las variables que estudia orientado
por unos objetivos que guían el análisis. El cuadro es una herramienta para el análisis y, por lo tanto, su elaboración es
necesaria para poder interpretar los datos. Pero también, un cuadro es una herramienta que facilita la presentación y
comunicación de la información obtenida en el trabajo de campo y, por lo tanto, la mayor parte de las investigaciones
empíricas incluyen cuadros o tablas que cumplen una función de presentación de los datos a los potenciales lectores.
Por diferentes motivos, no todos los cuadros que se construyen en la fase de análisis e interpretación se incluyen luego
en un escrito científico.
Atendiendo a ambos fines, se pueden aportar una serie de convenciones que deben respetarse cuando se elabora un
cuadro o tabla de contingencia. En primer lugar, hay que diferenciar entre el cuerpo de la tabla (que contiene la
información en sí misma tal como se ha mostrado en el apartado anterior) y los elementos de presentación (que
contribuyen a la interpretación del contenido del cuadro).
Elementos de presentación del cuadro: cualquier cuadro que se presente en un escrito debe contar con un conjunto de
elementos que ofrecen información que contribuye a esclarecer el significado de los datos; alertar sobre aspectos
procedimentales o de manipulación de la información; indicar las fuentes de información utilizadas, etc. Entre los
elementos de presentación se destacan como necesarios:
Número del cuadro: debe identificarse de modo unívoco cada cuadro, sea mediante un número sólo o en
combinación con el del capítulo. El número correlativo facilita la búsqueda en el índice de cuadros que debe elaborarse
luego. En el caso de tesis o informes puede numerarse él cuadro de la siguiente manera: el primer número indica el
capítulo en el que se inserta el cuadro y el segundo número (separado por un punto) designa el orden correlativo del
cuadro en ese capítulo. (Ej. Cuadro 2.3., el primer número indica que ese cuadro pertenece al capítulo 2 y el segundo
número indica que es el tercero que se incluye en el mismo).
Título del cuadro: el título es la clave principal para entender el contenido de un cuadro. El lector debe comprender el
título sin tener que recurrir al texto. En la redacción del título es preferible que se mencione en primer lugar la variable
dependiente y luego la independiente o causal. De ese modo, en la presentación de cuadros relacionados entre sí
podrán exponerse las relaciones entre la variable dependiente y diferentes variables causales. Si el cuadro presenta más
de una variable causal, los autores sugieren, por razones de estilo, enumerarlas en orden inverso al de su aparición en el
cuadro. En ese caso, la redacción del título debe enlazar la variable dependiente con la independiente mediante la
preposición por y a esta con la siguiente variable independiente a través de la preposición según.
Notas al pie del cuadro: se utilizan para ofrecer al lector información adicional referida a aspectos particulares del
cuadro, tales como detalles sobre la categorización de las variables, el muestreo, el método y las unidades de medición
utilizadas o alguna indicación que facilite la comprensión de la información. Las notas al pie del cuadro sólo se justifican
en aquellos casos en que esa información sea necesaria para efectuar un adecuado análisis de ella. Estas notas al pie del
cuadro se deben escribir en un tipo de letra inferior al utilizado en el cuerpo de la tabla y se anotan debajo de ésta,
nunca dentro de ella. Si se realizan varias notas al pie del cuadro, cada una de ellas debe ir precedida por una letra
(subíndice) que también se debe incluir en el cuerpo del cuadro.
¿CÓMO SE ANALIZA E INTERPRETA LA INFORMACIÓN DE UNA TABLA BIVARIADA?
La regla habitual consiste en calcular los porcentajes en la dirección del factor explicativo o sea de la que se considera
variable independiente o causal. En cambio, la lectura de los datos contenidos en una tabla debe realizarse en forma
horizontal, es decir en la dirección de las filas.
El analista de una tabla tiene que comenzar con la lectura de los marginales de fila y de columnas, ya que esos serán
los valores de referencia en tanto indican las frecuencias absolutas y relativas que tiene en una población muestral cada
uno de los valores de las variables relacionadas.
La lectura de las celdas que componen el cuerpo de la tabla debe realizarse en forma horizontal, es decir comparando
los datos que aparecen en la fila. La comparación horizontal permite determinar la presencia o no de variaciones de
interés entre los datos que fueron ordenados en cada columna. Si los porcentajes en la fila no presentan variaciones
entre sí se puede establecer que esa categoría de la variable dependiente. no muestra cambios cuando es tabulada en
relación a la variable independiente. Si los datos de la fila muestran un gradiente en el que las proporciones aumentan o
disminuyen sucesivamente a través de las columnas, puede inferirse una posible asociación entre las variables
estudiadas. Los datos del marginal de fila sirven como valor de comparación ya que ellos muestran como es la
distribución de los valores de la variable dependiente para el total de la población. Si se compara el valor del marginal
con los valores de la fila y se observa que estos últimos son similares (con una variación porcentual de no más de 5
puntos) al del marginal, se puede establecer que la variable independiente no produce covariación sobre la
dependiente. Por el contrario, si la diferencia entre el marginal y las columnas presentan diferencias y estas entre sí, se
puede afirmar la presencia de una tendencia que muestra que ambas variables están relacionadas.
De la literatura metodológica puede extraerse dos claves que ayudan a revisar rápidamente la información de una
tabla bivariada. Cuando la tabla pone en relación variables dicotómicas (tablas 2 x 2) que tienen indicios de relación, se
encontrará que las celdas que aparecen en diagonal presentan valores similares cuyas proporciones se diferencian en
sentido inverso a los datos que aparecen en la otra diagonal.
Cuando se analiza una tabla bivariada que incluye variables no dicotómicas (2x3 o 2x4 o 3x3 o 6x5) se trata de
establecer si se presenta un gradiente en los datos de las filas y luego se debe comparar las variaciones entre las filas a
fin de establecer la dirección de la relación.
Pese a que las tablas de contingencia son útiles para establecer la presencia de relaciones entre variables y que las
claves de lectura que hemos ofrecido son útiles, se debe advertir que esta herramienta de análisis por sí misma no
ofrece garantías respecto a la comprobación de relaciones o la intensidad de la asociación de variables, sino que para
ello se tienen que utilizar otros recursos estadísticos. Las tablas de contingencia ayudan a comprender la tendencia de
las relaciones entre variables y la posibilidad de que entre ellas exista alguna forma de covariación o asociación. Si bien
son sumamente útiles en los estudios exploratorios, descriptivos y correlacionales, su utilización como herramienta de
análisis requiere mesura en la interpretación de la información que ofrece.
Los investigadores cuentan con los recursos de numerosas técnicas estadísticas para el análisis de relaciones, según el
nivel de medición de las variables que desean poner en relación. El siguiente cuadro ofrece una descripción sumaria de
ellas.
REDACCIÓN DE LOS RESULTADOS OBSERVADOS EN UNA TABLA
Los datos no sólo deben ser presentados en forma de tablas o gráficos, sino que deben ser descritos por el
investigador. No todos los datos que se obtienen en una investigación son sometidos a algún tratamiento analítico, ni
todos los datos que se analizan son incluidos en los informes de investigación. Por ello, la descripción de los resultados
de las tablas debe ser pertinente y responder a los propósitos informativos que el investigador propone para cada
sección que conforma la estructura del informe o de la tesis.
La presentación y exposición de los datos de una investigación debe responder a una secuencia expositiva que permita
a los lectores comprender cual es el sentido de una tabla en el contexto discursivo en que lo incluye. Esa secuencia
requiere ser establecida en función de los objetivos generales y específicos planteados, por lo que en la presentación
debe quedar explicitada la relación entre la información descrita y el objetivo respectivo.
El lector debe comprender las razones por las que el investigador ha incluido las tablas en determinadas partes del
texto, es decir debe ofrecérsele información contextual que ayude a comprender el sentido y alcance de los datos en el
marco de la exposición del informe de investigación. En este sentido, pueden plantearse dos preguntas que hay que
esclarecerle al lector potencial: ¿Por qué se elaboró el cuadro que se está presentando? ¿Qué motivos hay para incluirlo
en esa parte del texto? El investigador debe considerar estas preguntas para conducir la exposición de los datos de un
modo claro y sistemático.
Al lector también le interesará conocer qué representan los datos que se presentan en las tablas, para lo cual el
investigador debe explicitar el significado obvio (que pueden visualizarse en una lectura atenta de los datos) y el
significado intrínseco que poseen desde los supuestos teóricos asumidos por el estudio. Para la descripción de los datos
contenidos en la tabla se eligen aquellos más significativos para que el texto expositivo no sea redundante a nivel
informativo. De igual manera, si en el informe se incluye una tabla, no se incluye la representación gráfica de la misma
información.
No se debe repetir la información del cuadro, sino que debe recuperarse la información significativa que puede ser
presentada apelando a algunos recursos narrativos tales como:
Indicar la tendencia general que sugieren los datos. Recuerde que el análisis se focaliza sobre la variable dependiente
y por lo tanto tiene que describirse cual es su comportamiento cuando se la pone en relación con otras variables.
Efectuar comparaciones entre las categorías sin repetir los porcentajes. Para ello puede utilizarse proporciones
equivalentes que ilustran al lector y hacen más fluida la lectura. Decir que dos de cada diez estudiantes opina que la
educación recibida en la escuela a la que asistieron es regular, es equivalente a afirmar que la quinta parte de los
encuestados calificó como regular la educación recibida en la institución a la que asiste. Ambos enunciados se basan en
el 20 % de estudiantes de la muestra que eligió la opción regular en la pregunta respectiva.
Cuando se efectúan comparaciones entre datos dispuestos en columnas diferentes se deben respetar dos reglas:
El enunciado debe expresarse siempre en porcentajes o relaciones. En la lectura y descripción de un cuadro no se
vuelve a los valores absolutos.
El enunciado debe expresarse con los mismos términos que se hayan utilizado en los títulos de las columnas.
También tienen que enunciarse aquellos datos que resultan llamativos o disonantes en relación con la tendencia
general encontrada, ya que será necesario luego encontrar explicaciones adecuadas para ellos a través de hipótesis ad
hoc.
Es conveniente que luego de la descripción de los datos se formulen sintéticamente una serie de conclusiones
parciales en las que el investigador orienta al lector respecto al significado de esa información en el contexto de su
estudio. Estas conclusiones parciales no deben ser un resumen de la descripción, como muchas veces ocurre, sino que se
trata de breves interpretaciones que ayudan a esclarecer el significado de los datos.
La elaboración de un cuadro tiene como fin primordial transmitir información sobre un proceso o relación. Un cuadro
tiene que brindar la mayor cantidad posible de información de modo sintético, a la vez que expresa la organización
dispuesta por el autor en un ordenamiento significativo de los datos reunidos en el trabajo de campo.
La construcción de un cuadro obedece a la intención del investigador de describir y mostrar las relaciones entre las
variables que estudia orientado por unos objetivos que guian el análisis.
1. EL TEXTO CIENTÍFICO. ESTRUCTURA IMRYD. ASPECTOS FORMALES Y TÉCNICOS DE LA ESTRUCTURA. NORMAS APA.
LA ÉTICA CIENTÍFICA Y LA HONESTIDAD INTELECTUAL.
El texto científico.
Texto científico: Es un documento escrito que aborda conceptos, teorías o cualquier otro tema con base en
conocimiento científico a través del lenguaje científico.
Características:
- Claridad: a través de oraciones bien construidas y ordenadas,
- Precisión: evitando terminología ambigua y subjetividad,
- Verificabilidad: debiendo poderse comprobar en todo momento y lugar la veracidad de los enunciados del texto.
- Universalidad: mediante el empleo de términos científicos que posibiliten que los hechos tratados puedan ser
comprendidos en cualquier parte del mundo.
- Objetividad: dando primacía a los hechos y datos por sobre valoraciones subjetivas del autor.
Todo trabajo de investigación tiene una determinada estructura, una manera de disponer los elementos que componen
ese todo organizado. Las partes en que se subdivide no son fijas. De cualquier maneraes usual que posea:
a) Portada
b) Índice general
c) Lista de tablas y figuras
d) Introducción
e) Cuerpo
f) Conclusiones
g) Apéndice/s
h) Bibliografía
(En la última parte de la unidad, en el punto “partes y organización del trabajo de investigación” se explica cada una de
las partes).
Como vemos en el ejemplo, al tener una cita de menos de 40 palabras se debe insertar en el medio de nuestro texto. En
este caso tenemos una cita con énfasis en el autor, por lo tanto lo citamos primero con el apellido y el año del texto
citado seguido de una frase o palabra que vincule al autor con la cita, ej: afirma, concluye, nos dice, etc. Seguido de la
cita textual y finalmente entre paréntesis el numero de la pagina.
Elementos:
Apellido del autor: Solo el primer apellido o el apellido más conocido.
Como vemos en el ejemplo, al tener una cita de menos de 40 palabras se debe insertar en el medio de nuestro texto. En
este caso tenemos una cita con énfasis en el texto, por lo tanto lo citamos primero el texto entre comillas y después de
éste, apellido, año y pagina separados por comas y encerrador entre paréntesis; Se finaliza con un punto seguido.
Elementos:
Cita: Entre comillas dobles se transcribe el texto a citar.
Datos de la cita: Este elemento contiene primero el apellido del autor (el primero o más conocido), segundo el año en
que se publico el texto citado y tercero la pagina donde se encuentra el fragmento citado. Estos tres elementos se
separan por comas y se encierran entre paréntesis.
3. Cita textual de más de 40 palabras con énfasis en el autor:
Como vemos en el ejemplo, al tener una cita de más de 40 palabras se debe insertar aparte de nuestro texto y
con sangría (5 espacios). En este caso tenemos una cita con énfasis en el Autor, por lo tanto antes de comenzar la cita
ponemos el primer apellido del autor o el más conocido, seguido del año de la publicación entre paréntesis
y después una frase o palabra que vincule al autor con la cita, ej: afirma, concluye, nos dice, etc. Finalmente en
un párrafo aparte ponemos nuestra cita textual sin comillas, terminada con un punto y la pagina citada.
Elementos:
Apellido del autor: Solo el primer apellido o el apellido más conocido.
Año del texto citado: Entre paréntesis va el año en que se publico el texto citado.
Cita: sin comillas, en un párrafo aparte se transcribe el texto a citar, finaliza con punto.
Pagina: Al final de la cita, entre paréntesis, se pone la lapagina del libro o articulo que fue citado.
Nota: En el caso de que no se sepa la fecha en la que se publicó el texto se debe poner “s.f” en vez del año en la cita en
el texto. En la referencia en vez del año se debe poner “Sin fecha”.
4. Cita textual de más de 40 palabras con énfasis en el texto:
Como vemos en el ejemplo, al tener una cita de más de 40 palabras se debe insertar aparte de nuestro texto y
con sangría (5 espacios). En este caso tenemos una cita con énfasis en el texto, por lo tanto primero ponemos en
un párrafo aparte nuestra cita textual sin comillas, terminada con un punto y después de éste, apellido, año y pagina
separados por comas y encerrador entre paréntesis.
Elementos:
Cita: sin comillas, en un párrafo aparte se transcribe el texto a citar, finaliza con punto.
Datos de la cita: Este elemento contiene primero el apellido del autor (el primero o más conocido), segundo el año en
que se publico el texto citado y tercero la pagina donde se encuentra el fragmento citado. Estos tres elementos se
separan por comas y se encierran entre paréntesis.
Nota: En el caso de que no se sepa la fecha en la que se publicó el texto se debe poner “s.f” en vez del año en la cita en
el texto. En la referencia en vez del año se debe poner “Sin fecha”. Ejemplo:
(Gutierrez L. y Rojas C., s.f)
Es necesario agregar una cita de parafraseo cuando se dice una idea de un autor en palabras propias del escritor. Al igual
que las citas textuales, las citas de parafraseo son de 2 tipos dependiendo de su énfasis: basadas en el texto, basadas en
el autor.
Citas parafraseadas
Elementos:
Apellido del autor, seguido por coma y año de la publicación, todo esto entre paréntesis. Ejemplo: (Rojas, 2013)
1. Basadasen el texto:
el de quien presenta un informe ante la institución o empresa que lo a solicitado, es otro el caso, también, de quienes
realizan investigaciones y presentan trabajos para obtener algún grado académico o aprobar las materias de una carrera
universitaria. Estas circunstancias habrán de determinar el tipo específico de trabajo que se va a realizar encada ocasión
y la forma concreta que habrán de adoptar en consecuencia.
Para mayor claridad del lector, hemos creído oportuno incluir a continuación una breve caracterización de cada tipo de
trabajo científico. Describiremos brevemente lo que se entiende por cada una de las denominaciones más usuales,
advirtiendo, una vez más, que pueda existir variaciones – a veces significativas- según los usos prevalecientes en cada
institución o país. En todo caso, el lector interesado deberá consultar con las definiciones y normas específicas que
existen en el ámbito en que se desenvuelva, utilizando las siguientes informaciones solo como un punto de referencia de
índole general.
Informe de investigación. Es una denominación genérica que sirve simplemente para indicar que lo escrito es exposición
de una indagación científica ya realizada. En tal sentido, no permite abrir juicio acerca del carácter de la misma, de su
tipo de magnitud, ni de los propósitos a que se encamina. Puede ser por lo tanto un simple documento de trabajo donde
aparecer los resultados obtenidos en determinada fase de alguna investigación, el informe final o el producto de un
equipo parcial de trabajo.
El termino suele emplearse, pues, sin que se le asocien connotaciones más especificas, aunque en algunos casos se lo
limita para hacer referencia exclusivamente a investigaciones de campo, que utilizan datos primarios.
Papel de trabajo .Es otro nombre genérico que indica que lo escrito no es definitivo si no una elaboración modificable
que se somete a discusión. Se utiliza para guiar una discusión, de equipos de investigación, también como forma de ir
mostrando ante un tutor los avances realizados. Su contenido es obviamente muy variable, no tiene el rigor formal que
otros trabajos destinados a la edición o la discusión pública.
Monografías. Tiene la particularidad de versar sobre un tema único, bien delimitado y preciso. Resulta un escrito breve
en el que se prefiere sacrificar la extensión de los asuntos en beneficio de la profundidad. Para algunos es productos de
una investigación bibliográfica y no de campo, desde el punto de vista practico es habitual que la evaluación e los
estudiantes se realice por medio de monografías de temas discutidos el la actividad docente. Conviene agregar que, a
veces, se acepta que una monografía se desvíe un tanto del rigor normal de los trabajos científicos.
Desde el punto de vista de la presentación formal, las monografías son trabajos, donde se valora claramente la buena
organización y el uso de un aparato crítico bien estructurado.
Articulo científico. Es un trabajo relativamente breve-muchas veces monográficos en cuanto a su contenido- que se
destina a la publicación en revistas especializadas. Los consejos directivos o comités de las mismas suelen definir, con
bastante exactitud, las características de contenido y de forma de los escritos que aceptan o encargan. Un artículo
científico, debe ser cuidadosamente redactado, para evitar digresiones innecesarias, para lograr expresar de un modo
claro y sintético lo que pretende comunicar.
En muchas ocasiones los artículos científicos son síntesis de informes o tesis, puede ser mejor presentado ante un
determinada comunidad científica a partir de tal forma resumida que oriente así los esfuerzos de quienes puedan estar
interesados en consultar la obra original. La palabra inglesa paper tiene un sentido bastante semejante, aunque
ligeramente mas amplio, que el que atribuimos a esta denominación, pues ella incluye también a lo que se suele llamar
una ponencia. Los artículos científicos también se publican a veces como capítulos o partes independiente de ciertos
libros, en los que algún estudioso, que asume el papel de compilador reúne varios trabajos de autores diferentes pero
que tratan una materia común.
Ponencia. Es la comunicación escrita que una persona presenta ante algún evento de tipo científico: seminario,
congreso, simpósium. Los organizadores definen el carácter que habrán de tener las mismas. Suelen ser trabajos breves,
monográfico o no, que se destinan además a la lectura y discusión colectiva. Es usual que las mismas se limiten a una
extensión que varía entre diez y treinta páginas escritas a espacio doble. Su organización interna es generalmente
bastante libre y variada y en ellas no son tan decisivos los aspectos de forma.
Resulta importante tener en cuenta todo aquello que facilite la rápida y efectiva comunicación oral: redacción clara y
atractiva, apoyos audiovisuales.
Tesis. Por tesis, cuando nos referimos al uso original del término, una proposición que puede ser sostenida o
demostrada mediante pruebas y razonamientos apropiados. Por extensión, desde hace muchos siglos, se ha llamado así
a la exposición escrita que una persona presentaba ante una Universidad o colegio para obtener el título de doctor.
Actualmente se llama tesis al trabajo escrito que permite demostrar, a la conclusión de los estudios, que el graduando
amerita el grado académico al que aspira.
Trabajo de grado o trabajo especial de grado. Cumple con la misma función académica que una tesis pero sin que se le
exijan todos los atributos que a estas caracterizan.Suelen aceptar trabajos que no son claramente originales, que no
aportan conocimientos nuevos, o en los que el rigor metodológico no se lleva demasiado lejos. Suelen ser relativamente
amplios en sus dimensiones, superando con mucho las de las monografías y las tesinas, y desarrollando en sus páginas
algo más que resúmenes de ideas ajenas y opiniones personales.
Trabajo de ascenso. Muchas universidades poseen un sistema de ascenso para su personal académico según el cual
éstos sólo se obtienen si, además de otros requisitos, el profesor presenta un trabajo de cierta relevancia. Se exige que
los mismos posean rigor metodológico y que realicen una contribución al desarrollo de las ciencias, las humanidades o
las artes. Son generalmente trabajos extensos y bien documentados, comparables a tesis.
Ante-proyecto y proyecto de investigación. Se trata de documentos bastante diferentes, en esencia, de los descriptos
hasta aquí, en ellos no se presentan resultados, análisis o conclusiones, sino que se esbozan las líneas fundamentales de
actividades de investigación para desarrollar en un futuro. Por eso poseen una lógica interior y una estructura interna
peculiar.
Actualmente, en casi todas las circunstancias, no se concibe que pueda emprenderse una indagación científica de cierta
envergadura que no vaya precedida de un proyecto en el cual se expresen los antecedentes, los objetivos, los
fundamentos y las bases metodológicas de la misma.
Reseña. Es un escrito breve que intenta dar una visión panorámica y a la vez crítica de alguna obra. Es frecuente que en
revistas científicas aparezcan reseñas de libros de la especialidad, que ayudan a los lectores a conocer mejor las posibles
fuentes de información existentes. Las reseñas sirven para motivar el interés de las personas que se desenvuelven en un
área específica de estudio y para evaluar la calidad de los trabajos que van apareciendo ante el público. Generalmente,
la realizan personas especializadas, de bastante experiencia en la especialidad.
Ensayo. Obra relativamente libre en su estructura, en la que el autor expone razonadamente ideas y opiniones sin que,
sin embargo, se utilice plenamente una metodología científica. El término ensayo puede usarse de un modo bastante
impreciso y abarcante.
Resumen y también resumen analítico. Es un trabajo en que el investigador o un estudiante hace una síntesis – para sí-
y del modo en que le resulte más conveniente- de obras o informaciones que ha estudiado. Dado de que no se trata de
materiales destinados al público, los requisitos formales, dependen exclusivamente de las necesidades que el autor ha
definido por su cuenta.
Proyectos de investigación
LA NOCION DE PROYECTO:
Proyecto es un conjunto de actividades y acciones que se deben emprender, que no son actuaciones espontaneas, sino
ordenadas y articuladas, que combinan la utilización de diferentes tipos de recursos y que se orientan a la consecución de
un objetivo o resultado previamente fijado, se realizan en un tiempo y espacio determinado y se justifican por la
existencia de una situación o problema que se quiere modificar.
En el lenguaje corriente cuando hablamos de proyecto, aludimos al designio, propósito y pensamiento de hacer algo.
Consiste en la previsión, ordenamiento, premeditación que se hace para realizar algo o ejecutar una obra u operación.
En sentido técnico se trata de la ordenación de un conjunto de actividades que, combinando recursos humanos,
materiales, financieros y técnicos, se realizan con el propósito de conseguir un determinado objetivo o resultado. Estas
actividades se articulan, se interrelacionan y coordinan entre sí.
El propósito de todo proyecto es alcanzar un resultado (el cual se va a lograr con su realización) o un producto
(elemento material o de servicio que se genera para producir el efecto). Todo proyecto se realiza dentro de los límites
de un presupuesto y de un periodo.
“Es toda actividad o conjunto de actividades integrado de actividades dirigidas a alcanzar un objetivo específico y cuyas
características han sido previamente determinadas”. Planear significa o se relaciona con la predicción del futuro y un
plan se puede definir como “un curso de acción predeterminado”. Un proyecto es un plan para la ejecución de algo.
Proyecto de investigación científica:Es aquel con características de sistemático y creador y cuyo objetivo es el aumento
del acervo de conocimientos científicos tanto en la investigación básica y aplicada. El contenido de un proyecto de
investigación varía según se trate de una investigación técnica de las ciencias naturales o sociales. Un proyecto de
investigación es un procedimiento científico destinado a recabar información y formular hipótesis sobre un determinado
fenómeno social o científico.
Ej. De esquemas de proyecto:
- Título del proyecto
- Objetivos específicos
- Hipótesis y marco teórico
- Fuentes de información
- Metodología, técnicas de análisis utilizadas
- Bibliografía
- Cronograma, etapas del proyecto y duración
ORGANIZACIÓN Y COMPONENTES.
Todo proyecto comporta una serie de actividades de duración determinada. En ellos se combina la utilización de
recursos humanos, técnicos, financieros y materiales. Todo proyecto debe alcanzar productos y resultados, de acuerdo
con los objetivos previstos en su diseño y conceptualización. Para la elaboración de un proyecto, lo más importante es
concretar y precisar lo que se quiere realizar, hacer efectivas las decisiones tomadas y seguir cursos de acción que
conduzcan a la obtención de determinados resultados.
El proyecto debe contar con:
a) Una denominación del proyecto, indicando de una manera sintética y mediante un título, aquello que se quiere
hacer. Caracterizar, en pocas palabras, lo que quiere hacerse en el proyecto e indicar el organismo ejecutor y
patrocinante del mismo.
b) Las razones por las que se necesita realizar el proyecto, por que se hace, la razón de ser y origen del proyecto, es
decir, la fundamentación. Hay que presentar los criterios (argumentación lógica) y las razones que justifican la
realización del mismo.
c) Una finalidad, es decir, el impacto que se desea lograr, a que fin contribuirá el logro de los objetivos del
proyecto.
d) Un marco institucional, cuando se trate de un proyecto que se elabora dentro de una institución para ser
presentado en el seno de la misma, este punto se puede obviar, ya que la información pertinente sería conocida
por todos. Pero, cuando el proyecto se formula en una organización o institución que será responsable total o
parcialmente de la ejecución, pero éste será presentado para su eventual aprobación por otra entidad ajena a la
que formula el proyecto, conviene dedicar especial atención a este punto. Lo que se persigue en este punto es
informar clara y profundamente acerca de la institución, organización o agencia que será la responsable
fundamental de la planificación y ejecución del proyecto.
e) Objetivos, para que se hace, lo que se espera obtener del proyecto en caso de que tenga éxito. Es decir, se trata
de indicar el destino del proyecto o los efectos que se pretenden alcanzar con su realización. Conforman el
elemento fundamental, ya que expresan los logros definidos que se busca alcanzar. El objetivo principal, llamado
también objetivo general, es el propósito central del proyecto. Los objetivos específicos, inmediatos o
complementarios, son ulteriores especificaciones o pasos que hay que dar para alcanzar o consolidar el objetivo
general.
f) Debe establecer a quien va dirigido el proyecto, los beneficiarios directos, y a quienes afectara, los beneficiarios
indirectos.
g) Metas, cuanto se quiere hacer, los servicios que se prestaran y/o necesidades que se cubrirán. Las metas
operacionalizan los objetivos, estableciendo cuánto, cuándo y dónde se realizarán éstos. Para que los objetivos
adquieran un carácter operativo, hay que traducirlos en logros específicos, es decir, hay que indicar cuánto se
quiere lograr con la realización del proyecto.
h) Insumos, que son los recursos que se necesitan para obtener el producto y lograr el objetivo propuesto.
i) Las actividades, que son las acciones con que se generaran los productos, y como organizar y secuenciar esas
actividades.
j) Productos, lo que debe producir el proyecto para crear las condiciones básicas que permitan la consecución del
objetivo. Son los resultados específicos de las actividades realizadas a través del uso de insumos planificados. Los
productos son el primer nivel de resultados a los que se llega por el hecho de haber realizado con éxito las
actividades.
k) Organigrama, donde aparezca claramente señalado el proyecto dentro de la organización ejecutante y cómo se
inserta en la misma.
l) Manual de procedimientos, en el que se indica cómo desempeñar el trabajo y cuáles son las normas y
procedimientos de carácter técnico y administrativo que se han de seguir para llevar a cabo las actividades y
tareas. Como esto no se hace con mucha frecuencia, se puede elaborar, en su reemplazo, un protocolo de
actuación.
m) Funciones del personal del proyecto; esto es: quién es el responsable y de qué parte del trabajo. Deben estar
asignados los responsables y la estructura administrativa, es decir, quienes ejecutaran el proyecto.
n) Las modalidades de operación, es decir, como se ejecutara el proyecto.
o) Un calendario, que establezca en cuanto tiempo se obtendrán los productos y se lograran los objetivos
previstos.
p) Pre requisitos, que son los factores externos que deben existir para asegurar el éxito del proyecto.
q) Modalidades y mecanismos de coordinación del proyecto , tanto externa como interna.
r) Sistemas de evaluación interna y seguimiento , en cuanto a responsabilidades y funciones; incluyendo la
determinación de las formas y mecanismos de control operacional y supervisión técnica del personal.
s) Canales de información: a quién hay que informar, qué tipo de información se le debe facilitar, en qué soporte
(cara a cara, telefónico, por escrito, etc.), con qué objetivo (facilitar datos e información, consultar una toma de
decisiones, asesorar, informar acerca de las actividades realizadas, etc.), y con qué frecuencia (diaria, semanal,
quincenal, mensual, trimestral, anual).
t) Indicadores de evaluación del proyecto (cómo se medirá la progresión hacia las metas).
Existen tres formas principales de estructurar los proyectos desde el punto de vista organizativo y de gestión: funcional,
por proyecto y matricial; cada una de ellas con sus ventajas e inconvenientes. La recomendación básica es que, en cada
caso, se busque el tipo de organización que mejor se adapte a las circunstancias y características concretas del proyecto.
a) Organización funcional: Es cuando la gestión del proyecto se lleva a cabo dentro de un organismo ya existente y
en el que participan los funcionarios, profesionales y técnicos del mismo. La realización del proyecto es, en este
caso, una actividad más, dentro de las que ya está realizando esa unidad administrativa. Las ventajas son que
integra más adecuadamente el proyecto a los propósitos generales del organismo responsable y a sus objetivos
funcionales, y permite un mejor aprovechamiento de los recursos humanos del organismo. Las dificultades o
inconvenientes que se presentan son, que puede darse el caso de que se subordinen los objetivos del proyecto a
los del organismo, desvirtuándose los primeros. El proyecto no se concibe como unidad organizativa, sino como
"algo" dentro de una organización. El personal asignado al proyecto, si está realizando otras actividades dentro
del organismo, puede descuidar las que conciernen directamente al proyecto.
b) Organización por proyecto: consiste en crear una unidad administrativa/operativa para cada proyecto, que
desaparece cuando éste se termina. En este caso, existe un responsable general del proyecto y la unidad
organizativa se estructura de acuerdo con las necesidades de gestión y administración del proyecto. Las ventajas
son que las responsabilidades, al estar bien delimitadas, se concentran en la realización del proyecto, así se da
una mayor unidad de dirección y coordinación de actividades. Las dificultades e inconvenientes que pueden
presentarse son el riesgo de una utilización inadecuada de los recursos humanos, ya sea porque los técnicos se
contratan por más tiempo del necesario, o porque se duplican tareas de otras unidades administrativas.
c) Organización matricial: cada proyecto es dirigido por un director, pero el resto del personal pertenece a diversas
unidades administrativas del organismo responsable. Cada persona depende, en este caso, de una doble
jefatura: del director del organismo y del director del proyecto. Este último sólo tiene autoridad sobre los
técnicos, en los aspectos específicos del proyecto. Mediante este tipo de organización, se pretende contar con
las ventajas de las dos modalidades anteriores, al mismo tiempo que se procura atenuar las debilidades de
ambas, lo que no siempre se consigue. Las ventajas que se dan son una utilización más flexible de los recursos
humanos, se puede contar con mayor número y variedad de especialistas y la experiencia adquirida en la
realización de proyectos es una forma de mejorar la capacidad operativa del organismo. Las dificultades e
inconvenientes que pueden presentarse son la duplicación de mando conlleva un elevado riesgo de conflictos de
jefaturas y la dificultad de contar con los especialistas del organismo en tiempo oportuno y con la dedicación
adecuada.
Artículos científicos
ARTICULO CIENTIFICO “PAPER”: CARACTERISTICAS GENERALES Y ESTRUCTURA IMRyD.
Es un trabajo breve generalmente y monográfico en cuanto a su contenido que se destina a la publicación en revistas
especializadas. Los consejos directivos deciden las características de contenido y forma de los escritos que aceptan o
encargan. Un artículo científico, debe ser cuidadosamente redactado, para evitar digresiones innecesarias, para lograr
expresar de un modo claro y sintético lo que prende comunicar. En muchas ocasiones los artículos científicos son síntesis
de informes o tesis, puede ser mejor presentado ante una determinada comunidad científica a partir de tal forma
resumida que oriente así los esfuerzos de quienes están interesados en consultar la obra original. La palabra “PAPER”
tiene un sentido bastante semejante, aunque un poco más amplio, que el que le atribuimos a esta denominación, pues
ella también incluye a lo que se le suele llamar ponencia. Los artículos científicos también se publican a veces como
capítulos o partes independiente de ciertos libros, en los que algún estudioso, que asume el papel de compilador reúne
varios trabajos de autores diferentes pero que tratan una materia común.
Informan resultados parciales o totales. Son publicados en revistas científicas especializadas. Tienen una estructura
generalizada, aunque pueden tener ligeras variaciones que dependen de las normas de cada revista científica. En su
estructura utilizando normas APA encontramos:
a) Titulo;
b) Abstract (resumen): un resumen no mayor a 300 palabras donde se describe el artículo.
c) Palabras clave, de 3 a 6 palabras, sirven para los buscadores;
d) Contenido (IMRyD)
e) Referencias.
f) Apéndices.
IMRyD es un acrónimo de los términos que conforman el esqueleto del artículo científico. Su finalidad es que cualquier
lector con un conocimiento similar a los autores del informe, pueda repetir el experimento y lograr los mismos
resultados.
I - Introducción…… ¿Qué problema se estudia? Y porque se estudia. Antecedentes y justificación de la razón por la que
se abordó.
M- Métodos y materiales……. ¿cómo se estudia? ¿Qué pruebas y procedimientos realizamos? ¿Cómo y con qué
materiales se estudió el problema? Los procedimientos utilizados para resolver el problema y los materiales empleados
deben tener el suficiente detalle para que otros puedan repetir el experimento.
R- Resultado… ¿cuáles fueron los resultados de la investigación? Exhibir Datos generados por el trabajo
D- Discusión… ¿Qué significa lo descubierto, el hallazgo? Interpretar y relacionar con otros estudios, argumentar la
validez.
Tesinas
La tesina es una denominación no universalmente usada, que sirve para designar a trabajos de corta o mediana
extensión que son presentados para su correspondiente evaluación académica. Desde el punto de vista pedagógico,
cumple el mismo papel de las llamadas monografías: conocer los conocimientos y habilidades metodológicas de los
estudiantes respecto a un determinado tema por medio de una disertación escrita. Sus características específicas
dependen, pues, de lo que al respecto consideren conveniente los departamentos, cátedras y profesores de cada
asignatura.
Los requisitos formales para la presentación de proyectos (EN GENERAL) dependen de los criterios de la institución
receptora del proyecto. Esto mismo sucede con los artículos a ser publicados en revistas científicas.Los requisitos
formales mínimos que deben establecer las instituciones académicas o Revistas incluyen: a) Número de páginas-b) Tipo
y tamaño de la letra, márgenes y espacios.c) Ubicación de las notas y d) Manejo de las referencias bibliográficas.
Es indispensable adoptar criterios coherentes que deben ser mantenidos a lo largo de todo el trabajo.
No existe un único modelo formal de presentación de los trabajos. Se puede elegir entre diversos estilos.
Tipo y formato del papel: A4 blanco.
Márgenes: Superior-3 cm-Inferior 2 cm. Izquierdo: 3 cm- Derecho- 1 cm.
Interlineado: Sencillo- Doble. Alineación de texto: justificado.
Títulos y tipografía: Se recomienda utilizar la fuente Times New Roman, por su legibilidad y disponibilidad en
cualquier equipo.
Se cuentan todas las hojas excepto la Portada, aunque no todas llevan el número escrito.
Páginas sin número escrito:-Índices-Introducción (página inicial)-Capítulos (página inicial)-Conclusiones (página
inicial)-Bibliografía (página inicial)-Portadillas (de apéndice/s, de notas a los capítulos).
Citas textuales: Serán transcriptas en el mismo cuerpo de tipografía del texto entre comillas.Cita textual de tres
líneas o menos.
Tesis.
TESIS: Del vocablo griego thesis (“acción de poner”) “Acción de poner una doctrina, un principio, una proposición...”
Proposición, procedente del latín propositum que significa tema a debatir.
“disertación presentada para doctorarse. Obras destinadas a demostrar la verdad de una teoría”.
LODOL, ALDANA MELINA
SEMINARIO DE INVESTIGACION